Portada / Recursos para periodistas / Documentación / Facebook al descubierto: el reglamento interno sobre sexo, terrorismo y violencia

Facebook al descubierto: el reglamento interno sobre sexo, terrorismo y violencia

Publicado por Nick Hopkins, en The Guardian, el 1 de mayo de 2017.

Las políticas internas para guiar a los moderadores sobre qué contenido permitir pueden avivar el debate sobre la ética de los gigantes mediáticos.

La normativa secreta y directrices de Facebook para decidir lo que dos billones de usuarios pueden publicar en la plataforma han sido reveladas por una investigación de The Guardian y avivarán el debate global sobre el papel y ética del gigante de las redes sociales.

The Guardian ha examinado más de 100 manuales de formación interna, hojas de cálculo y flujogramas que aportan una visión sin precedentes de los planes de acción que Facebook ha utilizado para moderar cuestiones como la violencia, el discurso de odio, la pornografía y las autolesiones. Hay incluso directrices sobre regulación de apuestas y canibalismo.

Los archivos de Facebook dan la primera visión de los códigos y directrices formulados por la plataforma, que se encuentra bajo una presión política gigante en Estados Unidos y Europa.

Esos códigos ilustran las dificultades con las que se encuentran los ejecutivos que andan buscando cómo reaccionar ante retos como la “porno-venganza”, y  los desafíos para moderadores que dicen estar desbordados por el volumen de trabajo lo que significa que a menudo solo disponen de “diez segundos” para tomar una decisión.

“Facebook no puede controlar su contenido”, ha declarado una fuente, “Ha crecido demasiado y demasiado rápido.”

Se dice que muchos moderadores están preocupados por la inconsistencia y peculiar naturaleza de algunas políticas. Las que versan sobre contenido sexual, por ejemplo, son las que parecen resultarles más complejas y confusas.

Un documento dice que Facebook revisa semanalmente más de 6,5 millones de perfiles relacionados con cuentas potencialmente falsas, también conocidas como FNRP (Fake, Not Real Person).

A través de miles de diapositivas e imágenes, Facebook emite directrices que preocuparían a aquellos críticos que dicen que el servicio es ahora una editorial y debe hacer algo más para eliminar contenido odioso, dañino y violento.

Sin embargo, estos planes de acción pueden alarmar a los defensores de la libertad de expresión preocupados por el papel de facto de Facebook como el mayor censor del mundo. Ambas partes son susceptibles de exigir mayor transparencia.

The Guardian ha accedido a documentos facilitados por moderadores de Facebook en el último año. Los archivos indican:

  • Comentarios como “alguien ha disparado a Trump” deben ser eliminados, porque como jefe de Estado se encuentra en una categoría protegida. Pero sí se permite decir: “Para romperle la cabeza a una prostituta, asegúrate de darle con todas tus fuerzas en mitad de la garganta”, o “Jódete y muérete” porque no están consideradas amenazas creíbles.
  • Vídeos de muertes violentas: aunque sí son clasificados como perturbadores, no siempre son eliminados porque pueden ayudar a sensibilizar sobre asuntos como las enfermedades mentales.
  • Algunas imágenes de abuso no sexual y acoso a menores no tienen por qué ser eliminadas, ni se toma una acción al respecto, a menos que exista un elemento sádico o festivo.
  • Las imágenes de maltrato animal serían compartidas, y muy pocos tipos de imágenes serían clasificadas como “perturbadoras”.
  • Toda expresión de arte “casero” en la que aparezcan desnudos o actividad sexual está permitida, pero el arte digital que muestre actividad sexual no lo está.
  • Los vídeos de abortos están permitidos, siempre y cuando no aparezcan cuerpos desnudos.
  • Facebook permite al público transmitir en directo tentativas de autolesiones porque “no quiere censurar ni castigar a personas disgustadas”.
  • Cualquiera usuario que tenga más de 100.000 seguidores en una red social es considerado figura pública, lo que le deja sin la protección de la que disfrutan individuos particulares.

Otro tipo de comentarios permitidos por estos documentos son: “Niña pequeña necesita callarse antes de que papaíto le rompa la cara,” y “Espero que alguien te mate.” Estas amenazas son consideradas genéricas o no creíbles.

En uno de los documentos filtrados, Facebook reconoce que “la gente utiliza un lenguaje violento para expresar frustración en la red” y siente “que están a salvo” en la plataforma: “Sienten que el problema no se va a volver contra ellos, y sienten indiferencia hacia la persona sobre la que vierten las amenazas por la falta de empatía promovida por la comunicación vía dispositivos y no cara a cara.”

“Podemos decir que la violencia verbal a menudo no es creíble hasta que una especificidad en el lenguaje nos dé un fundamento razonable para aceptar que ya no se trata simplemente de una expresión emocional sino de una transición al diseño de un plan. Desde esta perspectiva expresiones como ´Te voy a matar´ o ´que te den y muérete´ no son creíbles y se trata de una expresión violenta de disgusto y frustración.”

Añade: “La gente a menudo expresa desprecio o desacuerdo amenazando o llamando a la violencia generalmente de forma jocosa y no seria.”

Facebook admite que “no todo el contenido desagradable o inquietante viola nuestras normas comunitarias”.

Monika Bickert, jefa de gestión de políticas globales de Facebook, ha declarado que el servicio cuenta con dos billones de usuarios y que es difícil alcanzar un consenso de permisividad.

“Tenemos una comunidad global diversa y la gente tiene ideas muy distintas sobre lo que se debe o no compartir. No importa en qué lugar se trace la línea porque siempre habrá zonas grises. Por ejemplo, la línea entre sátira y humor y contenido inapropiado resulta a veces muy gris. Es muy difícil decidir si algunas cosas pertenecen o no a la página,” ha dicho.

“Nos sentimos responsables de que nuestra comunidad esté a salvo y de responder.  Es nuestra responsabilidad absoluta y prioritaria.  Es un compromiso de la empresa. Seguiremos invirtiendo para mantener a salvo la plataforma, pero también queremos empoderar a la gente para que denuncie cualquier contenido que infrinja nuestras normas.”

Considera que algunos comentarios ofensivos pueden violar políticas de Facebook en algunos contextos, pero en otros no.

Los reglamentos filtrados de Facebook en temas que tienen que ver con muertes violentas, imágenes de abuso no sexual a menores y maltrato animal demuestran que la plataforma intenta navegar por un campo de minas.

Los archivos dicen: “Los vídeos de muertes violentas son inquietantes, pero pueden ayudar a crear conciencia. En cuanto a los vídeos, creemos que los menores necesitan protección y los adultos elección. Marcamos como “perturbadores” los vídeos de muertes violentas de seres humanos.”

Este material estaría “escondido para los menores” pero no automáticamente eliminado porque “podría ser valioso para la sensibilización sobre el sufrimiento derivado de la autolesión o de crímenes de guerra entre otros temas importantes”.

En relación al abuso no sexual de menores, Facebook dice: “No tomamos medidas con las imágenes de abusos a menores.  Clasificamos como perturbadores los vídeos sobre abusos a menores. Eliminamos imágenes de abusos a menores si son compartidas de manera sádica y festiva.”

 

Una diapositiva explica por qué Facebook no elimina automáticamente evidencias de abusos no sexuales a menores para permitir que el contenido sea compartido y “el menor pueda ser identificado y rescatado, pero añadimos protección para proteger a la audiencia”. Esto se haría advirtiendo en un vídeo de que su contenido pueda resultar perturbador.

Facebook confirma que hay “algunas situaciones en las que permitimos imágenes de abusos no sexuales a menores con el propósito de ayudar al menor”.

Sus normas en cuanto al abuso animal también son descritas, en una diapositiva dice: “Permitimos imágenes y vídeos que documenten el abuso animal, pero se añadiría una protección al espectador en algunos contenidos que sean percibidos como extremadamente perturbadores por la audiencia.

Generalmente, las imágenes de abuso animal serían compartidas en la plataforma. Algunas imágenes extremadamente perturbadoras serían marcadas como perturbadoras.”

Imágenes de mutilación animal, incluyendo algunas que muestran tortura, serían clasificadas como perturbadoras preferiblemente, y no eliminadas. Los moderadores dejarían imágenes de abusos en los que un humano patea o pega a un animal.

Facebook dice: “Permitimos que la gente comparta imágenes de abuso animal para sensibilizar y condenar el abuso, pero eliminamos el contenido si celebra la crueldad contra los animales.”

Los archivos muestran que Facebook ha emitido nuevas pautas sobre desnudos después de que el año pasado se generase un clamor tras la eliminación de una imagen icónica de la guerra de Vietnam porque la niña que en ella aparecía estaba desnuda.

Ahora permite “excepciones de interés informativo” entre sus directrices en el apartado “terror de guerra”, pero traza una frontera en “desnudos infantiles en el contexto del Holocausto”.

Facebook ha informado a The Guardian de la utilización de un software para interceptar contenido gráfico antes de que éste sea publicado, pero que “queremos que la gente debata sobre acontecimientos globales y de actualidad… así que el contexto en el que una imagen violenta es compartida importa”.

Algunas voces críticas en Estados Unidos y Europa han exigido que la empresa sea regulada como se regulan las emisoras y editoriales convencionales.

Pero Bicket alegó que Facebook es “una nueva forma de empresa. No es una compañía de tecnología tradicional. Ni una compañía mediática tradicional. Construimos tecnología y nos sentimos responsables de cómo es usada. No escribimos las novedades que la gente lee en la plataforma.”

Un informe de miembros del Parlamento británico publicado el 1 de mayo decía que “las compañías de redes sociales más grandes y ricas están vergonzosamente lejos de tomar medidas suficientes para abordar el contenido ilegal y peligroso, implementar normas comunitarias adecuadas y proteger a sus usuarios”.

Según Sarah T. Roberts, una experta en moderar contenidos: “Una cosa es ser una empresa cibernética pequeña formada por un grupo de personas que comparten principios y valores, pero cuando tienes un importante porcentaje de la población mundial y dices ´compártete´, te encontrarás ante una enorme confusión”.

“Luego, si además monetizas esa práctica, entrarás en una situación desastrosa.”

Facebook ha luchado constantemente por evaluar las noticas o el valor de “concienciación” de las imágenes violentas. Mientras que recientemente la compañía se ha enfrentado a duras críticas por no eliminar el vídeo de Robert Godwin siendo asesinado en Estados Unidos y el de un padre matando a su hijo en Tailandia, la plataforma también ha jugado un papel importante en la propagación de vídeos de asesinatos perpetrados por fuerzas de seguridad y otros abusos gubernamentales.

En 2016, Facebook eliminó un vídeo que mostraba las consecuencias inmediatas del tiroteo policial mortal de Philando Castile pero inmediatamente lo volvió a reponer diciendo que había sido un “error”.

 

Te puede interesar también:

“Los malos a mí no me llaman por mi nombre, me dicen moro todo el día”: una aproximación etnográfica sobre alteridad e identidad en alumnado inmigrante musulmán

Artículo de Antonia Olmos Alcaraz publicado en Empiria. Revista De metodología De Ciencias Sociales, (38), 85–107 En …

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *