Gran angular

‘Aftenposten’ versus ‘Facebook’: Una controversia esclarecedora

cou_02_2017_debate_02.jpg

La histórica foto “El terror de la guerra” parcheada por el ilustrador noruego Inge Grodum con el logo de Facebook, en signo de protesta por la censura impuesta por esta plataforma. Kim Phuc Phan Thi, la “niña del napalm”, tenía entonces 9 años.
© Nick Ut / Sipa Press / Inge Grodum
El papel siempre en aumento de las redes sociales en la difusión de la información es preocupante y por varias razones. Espen Egil Hansen, del periódico noruego Aftenposten, y Richard Allan, de Facebook, pertenecen a universos diferentes, pero se enfrentan a idénticos desafíos.

Por Marina Yaloyan 

Es un símbolo de la fotografía de guerra: la imagen en blanco y negro del cuerpo desnudo de una niña de nueve años huyendo de las bombas, aullando, el rostro transido de dolor. Tomado en 1972 por el fotógrafo americano-vietnamita Nick Ut durante el ataque con napalm a un pueblo de Viet Nam, el cliché, titulado “El terror de la guerra” y distinguido con el premio Pulitzer, fue el centro de una polémica en 2016, al ser excluido de Facebook, que lo consideró “contenido inapropiado”.

“Escribí a Mark Zuckerberg para decirle que no me iba a someter a sus demandas”, recuerda Espen Egil Hansen, editor de Aftenposten, el mayor periódico noruego, que compartió el mensaje de Facebook y fue amenazado de exclusión definitiva. En la respuesta virulenta que publicó en la primera página de Aftenposten, Hansen acusó a Facebook de crear reglas que “no distinguen entre la pornografía infantil y fotografías de guerra famosas” y “no dejan margen alguno” para la discusión. Esta carta, que recibió un apoyo masivo, fue el punto de partida de un encendido debate sobre las complejas reglas de censura de Facebook y el control de contenidos por sus algoritmos que clasifican las noticias de actualidad.

Facebook, que ahora cuenta con unos 2.000 millones de usuarios en el mundo y atrae más tráfico hacia los sitios de medios que Google, se presenta como un verdadero protagonista de la difusión de información, aun cuando continúa sustrayéndose a toda responsabilidad, considerándose tan solo una “plataforma técnica”. En realidad, Facebook se ha convertido en el primer sitio mediático del mundo, lo que hace de Mark Zuckerberg, escribe Hansen, “el jefe de redacción más poderoso del mundo”.

“Le recordé a Zuckerberg que ese título implica responsabilidades. La compañía que dirige no es sólo tecnológica, es una empresa de medios de comunicación”. Por esa razón, Egil Hansen estima que censurar una imagen icónica del fotoperiodismo con el pretexto de la desnudez infantil es una mala decisión editorial. “Las imágenes que perturban pueden no agradar, pero en una sociedad democrática desempeñan un papel vital de sensibilización”, explica.

Millones de personas “postean”, es decir, publican diariamente contenidos en Facebook, por lo que es extremadamente difícil cualquier selección que contemple cada caso. Richard Allan, vicepresidente de políticas públicas para Europa, Medio Oriente y África de Facebook señala que las normas internas de la red prevén la señalización y eliminación de toda imagen de menores de 18 años que contenga desnudez. Sin embargo, admitió que en el caso de “El terror de la guerra”, esta política había fracasado.

En el simposio titulado “El periodismo bajo el fuego de las críticas”, organizado por la UNESCO en marzo de 2017, defendió la capacidad de adaptación de Facebook: “Que quede claro: nosotros nos cuestionamos en forma permanente. Cuando nos enfrentamos a una situación inesperada, pensamos en las soluciones posibles, entre ellas la de cambiar nuestras propias reglas”.

Para proporcionar mayor flexibilidad, Facebook ha adoptado un nuevo enfoque que requiere la contratación de un gran número de moderadores (la compañía anunció en mayo de 2017 que contrataría a 3.000 nuevos moderadores en refuerzo de los 4.500 que componen el equipo actual). Este enfoque tiene por objeto permitir un tratamiento especial de los artículos publicados en los medios de comunicación, considerados una excepción a los mensajes convencionales de Facebook. “El interés público de una foto de un niño desnudo y, en su caso, el consentimiento de la persona en cuestión, prevalecen sobre la política en vigor”, precisa Richard Allan.

El algoritmo, nuevo jefe de redacción mundial

En cuanto a opciones editoriales, la diferencia entre Facebook y los espacios de información tradicionales es mínima. “Al igual que el jefe de redacción de Fox News es responsable del contenido editorial de Fox News, Mark Zuckerberg responde por el contenido editorial de Facebook”, insiste Egil Hansen.

La única diferencia real entre los dos es la presencia del muy mal entendido y controvertido algoritmo de noticias: nada de ello existe en el periodismo clásico.

“Facebook quiere preservar su especificidad. Usted es su propio editor y es siempre usted quien elige qué quiere ver”, afirma Richard Allan. Sin embargo, los algoritmos continúan configurando los hábitos de lectura de 1.280 millones de usuarios cotidianos de Facebook, una quinta parte de la población mundial, según cifras de marzo de 2017. Oficialmente, la tarea del sitio consiste en examinar y analizar toda la información publicada por un usuario o usuaria durante la semana anterior, teniendo en cuenta todas las páginas que él o ella “likea”, de todos los grupos a los que él o ella pertenece y todos aquellos a los que él o ella sigue. Luego, utilizando una fórmula celosamente guardada y constantemente renovada, el algoritmo clasifica los mensajes en el orden preciso que estima que se corresponden con los centros de interés del usuario.

Pero, debido a su propia naturaleza, el algoritmo puede convertirse en un instrumento problemático, incluso peligroso. "Los algoritmos pueden crear las llamadas ‘burbujas de filtro’ que refuerzan una tendencia negativa de nuestro tiempo: crear comunidades cada vez más polarizadas”, explica Egil Hansen. “Somos cada vez más los que estamos atrapados en esas burbujas, donde obtenemos sólo la información que deseamos y donde sólo nos comunicamos con las personas que piensan como nosotros”. Desde esta perspectiva, los criterios de selección utilizados por el algoritmo para jerarquizar la información se convierten simplemente en cruciales.

Por su parte, Richard Allan compara el suministro de noticias con una suscripción a un periódico y niega la imposición de cualquier contenido a los lectores de Facebook. Según él, el algoritmo sólo proporciona una clasificación de títulos más cómoda para el lector. El reto, sin embargo, reside en el flujo de la gran cantidad de noticias disponibles. “Lo que vemos es que los usuarios se suscriben a un millar de corrientes diferentes, cuando en realidad únicamente tienen tiempo para leer una veintena, no más”, señala. “Pero el millar de flujos están todavía allí. Esto induce claramente a un proceso de selección, ya que tomamos los [contenidos] que se hallan en la parte superior de la pila”.

Privilegiar las informaciones preferidas de los lectores puede conducir a una pendiente resbaladiza. Para Egil Hansen “es una estrategia que tiene sus ventajas cuando se mira Netflix (el servicio de películas por encargo con sede en Estados Unidos)”, pero sigue siendo un “principio cuestionable en cuanto a la libre circulación de información en el seno de una sociedad”.

Árbitros de la verdad

 

En un tono positivo, cabe reconocer que las redes sociales derriban barreras y facilitan la expresión de todo el mundo. “Cuando escribí a Mark Zuckerberg, mi carta era sólo un pequeño artículo publicado en un pequeño país, pero su contenido se propagó en un instante. Ironía del destino, es a Facebook a quien debo toda esa audiencia”, admite el periodista noruego, cuyo diario tiene, de por sí, 340.000 seguidores en esa red social. Pero reconoce de inmediato que la posibilidad de que cada uno publique información es un arma de doble filo que puede conducir a la desinformación. “A todas luces, hoy se ha vuelto mucho más fácil engañar a poblaciones enteras. Me pregunto si, como sociedad, estamos realmente preparados para el mañana preocupante que tenemos por delante”, se alarma.

Entre la serie de escándalos que afectó a Facebook en 2016, la compañía fue acusada de influir en la elección presidencial de Estados Unidos mediante la difusión de informaciones falsas y la creación de “burbujas de filtro” que impedían a los electores acceder a opiniones que difirieran de las propias. En total, según un análisis, las informaciones falsas concernientes únicamente a la política estadounidense representaron 10,6 millones de los 21,5 millones de posteos “compartidos”, reacciones y comentarios que estos artículos en inglés provocaron en Facebook ese año. Y en sólo dos meses, un bulo sobre Barack Obama, el ex presidente de Estados Unidos, generó más de 2,1 millones de comentarios, reacciones y “shares”.

No es de extrañar que para silenciar las críticas, Facebook haya puesto en marcha un programa de verificación de datos con finalidad correctiva: a partir de mayo de 2017, los artículos publicados por los usuarios que parezcan poco fiables deben ser revisados por expertos y etiquetados como “contenido controvertido”. “No vamos a suprimirlos. Por un lado, no queremos convertirnos en árbitros de la verdad y editar los contenidos. Por otro lado, buscamos construir una comunidad informada, porque somos responsables con nuestra sociedad”, dice Richard Allan.

Egil Hansen acoge este reconocimiento como esencial. Se congratula por las mejoras positivas hechas por Facebook desde la enorme audiencia cosechada por su primera carta. “Mark Zuckerberg dio una entrevista al New York Times en la que indicó que la controversia en torno a la carta le abrió los ojos y le hizo darse cuenta de la necesidad de cambiar el funcionamiento de Facebook”, dice Hansen.

Esta toma de conciencia y estas medidas prometen ser fundamentales, dado el enorme impacto de las redes sociales sobre los medios de comunicación tradicionales y la capacidad de penetración cada vez mayor que tienen en nuestra vida diaria.

 

Carta abierta con efecto de electrochoque 

“(...) Mira, Mark, ¡esto es serio! En primer lugar, creas reglas que no hacen ninguna distinción entre la pornografía infantil y famosas fotografías de guerra. A continuación, las aplicas sin dejar espacio alguno para la reflexión. Y, por último, no dudas en censurar la crítica y el debate en torno a esta decisión, y castigas a quien se atreve a alzar la voz para criticarte (...).

Los medios libres e independientes desempeñan un papel importante en la publicación de informaciones, incluyendo imágenes que a veces pueden ser perturbadoras, y que la élite gobernante, e incluso los ciudadanos de a pie, no quieren ver ni oír, pero que precisamente por esa razón pueden ser importantes (...).

Los medios de comunicación tienen la responsabilidad de reflexionar sobre lo que publican, caso por caso. A veces es una gran responsabilidad. Cada redactor debe sopesar los pros y los contras. Este derecho y este deber, que poseen todos los periodistas del mundo, no debería ser socavado por algoritmos codificados en tu oficina de California.

Oficialmente, Facebook se dio por misión ‘hacer el mundo más abierto y conectado’. En realidad, esto lo haces de manera totalmente superficial. Si no quieres hacer ninguna distinción entre pornografía infantil y fotografías documentales tomadas durante un conflicto, esto simplemente promoverá la estupidez y el fracaso en la tarea de conectar a los seres humanos.

Pretender que es posible crear normas comunes y universales sobre lo que puede y no puede publicarse es una mera ilusión (...)”.

(Fragmentos de la carta abierta de Espen Egil Hansen a Mark Zuckerberg, publicada el 8 de septiembre de 2016 en primera plana del diario Aftenposten).