Los robots de Facebook convierten en tendencia las noticias falsas

El incidente de Megyn Kelly se suponía que era una anomalía. Un evento desafortunado de una sola vez. Un poco de (muy embarazosa y pública) mala suerte. Sin embargo, en las seis semanas desde que Facebook renovó su sistema de tendencias, el sitio ha promovido repetidamente “noticias” que en realidad son ficción.

Como parte de una auditoría más amplia de los temas en tendencia de Facebook, “The Intersect­” registró cada noticia que apareció a través de cuatro cuentas, entre el 31 de agosto y el 22 de septiembre de este año. Durante ese tiempo, descubrimos cinco historias que eran indiscutiblemente falsas y que tres fueron profundamente incorrectas. Además de eso, encontramos que los comunicados de prensa, publicaciones de blog de sitios como Medium y enlaces a tiendas online como iTunes, fueron tendencia con regularidad. Facebook declinó hacer comentarios sobre este tema.

“No me sorprende en absoluto la cantidad de historias falsas que se han mostrado como tendencia”, dijo a The Washington Post un exmiembro del equipo que trabajaba supervisando este servicio de Facebook. “Era más que predecible para cualquiera que pasara tiempo con la funcionalidad real del producto, no sólo con el código”.

(El miembro del equipo, que había firmado un acuerdo de confidencialidad con Facebook, habló en condición de anonimato).

Nuestros resultados no deben­ tomarse como concluyentes: debido­ a que Facebook personaliza sus tendencias para cada usuario, y nuestro seguimiento de los resultados sólo se realizó durante las horas de trabajo, no hay garantía de que dimos con el hilo negro. Pero la observación de que Facebook periódicamente arroja como tendencia noticias falsas sigue en pie. En todo caso, hemos subestimado la frecuencia­ con la que se produce.

Está el caso de una historia de origen dudoso, el 31 de agosto, un administrador de la Universidad de Clemson, sacó a patadas de la escuela a un hombre por orar. (La historia, compilada por un portal de derecha, ha sido profundamente desacreditada por la universidad).

A la semana siguiente, el 8 de septiembre, Facebook promovió una cuenta con las nuevas y literalmente mágicas características del iPhone, que provienen del sitio Faking News, el cual forma parte de la página de noticias, Firstpost. Un día después, Facebook lanzó un comunicado de la Association­ of American Physicians and Surgeons ­,una organización médica desacreditada; así como una historia de un tabloide alegando que los ataques del 11 de septiembre fueron una “demolición controlada”.

Sin embargo, si los usuarios pensaban que la indignación por el 9/11 llevarían a alguna reforma en las tendencias de Facebook, estaban equivocados: en menos de una semana, Facebook impulsó una historia sobre los Buffalo Bills desde el sitio satírico SportsPickle.

“Me gustaría decir que esperaba más de Facebook en la defensa de la verdad de informar a la ciudadanía”, dijo DJ Gallo, fundador y editor de SportsPickle. “Pero creo que hemos visto con esta elección que gran parte de lo que se publica en Facebook —y todos los medios de comunicación social— no es exacto”.

La función de Tendencias de Facebook se supone que deben servir como una imagen instantánea de las noticias más importantes y más discutidas del día, lo cual es posible gracias a una combinación de algoritmos­ y un equipo de editores. Un algoritmo revela temas inusualmente populares, los humanos los examinan y los curan, y otro algoritmo publica las historias aprobadas a las personas para quienes será interesante.

Sin alguna pieza de ese proceso, la función no sirve muy bien —una observación fácilmente ilustrada por un producto de Facebook­ llamado Signal, que muestra los temas populares antes y después de que se aprueben. La lista es demasiado larga, y es difícil ver cómo cualquiera de los temas podría ser relevante; la lista previa es un mar indescifrable de memes, equipos deportivos y conspiraciones.

Sin embargo,en mayo Facebook se enfrentó a un torrente de acusaciones de alto perfil sobre el sesgo político en el equipo editorial de Tendencias, tanto así que en el período posterior, la empresa decidió modificar el papel de los humanos en la aprobación de temas de actualidad. El 26 de agosto la red social despidió a su equipo editorial y dio a los ingenieros que los reemplazaron un mandato diferente a la hora de investigar los antecedentes de una noticia. A los editores se les dijo que verificaran de forma independiente los temas sugeridos por el algoritmo­, incluso por referencias cruzadas en “Google News y otras fuentes de noticias”.

A los ingenieros se les pidió que aceptaran todos los temas vinculados a tres o más artículos recientes de cualquier fuente o relacionados a cualquier artículo con al menos cinco posteos.

El equipo de redacción anterior también podía influir en cuáles de las noticias se muestran con cada tema, rechazando las historias marcadas por el algoritmo “parcial”, “clickbait” o “irrelevante”. El equipo de control de calidad no veta las direcciones URL.

Con un estándar de calidad tan bajo, es casi garantizado que se permitirán hasta rumores sobre Megyn Kelly y el anuncio de la Tercera Guerra Mundial. Facebook admitió en una declaración durante las secuelas de Kelly, que la historia “reunió las condiciones para la aceptación en el momento, porque no había un número suficiente de artículos pertinentes”.

“Al volver a revisarlo”, expresó en el comunicado, “el tema fue considerado incorrecto”.

Aunque estas directrices de análisis parecen ser las culpables, Facebook no ha mencionado ningún plan para cambiarlas. La página sostiene que su problema de noticias falsas puede ser resuelto por algoritmos mejores y más robustos.

En una conferencia reciente, Adam Mosseri, vicepresidente de Gestión de Productos de Facebook­, indicó que se está trabajando en añadir tecnologías que filtren automáticamente farsas y parodias en el algoritmo.

Otra solución podría ser como el sistema que Google News utiliza para clasificar las principales noticias, que le da a los editores los medios para marcar el contenido notable. Vale la pena señalar, por supuesto, que incluso Google News ha sido engañado antes.

Todas las plataformas sociales, no sólo Facebook, hacen frente a la tarea compleja y abrumadora de identificar fraudes y otros tipos de información errónea.

Aun así, Facebook es un caso especial: alrededor de 40% de todos los adultos estadounidenses entrará a esta plataforma para consumir noticias, lo que, a pesar de la insistencia de su CEO, Mark Zuckerberg, de que

Facebook “no es una compañía de medios”, hace que su manejo de algunos de sus productos, como su sistema de tendencias, sea realmente importante.

Walter Quattrociocchi, un científico computacional italiano que estudia la propagación de información errónea en línea, señala que Facebook es un ambiente propicio para engaños y conspiraciones. Sus usuarios tienden a agruparse en burbujas de ideas afines, y reciben noticias altamente personalizadas y por medio de servicios como éste. Cuando Facebook inyecta selectivamente noticias falsas en las dietas de noticias altamente personalizadas, dice Quattrociocchi, corre el riesgo de seguir polarizando y alienando a sus usuarios.

“Esto se está convirtiendo en una caja de Pandora”, dijo.

Y Facebook no ha encontrado la manera de cerrarla.

fuente: El Economista