Poco tiempo antes de que se celebren comicios legislativos en Estados Unidos, Facebook activó una unidad especial que centraliza todos sus esfuerzos para evitar la propagación de noticias falsas, como ocurrió en las presidenciales de 2016.

La War Room, como fue bautizada por la propia compañía, es una pequeña habitación que tiene su sede en Menlo Park, ubicado en California, Estados Unidos, en la que trabajan aproximadamente 30 personas responsables de coordinar a 20.000 empleados en todo el mundo.

«Durante los tres días previos a las elecciones legislativas, en esta sala se trabajará 24 horas seguidas», explicó un portavoz de la compañía en una rueda de prensa.

Los responsables de velar para que no se propaguen noticias falsas en Facebook trabajan literalmente codo con codo dadas las reducidas dimensiones de la cámara, que fue diseñada así para fomentar la comunicación continua e inmediata.

Frente a los responsables numerosas pantallas en las paredes y monitores muestran en tiempo real gráficos de tendencias sobre lo que se dice y se hace en la red social en todo el mundo, así como contenidos que son identificados como susceptibles de estar manipulados.

«Tener a todas estas personas juntas en una habitación nos ayuda a responder rápidamente a nuevas amenazas», aseguró  Katie Harbath, directora para Política Global y Diálogo con los Gobiernos. También explicó que desde allí se analizan contenidos de WhatsApp e Instagram.

La identificación de informaciones falsas o que inciten al odio se lleva a cabo de forma automatizada mediante inteligencia artificial para manipulaciones simples (spam, contenidos virales, etc.) o humana cuando son más sofisticadas.

Cada uno de los trabajadores en la sala de control representa a un equipo distinto de la compañía y entre todos ellos son responsables de coordinar a miles de empleados que se dedican a cuestiones relacionadas con la seguridad para la empresa en todo el planeta.

«Hace un año, teníamos a 10.000 personas que trabajaban en temas de seguridad. Ahora tenemos a 20.000», apuntó Samidh Chakrabarti, responsable de Compromiso Cívico.

Por el momento, el «War Room» de la red social, que está operativo desde septiembre, ya detectó un incremento de intentos de influir de forma ilegítima en las elecciones de EE UU tanto internos como foráneos, mayoritariamente provenientes de Irán y Rusia, aunque es algo que entraba dentro de lo esperado.

«De momento no hemos detectado nada anómalo», destacó Nathaniel Gleicher, jefe de Ciberseguridad, quien aseguró que un repunte como ese era previsible.

Desde el centro de control se llevan a cabo varias funciones, siendo la más visible de ellas la eliminación de cuentas falsas, es decir, de personas que se hacen pasar por quien no son para influir en otros.

La segunda misión es identificar y reducir la distribución de noticias falsas en la red, algo que se hace mediante la colaboración con entidades independientes responsables de determinar la veracidad de los contenidos.

Finalmente, desde el centro de control se identifica y suspende a aquellos usuarios considerados «actores malignos», que contribuyen a manipular el debate y confundir a los usuarios.

Facebook tiene la esperanza de poder evitar algo como lo que sucedió en 2016, año en que Donald Trump ganó la presidencia, cuando la eclosión de noticias falsas en la plataforma la situó en el centro de las críticas.


El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!