A falta de menos de un mes para las elecciones legislativas en Estados Unidos, la red social Facebook abrió en su sede de Menlo Park (California) una unidad de control que centraliza su lucha contra la propagación de noticias falsas, como ocurrió en las presidenciales de 2016.
Facebook instaló este “cuarto de guerra” en una oficina en la que trabajan a diario entre 20 y 30 personas responsables de coordinar a 20.000 empleados en todo el mundo, entre ellos los que comenzaron a trabajar en Brasil antes de las elecciones presidenciales del 7 de octubre en ese país.
“Durante los tres días previos a las elecciones legislativas, en esta sala se trabajará 24 horas seguidas”, explicó un vocero de la compañía en una visita organizada para un grupo de medios, apuntó la agencia Efe.
Los encargados de impedir que se propaguen noticias falsas trabajan “codo con codo, dadas las reducidas dimensiones” de la oficina, algo hecho a propósito “para fomentar la comunicación continua e inmediata” entre ellos, destacó.
Tener a todas estas personas juntas en una habitación nos ayuda a responder rápidamente a nuevas amenazas”, aseguró la directora de la empresa para Política Global y Diálogo con los Gobiernos, Katie Harbath.
Desde la misma oficina también se controlan contenidos de Instagram y WhatsApp, ambas propiedad de Facebook.
Con esta unidad, Facebook espera poder evitar lo sucedido en 2016 -año en que Donald Trump ganó la Presidencia de Estados Unidos-, cuando la eclosión de noticias falsas en la plataforma la situó en el centro de duras críticas.
El centro de control de Menlo Park cuenta con numerosas pantallas en las paredes y monitores que muestran en tiempo real gráficos de tendencias sobre lo que se dice y se hace en la red social en todo el mundo.
También se ven aquellos contenidos que han sido identificados como susceptibles de estar manipulados o incitar al odio.
La identificación de noticias falsas o “fake news” y de contenidos que incitan al odio se lleva a cabo de forma automatizada, mediante un programa de inteligencia artificial para el caso de spam o contenidos virales, entre otros de manipulación sencilla.
Los expertos se ocupan personalmente de aquellos contenidos que son más sofisticados, comentaron los voceros de Facebook.
Cada uno de los trabajadores en la sala de control representa a un equipo distinto de la compañía y entre todos ellos son responsables de coordinar a miles de empleados que se dedican a cuestiones relacionadas con la seguridad para la empresa en todo el planeta.
“Hace un año, teníamos a 10.000 personas que trabajaban en temas de seguridad. Ahora tenemos a 20.000”, afirmó el responsable de Compromiso Cívico de la firma, Samidh Chakrabarti.
Por el momento, el “cuarto de guerra” de la red social ya ha detectado un incremento de intentos de influir de forma ilegítima en las elecciones de “medio término”, como se llama a las de mitad de mandato presidencial.
Se trata de contenidos falsos o tendenciosos que provienen tanto de Estados Unidos como de otros países, sobre todo de Irán y Rusia, algo que estaba “dentro de lo esperado.
“De momento no hemos detectado nada anómalo”, destacó el jefe de Ciberseguridad, Nathaniel Gleicher, quien aseguró que un repunte como ese a menos de un mes de los comicios era previsible.
La función más visible del centro de control de Menlo Park es la eliminación de cuentas falsas, las de personas que se hacen pasar por quien no son para influir en otros.
Según Facebook, estas cuentas son en muchos casos el origen de informaciones manipuladas con el fin de influir en los electores que se vuelven virales y llegan a infinidad de usuarios.
La semana pasada, la red social retiró 559 páginas y 251 cuentas que trataban de influir en los próximos comicios legislativos estadounidenses.
La segunda misión es identificar y reducir la distribución de noticias falsas en la red, algo que se hace mediante la colaboración con entidades independientes responsables de determinar la veracidad de los contenidos.
Si un usuario trata de compartir una información que ha sido clasificada como potencialmente falsa, la red social le dará un aviso sobre ello.
Desde el centro de control californiano se identifica y suspende a aquellos usuarios considerados “actores malignos”, que contribuyen a manipular el debate y confundir a los usuarios sobre, por ejemplo, los requisitos para poder votar.