"War Room”, Facebook centraliza su lucha contra las noticias falsas
Los responsables de velar para que no se propaguen noticias falsas en la red social desde la "war room" trabajan literalmente codo con codo dadas las reducidas dimensiones de la cámara.
Cuando falta menos de un mes para que se celebren comicios legislativos en EU, Facebook activó una unidad especial que centraliza todos sus esfuerzos para evitar la propagación de noticias falsas, como ocurrió en las presidenciales de 2016.
La "war room" o "cuarto de guerra", como ha sido bautizada por la propia compañía, es una pequeña habitación en su sede de Menlo Park (California) en la que trabajan a diario entre 20 y 30 personas responsables de coordinar a 20,000 empleados en todo el mundo.
"Durante los tres días previos a las elecciones legislativas, en esta sala se trabajará 24 horas seguidas", explicó un portavoz de la compañía durante una visita organizada para un grupo de medios, entre ellos Efe.
Los responsables de velar para que no se propaguen noticias falsas en la red social desde la "war room" trabajan literalmente codo con codo dadas las reducidas dimensiones de la cámara, algo que según Facebook ha sido diseñado adrede para fomentar la comunicación continua e inmediata.
Frente a ellos, numerosas pantallas en las paredes y monitores de ordenador muestran en tiempo real gráficos de tendencias sobre lo que se dice y se hace en la red social en todo el mundo, así como contenidos que han sido identificados como susceptibles de estar manipulados o incitar al odio.
"Tener a todas estas personas juntas en una habitación nos ayuda a responder rápidamente a nuevas amenazas", aseguró la directora de la empresa para Política Global y Diálogo con los Gobiernos, Katie Harbath, quien explicó que desde allí también se analizan contenidos de WhatsApp e Instagram, ambas propiedad de Facebook.
La identificación de informaciones falsas o que inciten al odio se lleva a cabo de forma automatizada mediante inteligencia artificial para manipulaciones simples (spam, contenidos virales, etc.) o humana cuando son más sofisticadas.
Cada uno de los trabajadores en la sala de control representa a un equipo distinto de la compañía y entre todos ellos son responsables de coordinar a miles de empleados que se dedican a cuestiones relacionadas con la seguridad para la empresa en todo el planeta.
"Hace un año, teníamos a 10,000 personas que trabajaban en temas de seguridad. Ahora tenemos a 20,000”, apuntó el responsable de Compromiso Cívico de la firma, Samidh Chakrabarti.
Por el momento, el "cuarto de guerra" de la red social, que está operativo desde septiembre, ya ha detectado un incremento de intentos de influir de forma ilegítima en las elecciones de EU tanto internos como foráneos, mayoritariamente provenientes de Irán y Rusia, aunque es algo que entraba "dentro de lo esperado”.
"De momento no hemos detectado nada anómalo", destacó el jefe de Ciberseguridad, Nathaniel Gleicher, quien aseguró que un repunte como ese a menos de un mes de los comicios era previsible.
Desde el centro de control se llevan a cabo varias funciones, siendo la más visible de ellas la eliminación de cuentas falsas, es decir, de personas que se hacen pasar por quien no son para influir en otros.
Según Facebook, estas cuentas son en muchos casos el origen de informaciones manipuladas con el objetivo de influir en los electores que se vuelven virales y llegan a infinidad de usuarios.
La semana pasada, por ejemplo, la red social retiró 559 páginas y 251 cuentas que trataban de influir en los comicios legislativos de noviembre en EU.
La segunda misión es identificar y reducir la distribución de noticias falsas en la red, algo que se hace mediante la colaboración con entidades independientes responsables de determinar la veracidad de los contenidos.
Si un usuario trata de compartir una información que ha sido clasificada como potencialmente falsa, la red social avisará de ello al internauta.
Finalmente, desde el centro de control se identifica y suspende a aquellos usuarios considerados "actores malignos", que contribuyen a manipular el debate y confundir a los usuarios sobre, por ejemplo, los requisitos para poder votar.
Con esta unidad, Facebook tiene la esperanza de poder evitar algo como lo sucedido en 2016 -año en que Donald Trump ganó la Presidencia-, cuando la eclosión de noticias falsas en la plataforma la situó en el centro de las críticas.
Facebook estrenó su centro de control de noticias falsas en elecciones Brasil
La red social Facebook usó por primera vez su recién creado centro de control de noticias falsas en la primera vuelta de las elecciones presidenciales en Brasil el pasado 7 de octubre, informaron hoy a Efe fuentes de la compañía.
Los comicios brasileños, que tuvieron lugar justo un mes antes delas legislativas que se celebrarán en EU -donde todas las miradas están puestas en Facebook para que no se repita la eclosión de información falsa que ocurrió en la campaña de 2016- sirvieron a la empresa de primera gran prueba.
La "war room" o "cuarto de guerra", como ha sido bautizada por la propia compañía, es una pequeña habitación en su sede de Menlo Park (California, EU) en la que trabajan a diario entre 20 y 30 personas responsables de coordinar a miles de empleados en todo el mundo.
Los días previos a las elecciones, los expertos de seguridad para Brasil que trabajan en Facebook se trasladaron a la habitación junto al resto de empleados habituales para ayudarles a desarrollar y poner en práctica una estrategia ajustada a las características del país.
"Detectamos una historia que empezó a circular a pocos días de los comicios en la que se decía que, a causa de la violencia, la jornada electoral se iba a retrasar hasta el siguiente día", explicó el jefe de Ciberseguridad de la empresa, Nathaniel Gleicher.
"Detectamos que esta información por supuesto era falsa a tiempo y la eliminamos antes de que se hiciese viral y llegase a cientos de miles de internautas", añadió.
Gleicher también apuntó que el mismo día de la elección, tras el cierre de los colegios electorales, detectaron "un aumento de discursos de odio" contra una región concreta del país y procedieron a su eliminación, aunque no precisó de qué región se trataba.
La compañía de Menlo Park, que en la jornada de hoy abrió sus puertas a la sala de control a un reducido grupo de periodistas, entre ellos Efe, indicó que el operativo se dispondrá nuevamente para la segunda vueltas de los comicios en el país amazónico.
Ese día, el 28 de octubre, el vencedor de la primera vuelta, el ultraderechista Jair Bolsonaro del Partido Social Liberal, se enfrentará al socialista Fernando Haddad, quien sustituyó al encarcelado expresidente Luiz Inácio Lula da Silva como candidato del Partido de los Trabajadores (PT).