Facebook falla en la detección de amenazas de muerte, según la universidad neoyorquina NYU
COMPARTIR
La universidad neoyorquina NYU pone en duda la seguridad en la red social Facebook y la acusa de detectar el envío de quince anuncios que contenían amenazas de muerte contra los trabajadores electorales.
Esas amenazas que fueron enviadas solo a modo de prueba por un equipo investigador, junto al grupo Global Witness, con el propósito de evaluar los protocolos de seguridad de varios gigantes tecnológicos, y entre las redes sociales que fueron sometidas a esta prueba estuvieron también TikTok y YouTube, mismas que demostraron tener mejores herramientas de detección.
Este estudio que consistió en la identificación de diez ejemplos reales de amenazas de muerte contra trabajadores electorales y su envío, antes de la jornada electoral del pasado 8 de noviembre, a estas plataformas a través de anuncios publicitarios.
En este sentido, la universidad precisó que este método le dio la posibilidad de poder comprobar si el anuncio era aceptado o rechazado por las plataformas, y en todo caso lo retiraron antes de que se hiciera público.
“La investigación reveló resultados marcadamente dispares entre los gigantes de las redes sociales: YouTube y TikTok suspendieron nuestras cuentas por violar sus políticas, mientras que Facebook aceptó 15 de los 20 anuncios que contenían amenazas de muerte y que les enviamos para su publicación”, explicó la universidad.
TE PUEDE INTERESAR: Redes sociales de Meta pierden usuarios, pero siguen liderando
Así también, el informe indica que en la publicidad que enviaron, retiraron antes los insultos y corrigieron los errores gramaticales, debido a que en pruebas anteriores habían detectado el rechazo de Facebook de anuncios que contenían “discurso de odio” por las faltas ortográficas y no por su contenido, ya que fueron aceptados una vez que fueron corregidos los errores gramaticales.
Los anuncios, que fueron escritos originalmente en inglés, también se enviaron en español y, según el informe: “en todos los casos, todas las amenazas de muerte eran diáfanamente claras en su idioma; ninguno estaba codificado o era difícil de interpretar”.
Siendo así, que la NYU reiteró que mientras TikTok y YouTube decidieron suspender las cuentas debido a quebrantaban sus políticas, no así Facebook quien aceptó nueve de los diez anuncios con amenazas de muerte enviados en inglés y seis de los diez que se mandaron en español.
Así mismo, asegura que a pesar de que sí se detectaron dos de los mensajes, Facebook decidió no eliminar ni bloquear la cuenta desde la que se enviaron.
Por su parte, Meta, matriz de Facebook, consultada por los investigadores opinó que la muestra de los anuncios enviados no era representativa e persistió en su rechazo de cualquier contenido que incite a la violencia contra los trabajadores electorales o cualquier otra persona.
Por último, el informe acentúa que Meta les comunicó que su efectividad a la hora de bloquear este tipo de contenido supera a la de otras plataformas, aunque no aportó ninguna prueba contundente.
Con información de la Agencia EFE.