Foto: Bloomberg
El director ejecutivo de Facebook, Mark Zuckerberg, ha reconocido la dificultad de vigilar los contenidos que sus usuarios comparten.

La rapidez con la que el video del ataque en mezquitas de Nueva Zelanda se difundió por las redes sociales demuestra una vez más que empresas tecnológicas como Facebook siguen teniendo problemas para controlar ciertos contenidos, especialmente en el caso de servicios populares que ofrecen transmitir eventos en vivo.

Mientras plataformas como Twitter y YouTube afirmaron que actuaron rápidamente para eliminar cualquier contenido relacionado con el incidente de sus sitios, personas informaron que todavía estaba disponible muchas horas después de ser subido por primera vez a la cuenta de Facebook del presunto asesino. Las imágenes aún estaban disponibles en YouTube, de Google, casi 12 horas después.

El viernes se registraron dos tiroteos en distintos momentos en dos mezquitas en la ciudad de Christchurch, Nueva Zelanda, en la que murieron 49 personas.

A esto se suman otros dos hechos que le han significado una 'tormenta' a Facebook: la caída de sus redes asociadas en diversos países del mundo y la salida de dos ejecutivos.

El miércoles por la mañana, los usuarios de Facebook, Instagram y WhatsAppreportaron la caída de ambas redes sociales y problemas para enviar archivos multimedia en el servicio de mensajería instantánea. El problema se prolongó por al menos 7 horas.

Mientras que el jueves la compañía perdió a Chris Cox, director de producto de Facebook, y Chris Daniels, quien se hizo cargo de WhatsApp luego de que sus fundadores se fueran de la empresa el año pasado.

El director ejecutivo de Facebook, Mark Zuckerberg, ha reconocido la dificultad de vigilar los contenidos de los 2 mil 700 millones de usuarios de la red social.

El modelo comercial de la compañía depende de mostrar publicaciones ante las cuales es más probable que los usuarios tengan una reacción emocional, lo que suele tener el efecto secundario de amplificar las noticias falsas y el extremismo.

De hecho, la transmisión en vivo de los asesinatos resalta la forma en que la tecnología ayudó al presunto autor a conectarse con personas de ideas afines.

Páginas de chat actúan como cajas de resonancia para la propagación de ideas anti-inmigrantes. El asesino habría publicado en Twitter y sitios polémicos como 8chan sobre su postura contra la inmigración, incluida la subida de un manifiesto de 74 páginas.

Incluso después de que las principales empresas de tecnología actuaran para eliminar el video, comentaristas siguieron elogiando los asesinatos en la web.

Cuando Zuckerberg presentó las transmisiones en vivo de Facebook en 2016 en la plataforma abundaban los videos inofensivos. Sin embargo, no pasó mucho tiempo antes de que empezaran a aparecer tiroteos con la policía, asesinatos y suicidios.

La compañía ha implementado monitores humanos y basados en tecnología para encontrar y eliminar contenidos ofensivos o amenazantes. El año pasado, Facebook informó que trabaja en el diseño de chips para analizar y filtrar de manera más eficiente los videos en vivo.

Algunos expertos advierten que en realidad no hay forma de mantener el lado oscuro del comportamiento humano fuera de las redes sociales.

Zuckerberg "se negó a enfrentar el problema subyacente de Facebook Live, que simplemente no hay forma responsable de moderar un servicio de transmisión en vivo", planteó Mary Anne Franks, profesora de derecho de la Universidad de Miami.

"Facebook sabe desde el principio que su servicio de transmisión en vivo tiene el potencial de alentar y amplificar lo peor de la humanidad y debe enfrentar el hecho de que tiene sangre en sus manos", añadió.