Foto: Archivo
Así es como Facebook evita que veas contenidos perturbadores en tu muro

CIUDAD DE MÉXICO.- Actualmente Facebook tiene alrededor de dos mil millones de cuentas activas. Vigilar el tipo de contenido de cada una de ellas resulta una tarea titánica, que actualmente es realizada por un equipo especializado de cuatro mil 500 personas.

Racismo, suicidios, violaciones, asesinatos y canibalismo, entre otro tipo de publicaciones que son censuradas diariamente, son tan sólo algunas temáticas que la gente de la empresa debe revisar para evitar que se viralicen. Al igual que las “fake news”, la gente de la red social se preocupa por filtrar la información sensible.

El diario The Guardian accedió a un manual interno (Facebook Papers) en el que se especifican los contenidos que deben ser eliminados y los que no. Curiosamente, en Facebook son más permisivos de lo que creíamos.

Por ejemplo: temáticas como incitar a la violencia contra el presidente Donald Trump, debe ser eliminado de inmediato, pues se trata de un personaje protegido. Pero un video de violencia contra niños, no necesariamente, al menos si no cuenta con un componente sádico.

Otro tipo de contenidos que son permitidos, son los de violencia contra animales, o de personas infringiéndose daño. Estos pueden ser clasificados como “temáticas delicadas”, pero muchos se mantendrán en línea bajo la justificación de que pueden generar conciencia.

En el caso de la desnudez, si se trata de fotografías digitales son eliminadas. Si es arte “hecho a mano”, está permitido en la red social.

Una forma de ayudar a la empresa a mejorar este tipo de trabajo, es denunciar de inmediato los contenidos con tonos violentos o las “fake news” que encontremos. Se proyecta que a mediano plazo, el equipo encargado en revisar las publicaciones de esta gran cantidad de usuarios, sea de al menos 7 mil 500 personas.