Por qué la moderación de Twitter funciona tan mal
COMPARTIR
TEMAS
Los usuarios habituales de la red social encuentran que gestionar la eliminación de tweets a menudo es riesgoso
Quince años después de su creación, en San Francisco, Twitter sigue siendo una plataforma que no administra adecuadamente el contenido publicado allí y lucha por hacer cumplir las reglas que ha promulgado. La mayoría de los usuarios habituales de la red social ( son 187 millones en todo el mundo los que abren Twitter todos los días ) ya han experimentado esto: ver desaparecer los tweets por razones poco claras o, por el contrario, ver a otros permanecer en línea cuando claramente plantean un problema, o incluso han sancionado en otras situaciones. Le Monde intenta explicar la situación.
Como ocurre con la mayoría de las plataformas de expresión pública en línea, Twitter tiene reglas de uso para sus usuarios. Entre los mensajes prohibidos:
Las amenazas de violencia y mensajes que la glorificación de la violencia ;
Mensajes que promueven el terrorismo o el “extremismo violento”;
El acoso selectivo y las pipas de odio;
Ciertos medios "sensibles" , especialmente sexuales , pueden estar autorizados; pero están prohibidos los que muestren violencia o agresión sexual, o escenas excesivamente sangrientas;
Los contenidos que promueven la explotación sexual infantil;
Llamadas o estímulo para suicidarse y otras "conductas autodestructivas";
Tweets que promueven la venta o compra de bienes y servicios ilegales;
También están prohibidos los mensajes o enlaces difundidos en masa por cuentas automatizadas (bots), en forma de correo no deseado.
Los creadores de Twitter inicialmente tenían una visión muy permisiva de la libertad de expresión, que solo debía regirse por los límites de la ley estadounidense. A diferencia de Facebook o Instagram, se permite "la pornografía y otras formas de contenido para adultos producido por consenso" ; así como el uso de una cuenta bajo un seudónimo con información pública no identifica al autor ni al autor de un mensaje (por el contrario, Twitter prohibió el "robo de identidad”).
En un artículo que detalla los matices de su "filosofía" de moderación de contenido, Twitter predice que algunos tweets permanecerán en línea incluso si violan las reglas. Entre ellos: tweets que se refieren a "un tema de interés público legítimo" o que juegan un "papel en la presentación de una historia más global" .
Estas "excepciones de interés público" se refieren en particular a las cuentas de los representantes políticos y las instituciones de un país. Este fue por ejemplo el caso del expresidente estadounidense Donald Trump, quien, hasta enero de 2021 y el cierre de su cuenta, había publicado en varias ocasiones mensajes asimilados a "amenazas de violencia" o "disculpas por la violencia" : su condición de presidente había sin embargo lo protegió.
Aquí es donde se complica, en un contexto en el que diariamente se publican cientos de millones de tweets (un estudio del Proyecto GDELT contó un promedio de 340 millones por día a principios de 2019).
En primer lugar, Twitter ha implementado la moderación automática que se basa en un software que detecta ciertas palabras, expresiones o imágenes. Que entró en vigor al comienzo de 2017 y permite un gran número de tweets que se elimina rápidamente - a veces incluso antes de que se leen. Este método "algorítmico" ha permitido a Twitter administrar y frenar mejor los mensajes masivos publicados por "cuentas falsas" (o bots), por ejemplo, para campañas de spam.
Sin embargo, desconocemos los parámetros precisos o el funcionamiento real de este software.
Además, los empleados reales pueden intervenir para examinar situaciones donde la supervisión humana sigue siendo necesaria, sin necesariamente saber muy bien cómo se articula su trabajo con el del software de moderación automática. A veces, incluso la dirección de Twitter gestiona la mayoría de los casos de los medios, como fue el caso de Donald Trump. También establece ciertas reglas que pueden tener consecuencias significativas en el ecosistema de la red, por ejemplo, al decidir eliminar decenas de miles de cuentas vinculadas al movimiento QAnon.
Muchos tweets son moderados no porque sean bots, sino porque su contenido es posiblemente problemático o ilegal. Para lidiar con ellos, Twitter se basa, nuevamente, en un cóctel muy misterioso de software de detección y moderación humana. “Hoy en día, nuestros equipos presentan de forma proactiva el 50% del contenido abusivo para su examen”, nos dice Twitter.
Pero para ayudar al software, como los humanos, a funcionar en tales casos, cada tweet publicado se puede informar directamente a otros usuarios. Pueden calificar el mensaje basándose en el problema que sienten que es obvio. Una forma de crowdsourcing.
Estos tweets son luego procesados por Twitter, por personas o por software, que juzgan si estos mensajes violan o no las reglas de uso. De hecho, la supervisión humana es necesaria en una amplia gama de situaciones. Las palabras que el software puede encontrar violentas o prohibidas en realidad no tienen razón para ser eliminadas en un contexto específico, mientras que algunos mensajes muy violentos con frecuencia se escapan.
Todos estos elementos dan fe del conocimiento de los problemas, pero no resuelven las brechas a menudo abiertas entre las reglas de conducta y la práctica. En enero de 2021, luego de la suspensión permanente de la cuenta de Donald Trump, el actual jefe de Twitter admitió una vez más "no promover, en definitiva, una conversación sana" en su red social. Unos tuits más tarde, dio varias vías para mejorar las cosas: “Sí, todos necesitamos examinar críticamente las inconsistencias en nuestras políticas de contenido y su implementación. Sí, debemos ser más transparentes sobre nuestras operaciones de moderación. " Le mantendremos informado cuando Twitter haya realizado dicho trabajo para sus usuarios.