Ye y los límites de la libertad de expresión en Internet

Opinión
/ 21 febrero 2025

¿Dónde está la línea divisoria entre el derecho de expresión y el derecho de alcance?

Por Fay M. Johnson, The New York Times

He pasado años trabajando en algunas de las mayores plataformas de redes sociales del mundo. He visto cómo la moderación adecuada puede mejorar las conversaciones, y cómo una moderación inadecuada —o inexistente— puede provocar el caos, extender el odio y desembocar en la violencia en el mundo real.

Cuando empecé en este campo, los equipos de confianza y seguridad que dirigía tenían una premisa sencilla: la gente debe poder expresarse siempre que no ponga en peligro a los demás. Con el tiempo, sin embargo, llegué a apreciar la complejidad de definir el peligro en un entorno digital con miles de millones de usuarios.

La dificultad de este trabajo se puso de manifiesto cuando el rapero antes conocido como Kanye West, que ahora se hace llamar Ye, publicó un torrente de invectivas misóginas y antisemitas a sus más de 30 millones de seguidores en la plataforma antes conocida como Twitter, que ahora se hace llamar X. En una juerga de un día de duración, publicó recientemente clips sin censura de películas pornográficas, denigró a las mujeres y a los judíos, colgó fotos de suásticas, nombró a ejecutivos judíos concretos que creía que estaban saboteando su carrera y dijo: “La esclavitud fue una elección”.

Mi búsqueda de las versiones archivadas de las publicaciones de Ye, ahora eliminadas, sugiere que solo la publicación en la que se nombra a determinados ejecutivos fue señalada con una advertencia por X debido a que potencialmente violaba sus políticas de incitación al odio. Vilipendiar a los judíos individual y colectivamente y utilizar el símbolo del régimen que asesinó a seis millones de judíos —el uso de suásticas es citado expresamente por X como un ejemplo de imágenes de odio— parece haber quedado sin respuesta. Esto es típico de lo que hemos visto en el X de Elon Musk, que se ha alejado de la aplicación proactiva de políticas contra el odio, lo cual a veces significa intervenir antes de que el contenido se haga público o reducir el número de personas que lo ven, y se ha acercado a Community Notes, un sistema de colaboración masiva que empodera a determinados usuarios de X añadiendo contexto después del hecho en forma de etiqueta.

Meta, propietaria de Facebook, también ha reducido recientemente sus intervenciones y en Estados Unidos está poniendo fin a su programa de verificación de hechos por terceros. Algunos aplauden estas medidas como una vuelta a la libertad de expresión. Pero lo que queda es la cuestión de si el discurso de Ye debe difundirse en cualquier plataforma por medio del algoritmo. ¿Dónde está la línea divisoria entre el derecho de expresión y el derecho de alcance?

Seré la primera en reconocer que ningún sistema de moderación es perfecto. He estado sentada en salas en las que hemos debatido dónde trazar la línea, sabiendo que para localizar el contenido más dañino también eliminaríamos inadvertidamente mensajes inocentes. Los moderadores a veces no están seguros de si un mensaje satírico cruza la línea de la incitación al odio o si un mensaje que expresa una sincera preocupación por la eficacia de las vacunas se ha desviado hacia la desinformación. No hay un consenso universal sobre lo que constituye ”daño” y, sin una calibración cuidadosa de las políticas y los modelos de aprendizaje automático entrenados para aplicarlas, se producen errores.

Pero no podemos dejar que lo perfecto sea enemigo de lo bueno. A lo largo de los años, he visto cómo los enfoques de no intervención pueden dar oxígeno al discurso del odio y a la desinformación. Cuando naciones enteras se han enfrentado a agitaciones políticas o a crisis de salud pública, la desinformación amplificada en las redes sociales ha comprometido directamente la seguridad. Los moderadores humanos y automatizados, los verificadores de hechos de terceros y la rápida aplicación de políticas claramente articuladas pueden reducir la difusión de contenidos nocivos. No hacerlo puede contribuir a una retórica genocida, como la desinformación que alimentó el genocidio de Birmania contra los rohingya.

Las herramientas de moderación basadas en la comunidad, como las Notas de la Comunidad de X o el sistema de moderadores voluntarios de Reddit, son valiosas, pero solo pueden complementar, no sustituir, la moderación proactiva de las propias plataformas. Millones de personas vieron las publicaciones de Ye. Si una plataforma depende en gran medida de la moderación impulsada por la comunidad, y no de otras tácticas que limiten la distribución o proporcionen advertencias, a menudo el daño queda hecho antes de que alguien pueda intervenir, como si hubieras planeado hacer una señal pintada a mano para detener un tren a toda velocidad.

Confiar en los usuarios para que marquen o verifiquen los contenidos traslada la responsabilidad a las víctimas del acoso o la desinformación. Uno de los aspectos más agotadores de la moderación comunitaria es que a menudo les pide a las personas que están en la línea de fuego que vigilen el contenido que los está atacando. Como he visto de primera mano, esto puede empujar a la gente a abandonar las plataformas, un éxodo que debilita la diversidad de voces necesaria para un discurso cívico saludable.

Cuando se generalizaron las redes sociales, muchos las consideraron un patio de recreo para publicar fotos personales y actualizaciones de estado. Hoy es un centro de comunicación donde los políticos hacen campaña, las empresas comercializan y los periodistas dan noticias. Sin una moderación profesional, es demasiado fácil que florezca la toxicidad, que personas con intención de hacer daño se aprovechen y que bots extranjeros secuestren la conversación nacional. Incluso el contenido eliminado perdura, se retuitea y se hacen capturas de pantalla, alimentando el fanatismo que puede envalentonar a otros. Las Notas de la Comunidad pueden llegar a ofrecer contexto, pero el contexto no siempre es suficiente para sofocar el daño causado.

Como usuarios, nosotros también debemos estar alerta. Debemos denunciar los contenidos que se pasen de la raya, escudriñar las fuentes antes de compartir afirmaciones dudosas y apoyar políticas que defiendan el libre intercambio de ideas sin permitir abusos. Pero, así como esperamos que una ciudad tenga semáforos, departamentos de bomberos y servicios de emergencia, debemos esperar y exigir que los entornos en línea estén igualmente protegidos.

Las empresas deben invertir en profesionales que comprendan el contexto cultural, los matices del lenguaje y cómo evolucionan las amenazas en línea. Deben aprovechar los nuevos sistemas avanzados de Inteligencia Artificial que pueden examinar textos, imágenes y otras formas de comunicación, así como el contexto en el que se comparten, para identificar con mayor precisión y coherencia los contenidos y comportamientos peligrosos. Deberían invertir en hacer esto bien, en lugar de reducir la moderación para reducir costos o consentir un movimiento político concreto. Y los reguladores o los organismos de supervisión independientes necesitan el poder y la experiencia necesarios para garantizar que estas plataformas cumplen con sus responsabilidades.

No se trata de añorar con nostalgia los viejos tiempos de la moderación; se trata de aprender de los fracasos y construir un sistema que sea transparente, adaptable y justo. Nos guste o no, las redes sociales son la plaza pública del siglo XXI. Si permitimos que se convierta en un campo de batalla de vitriolo y engaño sin control, primero pagarán el precio los más vulnerables de entre nosotros, y luego todos.

La libertad de expresión es esencial para una democracia sana. Pero las plataformas de las redes sociales no se limitan a albergar discursos, sino que también toman decisiones sobre qué discursos difundir y con qué amplitud. La moderación de contenidos, por muy defectuosa que haya sido, ofrece un marco conceptual para evitar que los más ruidosos u odiosos eclipsen a todos los demás. c.2025 The New York Times Company.

COMENTARIOS

NUESTRO CONTENIDO PREMIUM