Polémico estudio realizado por Reddit sobre fake news alerta la atención los límites éticos

Internacional
/ 13 junio 2025

Un polémico estudio realizado plataforma de redes sociales Reddit sobre fake news pone en el centro del debate la responsabilidad y los retos éticos de llevar acabo investigaciones estudios sobre la sociedad

El equipo de investigación, que está relacionado a la Universidad de Zúrich, “puso aprueba de manera encubierta”, la capacidad que posee la inteligencia artificial de poder “manipular a la opinión pública con información falsa”. Este estudio fue realizado por un grupo de la red social reddit, explica Matthe Allen, quien trabajó para la BBC en Londres antes de trasladarme a Suiza para incorporarme a SWI swissinfo.ch.

En es sentido, Cathleen O’Grady, quien es una periodista científica sudafricana residente en Escocia. Tiene un doctorado en ciencias cognitivas por la Universidad de Edimburgo, detalla en su artículo titulado “‘Unethical’ AI research on Reddit under fire” publicado en la revista Science, que esta investigación usó el contenido que fue generado a través de la IA para “participar en debates en línea y comprobar si la IA tenía más éxito en cambiar la opinión de las personas que el contenido generado por humanos ha generado controversia debido a las preocupaciones éticas sobre el trabajo”.

TE PUEDE INTERESAR: Engaños con tecnología de punta: Las fake news en la era de la IA

Tras darse a conocer esta investigación, prosigue O’Grady, “algunos de los participantes involuntarios en la investigación pidieron públicamente a la Universidad de Zúrich (UZH), donde trabajan los investigadores responsables del experimento, que investigara y se disculpara”.

Para llevar acabo este estudio Allen describe “durante varios meses”, el grupo de investigadores realizó una observación del “comportamiento social más allá de los límites éticos”.

Para poder hacer este análisis, hicieron uso de modelos de lenguaje masivos conocidos como Large Language Models (LLM), utilizados para “inventar opiniones sobre diversos temas: desde la tenencia de perros peligrosos hasta el aumento del coste de la vivienda, pasando por Oriente Próximo y las iniciativas en favor de la diversidad”, añade Allen.

En opinión de Casey Fiesler quien es experto en ética de la investigación en internet de la Universidad de Colorado en Boulder ”las personas tienen una expectativa razonable de no participar en experimentos científicos sin su consentimiento”,

$!“El contenido de IA fue significativamente más persuasivo que el contenido generado por humanos”, precisa O’Grady

Por su parte, la universidad de Zúrich a través de un comunicado de que fue enviado por correo electrónico a Science señala que los investigadores, que decidieron mantener su anonimato, tomaron la decisión de no publicar los resultados de su estudio; en tanto, la universidad realizará una investigación sobre este incidente.

La investigación se llevó a cabo en la plataforma de redes sociales Reddit, en una comunidad o subreddit llamada r/changemyview. Los participantes de esta comunidad publican sus opiniones sobre diversos temas e invitan a otros a debatir, con el objetivo de comprender diferentes perspectivas”, explica O’Grady

Estudios anteriores, prosigue la periodista científica, usaron la “información del subreddit para investigar la persuasión, el cambio de opinión y temas relacionados. OpenAI informó a principios de este año que había estudiado las capacidades persuasivas de los modelos de lenguaje grandes (LLM) utilizando datos de r/changemyview”.

Los estudios sobre IA y persuasión se han realizado en laboratorios, lo que podría hacer que la realización de experimentos en plataformas de redes sociales sea una opción atractiva”, asevera Allen.

TE PUEDE INTERESAR: Especialista nos explican cómo detectar los ‘deepfakes’ en internet

Es por esta razón, que para Thomas Costello, psicólogo de la Sloan School of Management del Instituto Tecnológico de Massachusetts (MIT), quien ha estudiado IA y desinformación, es esencial “estudiar estas cuestiones en la práctica”,

No obstante, da la impresión de que los investigadores violaron las normas éticas para realizar su estudio.

INVESTIGADORES CREAN 34 CUENTAS PARA LLEVAR ACABO SU ESTUDIO

Para poder hacer su estudio, los investigadores decidieron crear 34 cuentas y además “publicaron más de 1500 veces en la plataforma”, indica O’Grady.

En un sucinto resumen en relación con esta investigación que publicado en línea, y eliminado posteriormente, los investigadores aseveran que “el contenido de IA fue significativamente más persuasivo que el contenido generado por humanos, recibiendo más “deltas” (otorgados por un argumento sólido que resultó en un cambio de creencias) por comentario que otras cuentas”, precisa O’Grady y añade que “los comentarios personalizados con información inferida del usuario obtuvieron el mejor rendimiento, en el percentil 99 de todos los comentaristas del subreddit”.

La publicación del estudio “provocó una tormenta de críticas en Reddit, la comunidad investigadora y los medios de comunicación internacionales”, resalta Allen.

COMUNIDAD CIENTÍFICA NO AUTORIZA EL CONTENIDO GENERADO POR INTELIGENCIA ARTIFICIAL.

En base a las normas que rigen a la comunidad científica, no está autorizado el contenido que fue creado haciendo uso de la IA, “y el trabajo cruzó una línea ética al intentar cambiar el comportamiento de las personas y rastrear sus efectos”, apunta Fiesler, por lo que, añade, este tipo de “investigación intervencionista exige el consentimiento informado que los investigadores no solicitaron”.

Aquí la cuestión no solo es llevar a cabo una investigación que implique engaño. Se trata de romper, voluntariamente, las reglas de una comunidad de seres humanos que construyen la confianza en su red basándose en esas reglas”, dijo a Swissinfo.ch el profesor Dominique Sprumont, presidente de la Comisión Cantonal de Ética de la Investigación de Vaud (Suiza).

El comité de ética de la universidad respondió a los moderadores el 17 de abril, afirmando que habían revisado el estudio, pero que su función era solo consultiva y que no podían impedir que se realizara ninguna investigación. Añadió que uno de los investigadores había recibido una advertencia formal, pero argumentó que la investigación había tenido pocos efectos adversos.

En su defensa, en una publicación en r/changemyview, Ben Lee quien es el director legal de Reddit, se refirió a este estudio “inapropiado y altamente antiético” y concluye afirmando que Reddit estaba “en proceso de contactar a la Universidad de Zúrich y a este equipo de investigación en particular con demandas legales formales”.

Con información de la Revista Science y Swissinfo.ch.

Temas



Organizaciones



Con experiencia de 15 años laborando en VANGUARDIA, en el área de redacción.

Licenciado en Psicología por la Universidad Intercontinental, maestría en psicoterapia Gestalt, especialidad en Desarrollo Humano. Se especializa en Terapia Gestalt por el Instituto Humanista de Psicoterapia Gestalt. Además, presta sus servicios como psicoterapeuta al programa Touchinglife para empleados de la empresa MAGNA en Saltillo y Ramos Arizpe desde 2010.

COMENTARIOS

Selección de los editores