¿Sabías que hay un algoritmo de X que conduce a los usuarios hacia posiciones políticas más conservadoras?

+ Seguir en Seguir en Google
Tech
/ 18 febrero 2026

Es lo que señalan los autores de la investigación “Los efectos políticos del algoritmo de feed de X” en su artículo publicado en la revista Nature

¿Sabías que al activar el algoritmo “Para ti” en X lleva a los usuarios a opiniones políticas más conservadoras?, es lo que descubrió un un equipo internacional de científicos de Italia, Suiza y Francia.

De acuerdo con el un artículo titulado “The political effects of X’s feed algorithm” publicado en la revista científica Nature alrededor de 5 mil clientes de esta plataforma social observaron que esta tendencia perdura incluso después de salieron del filtro y volvieron al muro cronológico (versión normal).

TE PUEDE INTERESAR: España investigará a X, Meta y TikTok por contenido de abuso sexual infantil generado con IA

“Un experimento innovador para medir la capacidad de la plataforma social de Elon Musk de incrementar la división política encontró que, cuando se impulsaban, aunque fuera apenas perceptiblemente, publicaciones que expresaban actitudes antidemocráticas y animosidad partidista en los contenidos de seguidores demócratas y republicanos, se producía un gran cambio en sus sentimientos desfavorables hacia el otro bando”, explica The Guardian.

Para un gran número de personas, las redes sociales se han convertido en su principal fuente de información, situación que genera preocupación debido al riesgo de la desinformación, la polarización y la influencia de los algoritmos, mismos que filtran, seleccionan, y ordenan el contenido en muros personalizados con el propósito de fidelizar a los clientes.

“El grado de aumento de la división, conocido como “polarización afectiva”, alcanzado en una semana mediante los cambios que los académicos realizaron en los contenidos mostrados a los usuarios de X fue tan grande como el que, en promedio, habría tomado tres años entre 1978 y 2020”, precisa The Guardian.

TE PUEDE INTERESAR: UE investiga a X por imágenes no autorizadas con contenido sexual

Si bien algunos experimentos anteriores a este estudio hallaron poca evidencia de que al desactivar el algoritmo que filtra la información y volver a un muro cronológico cambie las actitudes políticas de los usuarios, y al mismo tiempo, dichas investigaciones no lograron determinar si la exposición al algoritmo ya había amoldado dichas opiniones, apuntan los autores.

Con el objetivo de darle una respuesta a lo anterior, los autores de este nuevo estudio, decidieron llevaron a cabo un experimento independiente que contó con 4,965 usuarios de X en los Estados Unidos durante el verano de 2003, a tan solo seis meses después de que Elon Musk adquera la empresa que entonces se llamaba Twitter y un año antes de apoyar públicamente al entonces candidato republicano, y actual mandatario estadounidense, Donald Trump.

Los voluntarios fueron distribuidos de for aleatoria entre un ‘feed’ algorítmico, es decir un filtro de noticias, y el muro cronológico es decir, la versión normal, durante siete semanas.

Así mismo, encuestaron a los participantes antes y después del experimento y además revisaron el contenido del muro, así como el comportamiento de los usuarios en la red social con una extensión de navegador que les posibilito poder monitorizar tanto el contenido del muro y las interacciones en línea.

Los resultados que encontraron los autores mostraron que los usuarios que fueron asignados al muro algorítmico interactuaron más con la plataforma y también adoptaron opiniones políticas más cercanas a la derecha y tendieronn más a seguir a los activistas políticos conservadores.

Todo lo contrario en los usuarios del muro algorítmico al cronológico, ya que sus opiniones o su comportamiento apenas tenían algún efecto.

“El grado en que las publicaciones más antidemocráticas hacen que los usuarios sientan una mayor animosidad hacia los oponentes políticos “demuestra el poder del algoritmo”, expreso a The Guardian Martin Saveski, quien es profesor asistente en la escuela de información de la Universidad de Washington.

Por su parte, Tiziano Piccardi, quien es profesor asistente del departamento de ciencias de la computación de la Universidad Johns Hopkins, explicó a THe The Guardian que “el cambio en su contenido era apenas perceptible, pero aun así reportaron una diferencia significativa en cómo se sentían respecto a otras personas”; Piccardi prosigue diciendo que “según las tendencias en Estados Unidos, ese cambio equivale aproximadamente a tres años de polarización”.

Así también, al hacer el análisis del contenido este le revelo a los autores que el algoritmo mostraba más publicaciones conservadoras y activistas, y que a reduce la visibilidad a los medios de noticias tradicionales.

En opinión de los autores los resultados encontrados en su investigación demuestran que los algoritmos de las redes sociales “moldean de manera significativa las actitudes políticas” y que este efecto continúa inclusive después de eliminar la elección algorítmica.

Asimismo, los algoritmos suelen influir no solo en lo que los usuarios ven, sino que también en el entorno político digital en el que habitan, advierten los autores.

Con información de la Agencia de Noticias EFE y The Guardian.

Temas


A20

Localizaciones



Organizaciones



Con experiencia de 15 años laborando en VANGUARDIA, en el área de redacción.

Licenciado en Psicología por la Universidad Intercontinental, maestría en psicoterapia Gestalt, especialidad en Desarrollo Humano. Se especializa en Terapia Gestalt por el Instituto Humanista de Psicoterapia Gestalt. Además, presta sus servicios como psicoterapeuta al programa Touchinglife para empleados de la empresa MAGNA en Saltillo y Ramos Arizpe desde 2010.

NUESTRO CONTENIDO PREMIUM