La deuda cognitiva, el uso de la IA y los efectos nocivos en las personas

+ Seguir en Seguir en Google
Opinión
/ 26 febrero 2026

Generar conciencia sobre su uso, alcances y posibles efectos nocivos es una responsabilidad compartida entre desarrolladores, científicos, educadores y usuarios

Hace un tiempo, autores de renombre como Chomsky, Agamben, Bauman, Byung-Chul Han –por mencionar algunos– han manifestado públicamente y cuestionado con severidad el uso de las nuevas tecnologías y la inteligencia artificial (IA) para la consulta de información y producción de textos.

En su notable ensayo “La falsa promesa de ChatGPT”, publicado en 2023 por The New York Times, los lingüistas Noam Chomsky e Ian Roberts, junto con el investigador en IA, Jeffrey Watumull, sostienen que estos nuevos sistemas de IA, basados en aprendizaje automático, representan un riesgo para el conocimiento humano, pues a diferencia de la mente humana, que construye explicaciones a partir de principios y capacidades innatas, los modelos como ChatGPT sólo producen descripciones y predicciones probables, pero carecen de comprensión, razonamiento y pensamiento crítico.

TE PUEDE INTERESAR: #11F: La deuda universitaria y social con las mujeres y las niñas

Los autores subrayan que la verdadera inteligencia implica la capacidad de formular explicaciones, considerar lo posible y lo imposible, y desarrollar teorías causales, algo que la IA no puede hacer. Además, advierten que estos sistemas son moralmente indiferentes, ya que no poseen conciencia ni principios éticos, lo que limita su capacidad para tomar decisiones responsables o aportar juicios morales genuinos. También señalan que, al basarse en probabilidades, la IA puede generar tanto información correcta como falsa, sin distinguir entre ambas con criterio racional. Pese a ello, los autores reconocieron su utilidad práctica en tareas limitadas, como la programación o la generación de textos simples.

Durante un tiempo se empezó a considerar el término deuda cognitiva para comenzar a estudiar si las IA producen rezagos o problemas cognitivos a sus usuarios. En diciembre de 2025, investigadores del MIT (Instituto de Tecnología de Massachusetts) publicaron el estudio titulado “Tu cerebro con ChatGPT: acumulación de deuda cognitiva al usar un asistente de IA para la redacción de ensayos”. Este trabajo realizado por Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian-Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein y Pattie Maes, analiza las consecuencias neuronales, lingüísticas y conductuales del uso de modelos de lenguaje de gran escala (LLM) en la escritura de ensayos.

La investigación incluyó a 54 participantes divididos en tres grupos: usuarios de IA, usuarios de motores de búsqueda y participantes que escribieron sin herramientas externas (sólo cerebro). Cada grupo completó tres sesiones bajo la misma condición, y 18 participantes realizaron una cuarta sesión en la que se invirtieron las condiciones entre los grupos IA y sólo cerebro. Para evaluar la carga cognitiva, los investigadores emplearon electroencefalografía, además de analizar los textos mediante procesamiento de lenguaje natural y evaluaciones realizadas por docentes humanos y un sistema de IA.

Los resultados mostraron diferencias significativas en la conectividad cerebral: el grupo que escribió sin herramientas presentó las redes neuronales más fuertes, distribuidas y activas; el grupo que utilizó motores de búsqueda mostró una activación intermedia; mientras que el grupo que utilizó IA exhibió la conectividad más débil y menor implicación cognitiva. Asimismo, los usuarios de IA reportaron el nivel más bajo de sentido de autoría sobre sus textos y tuvieron dificultades para citar su propio contenido. A diferencia de quienes pasaron de escribir sin herramientas a usar IA, que mostraron mayor activación en regiones asociadas con la memoria y el procesamiento cognitivo.

A lo largo de cuatro meses, los usuarios de IA tuvieron un desempeño inferior en indicadores neuronales, lingüísticos y conductuales, lo que sugiere que, si bien estas herramientas ofrecen eficiencia inmediata, su uso prolongado podría generar costos cognitivos (deuda cognitiva), lo que plantea interrogantes relevantes sobre sus implicaciones educativas y su impacto en los procesos de aprendizaje.

TE PUEDE INTERESAR: Alertan sobre ‘atrofia por desuso’ del cerebro por uso excesivo de inteligencia artificial

Los autores de este estudio definen el concepto de deuda cognitiva como la reducción del esfuerzo mental activo como resultado de la externalización del pensamiento hacia sistemas de IA, lo que puede debilitar la memoria, la comprensión y la autoría cognitiva (2025). Aunque este concepto es asociado a otros elaborados en años pasados, como el Offloading cognitivo (externalización del pensamiento), que es un concepto precursor de la deuda cognitiva, estudiado por Sam Gilbert (2015), el cual se refiere al proceso mediante el cual las personas delegan funciones cognitivas a herramientas externas, como dispositivos digitales o IA, reduciendo el esfuerzo mental directo.

Así como al efecto Google o amnesia digital propuesto e identificado por Betsy Sparrow (2011), en el que las personas tienden a recordar menos información cuando saben que pueden acceder a ella fácilmente mediante tecnología, aumentando la dependencia tecnológica y debilitando la capacidad de concentración y pensamiento profundo (Carr, 2010).

Es fundamental recordar que toda tecnología nace como un proyecto empresarial y que, en ocasiones, lo gratuito puede generar deudas menos visibles. Generar conciencia sobre su uso, alcances y posibles efectos nocivos es una responsabilidad compartida entre desarrolladores, científicos, educadores y usuarios. Sólo a partir del uso crítico de estas herramientas será posible mitigar sus riesgos e impulsar estrategias pedagógicas que prioricen el desarrollo cognitivo, la ética y el fortalecimiento de las capacidades humanas.

Facebook, Instagram, TikTok, Youtube y X:

@Dialogosdigitales

@ROMCONEICC

nahayeli.gomez@gmail.com

Temas


Ia

Doctorante del programa de excelencia y competencia internacional en Ciencias Humanas de la Universidad Nacional del General San Martin (Argentina), maestría en marketing e innovación social de la UAdeC. Especialista en Procesos de Lectura y Escritura (cátedra UNESCO y la Maestría en Análisis del Discurso) de la Facultad de Filosofía y Letras de la Universidad de Buenos Aires, Argentina. Lic. en Ciencias de la Comunicación con acentuación en periodismo por la UAdeC.

Actualmente codirige una línea de investigación a nivel nacional sobre la interacción política en las redes sociodigitales. Dirige el Observatorio de Fenómenos en Internet “Diálogos digitales” que pertenece a la Red Nacional de Observatorio de Medios del CONEICC. Profesora investigadora de la Universidad Autónoma de Coahuila (unidad Laguna). Autora de libros y textos científicos.

NUESTRO CONTENIDO PREMIUM