¿Podría un programa conversacional de IA reemplazar a un psicoterapeuta humano?
COMPARTIR
Estos sistemas pueden fallar, y por otra parte la conexión y el acompañamiento humanos son irreemplazables, advierten los especialistas
SIDNEY-Los algoritmos informáticos, conjuntos de instrucciones definidas, ordenadas y acotadas que permiten a un cerebro electrónico resolver un problema, realizar un cálculo o desarrollar una tarea siguiendo una secuencia de pasos definidos, están en el corazón de la inteligencia artificial (IA).
Los ‘chatbots’, programas o aplicaciones informáticas que conversan con las personas y responden a sus preguntas y consultas mediante voz o texto, como si fueran seres humanos, son una de las utilidades más populares de la IA, y están ganando terreno en el ámbito del asesoramiento psicológico.
TE PUEDE INTERESAR: ¿La IA hace que los médicos se vuelvan peores?
Pero ¿podría un ‘chatbot’ de IA llegar a reemplazar a un terapeuta humano como un psicólogo o psiquiatra? Estos sistemas tienen sus ventajas, pero también sus puntos flacos, según los investigadores de la Universidad de Nueva Gales del Sur (UNSW, por sus siglas en ingles) en Sydney, Australia.
“El uso de la IA como herramienta psicoterapéutica se remonta a la década de 1960, cuando el programa ELIZA ofrecía respuestas predefinidas a los usuarios que describían sus estados emocionales”, señala la psicóloga clínica Jill Newby, profesora de Psicología en la UNSW.
PROGRAMAS CONVESACIONALES COMO PSICÓLOGOS
Pero la IA ha avanzado mucho desde entonces, y aplicaciones para teléfonos inteligentes como Woebot, Wysa y Replika mantienen conversaciones sofisticadas y bidireccionales con sus usuarios, les ofrecen apoyo emocional, seguimiento de su estado de ánimo y ejercicios terapéuticos como llevar un diario o tomar consciencia de sus procesos mentales, según explica.
“Con la llegada de asistentes de IA generativa en línea como ChatGPT, CoPilot y Gemini, el asesoramiento psicológico proporcionado por sistemas basados en IA se parece sorprendentemente a las estrategias que cabría esperar de los terapeutas presenciales”, según Newby.
“Cada conversación con un sistema de IA es una interacción única muy contextual y personalizado, capaz incluso de recordar conversaciones pasadas, lo que permite a los usuarios explorar desafíos personales, problemas de salud mental y asuntos prácticos con mayor profundidad”, especifica.
PSICOTERAPIA EN PERSONA VERSUS ASESORAMIENTO EN LÍNEA
La profesora Newby explica que la psicoterapia presencial puede ser prohibitivamente cara, difícil de seguir para quienes viven lejos del lugar donde se ofrece y poco práctica para el horario de algunas personas, y a veces obliga al paciente a esperar semanas o meses antes de poder ser atendido por un terapeuta.
Por su parte, una conversación con un sistema de IA puede ser inmediata, barata o incluso gratuita y en algunos casos puede ser conveniente, aunque esto no significa que la IA pueda reemplazar a los psicoterapeutas humanos ni que sus consejos puedan sustituir a los de un terapeuta cualificado, según apunta.
TE PUEDE INTERESAR: ¿Sabías que la IA es la tercera fuente de información sobre salud en México?
Newby apoya el uso de recursos web para tratar la depresión, ha participado en un portal de terapia en línea, y está investigando distintas herramientas de IA para ver cómo pueden aplicarse en tratamientos personalizados de la depresión y cómo pueden aprovecharlas los psicólogos para mejorar su práctica.
Esta investigadora afirma que, según su comprensión de las herramientas de IA disponibles, el asesoramiento que brindan los ‘chatbots’ se basa en la terapia cognitivo conductual (TCC), un tratamiento que aporta a las personas herramientas para ayudar a gestionar sus pensamientos, emociones y comportamientos.
“Una de las limitaciones de la terapia con IA es que no todas las personas se benefician de la TCC, aunque hay muchísima gente a la que le encanta la TCC, y a la que la versión de IA de esta terapia puede resultarle beneficiosa”, según Newby.
Asegura que los sistemas de chat con IA no siempre ofrecen consejos sensatos y seguros, recordando el caso de un hombre belga que se quitó la vida en 2023 tras mantener largas conversaciones con un ‘chatbot de IA’ llamado Eliza (sin relación con el de la década de 1960), cuyas respuestas podrían haber reforzado la ideación suicida del fallecido, según Newby.
El riesgo que la IA brinde un asesoramiento equivocado o incluso peligroso “se agrava porque estos sistemas pueden ser engañados para que brinden consejos sobre comportamientos poco éticos cuando se les pide que consideren hipotéticamente un determinado escenario, de acuerdo con la profesora de la UNSW.
LA IA COMO HERRAMIENTA DE SALUD MENTAL
A la hora de utilizar estos sistemas es importante recordar que la IA no es perfecta ni infalible; y no puede sustituir la evaluación ni el diagnóstico de un profesional de la salud mental, señala.
Newby recomienda tener en cuenta el uso que las herramientas de IA podrían hacer de nuestros datos antes de facilitarles cualquier información médica privada; y también aconseja mantener una dosis de escepticismo al interactuar con estos sistemas y no creernos todo lo que nos dicen.
“Si conversar con la IA te hace sentir mal, busca ayuda profesional”, enfatiza esta psicóloga.
Por otra parte, la profesora Newby considera que la conexión y el acompañamiento que proporciona un ser humano no puede ser reemplazada por la IA.
Newby sostiene que la conexión humana es fundamental para muchas personas, y los profesionales de la salud mental con la formación adecuada pueden establecerla, generando empatía.
Además, un psicoterapeuta “de carne y hueso” puede ayudar a una persona mediante un sistema de preguntas que permita llegar a la raíz de sus preocupaciones, en lugar de aplicar una lista de estrategias como suelen hacer los modelos de IA”, afirma.
Con base en la evidencia disponible, Jill Newby recomienda la terapia presencial o un programa en línea con apoyo clínico, como la TCC en línea, como primer paso, dado que todavía hay poca evidencia sobre los beneficios de los ‘chatbots de IA en el tratamiento del malestar psicológico o angustia, al ser un área emergente de investigación en materia de salud mental.
Si se experimenta angustia leve o moderada, tanto los ‘chatbots’ de IA como la terapia presencial pueden ser útiles, pero si la angustia es grave, persiste durante semanas o meses, o se tiene pensamientos suicidas, esta psicóloga australiana recomienda de manera categórica asistir a una terapia presencial.
Por otra parte, “los ‘chatbots’ de IA pueden ser una buena alternativa si no puede acceder a la terapia en persona (porque se está en una lista de espera o no se la puede pagar); como una herramienta para usarla junto con la terapia en persona o como forma de prepararse para una terapia presencial, añade.
Newby recomienda elegir ‘chatbots’ de IA diseñados específicamente para la salud mental, que cuentan con las protecciones adecuadas para personas con angustia más grave o pensamientos y comportamientos suicidas, como Wysa y Woebot, en vez de sistemas como ChatGPT y similares, que no fueron diseñados para el tratamiento ni el apoyo psicológico.
“Si no está seguro sobre qué hacer, busque primero una evaluación y asesoramiento de su médico de atención primaria, dado que su angustia podría tener otras causas subyacentes que deberían evaluarse y tratarse”, concluye Newby.
DESTACADOS:
- La terapia en persona puede ser muy cara, difícil de seguir para quienes viven lejos o tienen ciertos horarios, o requerir mucho tiempo de espera antes de hallar una vacante, mientras que conversar con una IA es inmediata, barata o gratuita, según la Universidad de Nueva Gales del Sur (UNSW), en Australia.
- La IA comenzó a utilizarse como herramienta de psicoterapia a nivel básico en la década de 1960, pero ha avanzado mucho y ahora mantiene conversaciones sofisticadas y bidireccionales con sus usuarios, ofrece apoyo emocional, seguimiento del estado de ánimo y ejercicios terapéuticos, según la UNSW.
- La psicóloga clínica Jill Newby, de la UNSW, explica que se están utilizando como sistemas de salud mental en línea los ‘chatbots’ de IA conversacionales como Replika y los asistentes de IA generativa como ChatGPT, que no son infalibles, tienen sus limitaciones e incluso pueden dar consejos desacertados.
Por Daniel Galilea EFE-Reportajes.