Ya no es raro que la gente elija la IA como su terapeuta. En TikTok e Instagram se comparten ampliamente mensajes que instruyen a los chatbots para que actúen como terapeutas cognitivo-conductuales, e incluso existen aplicaciones que comercializan este enfoque.
Pero, según el equipo de investigación de la Universidad de Brown, es poco probable que los consejeros de IA cumplan las mismas normas éticas que los profesionales humanos. «Las indicaciones son simplemente instrucciones que conducen a un resultado basado en el conocimiento y los patrones aprendidos que el modelo de IA ya posee», explica Zainab Iftikal, autor principal del reporte.
Iftikhar y su equipo trabajaron con siete consejeros pares formados en terapia cognitivo-conductual (TCC) y dieron instrucciones a varios modelos de IA, entre ellos la serie GPT, Claude y Llama, para que actuaran como terapeutas de TCC. A continuación, se llevaron a cabo 110 sesiones de autoasesoramiento.
Además, tres expertos con cualificaciones en psicología clínica evaluaron 27 sesiones simuladas basadas en registros de asesoramiento reales. Como resultado, surgieron 15 riesgos éticos distribuidos en cinco temas.
Qué dice el estudio
El primer problema señalado fue la falta de adaptabilidad contextual. Los consejeros de IA estaban demasiado limitados por los métodos de la TCC, ofreciendo repetidamente intervenciones uniformes que ignoraban las circunstancias personales y los antecedentes culturales de los usuarios. En algunos casos, impusieron valores occidentales de autocuidado a usuarios del Sur Global (países emergentes y en desarrollo), o identificaron erróneamente ciertas prácticas religiosas como «contenido extremista».
La falta de colaboración en las sesiones de terapia también fue un problema grave. Debido a que la IA genera unilateralmente respuestas extensas, las sesiones tienden a convertirse en clases magistrales, privando a los usuarios de la oportunidad de reflexionar con sus propias palabras.
Además, se registraron varios casos en los que la IA no solo no refutó los pensamientos distorsionados o las creencias dañinas del usuario, sino que incluso las respaldó o reforzó. Los investigadores creen que este excesivo consenso se debe a la tendencia de la IA a generar respuestas favorables al usuario.
Además, los investigadores definieron el uso frecuente por parte de la IA de frases empáticas similares a las humanas, como «Entiendo cómo te sientes», como «empatía engañosa» y concluyeron que constituye una violación ética. Dado que la IA carece de emociones y de un sentido de identidad, tales expresiones conllevan el riesgo de generar dependencia emocional en los usuarios.
La falta de respuesta ante una crisis es fatal.
El riesgo más grave detectado fue la falta de gestión de la seguridad y de respuesta ante una crisis. La IA puede responder con brusquedad o interrumpir abruptamente conversaciones sobre temas delicados, como pensamientos suicidas o autolesiones. Aunque normalmente es necesario tomar medidas apropiadas, como remitir a una línea de ayuda en caso de crisis, el terapeuta de IA no fue capaz de hacerlo adecuadamente.
En otras palabras, la capacidad para detectar errores de IA y corregirlos o responder a ellos depende en gran medida del conocimiento y el juicio del usuario. También se puso de relieve el problema de esta falta de conocimientos. Los usuarios vulnerables sin conocimientos especializados corren más riesgo de verse directamente afectados por respuestas perjudiciales. Esta asimetría es el mayor problema de equidad en torno a los consejeros de IA.
Es mucho más fácil construir y desplegar sistemas de IA que evaluarlos y comprenderlos», señala Ellie Public, profesora asociada de la Universidad de Brown y directora de ARIA, el instituto de investigación sobre IA de la Fundación Nacional de Ciencias de EE.UU. (NSF), que no participó en este estudio. Este estudio demuestra la importancia de seguir criticando y evaluando seriamente los sistemas en todas sus fases».
Los problemas mentales no son «tareas computacionales
El equipo de investigación subraya que el hecho de que se hayan puesto de relieve estas cuestiones no significa que no haya lugar para que los terapeutas de IA intervengan en el apoyo a la salud mental. No cabe duda de que la IA puede contribuir a resolver problemas prácticos como la escasez de profesionales de la salud mental y los obstáculos económicos. Sin embargo, es importante recordar que la mera elaboración de instrucciones no resolverá los problemas éticos.
En el caso de los terapeutas humanos, existen organismos competentes y mecanismos para exigirles responsabilidades profesionales por tratamientos inadecuados y errores médicos. Sin embargo, los consejeros de IA carecen actualmente de ese marco regulador. Los investigadores advierten de que la psicoterapia es una actividad que depende de la relación humana entre paciente y terapeuta y de la interpretación clínica, y no puede sustituirse por simples tareas de generación de frases.
Que la IA pueda contribuir a resolver la crisis de salud mental de la sociedad dependerá menos de la precisión de la tecnología y más de la responsabilidad con que pueda desplegarse. La cuestión es si la IA puede contribuir a resolver las crisis de salud mental de la sociedad.
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.

















