ChatGPT no es tu psicólogo: «Puede generar una falsa sensación de ayuda terapéutica»

SALUD MENTAL

Un informe de Harvard reveló que el apoyo psicológico es la principal función para la que se utiliza este servicio de inteligencia artificial, pero hacerlo supone una serie de riesgos para la salud mental
22 ago 2025 . Actualizado a las 09:47 h.La inteligencia artificial (IA) ha revolucionado por completo nuestra manera de relacionarnos con la tecnología. Desde que se popularizó el uso de internet y hasta hace no mucho, Google u otros buscadores eran el estándar para hallar cualquier información que un usuario pudiera requerir. Hoy, los chatbots con inteligencia artificial han transformado este panorama y se han convertido en el motor de búsqueda por excelencia. Pero no solo se utilizan para encontrar información. La inteligencia artificial generativa tiene aplicaciones que van desde la creación de imágenes prácticamente indistinguibles de fotos, hasta la traducción de trabajos escritos o la redacción de papers académicos.
Y eso no es todo. Desde que la empresa estadounidense OpenAI lanzó al mercado ChatGPT (una aplicación de chatbot de inteligencia artificial generativa, acrónimo del inglés Chat Generative Pre-Trained), en el 2022, su uso ha crecido de manera espectacular. Según explica la compañía, se espera que este mes alcance los 700 millones de usuarios semanales, multiplicando por cuatro las cifras del año anterior y superando ampliamente los 500.000 que tenía en marzo del 2025. El uso principal que esas casi 700.000 personas le dan a esta tecnología cada semana es la terapia y el acompañamiento, según reveló recientemente un informe publicado por Harvard Business Review (HBR).
Pero recurrir a un modelo de inteligencia artificial para satisfacer estar necesidades conlleva riesgos. Estos chats se caracterizan por dar la razón a los usuarios. Tienden a adular a la persona y validar sus emociones con frases como «Es normal sentirse así». Esta actitud hace que los usuarios se sientan escuchados y comprendidos, pero no es lo que busca una psicoterapia y no siempre contribuye al crecimiento personal.
De hecho, este tipo de interacciones muchas veces actúan en detrimento del crecimiento, alimentando rencores o impulsando a los individuos a tomar decisiones guiadas por el egoísmo. «Hay que saber que la inteligencia artificial no es realmente inteligente, aunque dé el pego. Repite una y otra vez las recetas que ya conoce. Es similar al teclado predictivo de WhatsApp, que a veces es casi como si te leyera la mente y supiera lo que vas a decir, cuando realmente no es tan difícil predecirlo en ciertos contextos», observa el psicólogo Xacobe Fernández, del Colexio Oficial de Psicoloxía de Galicia (Copg).
Si bien la última actualización de ChatGPT, GPT-5, ha buscado convertir el producto en un modelo más profesional y menos afectuoso que las versiones anteriores, según informó OpenAI, esto desató críticas por parte de los usuarios, que lo hallaron poco creativo y distante. En respuesta, este mes de agosto la compañía anunció que transformaría el tono de las respuestas, buscando que sean «más cálidas» e incorporando expresiones breves y personales como «Buena pregunta» o «Gran comienzo», sin caer en la adulación excesiva que caracterizaba a modelos anteriores. Resta conocer cómo se desenvolverá este nuevo modelo tras incorporar las últimas modificaciones.
Soluciones universales a problemas individuales
Aunque muchas personas encuentren en la inteligencia artificial una fuente de consuelo frente a problemas emocionales frecuentes, lo cierto es que las respuestas que herramientas como ChatGPT pueden ofrecer no son personalizadas, por mucho que el usuario explique su situación específica e individual.
«Utiliza recetas que ya están en la cultura. En primer lugar, no son soluciones adaptadas y particulares, sino frases hechas. Luego, el origen de estas soluciones no tienen por qué ser manuales de psicología, sino que son consejos que pueden encontrarse en determinadas páginas web», explica Fernández. En otras palabras, no se puede equiparar este contacto a la consulta con un profesional.
Pese a esta despersonalización, los chatbots generan una sensación de intimidad y conexión para muchos usuarios. «Al final, generan respuestas que en sí mismas ya producen un alivio emocional, por lo que pueden generar una falsa sensación de ayuda terapéutica, que refuerce la creencia de que la IA es sustituto de la psicología», advierte la psicóloga Pilar Conde.
Uso de alto riesgo
Es importante señalar que los organismos oficiales encargados de regular el uso de inteligencia artificial a nivel europeo califican ciertos usos de las tecnologías de IA en el contexto de la salud mental como uno «de alto riesgo». Así lo explica a La Voz de la Salud el equipo técnico de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia): «El uso de sistemas de inteligencia artificial para apoyo emocional o salud mental puede considerarse un caso de alto riesgo o incluso prohibido, dependiendo del uso específico. Si el uso es con fines médicos o terapéuticos, lo que incluiría cierto apoyo emocional o salud mental, el sistema se clasificaría como de alto riesgo y estaría sujeto a las obligaciones que el Reglamento de Inteligencia Artificial establece, pero no estaría prohibido».
No obstante, esta clasificación del uso «no se refiere al que efectúa la terapia, sino el que determina la admisibilidad de las personas al servicio o prestación. Se considera que un sistema de IA es de alto riesgo cuando tiene un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas. El derecho a la dignidad humana, el respeto de la vida privada, la protección de datos personales y el derecho a la salud son derechos fundamentales que se tienen en cuenta al clasificar un sistema como de alto riesgo», aclaran desde la Aesia.
Por esta razón, «los modelos de propósito general, los llamados LLM (Large Language Models, por sus siglas en inglés) o grandes modelos de lenguaje, que los usuarios pueden emplear como chatbots con cualquier finalidad, se someten al control y supervisión de la Oficina de Inteligencia Artificial de la Unión Europea y están sujetos, entre otras, a obligaciones específicas de transparencia, ciberseguridad y evaluación de riesgos», explica la entidad.
Para Pilar Conde, hablar con chats con inteligencia artificial como si fuesen profesionales y sin supervisión sanitaria conlleva riesgos para los usuarios que van desde dar por legítimas recomendaciones que no lo son, hasta retrasar la petición de ayuda a verdaderos servicios sanitarios. Pero quizás lo más alarmante sea la posibilidad de que se produzca una «vinculación social y emocional con estos recursos de IA, mermando el establecimiento de relaciones y causando una mayor dificultad en la discriminación de la respuesta, utilizando recursos inadecuados y dándolos por válidos», explica la experta.
«Tienes toda la razón»
Cualquiera que haya mantenido una conversación con ChatGPT habrá notado la tendencia que tiene esta herramienta a darle la razón al usuario o, como mínimo, a validar sus sentimientos y sus motivaciones, sin importar lo que diga. «Esta sensación de no ser juzgado es uno de los ingredientes más importantes en una terapia. Y es algo que en una inteligencia artificial se puede encontrar fácilmente. De todas maneras, una terapia tiene que consistir no solo en comprender a la persona, sino en ayudarla a salir de una situación que seguramente se esté perpetuando por algún motivo lógico pero poco útil. Es en este aspecto donde la inteligencia artificial seguramente falle», explica Fernández.
Si el usuario recurre a esta herramienta con la decisión ya tomada de cambiar su vida, es posible que este uso «pueda ayudarle a pensar y a profundizar, del mismo modo que leer un libro o escuchar experiencias de otras personas son elementos que pueden ayudar y en este sentido, puede llegar a ser útil para muchas personas», señala el experto.
«Pero lo que no vamos a encontrar en ella es una persona que se haga responsable de lo que está diciendo. Cuando alguien va a terapia, tiene delante a un profesional responsable que ha recibido una formación y tiene una ética que busca la mayor autonomía para la persona. Esto no te lo puede garantizar ninguna inteligencia artificial y es más, es posible que incluso en este afán de recetas prediseñadas haya valores culturales que sean más opresivos que los valores que pueden liberar que se pueden encontrar en una terapia», advierte.
En este sentido, la autonomía es un elemento clave para la salud mental de las personas y hay que tener en cuenta que la inteligencia artificial podría limitarla. «Si la persona lo utiliza de manera constante, esto va a hacer que no desarrolle sus propios recursos personales, reforzando creencias de no autoeficacia, llevándole a creer que sin la IA no sería capaz. Sabemos que la percepción de autoeficacia y autocapacidad son protectores del bienestar emocional que permiten a la persona confiar en sí misma», apunta Conde.
La recomendación para los usuarios para evitar estos riesgos pasa por intentar prescindir del uso de la inteligencia artificial para la toma de decisiones. «Antes de recurrir a ella, es mejor acudir a personas de confianza para ver qué nos recomendarían», sugiere Conde. La experta aconseja limitar el uso de la IA a situaciones puntuales, teniendo siempre presente su política de privacidad y conservando la capacidad de cuestionar sus recomendaciones en lugar de darlas por válidas automáticamente. En caso de estar bajo tratamiento psicoterapéutico, la psicóloga recomienda «hablarlo con el psicólogo para que se establezca cuándo sería adecuado las consultas, para que no se conviertan en herramientas de gestión inadecuadas».
«La inteligencia artificial se debería usar para abrir el campo, no para cerrarlo», sintetiza Fernández, subrayando la capacidad de esta herramienta para ayudarnos a visualizar todos los recursos que podríamos tener a disposición. En estos casos, «puede ser una herramienta poderosísima, pero siempre teniendo en cuenta que no es la solución, sino una ayuda en la búsqueda de soluciones».
Para quienes puedan tener dudas respecto de su uso, la Aesia cuenta con un buzón (info@aesia.gob.es) a disposición de toda la ciudadanía, a través del cual cualquier persona o empresa puede trasladar sugerencias o consultas a la agencia al respecto de sus funciones y la regulación actual en materia de inteligencia artificial.
Regulación en Europa
El uso de la inteligencia artificial para la realización de terapias o apoyo emocional, explica la Aesia, «no está explícitamente regulado», si bien en el contexto médico sí que se considera de alto riesgo la utilización de estas tecnologías para realizar diagnósticos o para apoyo en la toma de decisiones médicas. «Esta clasificación implica que, si bien están permitidos, están sujetos a requisitos estrictos de precisión, solidez y ciberseguridad».
Para los sistemas de IA de alto riesgo, la agencia especifica que «el diseño debe permitir una supervisión humana efectiva. Esto significa que las personas responsables del sistema deben poder comprender las capacidades y limitaciones de este para detectar anomalías, ser conscientes del sesgo de automatización (la tendencia a confiar excesivamente en los resultados de la IA), interpretar correctamente los resultados, decidir en cualquier situación concreta no utilizar el sistema o descartar, invalidar o revertir los resultados que genere y finalmente intervenir o detener el sistema de forma segura».
En el contexto de la salud, la IA debe verse como un apoyo a las decisiones humanas. En otras palabras, «la responsabilidad final y la intervención recaen en el profesional o el individuo. La posibilidad de descartar, invalidar o revertir los resultados de salida de la IA de alto riesgo es la salvaguardia clave que permite al usuario, o a un profesional, imponer un límite a la IA y buscar una opinión o intervención humana cuando lo considere necesario», señala la entidad.