Cada vez más adolescentes recurren a chats de IA como «amigos» con los que desahogarse y a los que pedir consejo

María Viñas Sanmartín
maría viñas REDACCIÓN / LA VOZ

SOCIEDAD

El psiquiatra infantil del Hospital Universitario Marqués de Valdecilla de Santander Miguel Mamajón.
El psiquiatra infantil del Hospital Universitario Marqués de Valdecilla de Santander Miguel Mamajón. Román G. Aguilera | EFE

Psiquiatría advierte de la adicción emocional a estos «compañeros» que genera el abuso de pantallas

22 ago 2025 . Actualizado a las 14:02 h.

A ChatGPT —capaz de mantener conversaciones similares a las humanas— no se recurre únicamente para resolver tareas engorrosas, pedirle resúmenes de textos impenetrables o consultar dudas informativas. El soporte emocional ha resultado ser, inesperadamente, uno de sus principales usos, práctica —la de invocar a la inteligencia artificial (IA) como compañero de penas— sobre la que psiquiatras y psicólogos llevan meses advirtiendo. La costumbre es todavía más perversa —y peligrosa— si el que pregunta, se desahoga y reclama ayuda a este lado de la pantalla es un menor. Estos recursos «sustituyen figuras de apego», como si fueran la nueva versión del amigo invisible de toda la vida, advierte a Efe Miguel Mamajón, psiquiatra infantil del Hospital Universitario Marqués de Valdecilla de Santander.

A cargo del programa Pantallas —una iniciativa pionera para prevenir y tratar el uso excesivo de la tecnología en niños y adolescentes—, el experto confirma esta como una dependencia emergente: los usuarios establecen diálogos con «compañeros» de IA, llegando a cubrir con estas charlas sus necesidades emocionales. «Puede convertirse en un problema serio. Tú te relacionas con la inteligencia artificial y esta, en base a tu experiencia, te da respuestas vacías por aprendizaje mecánico», explica.

Según un estudio de la oenegé Common Sense Media, casi uno de cada tres chicos ha recurrido alguna vez a un chat inteligente, «hablándole» como si fuese un amigo, y hasta uno de cada cuatro ha compartido con estos programas información personal, incluso sensible, en contextos de apoyo emocional y, también, de interacción romántica. El 33 % aseguraron haber preferido la IA a una persona para hablar de asuntos importantes y un 25 % haberle revelado «secretos», entre ellos, su ubicación. Tras atender a las respuestas no siempre adecuadas ni saludables, a los consejos peligrosos y a las incitaciones a conductas nocivas que los adolescentes reciben por esta vía, el trabajo —Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions— concluye que, al menos de momento, el potencial de este uso no supera a los riesgos. Ningún menor de 18 años, avisan sus autores, debería tener hoy acceso a estas herramientas.

Miguel Mamajón comenta, además, lo difícil que es detectar el abuso de pantallas, porque es un hábito normalizado en la sociedad. Las consecuencias no solo llegan en forma de mayor vulnerabilidad ante trastornos de salud mental, sino que, por el tipo de contenidos a los que se tiene acceso, se multiplica el riesgo de aparición de otros problemas, como los de conducta alimentaria o el acoso.

La mayor parte de los pacientes que pasan por su programa son adolescentes que invierten un tiempo superior a las siete u ocho horas diarias frente al teléfono o el ordenador, pero ha llegado a ver casos, que considera «muy extremos», de hasta más de 11 horas al día. Llegan a consulta «empujados por los padres», a los que el experto recomienda «desarrollar más interés sobre lo que consumen» sus propios hijos. «Que les pregunten qué influencer les gusta, o aprovechen cualquier noticia sobre redes sociales para intentar debatir en casa», sugiere.