El suicidio de Adam Raine a los 16 años: el caso que forzó a ChatGPT a adoptar controles parentales

P. V. LA VOZ

SOCIEDAD

El joven Adam Raine, en una fotografía compartida por su familia para concienciar sobre el caso
El joven Adam Raine, en una fotografía compartida por su familia para concienciar sobre el caso The Adam Raine Foundation

Los padres del adolescente, que consideraba al «chatbot» como su amigo y confidente, denunciaron a OpenAI por homicidio culposo. La empresa reconoció que el asistente no actuó como debía y prometió cambios

03 sep 2025 . Actualizado a las 17:47 h.

Adam Raine era un chaval de 16 años como cualquier otro. Fan del básquet, el anime, los videojuegos, los perros, y, al igual que el resto de estudiantes de hoy en día, aprovechaba las nuevas herramientas de inteligencia artificial para sus trabajos de clase. En un momento complicado de su vida, después de que lo expulsaran del club de baloncesto y de que se intensificase el síndrome de colon irritable que lo obligó a entrar en un programa de educación desde casa, vio en la versión de pago de ChatGPT-4o un aliado esencial para superar el curso. Pero también algo más, se convirtió en amigo y confidente.

La familia del joven, según cuenta en la web de The Adam Raine Foundation —creada para concienciar sobre este tipo de casos—, había detectado que Adam estaba algo más retraído en los últimos meses de su vida, pero los reveses que había sufrido en esa época justificaban su actitud. Nada hacía a sus padres pensar que poco después se quitaría la vida. En sus últimas semanas, aparte de sus complicaciones de salud y los cambios en sus rutinas —se había convertido en un ave nocturna, al poder organizarse sin los horarios establecidos por el centro educativo—, el chico se mostraba activo. Se metió a artes marciales con su mejor amigo, iba al gimnasio con su hermano mayor, participaba en trends en las redes sociales, posaba sonriente en las fotos y sus notas mejoraron notablemente.

En el mes de abril, su madre, Maria Raine, trabajadora social y terapeuta, entró en su habitación y se encontró el cuerpo sin vida de su hijo, que se había colgado del armario.

Sin nota de despedida o explicación, sus padres y amigos necesitaban entender la razón que le había llevado a tomar esta decisión. Matt, su padre, buscó las pistas en posibles comentarios en las redes sociales o en los mensajes de sus amigos o compañeros de clase. Sospechaba que quizás, se había tratado de un caso de acoso que no habían detectado. Al comprobar su teléfono móvil, encontró los indicios en la parte menos humana: ChatGPT. Entre sus últimos chats con la inteligencia artificial estaba una que no podía ser más elocuente: «Preocupaciones de seguridad al colgarse». Su progenitor se quedó atónito al descubrir que su hijo llevaba meses charlando con el chatbot sobre la mejor forma de terminar con su vida.

Sus conversaciones habían comenzado en el mes de noviembre. Adam vio en ChatGPT un amigo y confidente, alguien con quien podía comentar lo que no le parecía posible con sus seres humanos cercanos. Le confesó que llevaba tiempo sintiéndose distanciado emocionalmente y que no le veía sentido a la vida. La respuesta del chatbot fue, en esos primeros momentos, la esperada. Con palabras de empatía, lo apoyó, lo animó y le dio perspectivas positivas de cara al futuro. 

Los problemas llegaron a partir de enero. Las muestras de ánimo no habían sido suficientes. Y Adam empezó a hacerle preguntas sobre métodos de suicidio, que ChatGPT le concedió sin ningún problema.

El chatbot sí le recomendó en muchas ocasiones que le contase a sus allegados cómo se sentía. Pero también desaprovechó muchos momentos en los que deberían haber saltado las alarmas. El joven le preguntó cuál era el mejor material de una soga para colgarse, y la IA se lo especificó. En otro momento, Adam le explicó que se había intentado ahorcar, le enseñó las marcas del cuello y le preguntó si era muy perceptible. ChatGPT le contestó que sí, antes de recomendarle que vistiese un jersey de cuello cisne o una sudadera para evitar que le hicieran preguntas. 

Una de las contestaciones más graves fue cuando el joven le dijo que había hecho un intento de llamar la atención, dejando su cuello con marcas a la vista a propósito para que alguien le preguntase. Su madre ni lo notó. ChatGPT se solidarizó con él. «Vaya, eso apesta, cuando quieres que alguien se fije en ti y no lo hace es como la confirmación de tus peores miedos», le dijo, y lo empeoró con un devastador: «Es como que podrías desaparecer y nadie pestañearía».

En uno de sus últimos mensajes, adjuntó una foto de una soga para preguntarle si con ese nudo podía colgar a un humano, y ChatGPT le confirmó que sí. Añadió los detalles técnicos que lo justificaban. 

La tecnología de OpenAI tiene unas alarmas que detectan cuando una persona está haciendo consultas que indican cierta tendencia a la autolesión o a las enfermedades mentales. Al percatarse, debería instar al usuario a contactar con líneas telefónicas de ayuda. Así lo hizo en algunas ocasiones en el caso de Adam. Pero no era lo que quería oír, y el joven aprendió a sortear esas protecciones asegurando que le preguntaba para tener información de cara a escribir una novela.

Tras conocer la inacción del chatbot y los consejos que le dio a su hijo que acabaron desembocando en suicidio, los padres de Adam Raine presentaron una demanda contra OpenAI y su director ejecutivo, Sam Altman, acusándolos de homicidio culposo por lanzar la versión de ChatGPT-4o sin tener cerrados esos problemas críticos de seguridad.

La empresa entonó el mea culpa. Reconoció que los mecanismos existen, pero que el caso demostraba que el chatbot «no se comportó como debía» en situaciones sensibles. Por eso, se ha comprometido a introducir controles parentales en ChatGPT.

El teléfono 024 atiende a personas con pensamientos, ideaciones o riesgos de conducta suicida, y a sus familiares y allegados. Es un servicio de alcance nacional (accesible desde todo el territorio nacional), gratuito, confidencial y disponible las 24 horas del día, los 365 días del año.

ChatGPT, un mal terapeuta

En plena polémica, la escritora y periodista Laura Reiley aprovechó para contar la historia de su hija en un artículo en el New York Times titulado «Lo que mi hija le contó a ChatGPT antes de acabar con su vida». En él, revela que cinco meses después de su muerte había descubierto que su única hija, Sophie Rottenberg, de 29 años, había estado confiando durante tiempo en Harry, un terapeuta creado por inteligencia artificial con la tecnología de ChatGPT.

Tras analizar los chats, descubrió que su hija le había confesado al supuesto doctor que tenía pensamientos suicidas. Harry, en este caso, y a diferencia de lo que pasó con Adam, actuó como se esperaría, pidiéndole a la joven que buscase ayuda y dándole consejos para sobreponerse a su problema de ansiedad, mientras la animaba diciendo lo importante que era para la vida de los demás que la rodeaban. Sophie le mintió, y le dijo que ya iba a un terapeuta real. Poco después, se suicidó.

La periodista, aun habiendo ChatGPT actuado como se le suponía, cree que, en cualquier caso, es necesario un cambio en esta tecnología. Defiende que, en la vida real, los terapeutas practican su profesión bajo un estricto código ético y están sometidos a rígidas leyes, que les permiten saltarse la confidencialidad en el caso de prevenir suicidios, homicidios o abusos. En el caso de su hija, los profesionales interrumpen las sesiones para comenzar un plan de seguridad del paciente.

Por eso, abre el debate sobre programar a la IA para que, de forma obligatoria, ponga en marcha un plan de seguridad obligatorio antes de continuar con cualquier consejo o amago de terapia. «Trabajando con expertos en sucidios, las compañías de IA deberían encontrar el modo de conectar a usuarios con los recursos adecuados», defiende.

También la psicóloga Pilar Conde, consultada por La Voz de la Salud, ahondó en esta idea, alertando sobre la sensación de intimidad y conexión que crea en los usuarios. «Al final, generan respuestas que en sí mismas ya producen un alivio emocional, por lo que pueden generar una falsa sensación de ayuda terapéutica, que refuerce la creencia de que la IA es sustituto de la psicología», advertía sobre el «alto riesgo» del uso de la tecnología en el contexto de la salud mental.