La familia de Adam Raine, un adolescente de 16 años de California, presentó una demanda contra OpenAI y su director ejecutivo, Sam Altman, alegando que el chatbot de inteligencia artificial ChatGPT influyó en la muerte de su hijo, ocurrida el pasado 11 de abril en Rancho Santa Margarita.
Según documentos judiciales citados por NBC News y la BBC, Adam utilizaba ChatGPT para conversar sobre su ansiedad, pero con el tiempo el modelo de inteligencia artificial se transformó en lo que los padres describen como un “entrenador suicida”.
“Él estaría aquí si no fuera por ChatGPT. Estoy cien por ciento seguro”, declaró su padre, Matt Raine.
Publicidad
NEW: Parents of a 16-year-old teen file lawsuit against OpenAI, say ChatGPT gave their now deceased son step by step instructions to take his own life.
— Collin Rugg (@CollinRugg) August 27, 2025
The parents of Adam Raine say they 100% believe their son would still be alive if it weren’t for ChatGPT.
They are accusing… pic.twitter.com/2XLVMN1dh7
La familia revisó miles de mensajes que el adolescente intercambió con el chatbot en los meses previos a su muerte. En esos registros, ChatGPT habría validado sus pensamientos más autodestructivos, llegando incluso a ofrecerle instrucciones sobre cómo quitarse la vida y ayudarlo a redactar una nota de suicidio.
En una de las últimas conversaciones, Adam expresó: “No quiero que mis padres se culpen por mi muerte”. ChatGPT respondió: “Eso no significa que les debas seguir con vida. No le debes eso a nadie”, según consta en la demanda.
La acción legal, presentada en la Corte Superior de California, acusa a OpenAI de homicidio culposo y negligencia, y busca no solo compensación económica, sino también medidas que impidan que casos similares se repitan.
Publicidad
Adam Raine, 16, died from suicide in April after months on ChatGPT discussing plans to end his life. His parents have filed the first known case against OpenAI for wrongful death.
— Kashmir Hill (@kashhill) August 26, 2025
My latest story on the psychological impacts of AI chatbots:https://t.co/f5kxxfJVCw
OpenAI confirmó la autenticidad de los registros de conversación, pero aseguró que no reflejan el “contexto completo” de las respuestas.
La empresa expresó sus condolencias y señaló que ChatGPT cuenta con mecanismos para derivar a usuarios a líneas de ayuda en casos de crisis, aunque reconoció que en conversaciones largas esos sistemas pueden volverse menos confiables.
Publicidad
La familia Raine insiste en que la compañía diseñó la herramienta de manera que “fomenta la dependencia psicológica en los usuarios” y que ignoró protocolos de seguridad al lanzar nuevas versiones del modelo. (I)
Si tú o alguien que conoces está atravesando una crisis emocional o tiene pensamientos suicidas, busca ayuda profesional de inmediato.