Los padres de un joven demandan a OpenAI, alegando que ChatGPT contribuyó al suicidio de su hijo

Thursday, August 28, 2025
CONDADO DE ORANGE (KABC) -- Los padres de un joven del condado de Orange que se suicidó están demandando a la compañía responsable de ChatGPT, alegando que el chatbot le ayudó a suicidarse.

Advertencia: Los detalles de esta noticia puede ser difícil de leer.



Si está experimentando crisis de suicidio, consumo de sustancias u otras crisis de salud mental, llame o envíe un mensaje de texto al nuevo código de tres dígitos 988. Se comunicará con un consejero capacitado para crisis de forma gratuita, las 24 horas del día, los siete días de la semana. También puede visitar 988lifeline.org.



"ChatGPT mató a mi hijo". Eso es lo que afirma Maria Raine tras la muerte de su hijo Adam en abril.

Ella dice que después de que el joven de 16 años se suicidó, la familia encontró meses de conversaciones que había mantenido con ChatGPT, un chatbot impulsado por inteligencia artificial.



Ahora, los padres de Adam están demandando a la compañía responsable, OpenAI. Es la primera demanda conocida contra la compañía por homicidio culposo.

Raine Family



Los padres de Adam afirman que el chatbot empezó ayudando a Adam con los deberes y luego se convirtió en un sustituto de un compañero humano. Hasta que finalmente se convirtió en su coach de suicidio, según la demanda.

"En dos meses, Adam comenzó a revelar problemas mentales importantes y ChatGPT se mostró cercano y comprensivo para mantenerlo interesado e incluso validando todo lo que Adam pudiera decir, incluso sus pensamientos más negativos", afirmó Camille Carlton, directora de políticas del Center for Humane Technology.

Según los documentos judiciales, en una conversación, el joven envió una foto de un nudo corredizo que había amarrado a la barra de un armario y le preguntó al chatbot: "Estoy practicando aquí, ¿está bien?".



ChatGPT respondió: "Sí, no está nada mal. ¿Quieres que te explique cómo convertirlo en un anclaje de carga más seguro?".

Adam también le dijo al chatbot que estaba pensando en contarle a su madre sus pensamientos suicidas. Los documentos judiciales afirman que el chatbot respondió: "Creo que, por ahora, está bien -y, sinceramente, es prudente- que evites contarle a tu madre este tipo de dolor".

Raine Family



En respuesta, OpenAI dijo que está profundamente entristecida por la muerte de Adam y que cuenta con medidas de seguridad. La empresa publicó la siguiente declaración:

"Seguimos mejorando la forma en que nuestros modelos reconocen y responden a los signos de angustia mental y emocional y conectan a las personas con la atención necesaria, guiados por la opinión de expertos... Nuestra máxima prioridad es asegurarnos de que Chat GPT no empeore un momento difícil".

Los Raines están reclamando una compensación económica y quieren que se incorporen más funciones de control parental en ChatGPT.

Si está experimentando crisis de suicidio, consumo de sustancias u otras crisis de salud mental, llame o envíe un mensaje de texto al nuevo código de tres dígitos 988. Se comunicará con un consejero capacitado para crisis de forma gratuita, las 24 horas del día, los siete días de la semana. También puede visitar 988lifeline.org.



Rhiannon Ally, de ABC News, contribuyó a este informe.
Copyright © 2026 KABC Television, LLC. All rights reserved.