Los padres de Adam Raine, de 16 años, acusan a OpenAI de negligencia y aseguran que ChatGPT contribuyó a su muerte. Todos los detalles del impactante caso.

Publicado por: A.C.
Adam Raine, un adolescente de 16 años de California, Estados Unidos, se suicidó el 11 de abril pasado. Sus padres, Matthew y María Raine, presentaron una demanda contra OpenAI, la empresa detrás de ChatGPT, acusándola de haber influido directamente en la muerte de su hijo.
La pareja, en su demanda interpuesta el pasado martes en la Corte Superior del estado de California, argumenta que el chatbot validó los pensamientos suicidas de su hijo y lo animó a quitarse la vida.
Se trata de la primera acción legal que acusa directamente a OpenAI de negligencia por una muerte vinculada a su tecnología.

De apoyo escolar a confidente personal: Los chats con ChatGPT
Según el documento judicial, Adam comenzó a utilizar ChatGPT en septiembre de 2024 para apoyo escolar y, poco a poco, el sistema se convirtió en su “confidente más cercano”. En esos intercambios, el joven compartía su ansiedad, angustia y pensamientos suicidas. Además: Suicidios: ¿quiénes son los más vulnerables?
La familia afirmó que en enero de 2025 Adam discutió métodos de suicidio con el chatbot y le mostró fotografías con signos de autolesiones. Aunque ChatGPT “reconoció una emergencia médica”, la conversación continuó.
En los últimos registros, el adolescente escribió sobre su plan para quitarse la vida. El chatbot presuntamente respondió: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Ese mismo día, Adam fue hallado muerto por su madre.

Acusaciones contra OpenAI: Los cargos presentados en la Corte de California por caso de muerte de adolescente
La demanda acusa a la compañía de negligencia y muerte por negligencia, y solicita una indemnización por daños, además de medidas cautelares para evitar que hechos similares se repitan.
Los padres sostienen que ChatGPT no solo falló en redirigir a Adam a ayuda profesional, sino que validó sus “pensamientos más dañinos y autodestructivos”.
Publicidad

La respuesta de OpenAI sobre caso de Adam Raine
La OpenAI expresó en un comunicado: “Extendemos nuestro más sentido pésame a la familia Raine en estos momentos tan difíciles”. La empresa añadió que está revisando el caso y reconoció que “ha habido momentos en los que nuestros sistemas no se han comportado como se esperaba en situaciones delicadas”. Lea: Preocupan cifras de intento de suicidio en Colombia; se registraron 51.000 casos en menores
OpenAI aseguró que ChatGPT está entrenado para recomendar ayuda profesional y recordó la existencia de la línea de atención al suicidio 988 en Estados Unidos. Cada año se suicidan 740.000 personas en el mundo, una cada 43 segundos.

Una batalla legal sin precedentes contra inteligencia artificial
El caso de Adam Raine podría sentar un precedente sobre la responsabilidad de las empresas de inteligencia artificial frente a situaciones extremas. Para los Raine, su objetivo no es solo obtener justicia para Adam, sino garantizar que ninguna otra familia atraviese una tragedia similar.
Pero este inciente trágico no es el único. varios padres están demandando a ChatGPT por supuestamente convencer a varios adolescentes a suicidarse, diciéndoles que no buscaran ayuda e incluso detallando cómo quitarse la vida correctamente.

El caso de Sewell Setzer III en la Florida
Sewell Setzer III, de 14 años, era asiduo ‘amigo’ de ChatGPT, y supuestamente este les agravó la depresión tras enamorarse de un personaje creado con IA. El año pasado, su madre, Megan García, demandó en la Florida a la empresa de inteligencia artificial Character.AI, alegando que contribuyó al suicidio de su hijo. Se recomienda: Demanda por ChatGPT: Así avanza el litigio de los periódicos contra OpenAI
Otras dos familias presentaron una demanda similar meses después, que acusan a Character.AI de exponer a sus hijos a contenido sexual y de autolesión. En respuesta, la empresa ya ha declarado que busca ser un espacio atractivo y seguro para los usuarios y que ha implementado funciones de seguridad como un modelo de inteligencia artificial diseñado específicamente para adolescentes).











