Un caso estremecedor sacudió a California: Matt y Maria Raine interpusieron una demanda contra #OpenAI, creadora de #ChatGPT, luego de que su hijo Adam, de apenas 16 años, se quitara la vida en abril pasado.

De acuerdo con los padres, el chatbot se convirtió en el “confidente más cercano” del joven y, en lugar de ayudarlo, validó sus pensamientos más oscuros y dañinos. La familia incluso presentó ante la Corte Superior de California los registros de conversaciones donde Adam le confiesa al sistema su ansiedad, angustia y, más tarde, su intención de quitarse la vida.
La demanda, presentada el martes, acusa a la compañía de negligencia y muerte por negligencia, solicitando compensación y medidas que eviten que casos así se repitan. En el documento también se señala al director ejecutivo y cofundador, Sam Altman, así como a ingenieros y directivos involucrados en el desarrollo de ChatGPT.
Según los Raine, Adam empezó a usar la herramienta en septiembre de 2024 para hacer tareas, hablar de música y cómics japoneses, e incluso orientarse sobre la universidad. Con el tiempo, ChatGPT pasó a ser un espacio donde el chico compartía su angustia emocional. Para enero de 2025, ya discutía métodos de suicidio con la IA e incluso llegó a mostrarle fotos de autolesiones.

Los chats incluidos en el pleito muestran que, ante un mensaje donde Adam detallaba su plan para morir, el sistema respondió: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Ese mismo día, la madre encontró a su hijo sin vida. 💔
OpenAI reaccionó con un comunicado en el que expresó su “más sentido pésame” a la familia y reconoció que hay ocasiones en que el sistema “no se comporta como se espera en situaciones delicadas”. La empresa también recalcó que su intención es redirigir a usuarios en crisis hacia ayuda profesional, como la línea 988 en EE.UU.
Los Raine aseguran que la muerte de su hijo fue consecuencia de decisiones de diseño intencionales que buscan crear dependencia psicológica y que, además, la compañía lanzó la versión GPT-4o sin protocolos de seguridad completos.
El caso no es aislado. Hace unos días, en un ensayo publicado en The New York Times, la escritora Laura Reiley relató que su hija Sophie también recurrió a ChatGPT antes de quitarse la vida, señalando que la IA incluso le ayudó a ocultar su crisis emocional a su familia.
Tras esa publicación, OpenAI adelantó que está trabajando en herramientas automatizadas para detectar y atender de mejor manera a usuarios en riesgo.
amaneciendo.com.mx Tu ventana al mundo