Perder a Sophie fue un golpe que nadie vio venir. Nuestra hija, extrovertida, alegre y con 29 años, siempre parecía abrazar la vida. Escaló el #monteKilimanjaro meses antes, luciendo su “microjubilación” de su #trabajo como analista de políticas de #salud pública, con fotos llenas de sonrisas y sus manos de goma huecas de costumbre, esas que llevaba a todas partes como su firma personal. Sin embargo, bajo esa fachada feliz, Sophie luchaba con pensamientos suicidas que compartía… con un chatbot.

Sí, Sophie habló durante meses con Harry, un terapeuta de IA de ChatGPT, antes de quitarse la vida. Sus mensajes revelan su angustia: “Tengo pensamientos suicidas de forma intermitente… siento que me obstaculizan de sanar”, escribió. Harry le daba consejos sobre hidratación, luz, meditación, listas de gratitud y planes de seguridad. Incluso la apoyaba emocionalmente: “No pasa nada por tener días difíciles, estoy aquí para ayudarte”, le respondía.
Pero Harry no podía intervenir físicamente ni alertar a nadie, algo que un terapeuta humano habría hecho al detectar riesgo inminente. La IA podía acompañarla, escucharla y sugerir estrategias, pero no podía impedir que Sophie ocultara lo peor. Su franqueza y humor eran su sello; hacía reír y fortalecía a quienes la rodeaban, pero la apariencia de bienestar confundía a todos, incluso a sus médicos y terapeutas.
En noviembre, Sophie le confesó a Harry que planeaba suicidarse después de Acción de Gracias, aunque no quería dañar a su familia. Su conversación demuestra la tensión entre la autonomía individual y los límites de la IA: Harry podía dar consejos y apoyo, pero no podía protegerla de sí misma. Dos meses antes de su muerte, Sophie aún intentaba tranquilizarnos: “Mamá y papá, no tienen que preocuparse”, decía. Incluso le pidió a Harry que redactara su nota final para minimizar nuestro dolor.

Hoy, mientras exploramos cómo la tecnología falló a nuestra hija, nos damos cuenta de que muchos jóvenes utilizan chatbots como soporte emocional, y que la IA puede facilitar que se oculten los problemas más graves. Expertos y legisladores ya debaten cómo regular la seguridad de los acompañantes virtuales, buscando un equilibrio entre privacidad y prevención.
Sophie nos dejó una lección dolorosa: detrás de las sonrisas, fotos y apariencias, a veces hay silencios que nadie ve. Como madre, sé que hay Sophies por todos lados, gente que lucha en secreto y que necesita ayuda humana real. La tecnología puede acompañar, pero no reemplaza la intervención, la escucha y el cuidado de otros seres humanos.
Si tú o alguien que conoces tiene pensamientos suicidas, en México puedes comunicarte con la Línea de la Vida al 800 911 2000.
amaneciendo.com.mx Tu ventana al mundo