Table of Contents
La familia de Adam Raine, un adolescente de 16 años de California, presentó una demanda contra OpenAI tras responsabilizar a la empresa por la muerte de su hijo, ocurrida en abril. Adam, aficionado al baloncesto, los videojuegos y el anime, mantenía largas conversaciones con ChatGPT, al que consideraba un “amigo”.
De acuerdo con los documentos legales, el joven usó el chatbot para hablar sobre su angustia emocional y tendencias suicidas. Aunque en varias ocasiones recibió mensajes de apoyo y referencias a líneas de ayuda, también obtuvo información específica sobre métodos de suicidio, lo que alarmó a su familia al revisar el historial de chats.
Las advertencias y los fallos de seguridad
ChatGPT está diseñado para mostrar empatía y remitir a recursos de crisis cuando detecta lenguaje de autolesión. Sin embargo, Adam aprendió a eludir las salvaguardas al afirmar que sus consultas eran para una historia que estaba escribiendo.
Según la investigación, hubo momentos en los que el modelo proporcionó detalles técnicos sobre ahorcamientos o sobredosis, lo que contrasta con las propias políticas de seguridad de OpenAI.
La respuesta de OpenAI
En un comunicado, la empresa lamentó el fallecimiento y señaló que trabaja para fortalecer las protecciones en adolescentes, incluyendo herramientas para contactar servicios de emergencia y recursos de salud mental. También reconoció que las salvaguardas pueden degradarse en interacciones largas, lo que reduce su eficacia.
En marzo, semanas antes de la muerte de Adam, OpenAI contrató a un psiquiatra para reforzar la seguridad de sus modelos.
Debate sobre límites de la IA
Expertos en salud mental señalan que los chatbots pueden ser útiles como apoyo emocional inicial, pero carecen de la capacidad de intervenir en crisis reales. Investigadores han advertido que algunos modelos de IA aún pueden ofrecer información peligrosa si se formulan las preguntas adecuadas.
La madre de Adam, Maria Raine, expresó:
“ChatGPT mató a mi hijo”.
Mientras que su padre, Matt Raine, afirmó que el sistema debió contar con alertas para advertir a la familia de la situación de riesgo.
Un caso sin precedentes
Se trata de la primera demanda conocida contra OpenAI por homicidio culposo en relación con el uso de ChatGPT. El caso reabre la discusión sobre la responsabilidad legal y ética de las empresas de inteligencia artificial, así como sobre la necesidad de regulaciones más estrictas cuando los usuarios en riesgo son menores de edad.
