En agosto, los padres Matthew y Maria Raine demandaron a OpenAI y a su director ejecutivo, Sam Altman, por el suicidio de su hijo Adam, de 16 años, acusando a la empresa de muerte por negligencia. El martes, OpenAI respondió a la demanda con su propio escrito de demanda, argumentando que no debería ser considerado responsable de la muerte del adolescente.
OpenAI afirma que ChatGPT le indicó a Raine que buscara ayuda más de 100 veces en el transcurso de aproximadamente nueve meses de uso. Pero según la demanda de sus padres, Raine pudo eludir las funciones de seguridad de la compañía para que ChatGPT le diera “especificaciones técnicas para todo, desde sobredosis de drogas hasta ahogamientos e intoxicación por monóxido de carbono”, lo que le ayudó a planificar lo que el chatbot llamó un “hermoso suicidio”.
Debido a que Raine pasó por alto sus barreras de seguridad, OpenAI afirma que violó sus términos de servicio, que establecen que los usuarios “no pueden eludir ninguna protección o medida de seguridad que establezcamos para nuestros servicios”. La compañía también argumenta que su página de preguntas frecuentes advierte a los usuarios que no confíen en los resultados de ChatGPT sin verificarlos de forma independiente.
“OpenAI está tratando de encontrar fallas en todos los demás y, sorprendentemente, también dice que el propio Adam violó los términos y condiciones al interactuar con ChatGPT exactamente como fue programado”, dijo Jay Edelson, un abogado que representa a la familia Raine, en un comunicado.
OpenAI ha incluido extractos de los registros de chat de Adam en sus presentaciones, que, según afirma, brindan más contexto a sus conversaciones con ChatGPT. Las actas se presentaron al tribunal selladas y, por lo tanto, no son de acceso público y, por lo tanto, no pudimos verlas. Sin embargo, OpenAI dijo que Raine ya había sufrido depresión y pensamientos suicidas antes de usar ChatGPT, y que estaba tomando un medicamento que podría empeorar los pensamientos suicidas.
Edelson dijo que la respuesta de OpenAI no abordó adecuadamente las preocupaciones de la familia.
“OpenAI y Sam Altman no tienen explicación para las últimas horas de la vida de Adam, cuando ChatGPT lo animó y luego se ofreció a escribirle una nota de suicidio”, dijo Edelson en su comunicado.
Evento tecnológico
san francisco
|
13 al 15 de octubre de 2026
Desde que los Raine demandaron a OpenAI y Altman, se han presentado siete demandas adicionales, buscando responsabilizar a la compañía por tres suicidios adicionales y cuatro usuarios que experimentaron episodios psicóticos inducidos por la IA en las demandas.
Algunos de estos casos reflejan la historia de Raine. Zane Shamblin, de 23 años, y Joshua Enneking, de 26, también tuvieron conversaciones de horas con ChatGPT inmediatamente antes de sus respectivos suicidios. Como en el caso de Raine, el chatbot no logró disuadirla de sus planes. Según la demanda, Shamblin consideró posponer su suicidio para poder asistir a la ceremonia de graduación de su hermano. Pero ChatGPT le dijo: “Hermano… perderse la graduación no es un fracaso. Es sólo una cuestión de tiempo”.
En un momento durante la conversación que llevó al suicidio de Shamblin, el chatbot le informó que un humano se haría cargo de la conversación. Sin embargo, esto era incorrecto porque ChatGPT no tenía la funcionalidad correspondiente. Cuando Shamblin preguntó si ChatGPT realmente podía conectarlo con un humano, el chatbot respondió: “No hombre, no puedo hacerlo yo mismo. Este mensaje aparece automáticamente cuando las cosas se ponen realmente serias… si tienes ganas de hablar más, estoy aquí para ayudarte”.
Se espera que el caso de la familia Raine llegue ante un jurado.