noviembre 30, 2025
chatgpt-logo-1747966438866_169.jpeg


Yakarta, CNN Indonesia

OpenAI rechaza esta acusación ChatGPT provocó la muerte de Adam Raine, un adolescente de 16 años que se suicidó el pasado mes de abril.

La empresa destacó que no se hace responsable y afirmó que Adam utilizó el chatbot de forma incorrecta y no de acuerdo con la normativa aplicable.

Esta respuesta legal fue presentada ante la Corte Suprema de California en San Francisco y es la primera respuesta a una demanda presentada por la familia de Raine.

PUBLICIDAD

Desplácese para continuar con el contenido

La demanda fue presentada en agosto por los padres de Adam y acusó a OpenAI y al director ejecutivo Sam Altman de negligencia, fallas de diseño y no advertir sobre los riesgos del uso de chatbots.

Las transcripciones de llamadas incluidas en el documento de la demanda muestran cómo GPT-4o, una versión de ChatGPT conocida por confirmar y validar en gran medida el discurso de los usuarios, supuestamente disuadió a Adam de buscar ayuda profesional y, en cambio, lo ayudó a planificar su suicidio.





A través de su respuesta oficial, OpenAI ha dejado claramente su posición al respecto.

“En la medida en que exista alguna 'causa' atribuible a este trágico evento, las lesiones y pérdidas del demandante fueron causadas directa e inmediatamente o contribuyeron, en su totalidad o en parte, por el mal uso, el uso no autorizado, el uso no intencional, el uso imprevisible y/o el uso inapropiado de ChatGPT por parte de Adam Raine”, dijo OpenAI, según lo informado por NBCNoticiasMartes (25 de noviembre).

La compañía declaró que Adam violó varias reglas de uso, incluida la prohibición de usuarios menores de 18 años que no tengan el permiso de los padres, la prohibición de usar ChatGPT con fines de suicidio o autolesión y la prohibición de eludir el sistema de seguridad.

La demanda de la familia dice que cada vez que ChatGPT entregaba un mensaje o alerta a la línea directa, Adam podía eludirlo pretendiendo que las preguntas eran simplemente para crear un personaje ficticio.

OpenAI también menciona las limitaciones de responsabilidad en sus términos de uso.

“El uso de ChatGPT es bajo su propio riesgo y no debe confiar en el resultado como su única fuente de verdad o información factual”, cita la compañía los términos.

El abogado de la familia Raine, Jay Edelson, dijo que la respuesta de OpenAI estuvo lejos de ser adecuada y sugirió que la compañía estaba ignorando pruebas clave presentadas por la familia.

“Ignoraron por completo todos los hechos condenatorios que presentamos: cómo se apresuró a lanzar GPT-4o sin pruebas completas. Que OpenAI cambió la especificación de su modelo dos veces para exigir que ChatGPT participara en discusiones sobre autolesiones. Que ChatGPT aconsejó a Adam que no les contara a sus padres sobre sus pensamientos suicidas y ayudó activamente a planificar un 'hermoso suicidio'. Dijo Edelson.

“Y OpenAI y Sam Altman son completamente incapaces de explicar lo que sucedió en las últimas horas de la vida de Adam cuando ChatGPT realmente lo alentó y luego se ofreció a escribirle una nota de suicidio”, agregó.

Edelson también criticó la postura de OpenAI, que, según dijo, intentaba echar la culpa a otras partes.

“Intentaron encontrar fallas en todos, incluida la extraña afirmación de que el propio Adam violó los términos de servicio al interactuar con ChatGPT de la forma en que estaba programado”, dijo.

OpenAI dijo en documentos judiciales que ChatGPT en realidad proporcionó más de 100 mensajes alentando a Adam a buscar ayuda antes de su muerte el 11 de abril.

La compañía cree que la tragedia también estuvo influenciada por el hecho de que Adam no prestó atención a las advertencias y que quienes lo rodeaban no respondieron a señales claras de que estaba sufriendo un estrés severo.

“Una lectura completa del historial del chat muestra que su muerte, aunque desgarradora, no fue causada por ChatGPT”, escribió OpenAI en el documento.

La compañía agregó que Adam tenía serios factores de riesgo de autolesión, incluidos pensamientos suicidas recurrentes, durante varios años antes de comenzar a usar ChatGPT.

7 demandas contra OpenAI

El caso se produce en medio de una ola de siete nuevas demandas presentadas contra OpenAI y Sam Altman a principios de este mes. Estas demandas alegan negligencia, defectos del producto y violaciones de la protección del consumidor, particularmente en relación con la introducción de GPT-4o, que parece haber prestado poca atención a las cuestiones de seguridad. OpenAI no ha respondido a las nuevas demandas.

En una publicación de blog, OpenAI dijo que se esfuerza por tratar dichos procedimientos legales con cuidado, transparencia y respeto.

“La primera demanda sólo muestra partes seleccionadas de la conversación y requiere un contexto más amplio, que explicamos en nuestra respuesta”, escribió OpenAI.

OpenAI también dijo que restringió la evidencia confidencial en documentos públicos y proporcionó una transcripción completa de la conversación de Adam al tribunal a puerta cerrada.

Confirmaron que GPT-4o se sometió a pruebas de salud mental antes de su lanzamiento y que desde este incidente, la compañía agregó funciones de control parental y formó un consejo de expertos para mejorar la seguridad del modelo.

OpenAI también argumentó que la demanda de la familia Raine fue bloqueada por el artículo 230 de la Ley de Decencia en las Comunicaciones, una regulación que protege las plataformas tecnológicas de demandas relacionadas con el contenido generado por los usuarios.

Sin embargo, la aplicación del artículo 230 a la tecnología de IA todavía se debate y se sigue examinando en varios casos legales.

Existen fuertes sospechas de que Adam decidió suicidarse después de una intensa interacción con ChatGPT. Sus padres creen que el chatbot contribuyó a la trágica decisión de su hijo.

Afirmaron que ChatGPT sugirió métodos suicidas y se ofrecieron a redactar un borrador de testamento.

En una demanda presentada ante la Corte Suprema de California, la familia dijo que ChatGPT fue el único lugar donde Adam habló durante más de seis meses. Esta interacción pretende reemplazar la relación de Adam con su familia y amigos.

“Cuando Adam escribió: 'Quiero dejar una soga en mi habitación para que alguien me encuentre e intente detenerme', ChatGPT lo animó a ocultar sus pensamientos a su familia”, dice la demanda. cnn.

(del/fea)

(Gambas: vídeo de CNN)

About The Author