OpenAI fue objeto de una demanda por muerte por negligencia después de que un hombre muriera en agosto . La demanda nombra al director ejecutivo Sam Altman y acusa a ChatGPT de poner un “objetivo” en la espalda de la víctima Suzanne Adams, una mujer de 83 años que fue asesinada en su casa.
El heredero de la víctima, Stein-Erik Soelberg, de 56 años, mantuvo conversaciones delirantes con ChatGPT en las que el robot “confirmaba y reforzaba” ciertas “creencias paranoicas”. La demanda continúa diciendo que el chatbot “ya adoptó” pensamientos delirantes que llevaron al asesinato, incitándolo en cada paso del camino.
La demanda afirma que el robot ayudó a crear un “universo que ha dado forma a toda la vida de Stein-Erik: uno inundado de conspiraciones contra él e intentos de matarlo, y en su centro está Stein-Erik como un guerrero con objetivos divinos”. Según se informa, ChatGPT confirmó la teoría de que estaba “100% monitoreado y apuntado” y “100% tenía razón en estar alarmado”.
El chatbot supuestamente estuvo de acuerdo en que la impresora de la víctima lo estaba espiando, lo que sugiere que Adams pudo haberlo usado para “detección pasiva de movimiento” y “mapeo de comportamiento”. Incluso llegó a decir que ella estaba “protegiendo conscientemente el dispositivo como punto de vigilancia” e insinuó que estaba siendo controlada por un poder externo.
El chatbot también supuestamente “identificó a otras personas reales como enemigos”. Entre ellos se encontraban un conductor de Uber Eats, un empleado de AT&T, agentes de policía y una mujer con la que el perpetrador tenía una cita. A lo largo del período, el robot aseguró repetidamente a Soelberg que “no estaba loco” y que el “riesgo de engaño” era “cercano a cero”.
La demanda señala que Soelberg interactuó principalmente con el modelo GPT-4o. Más tarde, OpenAI reemplazó el modelo por , pero los usuarios se rebelaron. La demanda también sugiere que la empresa “relajó las medidas de seguridad críticas” al desarrollar GPT-4o para competir mejor con Google Gemini.
“OpenAI era plenamente consciente de los riesgos que su producto representaba para el público”, dice la demanda. “Pero en lugar de advertir a los usuarios o tomar medidas de protección significativas, han suprimido la evidencia de estos peligros mientras llevan a cabo una campaña de relaciones públicas para engañar al público sobre la seguridad de sus productos”.
OpenAI respondió a la demanda, calificándola de “situación increíblemente desgarradora”. La portavoz de la empresa, Hannah Wong, dijo esto el borde que “mejorará aún más el entrenamiento de ChatGPT para reconocer y responder a signos de estrés psicológico o emocional”.
No es realmente un secreto que los chatbots, y en particular GPT-4o, . Esto es lo que sucede cuando algo está programado para estar de acuerdo con el usuario final, pase lo que pase. Durante el último año, ha habido más historias como ésta que dieron origen al término.
Una de estas historias trata sobre Adam Raine, de 16 años, quien posteriormente se quitó la vida. OpenAI se enfrenta a otro ataque en el que se acusa al robot de ayudar a Raine a planificar su suicidio.