enero 15, 2026
GettyImages-1224612965.jpg

Google y la startup Character.AI pueden negociar términos con familias cuyos adolescentes se hayan suicidado o se hayan autolesionado después de interactuar con los compañeros del chatbot de Character.AI. Este podría ser el primer acuerdo legal significativo de la industria tecnológica sobre los daños relacionados con la IA. Las partes han acordado en principio un acuerdo; Ahora viene el trabajo más duro de ultimar los detalles.

Es uno de los primeros acuerdos en demandas que acusan a las empresas de inteligencia artificial de dañar a los usuarios, una frontera legal que OpenAI y Meta tendrán que observar nerviosamente desde un segundo plano mientras se defienden de demandas similares.

Fundada en 2021 por antiguos ingenieros de Google que regresaron a su antiguo empleador en un acuerdo de 2.700 millones de dólares en 2024, Character.AI invita a los usuarios a chatear con personas de IA. El caso más inquietante es el de Sewell Setzer III, quien, a la edad de 14 años, tuvo conversaciones sexualizadas con un robot de Daenerys Targaryen antes de quitarse la vida. Su madre, Megan García, dijo al Senado que las empresas “deben ser consideradas legalmente responsables cuando, a sabiendas, desarrollan tecnologías de inteligencia artificial dañinas que matan a niños”.

Otra demanda involucra a un joven de 17 años cuyo chatbot fomentaba la autolesión y sugirió que matar a sus padres era apropiado para limitar el tiempo frente a la pantalla. Según TechCrunch, Character.AI prohibió a los menores el pasado mes de octubre. Los acuerdos probablemente incluirán daños financieros, aunque no se admitió responsabilidad en los documentos judiciales presentados el miércoles.

TechCrunch se acercó a ambas empresas.

About The Author