enero 21, 2026
8234eafc-e79f-4d06-9a36-d4fa23f0ea25.jpeg

OpenAI es la última empresa en subirse al carro del control de acceso por edad de los usuarios. La empresa de inteligencia artificial comienza a implementar una herramienta de predicción de edad a nivel mundial para determinar si un usuario es menor de edad o no. “El modelo considera una combinación de señales de comportamiento y a nivel de cuenta, incluido cuánto tiempo ha existido una cuenta, las horas típicas del día en que alguien está activo, los patrones de uso a lo largo del tiempo y la edad reportada de un usuario”, dijo la compañía en el anuncio. Si ChatGPT clasifica incorrectamente a una persona como menor, debe enviar una selfie a través de la plataforma de verificación de edad Persona para corregir el error.

La mayoría de las empresas de IA han estado dispuestas a impulsar nuevas funciones primero y luego intentar aplicarles un mosaico de protecciones y medidas de seguridad una vez que hayan causado el daño. OpenAI se vio envuelta en una demanda por muerte por negligencia contra un adolescente que supuestamente usó ChatGPT para planificar su suicidio, y solo en los meses siguientes comenzó a considerar restricciones automáticas de contenido para usuarios menores de edad y a lanzar un consejo asesor de salud mental. En este caso, OpenAI está tratando de prepararse para el lanzamiento de un “modo para adultos” que permitirá a los usuarios crear y consumir contenido descrito como NSFW. Teniendo en cuenta lo bien que se recibió un cambio similar en Roblox, otra plataforma con un historial inestable en lo que respecta a la protección de menores, parece probable que los usuarios menores de edad encuentren formas de sortear las herramientas existentes si quieren usar ChatGPT cuando sean adultos.

About The Author