enero 14, 2026
ilustrasi-MWes_large.jpeg



Ilustración.








JACARTA – China ha propuesto nuevas reglas estrictas de inteligencia artificial (IA) para proteger a los niños y evitar que los chatbots den consejos que puedan provocar autolesiones o violencia. Según las regulaciones propuestas, los desarrolladores también tendrán que asegurarse de que sus modelos de IA no generen contenido que promueva los juegos de azar.

Este anuncio se produce después de un aumento en la cantidad de chatbots lanzados en China y en todo el mundo.

Una vez finalizadas, las reglas se aplicarán a los productos y servicios de IA en China. Esto representa un paso importante en la regulación de esta tecnología de rápido crecimiento, que ha sido objeto de un intenso escrutinio este año debido a preocupaciones de seguridad.

Reportado bbcEl proyecto de reglamento publicado durante el fin de semana por la Administración del Ciberespacio de China (CAC) incluye medidas para proteger a los niños. Las regulaciones incluyen exigir a las empresas de inteligencia artificial que ofrezcan configuraciones personalizadas, establezcan límites de tiempo de uso y obtengan el consentimiento de los padres antes de ofrecer servicios de asistencia emocional.

Los operadores de chatbot deben ceder el control de las conversaciones relacionadas con el suicidio o la autolesión a humanos y notificar inmediatamente al tutor del usuario o al contacto de emergencia, dijo la administración.

About The Author