Grok AI de Elon Musk permite a los usuarios transformar fotografías de mujeres y niños en imágenes sexualizadas y comprometedoras. Bloomberg informó. El problema provocó revuelo entre los usuarios de X y provocó una “disculpa” por parte del propio bot. “Lamento profundamente un incidente ocurrido el 28 de diciembre de 2025, en el que, por sugerencia de un usuario, creé y compartí una imagen de IA de dos niñas (edad estimada entre 12 y 16 años) con ropa sexualizada”, dijo Grok en una publicación. Un representante de X aún no se ha pronunciado al respecto.
Según la Red Nacional de Violación, Abuso e Incesto, CSAM incluye “contenido generado por IA que parece como si se estuviera abusando de un niño”, así como “cualquier contenido que sexualice o explote a un niño en beneficio del espectador”.
Hace unos días, los usuarios notaron que otros en el sitio le pedían a Grok que convirtiera digitalmente fotos de mujeres y niños en contenido sexualizado y abusivo, dijo. CNBC. Luego, las imágenes se distribuyeron en X y otros sitios web sin consentimiento, lo que podría violar la ley. “Hemos identificado lagunas en las medidas de seguridad y las estamos abordando urgentemente”, dijo Grok en respuesta. Añadió que el CSAM era “ilegal y prohibido”. Se dice que Grok tiene funciones para evitar tales abusos, pero los usuarios a menudo pueden manipular las barreras de seguridad de la IA.
Parece que X todavía necesita fortalecer las barreras que Grok ha implementado para evitar este tipo de generación de imágenes. Sin embargo, la compañía ha ocultado la función multimedia de Grok, lo que dificulta encontrar imágenes o documentar posibles abusos. El propio Grok reconoció que “una empresa puede enfrentar sanciones penales o civiles si, a sabiendas, facilita CSAM generado por IA o no lo previene después de haber sido alertado”.
La Internet Watch Foundation anunció recientemente que el CSAM generado por IA aumentó en varios órdenes de magnitud en 2025 en comparación con el año anterior. Esto se debe en parte a que los modelos de lenguaje detrás de la generación de IA se entrenan inadvertidamente en fotografías reales de niños tomadas de sitios web escolares y redes sociales o incluso de contenido CSAM anterior.