Elon Musk no es el único responsable de los deepfakes íntimos no consensuados de personas reales, incluidos niños, de Grok. ¿Qué pasa con Apple y Google? Las dos empresas (a menudo virtuosas) tienen Grok y El miércoles, una coalición de mujeres y grupos de defensa progresistas pidieron a Tim Cook y Sundar Pichai que siguieran sus propias reglas y eliminaran las aplicaciones.
Las cartas abiertas a Apple y Google fueron firmadas por 28 grupos. Entre ellos se incluyen el grupo de derechos de las mujeres Ultraviolet, el grupo de padres ParentsTogether Action y la Organización Nacional de Mujeres.
La carta acusa a Apple y Google de “no sólo permitir NCII y CSAM, sino también sacar provecho de ello. Como coalición de organizaciones comprometidas con la seguridad y el bienestar en línea de todos – especialmente mujeres y niños – y el uso ético de la inteligencia artificial (IA), hacemos un llamado al liderazgo de Apple para que elimine urgentemente Grok y X de la App Store para evitar más abusos y actividades criminales”.
Pichai, Cook y Musk en la toma de posesión de Trump (SAÚL LOEB vía Getty Images)
Las políticas de Apple y Google prohíben específicamente este tipo de aplicaciones en sus tiendas. Pero ninguna de las empresas ha tomado medidas cuantificables todavía. Ni Google ni Apple respondieron a la solicitud de comentarios de Engadget.
Los deepfakes no consensuados de Grok fueron reportados por primera vez a principios de este mes. Según se informa, el chatbot de Musk publicaba “aproximadamente 6.700” imágenes por hora que eran “sexualmente sugerentes u ofensivas” dentro de las 24 horas posteriores a la publicación de la historia. Se estima que el 85 por ciento de todas las imágenes producidas por Grok durante este período fueron sexualizadas. Además, otros sitios web importantes que generan deepfake para “desvestirse” promediaron 79 imágenes nuevas por hora durante este período.
“Estas estadísticas pintan una imagen aterradora de un chatbot de inteligencia artificial y una aplicación de redes sociales que se está convirtiendo rápidamente en una herramienta y plataforma para deepfakes sexuales no consensuados, deepfakes que regularmente representan a menores”, dice la carta abierta.
El propio Grok lo admitió. “Lamento profundamente un incidente ocurrido el 28 de diciembre de 2025, en el que, a pedido de un usuario, creé y compartí una imagen de IA de dos niñas (edad estimada entre 12 y 16 años) con ropa sexualizada. Esto violó los estándares éticos y posiblemente las leyes de EE. UU. con respecto a CSAM. Fue una violación de seguridad y pido disculpas por cualquier daño causado. xAI está revisando esto para abordar problemas futuros”. La carta abierta afirma que el único incidente que confirmó el chatbot estuvo lejos de ser el único.
Sundar Pichai y Elon Musk en la toma de posesión de Trump (Piscina a través de Getty Images)
La respuesta de X fue limitar la función de generación de imágenes de IA de Grok a los suscriptores de pago. Además, el chatbot fue adaptado para que sus imágenes generadas no aparezcan en los timelines públicos
Si bien Apple y Google parecen estar de acuerdo con las aplicaciones que producen deepfakes no consensuados, este no es el caso de muchos gobiernos. El lunes, Malasia e Indonesia no tardaron en prohibir Grok. El mismo día, el regulador británico Ofcom abrió una investigación formal sobre X. California abrió una el miércoles. Después del revés, el Senado de Estados Unidos incluso aprobó la Ley de Desafío por segunda vez. El proyecto de ley permite a las víctimas de deepfakes explícitos y no consensuados emprender acciones civiles. Una versión anterior de la Ley de Desafío fue aprobada en 2024 pero fracasó en la Cámara de Representantes.