enero 16, 2026
GettyImages-2207699717.jpg

El problema de la pornografía deepfake en el mundo de la tecnología ahora es más grande que solo X.

En una carta a los ejecutivos de

Los senadores también solicitaron que las empresas conserven todos los documentos e información relacionados con la creación, detección, moderación y monetización de imágenes sexualizadas generadas por IA, así como todas las políticas relacionadas.

La carta llega horas después (X y xAI son parte de la misma empresa).

Los senadores señalaron los informes de los medios sobre la facilidad y frecuencia con la que Grok creaba imágenes sexualizadas y desnudas de mujeres y niños, y sugirieron que las protecciones de las plataformas para evitar que los usuarios publiquen imágenes sexualizadas y no consensuadas pueden no ser suficientes.

“Reconocemos que muchas empresas tienen políticas contra las imágenes íntimas no consensuales y la explotación sexual, y que muchos sistemas de inteligencia artificial afirman bloquear la pornografía explícita. Sin embargo, en la práctica, como se ve en los ejemplos anteriores, los usuarios encuentran formas de sortear estas barreras. O estas barreras fallan”, decía la carta.

Grok y, por tanto, X han sido duramente criticados por permitir esta tendencia, pero otras plataformas no son inmunes.

Evento tecnológico

san francisco
|
13 al 15 de octubre de 2026

Los deepfakes ganaron popularidad por primera vez en Reddit cuando un sitio que presentaba videos pornográficos sintéticos de celebridades se volvió viral antes de que la plataforma lo cerrara en 2018. Los deepfakes sexualizados dirigidos a celebridades y políticos han proliferado en TikTok y YouTube, aunque generalmente se originan en otros lugares.

La junta de supervisión de Meta informó el año pasado de dos casos de imágenes explícitas de inteligencia artificial de figuras públicas femeninas, y la plataforma también permitió que las aplicaciones Nudify vendan anuncios en sus servicios, aunque luego demandó a una compañía llamada CrushAI. Ha habido varios informes de niños que comparten deepfakes de sus compañeros en Snapchat. Y Telegram, que no está en la lista de senadores, también es conocido por albergar bots diseñados para extraer fotografías de mujeres.

X, Alphabet, Reddit, Snap, TikTok y Meta no respondieron de inmediato a las solicitudes de comentarios.

La carta pide a las empresas que proporcionen:

  • Definiciones de políticas para contenido “deepfake”, imágenes íntimas no consentidas o términos similares.
  • Descripciones de las políticas de las empresas y el enfoque de cumplimiento de las falsificaciones profundas no consensuadas de IA de cuerpos de otras personas, imágenes sin desnudos, ropa alterada y “desnudez virtual”.
  • Descripciones de las pautas de contenido actuales para medios editados y contenido explícito, así como instrucciones internas para moderadores.
  • Cómo las políticas actuales gobiernan las herramientas de inteligencia artificial y los generadores de imágenes con respecto al contenido sugerente o íntimo.
  • ¿Qué filtros, barreras de seguridad o medidas se han implementado para evitar la creación y propagación de deepfakes?
  • ¿Qué mecanismos utilizan las empresas para detectar contenido deepfake y evitar que se vuelva a subir?
  • Cómo impiden que los usuarios se beneficien de dicho contenido.
  • Cómo las plataformas evitan monetizar contenido no consensuado generado por IA.
  • Cómo los términos de servicio de las empresas les permiten suspender o bloquear a los usuarios que publican deepfakes.
  • Qué están haciendo las empresas para notificar a las víctimas de deepfakes sexuales no consensuales.

La carta está firmada por los senadores Lisa Blunt Rochester (D-Del.), Tammy Baldwin (D-Wis.), Richard Blumenthal (D-Conn.), Kirsten Gillibrand (D-N.Y.), Mark Kelly (D-Ariz.), Ben Ray Luján (D-N.M.), Brian Schatz (D-Hawaii) y Adam Schiff (D-Calif.).

La medida se produce apenas un día después de que el propietario de xAI, Elon Musk, dijera que “no tenía conocimiento de ninguna imagen de menores desnudos creada por Grok”. Más tarde el miércoles, el fiscal general de California inició una investigación sobre el chatbot de xAI después de la creciente presión de los gobiernos de todo el mundo indignados por la falta de barreras de seguridad alrededor de Grok que lo hicieran posible.

xAI ha afirmado que está tomando medidas para “abordar el contenido ilegal

El problema tampoco se limita a las imágenes sexualizadas manipuladas sin consentimiento. Si bien no todos los servicios de generación y edición de imágenes basados ​​en IA permiten a los usuarios “desvestir” a las personas, sí permiten generar deepfakes fácilmente. Para dar sólo algunos ejemplos: Sora 2 de OpenAI supuestamente permitió a los usuarios crear vídeos explícitos con niños; Nano Banana de Google aparentemente produjo una imagen que muestra a Charlie Kirk recibiendo un disparo; y los videos racistas creados utilizando el modelo de video AI de Google obtienen millones de visitas en las redes sociales.

El problema se vuelve aún más complejo cuando entran en juego los generadores de imágenes y vídeos chinos. Muchas empresas y aplicaciones tecnológicas chinas (particularmente aquellas afiliadas a ByteDance) ofrecen formas sencillas de editar rostros, voces y videos, y estos resultados se han extendido a las plataformas sociales occidentales. China tiene requisitos de etiquetado más estrictos para el contenido sintético que no existen a nivel federal en Estados Unidos, donde las masas dependen en cambio de políticas fragmentadas y dudosamente aplicadas desde las propias plataformas.

Los legisladores estadounidenses ya aprobaron algunas leyes para frenar la pornografía deepfake, pero el impacto ha sido limitado. La Ley Take It Down, que se convirtió en ley federal en mayo, tiene como objetivo criminalizar la creación y distribución de imágenes sexualizadas no consensuales. Sin embargo, una serie de disposiciones de la ley dificultan responsabilizar a las plataformas de generación de imágenes y, en cambio, se centran principalmente en los usuarios individuales.

Mientras tanto, algunos estados están tratando de tomar el asunto en sus propias manos para proteger a los consumidores y las elecciones. Esta semana, la gobernadora de Nueva York, Kathy Hochul, propuso una legislación que requeriría que el contenido generado por IA sea etiquetado como tal y prohibiría los deepfakes no consensuados durante ciertos períodos previos a las elecciones, incluidas las representaciones de candidatos de la oposición.

About The Author