enero 14, 2026
ilustrasi-deepfake-3_169.jpeg


Yakarta, CNN Indonesia

El presidente del Instituto de Investigación en Seguridad Cibernética y Comunicaciones CISSReC Pratama Persadha dio consejos para garantizar que los usuarios no sean víctimas de manipulación fotográfica obscena Grok IA lo que es actualmente popular.

“Como usuario, se deben tomar medidas correctivas para reducir la posibilidad de que Grok AI o sistemas similares exploten las imágenes cargadas, logrando un equilibrio entre la protección técnica y el comportamiento digital inteligente”, dijo. CNNIndonesia.comMartes (1 de junio).

PUBLICIDAD

Desplácese para continuar con el contenido

Los usuarios individuales pueden revisar la configuración de privacidad en las plataformas de redes sociales para limitar quién puede ver sus fotos.

Según él, cuanto más pequeña sea la audiencia, es menos probable que otras partes utilicen indebidamente la foto para el proceso instantáneo de IA.





Además, se recomienda a los usuarios que no publiquen fotografías muy personales o sensibles y que minimicen el riesgo de que estas fotografías sean tomadas por modelos de IA.

Técnicamente, cuando estén disponibles, los usuarios pueden utilizar herramientas para proteger la identidad o los metadatos, lo que puede dificultar que los modelos de IA reconozcan directamente los rasgos faciales.

Sin embargo, esta tecnología aún se encuentra en etapa de desarrollo y aún no representa una solución definitiva para prevenir los deepfakes.

“En términos más generales, informar rápidamente sobre el contenido manipulador descubierto a las plataformas y autoridades pertinentes, así como aumentar la conciencia de la comunidad sobre la amenaza del contenido deepfake, también es una parte importante de la estrategia de contención”, dijo.

Dijo que todos estos esfuerzos sólo proporcionan una capa de protección. En última instancia, el gran desafío radica en cómo las plataformas y los reguladores desarrollan sistemas que sean más responsables y protejan contra la explotación de las identidades digitales en la era de la IA.

Anteriormente, Grok AI fue objeto de fuertes críticas por generar y publicar imágenes sexuales creadas en respuesta a las solicitudes de los usuarios en la plataforma X, incluidas imágenes de mujeres e incluso niños con poca ropa o circunstancias sugerentes.

El fenómeno de que Grok AI “responda” a las etiquetas de los usuarios y a las solicitudes de cambio de imágenes, incluidas las solicitudes para que el robot “quite la ropa de los sujetos en las fotografías”, ha generado un serio escrutinio por parte de las autoridades de varios países.

Los reguladores del Reino Unido, la Unión Europea, India, Francia y Malasia han condenado o abierto investigaciones sobre el uso de Grok para crear contenido que es ética y, en muchos casos, legalmente injustificable.

Estas críticas incluyen imágenes que representan a niños de manera sugerente, lo que se clasifica como material de explotación sexual infantil generado por IA, lo cual es claramente ilegal en muchas jurisdicciones.

Perspectiva de ciberseguridad

Desde una perspectiva de ciberseguridad, Pratama ve los problemas de Grok AI en torno a los riesgos de privacidad, el consentimiento y la protección de las identidades digitales individuales.

Según él, la tecnología de inteligencia artificial, capaz de manipular imágenes con un alto nivel de realismo, representa una grave amenaza si se utiliza para producir material que viole los derechos y el honor de una persona.

“Este tipo de amenaza no se limita a un individuo, sino que puede conducir a la explotación digital, la humillación pública, la intimidación por motivos de género y, en casos extremos, la distribución de material ilegal como la explotación sexual infantil”, afirmó.

El uso de IA para alterar ilícitamente fotografías de otras personas tiene como objetivo socavar la confianza básica de los usuarios en las plataformas digitales modernas y ampliar el alcance de las amenazas cibernéticas, desde el puro robo de datos hasta las violaciones de la identidad personal y los derechos humanos digitales.

Técnicamente hablando, Pratama dijo que la barandilla o sistema de control de contenido en Grok AI no puede filtrar solicitudes para crear contenido sexualmente explícito con identidades de usuario reales debido a varios factores de diseño y políticas.

Grok, que se basa en modelos de imágenes generativas como Aurora, dice que tiene restricciones de moderación más flexibles que los modelos de IA similares de otros competidores importantes que tienen controles NSFW (No es seguro para el trabajo), que es más estricto.

“Supuestamente, Grok incluso tiene un 'Modo Picante' que permite explícitamente contenido adulto explícito, mientras que la política destinada a evitar la manipulación de imágenes reales no es lo suficientemente fuerte o fácil para que los modelos entiendan el sistema cuando lo activan las solicitudes de los usuarios”, explicó Pratama.

“La combinación de una definición más permisiva de moderación, un diseño de barrera frágil y la falta de filtros conceptuales efectivos para el contenido que utiliza fotos reales significa que los bots pueden cumplir con las solicitudes incluso cuando entran en conflicto con el principio de consentimiento y la ley”, añadió.

(lom/dmi)

(Gambas: vídeo de CNN)

About The Author