diciembre 12, 2025
ilustrasi-deepfake-2_169.jpeg


Yakarta, CNN Indonesia

Pratama Persadha, presidente del instituto de investigación de comunicaciones y seguridad cibernética CISSReC, dijo que el desarrollo de tecnologías de inteligencia artificial (IA) cada vez más sofisticadas está haciendo que el fraude cibernético sea aún más peligroso, incluida la capacidad de hacerlo. falsificaciones profundas en tiempo real.

Dijo que la tecnología GPU moderna y la optimización del modelo deepfake facilitaron el proceso y permitieron hacerlo utilizando solo una computadora portátil para juegos de gama media.

“La capacidad de realizar deepfakes en tiempo real durante videollamadas se encuentra en una etapa completamente realista. La moderna tecnología de GPU y la optimización del modelo de deepfake hacen que este proceso sea muy fácil en comparación con hace unos años”, afirmó Pratama. CNNIndonesia.comJueves (11 de diciembre).

PUBLICIDAD

Desplácese para continuar con el contenido

“Este tipo de fraude ya no requiere una supercomputadora o un sistema informático de clase empresarial. Un portátil para juegos de gama media con una GPU de 6-8 GB de VRAM es suficiente para ejecutar modelos deepfake en tiempo real con una calidad convincente”, añadió.





Añadió que algunas técnicas basadas en la nube minimizan la necesidad de dispositivos locales, permitiendo que cualquier persona con acceso a Internet y una tarjeta de crédito realice servicios de manipulación facial y de voz a través de una plataforma de IA como servicio.

En otras palabras: los obstáculos técnicos han disminuido drásticamente. Se dice que los ciberdelincuentes ya no necesitan ser expertos técnicos de alto nivel.

Para llevar a cabo este tipo de fraude, los delincuentes simplemente necesitan combinar habilidades sociales, creatividad y acceso a software comúnmente disponible.

Pratama dijo que el desarrollo de la tecnología de inteligencia artificial en los últimos dos años ha cambiado fundamentalmente el panorama de la ciberseguridad.

Se espera que los modelos de IA generativa actuales sean cada vez más eficientes, sus capacidades informáticas sean cada vez más asequibles y el acceso a su software sea cada vez más sencillo.

Estos cambios no sólo fomentan la innovación positiva, sino que también abren nuevas oportunidades para los ciberdelincuentes.

Una forma de esto es el fraude basado en deepfakes, que ahora está evolucionando desde la manipulación de videos puramente estáticos hasta la manipulación visual y acústica en tiempo real.

“Este fenómeno coloca a la sociedad y a las organizaciones en una situación de amenaza más compleja a medida que los límites entre las interacciones reales y las imitadas se vuelven cada vez más difíciles de discernir”, afirmó.

El deepfake en tiempo real en sí es muy posible con la presencia de varios modelos de IA comerciales y de código abierto que admiten la manipulación facial y de voz con baja latencia, incluso de solo decenas de milisegundos.

Esto tiene como objetivo permitir a los atacantes hacerse pasar por un jefe, compañero de trabajo o familiar en una llamada en vivo sin necesidad de grabación o edición previa.

En el contexto de los ataques sociales, esta capacidad en tiempo real elimina el retraso que antes era una debilidad de los deepfakes tradicionales, permitiendo a las víctimas sentir que están interactuando naturalmente con un ser humano real.

Tendencias cibernéticas 2026

Se espera que el fraude basado en IA sea una tendencia en 2026 con un nivel significativamente mayor de automatización y personalización.

Pratama dijo que la combinación de datos filtrados, perfiles públicos y modelos que pueden imitar el estilo de hablar y el comportamiento de una persona aumentará el fenómeno del fraude de identidad, que es más difícil de detectar.

“El fraude financiero y de inversiones está cada vez más acompañado de deepfakes que permiten a las personas hacerse pasar por celebridades, funcionarios o figuras públicas”, explicó.

Luego, los ataques de compromiso del correo electrónico empresarial, que antes se basaban en texto, darán lugar a ataques de compromiso de la identidad empresarial que se harán pasar por videollamadas de los empleados de la empresa.

Además, dijo Pratama, la IA se está utilizando para descubrir y explotar vulnerabilidades automáticamente, lo que desencadena una ola de ataques que combinan ingeniería social y explotación técnica simultáneamente.

En su opinión, las regulaciones y la alfabetización digital que sirven como munición para responder al fraude cibernético probablemente seguirán poniéndose al día, pero la dinámica de los ataques seguirá evolucionando mucho más rápido que la capacidad de adaptación de la sociedad.

En medio de estas condiciones, se alienta a la sociedad y a las organizaciones a comprender que las amenazas cibernéticas ya no son sólo una cuestión de compromisos técnicos.

“La identidad digital es ahora un objetivo y un arma. La capacidad de distinguir las interacciones auténticas de las artificiales se convertirá en una competencia importante tanto a nivel individual como institucional”, enfatizó Pratama.

Por otro lado, la tecnología de detección de deepfakes también seguirá desarrollándose, pero su eficacia se verá limitada por la velocidad de desarrollo de las técnicas de manipulación de la IA.

Además, uno de los aspectos más importantes es la construcción de una cultura de verificación en dos pasos, políticas antifraude más estrictas y la preparación de la organización para anticipar ataques de identidad cada vez más sofisticados.

“De esta manera, la sociedad podrá entrar en la era 2026 con suficiente preparación para afrontar un ecosistema de amenazas cada vez más apoyado en la inteligencia artificial”, concluyó Pratama.

(lom/fea)

(Gambas: vídeo de CNN)

About The Author