Tabla de contenido
Yakarta, CNN Indonesia —
La empresa de ciberseguridad Kaspersky predice algún impacto inteligencia artificial (IA) sobre el panorama de la ciberseguridad en 2026, según la evolución falsificaciones profundas sobre la función de la IA como herramienta de análisis de seguridad.
En Asia Pacífico, el 78 por ciento de los profesionales en una encuesta de Boston Consulting Group (BCG) ya utiliza IA al menos semanalmente, en comparación con el 72 por ciento a nivel mundial. Esto demuestra la adopción rápida y generalizada de la IA en los flujos de trabajo cotidianos en Asia Pacífico.
Pero lo que realmente distingue a Asia Pacífico es la forma en que la IA se está afianzando. La adopción está aumentando en la región debido a consumidores altamente conectados, la penetración masiva de dispositivos y una población joven y conocedora de la tecnología que está integrando la IA en sus experiencias diarias mucho antes de que muchas empresas la adopten oficialmente.
PUBLICIDAD
Desplácese para continuar con el contenido
Este impulso está impulsado por una fuerte inversión, una estrategia liderada por los directores ejecutivos y un rápido desarrollo de los mercados digitales, lo que convierte a Asia Pacífico en el hogar de IA más dinámico del mundo, donde están naciendo empresas de vanguardia en IA y donde está surgiendo por primera vez el futuro de la transformación empresarial.
Esta adopción acelerada de la IA no sólo afecta a los usuarios y las empresas, sino también al panorama de la ciberseguridad.
Para los líderes en ciberseguridad, la posición de Asia Pacífico en la innovación en IA es a la vez un modelo y una advertencia. Es la misma tecnología que está impulsando la transformación empresarial, pero también está redefiniendo cómo se crean, automatizan e implementan las amenazas cibernéticas.
“La IA está transformando la ciberseguridad en ambos lados. Los atacantes la utilizan para automatizar ataques, explotar vulnerabilidades y crear contenido falso muy atractivo. Al mismo tiempo, las defensas están utilizando la IA para escanear sistemas, detectar amenazas y tomar decisiones más rápidas e inteligentes”, dijo Vladislav Tushkanov, director del grupo de desarrollo de investigación de Kaspersky, en su declaración del lunes (12/12).
“La IA es una herramienta poderosa tanto para el ataque como para la defensa, y la capacidad de gestionarla de forma segura sin duda tendrá un impacto en el futuro de la ciberseguridad”, añadió.
Los expertos de Kaspersky explican cómo los avances en IA transformarán el panorama de la ciberseguridad en 2026, tanto para usuarios individuales como para empresas.
LLM (Learning and Learning Models) está diseñado para influir en las capacidades de defensa y al mismo tiempo ampliar las oportunidades para los actores de amenazas. A continuación se muestra el impacto previsto de la IA en el panorama de la ciberseguridad en 2026:
1. Los deepfakes se están generalizando
Las empresas discuten cada vez más los riesgos del contenido sintético y capacitan a sus empleados para reducir el riesgo de ser víctimas de este contenido. A medida que aumenta el número de deepfakes, también aumentan los formatos en los que aparecen.
Al mismo tiempo, la concienciación está aumentando no sólo dentro de las organizaciones sino también entre los usuarios comunes y corrientes. Los usuarios finales con más frecuencia
Detecte contenido falso y comprenda mejor la naturaleza de la amenaza. Esto hace que los deepfakes sean una parte integral de la agenda de seguridad y requiere un enfoque sistemático de la capacitación y las políticas internas.
2. La calidad de los deepfakes está mejorando
La calidad visual de los deepfakes ya es alta, mientras que se espera que la calidad del audio siga aumentando. Al mismo tiempo, las herramientas de creación de contenido son más fáciles de usar e incluso los no expertos ahora pueden crear deepfakes de calidad media con solo unos pocos clics.
Como resultado, la calidad promedio sigue aumentando, la fabricación se vuelve más accesible para un público mucho más amplio y, sin duda, los ciberdelincuentes seguirán aprovechando estas oportunidades.
3. Las marcas de agua con IA están evolucionando
Actualmente no existen criterios consistentes para identificar de manera confiable el contenido sintético, y las etiquetas actuales pueden omitirse o eliminarse fácilmente, especialmente cuando se trabaja con modelos de código abierto.
Por estas razones, es probable que surjan nuevas iniciativas técnicas y regulatorias para abordar estos problemas.
4. Falsificaciones profundas en línea
La tecnología para intercambiar rostros y voces en tiempo real está mejorando, pero configurarla aún requiere habilidades técnicas más avanzadas. Es poco probable una adopción generalizada, pero los riesgos en escenarios específicos aumentarán.
5. El modelo de código abierto es cada vez más sofisticado.
Los modelos cerrados aún brindan controles y protecciones más estrictos, lo que limita el abuso.
Sin embargo, los sistemas de código abierto o de código abierto se están poniendo al día rápidamente en términos de funcionalidad y están en circulación sin restricciones comparables.
Esto desdibuja la distinción entre modelos propietarios y modelos de código abierto, los cuales pueden usarse de manera eficiente con fines no deseados o maliciosos.
6. Las líneas entre el contenido real y la IA son cada vez más borrosas
La IA ya puede generar correos electrónicos fraudulentos bien elaborados, identidades visuales convincentes y páginas de phishing de alta calidad.
Al mismo tiempo, las principales marcas están utilizando materiales sintéticos en la publicidad, lo que hace que el contenido generado por IA parezca familiar y visualmente normal.
Esto hace que sea cada vez más difícil, tanto para los usuarios como para los sistemas de detección automatizados, distinguir los productos auténticos de los falsificados.
7. La IA se está convirtiendo en una herramienta para los ciberdelincuentes
Según Kaspersky, los actores de amenazas cibernéticas ya están utilizando LLM para escribir código, construir infraestructura y automatizar tareas operativas.
Esto reforzará la tendencia de que la IA respaldará cada vez más múltiples fases de un ataque, desde la preparación y la comunicación hasta el ensamblaje de componentes maliciosos, la investigación de vulnerabilidades y el despliegue de herramientas.
Los atacantes también intentarán ocultar signos de participación de la IA, lo que dificultará el análisis de la operación.
8. La IA se está convirtiendo en una herramienta de análisis de seguridad
Los sistemas basados en agentes podrán escanear continuamente la infraestructura, identificar vulnerabilidades y recopilar información contextual para investigaciones, reduciendo la cantidad de trabajo manual de rutina.
Como resultado, los especialistas pasarán de buscar datos manualmente a tomar decisiones basadas en contextos preparados.
Paralelamente, las herramientas de seguridad se están trasladando a interfaces de lenguaje natural que permiten comandos automatizados en lugar de preguntas técnicas complejas.
(lom/dmi)
(Gambas: vídeo de CNN)