Yakarta, CNN Indonesia —
cibercrimen Se vuelven más sofisticados a medida que avanza la tecnología. inteligencia artificial (AI). Una cosa que se está volviendo cada vez más común es la suplantación de voz por IA.
AI Voice Spoofing es un método de fraude que utiliza IA para clonar y engañar a través del teléfono o mensajes de voz. Esta tecnología es capaz de imitar la voz de una persona utilizando tan solo unos segundos de muestras de audio.
PUBLICIDAD
Desplácese para continuar con el contenido
Este modo se llama vishing (phishing por voz). El proceso es bastante corto. El estafador llama a la víctima. Una vez conectado, tardará entre 3 y 10 segundos. Luego, la IA procesa la voz en una versión digital, después de lo cual el perpetrador llama a alguien cercano a la víctima y le pide dinero o datos.
Google ha investigado previamente el uso de inteligencia artificial generativa (IA) por parte de actores de amenazas en campañas de phishing y operaciones de información (IO).
Analizaron cómo los estafadores utilizan la inteligencia artificial generativa (AI-Gen) para crear contenido más atractivo, como imágenes y vídeos.
En el lanzamiento de Google Cloud, compartieron información sobre cómo los estafadores utilizan modelos de lenguaje grande (LLM) para desarrollar malware. Google destaca que, aunque los estafadores están interesados en la IA generativa, su uso sigue siendo relativamente limitado.
La investigación inicial examinará nuevas tácticas, técnicas y procedimientos (TTP) de inteligencia artificial (IA), así como las tendencias emergentes.
Uno de los casos más importantes fue un caso de robo contra una empresa multinacional en Hong Kong. En este caso, los ladrones lograron robar más de 200 millones de dólares de Hong Kong (430 mil millones de rupias) mediante clonación de voz y deepfakes.
Luego, el equipo Mandiant Red de Google utilizó la táctica en un ataque simulado para probar la resiliencia de la organización.
Como resultado, descubrieron que los signos de respuestas generadas por IA incluyen pausas incómodas antes de contestar el teléfono, un tono de voz demasiado uniforme, respuestas poco naturales y retrasos o distorsiones sutiles. Finalmente, está la incapacidad de responder ciertas preguntas.
Algunas empresas afirman que un mal uso de sus herramientas puede tener graves consecuencias.
“Somos conscientes del potencial de uso indebido de esta herramienta tan poderosa y hemos implementado estrictas medidas de seguridad para evitar la creación de deepfakes y proteger contra el fraude electoral”, dijo un portavoz de Resemble AI en una declaración escrita. NBCNoticiasMiércoles (19/11).
Según Sarah Myers West, codirectora ejecutiva del AI Now Institute, un grupo de expertos centrado en las implicaciones políticas de la IA, la tecnología también conlleva un gran potencial de daño.
“Esto claramente puede usarse para fraude, engaño y desinformación, por ejemplo haciéndose pasar por figuras institucionales”, dijo West.
Muchas víctimas no saben que les han robado sus votos. Las víctimas tienden a creer fácilmente en las voces familiares, por lo que los perpetradores aprovechan el momento.
(wpj/dmi)
(Gambas: vídeo de CNN)