Desde que informé sobre lo fácil que es engañar a un agente navegador a principios de este año, he estado siguiendo la intersección entre la IA moderna y las estafas tradicionales. Ahora está surgiendo una nueva convergencia: los piratas informáticos aparentemente están utilizando indicaciones de IA para agregar comandos peligrosos a los resultados de búsqueda de Google. Cuando los ejecutan usuarios involuntarios, estos comandos hacen que las computadoras otorguen a los piratas informáticos el acceso que necesitan para instalar malware.
La advertencia proviene de un informe reciente de la empresa de detección y respuesta Huntress. Así es como funciona. Primero, el actor de la amenaza tiene una conversación con un asistente de IA sobre un término de búsqueda común y le pide a la IA que le sugiera pegar un comando específico en la terminal de una computadora. Usted hace que el chat sea visible públicamente y paga para anunciarlo en Google. A partir de ahora, cuando alguien busque el término, las instrucciones maliciosas aparecerán en la parte superior de la primera página de resultados.
Huntress realizó pruebas tanto en ChatGPT como en Grok después de descubrir que un ataque de exfiltración de datos dirigido a Mac llamado AMOS surgió de una simple búsqueda en Google. El usuario del dispositivo infectado había buscado “liberar espacio en disco en Mac”, hizo clic en un enlace ChatGPT patrocinado y, al carecer de la formación necesaria para reconocer que el aviso era hostil, ejecutó el comando. Esto permitió a los atacantes instalar el malware AMOS. Los evaluadores descubrieron que ambos chatbots imitaban el vector de ataque.
Como señala Huntress, el genio maligno de este ataque es que pasa por alto casi todas las señales de advertencia tradicionales que hemos aprendido a buscar. La víctima no necesita descargar ningún archivo, instalar ningún ejecutable sospechoso ni siquiera hacer clic en ningún enlace sospechoso. Las únicas cosas en las que deben confiar son Google y ChatGPT, que han usado antes o de los que han oído hablar sin parar durante los últimos años. Está dispuesto a confiar en lo que dicen estas fuentes. Peor aún, Google eliminó el enlace a la conversación ChatGPT, pero aún estuvo activo durante al menos medio día después de que Huntress publicara la publicación del blog.
Esta noticia llega en un momento que ya resulta complicado para ambas IA. Grok fue criticado por estafar despreciablemente a Elon Musk, mientras que el desarrollador de ChatGPT, OpenAI, quedó rezagado respecto de la competencia. Aún no está claro si el ataque se puede replicar con otros chatbots, pero por ahora recomiendo precaución. Además de otras medidas de ciberseguridad de sentido común, asegúrese de nunca pegar nada en su terminal de comandos o en la barra de URL de su navegador a menos que esté seguro de lo que hará.