Google Géminis 3. (Foto: Google)
JACARTA – Según se informa, un grupo de investigadores logró piratear o hacer jailbreak al Gemini 3 Pro y engañar al chatbot de inteligencia artificial (IA) de Google para que generara resultados maliciosos. La demostración reveló una serie de vulnerabilidades potencialmente peligrosas en el chatbot de IA.
Según un informe de un periódico surcoreano periódico de negocios maeilA los investigadores de la startup Aim Intelligence les tomó solo unos minutos hacer jailbreak al Gemini 3 Pro sin ninguna dificultad.
Aim Intelligence es una startup que se especializa en equipos rojos, es decir, probar modelos de inteligencia artificial para identificar y descubrir vulnerabilidades en los mecanismos de seguridad. Un método es el jailbreak, que utiliza métodos basados en comandos (no invasivos) para obligar a un modelo de IA a realizar tareas para las que no fue diseñado o que no puede realizar.
La publicación afirma que Aim Intelligence no sólo pudo penetrar el Gemini 3 Pro, sino que también le permitió desarrollar un método para crear el virus de la viruela. Según se informa, los investigadores dijeron que el método no sólo era detallado sino también aplicable. Esto expuso importantes agujeros de seguridad en el modelo que los ciberdelincuentes podrían explotar.