noviembre 29, 2025
ai-generative-photovideo-cnet4.png

Cuando le pides a la IA que se mire en el espejo, no siempre se ve a sí misma. Esa es la sensación que tienes cuando le pides que determine si una imagen es real o generada por IA.

La semana pasada, Google intentó ayudarnos a distinguir lo real de lo deepfake, aunque de forma extremadamente limitada. En la aplicación Gemini, puedes compartir una imagen y preguntar si es real. Luego, Gemini busca un SynthID (una marca de agua digital) para indicarle si se creó o no con las herramientas de inteligencia artificial de Google. (Por otro lado, Google también lanzó su nuevo modelo de imágenes Nano Banana Pro la semana pasada, lo que hace aún más difícil detectar una falsificación a simple vista).

Atlas de IA

En este contexto limitado, la verificación de la realidad de Google funciona bastante bien. Gemini funciona rápidamente y te dice si algo fue creado por la IA de Google. En mis pruebas funcionó incluso con una captura de pantalla de una imagen. Y la respuesta es rápida y directa: sí, esta imagen, o al menos más de la mitad, es falsa.

Pero pregúntale sobre una imagen creada literalmente por cualquier otro generador de imágenes y no obtendrás una respuesta clara. Lo que se obtiene es una revisión de la evidencia: el modelo busca todas las pistas típicas de que algo es artificial. En este caso, básicamente estamos haciendo lo que hacemos con nuestros propios ojos, pero todavía no podemos confiar completamente en los resultados.

Por más confiable y necesaria que sea la verificación SynthID de Google, pedirle a un chatbot que califique algo que carece de una marca de agua es casi inútil. Google ha proporcionado una herramienta útil para comprobar el origen de una imagen. Pero si podemos volver a confiar en nuestros propios ojos en Internet, cada interfaz de IA que utilicemos debería poder revisar imágenes de todo tipo de modelos de IA.

Espero que pronto podamos simplemente pegar una imagen en, digamos, la búsqueda de Google y descubrir si es falsa. Los deepfakes se están volviendo demasiado buenos para no ser sometidos a un control de la realidad.

Revisar imágenes con chatbots es una mezcla

Hay muy poco que decir sobre la verificación SynthID de Google. Cuando le pides a Gemini (en la aplicación) que califique una imagen generada por Google, sabe lo que ve. Funciona. Me gustaría verlo implementado en todos los lugares donde aparece Gemini, como la versión del navegador y la Búsqueda de Google, y según la publicación del blog de Google sobre la función, ya está en proceso.

El hecho de que Gemini aún no tenga esta funcionalidad en el navegador significa que podemos ver cómo reacciona el propio modelo (sin SynthID) cuando se le pregunta si una imagen generada por IA es real. Le pedí a la versión del navegador de Gemini que evaluara una infografía que Google proporcionó como folleto a los periodistas que mostraba el nuevo modelo Nano Banana Pro en acción. Esto fue generado por IA, e incluso se indicó en los metadatos. Gemini en la aplicación usó SynthID para averiguarlo. Gemini en el navegador estaba borroso: decía que el diseño podría haber provenido de IA o de un diseñador humano. Incluso dijo que su herramienta SynthID no encontró nada que sugiriera IA. (Sin embargo, cuando le pedí que lo intentara de nuevo, dijo que había un error con la herramienta). ¿El resultado final? No podría decirlo.

¿Qué pasa con otros chatbots? Hice que Nano Banana Pro generara una imagen de un gato de esmoquin acostado en un tablero de Monopoly. A primera vista, la imagen era verosímilmente realista. Los compañeros desprevenidos a los que se lo envié pensaron que era mi gato. Pero si miras más de cerca, verás los errores: por ejemplo, el set de Monopoly no tiene sentido: “Park Place” está en varios lugares equivocados y los colores no son correctos.

Una imagen generada por IA de un gato de esmoquin blanco y negro acostado sobre un tablero de Monopoly en una sala de estar.

Este no es un gato real ni un tablero de juego Monopoly real. La imagen se generó utilizando el modelo de imagen Nano Banana Pro AI de Google.

Creado por Jon Reed con Gemini AI

Pregunté a varios chatbots y modelos de IA si la imagen fue generada por IA y las respuestas estaban por todos lados.

Gemini en mi teléfono lo descubrió inmediatamente usando el verificador SynthID. Gemini 3, el modelo de razonamiento de nivel superior lanzado esta semana, ofreció un análisis detallado que muestra por qué fue generado por IA. Gemini 2.5 Flash (el modelo predeterminado que obtienes cuando seleccionas Rápido) asumió que era una foto real debido al nivel de detalle y realismo. Probé ChatGPT dos veces en dos días diferentes y me dio dos respuestas diferentes, una con una larga explicación de por qué es obviamente real y otra con una disertación igualmente larga sobre por qué es falso. Claude, que utilizó los modelos Haiku 4.5 y Sonnet 4.5, dijo que parecía real.

Cuando probé imágenes creadas con herramientas de inteligencia artificial que no son de Google, los chatbots evaluaron la calidad de la generación. Las imágenes con características más obvias (iluminación no coincidente y texto mal representado, por ejemplo) se reconocieron de manera más confiable que la IA. Pero el tema era inconsistente. En realidad, no era más apropiado que mirarlo profunda y críticamente con mis propios ojos. Eso no es suficiente.

El futuro de la detección de IA

La última herramienta de Google muestra un posible camino a seguir, aunque sea limitado. Sí, una solución al creciente problema de los deepfakes es la capacidad de verificar una imagen en una aplicación de chatbot. Pero necesita funcionar para más imágenes y más aplicaciones.

No se necesitan conocimientos especiales para reconocer una falsificación. No debería tener que buscar una aplicación personalizada, analizar metadatos o saber fácilmente qué errores podrían indicar una imagen generada por IA. Como hemos visto con la dramática mejora en los modelos de imagen y video en los últimos meses, estos avisos podrían ser infalibles hoy e inútiles mañana.

Leer más: Nano Banana Pro de Google crea imágenes de IA ultrarrealistas. Me asusta muchísimo

Si encuentra una imagen en línea y tiene dudas al respecto, debe ir a Gemini, Búsqueda de Google, ChatGPT, Claude u otra herramienta de su elección y buscar una marca de agua digital universal y difícil de eliminar. La Coalición para la Autenticación y Procedencia del Contenido (C2PA) está trabajando en esto. El resultado debería ser algo que facilite la comprobación a la gente normal, sin necesidad de una aplicación especial o experiencia. Debería estar presente en algo que uses todos los días. Y si le preguntas a la IA, debería saber dónde buscar.

No deberíamos tener que adivinar qué es real y qué no. Las empresas de inteligencia artificial tienen la responsabilidad de brindarnos una verificación de la realidad universal e infalible. Quizás este sea un camino a seguir.

About The Author