diciembre 18, 2025
gemini-3_flash_model_blog_header_dark_bleed_2096x1182.jpeg

Google lanzó hoy su rápido y asequible modelo Gemini 3 Flash, basado en el Gemini 3 lanzado el mes pasado y que busca quitarle ventaja a OpenAI. La compañía también lo convierte en el modelo predeterminado en la aplicación Gemini y en el modo AI en la Búsqueda.

El nuevo modelo Flash llega seis meses después de que Google anunciara el modelo Flash Gemini 2.5 y ofrece importantes mejoras. En la prueba comparativa, el modelo Gemini 3 Flash supera significativamente a su predecesor y en algunos aspectos iguala el rendimiento de otros modelos Frontier como Gemini 3 Pro y GPT 5.2.

Por ejemplo, sin utilizar ninguna herramienta, obtuvo una puntuación del 33,7 % en el último examen de la Humanidad, que está diseñado para evaluar la experiencia en diversas áreas. En comparación, Gemini 3 Pro logró un 37,5%, Gemini 2.5 Flash un 11% y el recién lanzado GPT-5.2 un 34,5%.

En la prueba de multimodalidad y razonamiento MMMU-Pro, el nuevo modelo superó a todos los competidores con una puntuación del 81,2%.

Lanzamiento para el consumidor

Google está haciendo de Gemini 3 Flash el modelo predeterminado en la aplicación Gemini en todo el mundo, reemplazando a Gemini 2.5 Flash. Los usuarios aún pueden elegir el modelo Pro de la selección de modelos para preguntas de matemáticas y codificación.

La compañía dice que el nuevo modelo es bueno para identificar contenido multimodal y brindarle una respuesta basada en eso. Por ejemplo, puedes subir tu vídeo corto de pickleball y pedir consejos; Puedes intentar dibujar un boceto y hacer que el modelo adivine lo que estás dibujando. O puede cargar una grabación de audio para obtener un análisis o crear un cuestionario.

La compañía también dijo que el modelo comprende mejor la intención de las consultas de los usuarios y puede generar respuestas más visuales utilizando elementos como imágenes y tablas.

Evento tecnológico

san francisco
|
13 al 15 de octubre de 2026

También puede utilizar el nuevo modelo para crear prototipos de aplicaciones en la aplicación Gemini mediante indicaciones.

El Gemini 3 Pro ahora está disponible para todos en los EE. UU. mediante la búsqueda y más personas en los EE. UU. también pueden acceder al modelo de imagen Nano Banana Pro a través de la búsqueda.

Disponibilidad para empresas y desarrolladores

Google señaló que empresas como JetBrains, Figma, Cursor, Harvey y Latitude ya están utilizando el modelo Gemini 3 Flash, disponible a través de Vertex AI y Gemini Enterprise.

Para los desarrolladores, la compañía pone el modelo a disposición en una vista previa a través de la API y en Antigravity, la nueva herramienta de codificación de Google lanzada el mes pasado.

La compañía dijo que Gemini 3 Pro logró el 78% en el punto de referencia de codificación verificada SWE Benchmark, solo superado por GPT-5.2. Agregó que el modelo es ideal para análisis de video, extracción de datos y preguntas y respuestas visuales, y su velocidad lo hace adecuado para flujos de trabajo rápidos y repetibles.

Crédito de la foto: Google

El precio del modelo es de 0,50 dólares por 1 millón de tokens de entrada y de 3 dólares por 1 millón de tokens de salida. Esto es un poco más caro que los 0,30 dólares por millón de tokens de entrada de Gemini Flash 2.5 y los 2,50 dólares por 1 millón de tokens de salida de Gemini Flash 2.5. Sin embargo, Google afirma que el nuevo modelo supera al modelo Gemini 2.5 Pro y es tres veces más rápido. Y para los acertijos, utiliza en promedio un 30% menos de tokens que 2.5 Pro. Esto significa que, en general, puede guardar la cantidad de tokens para ciertas tareas.

Crédito de la foto: Google

“Estamos posicionando a Flash como su modelo de caballo de batalla. Entonces, si observa los precios de entrada y salida en la parte superior de esta tabla, por ejemplo, Flash es simplemente una oferta mucho más barata desde una perspectiva de precios de entrada y salida. Y para muchas empresas, en realidad permite tareas masivas”, dijo Tulsee Doshi, director senior y jefe de producto de Gemini Models, a TechCrunch en una sesión informativa.

Desde el lanzamiento de Gemini 3, Google ha procesado más de 1 billón de tokens por día en su API a pesar de la feroz batalla de lanzamiento y rendimiento con OpenAI.

Según se informa, Sam Altman envió un memorando interno “Código Rojo” al equipo de OpenAI a principios de este mes después de que el tráfico de ChatGPT disminuyera a medida que aumentaba la participación de mercado de consumo de Google. Después de eso, OpenAI lanzó GPT-5.2 y un nuevo modelo de generación de imágenes. OpenAI también se jactó de su creciente uso empresarial y dijo que el volumen de mensajes ChatGPT se ha multiplicado por ocho desde noviembre de 2024.

Si bien Google no abordó directamente la competencia con OpenAI, dijo que el lanzamiento de nuevos modelos desafía a todas las empresas a estar activas.

“Lo que está sucediendo en toda la industria es que todos estos modelos siguen siendo fantásticos, desafiándose unos a otros y superando los límites. Y creo que lo que también es fantástico es que las empresas están llevando estos modelos al mercado”, afirmó Doshi.

“También estamos introduciendo nuevos puntos de referencia y nuevos métodos para evaluar estos modelos. Eso también nos anima”.

About The Author