diciembre 2, 2025
GettyImages-2147859992-e1713960898378.webp.webp

La startup francesa de IA Mistral lanzó su nueva familia Mistral 3 de modelos abiertos el martes: un lanzamiento de 10 modelos que incluye un modelo Frontier grande con características multimodales y multilingües, así como nueve modelos más pequeños totalmente personalizables y con capacidad fuera de línea.

El lanzamiento se produce en un momento en que Mistral, que desarrolla modelos de lenguaje abierto y Le Chat, un chatbot de IA centrado en Europa, parece estar buscando ponerse al día con algunos de los modelos fronterizos de código cerrado de Silicon Valley. La startup de dos años fundada por antiguos investigadores de DeepMind y Meta ha recaudado hasta ahora alrededor de 2.700 millones de dólares con una valoración de 13.700 millones de dólares: una miseria en comparación con las cifras logradas por competidores como OpenAI (57.000 millones de dólares recaudados con una valoración de 500.000 millones de dólares) y Anthropic (45.000 millones de dólares recaudados con una valoración de 350.000 millones de dólares).

Pero Mistral está tratando de demostrar que más grande no siempre es mejor, especialmente en casos de uso empresarial.

“A nuestros clientes a veces les gusta comenzar con un modelo muy grande (cerrado) que no necesitan ajustar… pero cuando lo implementan, descubren que es costoso y lento”, dijo a TechCrunch Guillaume Lample, cofundador y científico jefe de Mistral. “Luego acuden a nosotros para optimizar modelos pequeños para que puedan manejar el caso de uso (de manera más eficiente)”.

“En la práctica, la gran mayoría de los casos de uso empresarial son cosas que se pueden manejar con modelos pequeños, especialmente si los ajustas”, continuó Lample.

Las comparaciones iniciales de referencia que colocan a los modelos más pequeños de Mistral muy por detrás de los competidores de código cerrado podrían ser engañosas, dijo Lample. Los modelos grandes de código cerrado pueden ofrecer un mejor rendimiento desde el primer momento, pero los beneficios reales se obtienen cuando los personalizas.

“En muchos casos, el rendimiento de los modelos de código cerrado puede igualarse o incluso superarse”, afirmó.

Evento tecnológico

san francisco
|
13-15 de octubre de 2026

El modelo Large Frontier de Mistral, llamado Mistral Large 3, alcanza algunas de las capacidades importantes de las que se jactan los modelos de IA de código cerrado más grandes, como el GPT-4o de OpenAI y el Gemini 2 de Google, al mismo tiempo que lucha contra varios competidores de peso abierto. Large 3 se encuentra entre los primeros modelos de frontera abierta con funciones multimodales y multilingües en uno, poniéndolo a la par con Meta's Llama 3 y Qwen3-Omni de Alibaba. Actualmente, muchas otras empresas están combinando impresionantes modelos de lenguaje grande con modelos multimodales más pequeños separados, algo que Mistral ha hecho anteriormente con modelos como Pixtral y Mistral Small 3.1.

Large 3 también presenta una arquitectura de “mezcla granular de expertos” con 41 mil millones de parámetros activos y 675 mil millones de parámetros totales, lo que permite un razonamiento eficiente en una ventana de 256 000 contextos. Este diseño ofrece velocidad y potencia, lo que le permite procesar documentos de gran tamaño y actuar como asistente de agente para tareas comerciales complejas. Mistral posiciona a Large 3 como adecuado para análisis de documentos, codificación, creación de contenido, asistentes de inteligencia artificial y automatización del flujo de trabajo.

Con su nueva familia de modelos pequeños llamada Ministral 3, Mistral afirma audazmente que los modelos más pequeños no sólo son suficientes: son superiores.

La gama de productos incluye nueve modelos densos diferentes, de alto rendimiento en tres tamaños (parámetros 14B, 8B y 3B) y tres variantes: Base (el modelo base previamente entrenado), Instruct (chat optimizado para conversaciones y flujos de trabajo estilo asistente) y Reasoning (optimizado para tareas complejas de lógica y análisis).

Según Mistral, esta gama de productos ofrece a los desarrolladores y empresas la flexibilidad de adaptar los modelos a su rendimiento exacto, ya sea que valoren el rendimiento puro, la rentabilidad o las características especiales. La compañía dice que Ministral 3 logra resultados equivalentes o mejores que otros líderes de peso abierto, al mismo tiempo que es más eficiente y genera menos tokens para tareas equivalentes. Todas las variantes admiten visión, manejan ventanas de contexto de 128K a 256K y funcionan en todos los idiomas.

Gran parte del terreno de juego es práctico. Lample enfatiza que Ministral 3 puede ejecutarse en una sola GPU, lo que permite implementarlo en hardware asequible, desde servidores locales hasta computadoras portátiles, robots y otros dispositivos periféricos que pueden tener una conectividad limitada. Esto es importante no sólo para las empresas que gestionan datos internamente, sino también para los estudiantes que buscan comentarios fuera de línea o para los equipos de robótica que trabajan en entornos remotos. Según Lample, una mayor eficiencia conduce directamente a una mayor accesibilidad.

“Es parte de nuestra misión garantizar que la IA sea accesible para todos, especialmente aquellos sin acceso a Internet”, dijo. “No queremos que la IA esté controlada sólo por unos pocos laboratorios grandes”.

Algunas otras empresas están buscando compensaciones de eficiencia similares: el último modelo empresarial de Cohere, Command A, también se ejecuta en sólo dos GPU, y su plataforma de agentes de IA North puede ejecutarse en una sola GPU.

Este tipo de accesibilidad impulsa el creciente enfoque de Mistral en la IA física. A principios de este año, la empresa comenzó a integrar sus modelos más pequeños en robots, drones y vehículos. Mistral está colaborando con la Agencia de Ciencia y Tecnología Home Team (HTX) de Singapur en modelos dedicados para robots, sistemas de ciberseguridad y protección contra incendios; con la startup alemana de tecnología de defensa Helsing en modelos de acción de visión y voz para drones; y con el fabricante de automóviles Stellantis en un asistente de inteligencia artificial en el automóvil.

Para Mistral, la fiabilidad y la independencia son tan importantes como el rendimiento.

“Usar una API de nuestros competidores que deja de funcionar durante media hora cada dos semanas; como empresa grande, no puedes permitirte eso”, afirmó Lample.

About The Author