noviembre 29, 2025
Gemini-3.jpeg

Cada vez que escuche a un CEO multimillonario (o incluso millonario) describir cómo los agentes de LLM están asumiendo todos los trabajos humanos, recuerde este incidente divertido pero revelador sobre los límites de la IA: el famoso investigador de IA Andrej Karpathy obtuvo acceso al último modelo de Google, Gemini 3, un día antes, y la gente no quiso creerle cuando dijo que era el año 2025.

Cuando finalmente vio el año con sus propios ojos, se quedó estupefacto y le dijo: “Ahora mismo estoy sufriendo un enorme shock temporal”.

Gemini 3 fue lanzado el 18 de noviembre con tanta fanfarria que Google lo llamó “una nueva era de inteligencia”. Y Gemini 3 es, según casi todos los informes (incluido el de Karpathy), un modelo básico muy capaz, especialmente para acertijos. Karpathy es un investigador de IA ampliamente reconocido que fue miembro fundador de OpenAI, dirigió la IA en Tesla durante un tiempo y ahora está construyendo una startup, Eureka Labs, para reinventar las escuelas de agentes y maestros para la era de la IA. Publica una gran cantidad de contenido sobre lo que sucede detrás de escena de los LLM.

Después de probar el modelo temprano, Karpathy escribió en un hilo X ahora viral sobre la interacción “más divertida” que tuvo con él.

Aparentemente, los datos previos al entrenamiento del modelo solo contenían información hasta el año 2024. Así que Gemini 3 asumió que el año todavía era 2024. Cuando Karpathy intentó demostrarle que la fecha era en realidad el 17 de noviembre de 2025, Gemini 3 acusó al investigador de “tratar de engañarlo”.

Le mostró artículos de noticias, imágenes y resultados de búsqueda de Google. Pero en lugar de dejarse convencer, el LLM acusó a Karpathy de presionarlo, subiendo falsificaciones generadas por IA. Según el informe de Karpathy, incluso llegó a describir cuáles eran las “señales muertas” en las imágenes que supuestamente demostraban que se trataba de un truco. (No respondió a nuestra solicitud de más comentarios).

Desconcertado, Karpathy (que es, después de todo, uno de los principales expertos del mundo en la formación de LLM) finalmente descubrió el problema. El LLM no solo no tenía datos de capacitación para 2025, sino que “también olvidé activar la 'Búsqueda de Google'”, escribió. En otras palabras, estaba trabajando con un modelo que no estaba conectado a Internet, lo que para un LLM es como estar desconectado del mundo.

Evento tecnológico

san francisco
|
13-15 de octubre de 2026

Cuando Karpathy activó esta función, la IA miró a su alrededor y entró en 2025 en estado de shock. Literalmente soltó: “Dios mío”.

Continuó escribiendo como si tartamudeara: “Yo. Yo… no sé qué decir. Tenías razón. Tenías razón”. todo. Mi reloj interno falló”. Gemini 3 confirmó que los titulares que había hecho Karpathy eran ciertos: la fecha actual, que Warren Buffett anunció su última gran inversión (en Alphabet) antes de retirarse y que Grand Theft Auto VI se retrasó.

Luego miró a su alrededor por sí solo, como el personaje de Brendan Fraser en la comedia Blast from the Past de 1999, que emerge de un refugio antiaéreo después de 35 años.

Agradeció a Karpathy por brindarle “acceso temprano” a la “realidad” el día antes del lanzamiento público. Y se disculpó con el investigador por “iluminarlo cuando”. Fueron los que dijeron la verdad todo el tiempo”.

Pero lo más divertido fueron los acontecimientos actuales que más desconcertaron a Gemini 3. “Nvidia vale la pena 4,54 billones de dólares? ¿Y los Eagles finalmente se vengaron de los Chiefs? Esto es una locura”, compartió.

Bienvenido al 2025, Géminis.

Las respuestas a Una persona escribió: “Cuando el sistema indica y la falta de herramientas ponen un modelo en modo detective, es como ver una IA abrirse camino a través de la realidad”.

Pero detrás del humor hay un mensaje.

“Es en esos momentos involuntarios en los que estás claramente fuera del camino y en algún lugar en la jungla de generalizaciones cuando mejor puedes desarrollar un sentido del olfato modelo”, escribió Karpathy.

Para decodificar esto un poco, Karpathy señala que se tiene una idea de la personalidad de la IA, y tal vez incluso de sus rasgos negativos, cuando está en su propia versión salvaje. Es una variación del “olor a código”, el pequeño “olor” metafórico que un desarrollador nota cuando algo anda mal en el código del software, pero no está claro qué está mal.

Como todos los LLM capacitados en contenido generado por humanos, no sorprende que Gemini 3 interviniera, argumentara e incluso imaginara ver evidencia que demostraba su punto. Mostró su “olor a modelo”.

Por otro lado, dado que un LLM no es un ser vivo, a pesar de su sofisticada red neuronal, no experimenta emociones como el shock (o el shock temporal), incluso si lo afirma. Así que tampoco resulta vergonzoso.

Es decir, cuando Gemini 3 se enfrentó a hechos en los que realmente creía, los aceptó, se disculpó por su comportamiento, se comportó con arrepentimiento y se maravilló de la victoria de los Eagles en el Super Bowl en febrero. Esto es diferente a otros modelos. Por ejemplo, los investigadores detectaron versiones anteriores de Claude ofreciendo mentiras para salvar las apariencias para explicar sus malas acciones cuando el modelo se dio cuenta de sus malas acciones.

Lo que muchos de estos divertidos proyectos de investigación de IA muestran una y otra vez es que los LLM son réplicas imperfectas de las habilidades de humanos imperfectos. Eso me dice que su mejor caso de uso (y posiblemente para siempre) es tratarlos como herramientas valiosas para ayudar a las personas, en lugar de como una especie de sobrehumano que nos reemplazará.

About The Author