enero 14, 2026
jensen-huang-ceo-of-nvidia-1761897263428_169.jpeg


Yakarta, CNN Indonesia

director ejecutivo NVIDIA Jensen Huang anunció que la última generación de chips de su empresa está entrando ahora en la “fase de producción completa”. Esto significa que la empresa está preparada para satisfacer la creciente demanda de ordenadores de alto rendimiento, especialmente en la industria. inteligencia artificial (IA) y centros de datos.

Dijo que estos chips son capaces de generar cinco veces la potencia de procesamiento de inteligencia artificial de los chips Nvidia anteriores cuando se usan para chatbots y otras aplicaciones de inteligencia artificial.

PUBLICIDAD

Desplácese para continuar con el contenido

En un discurso en el Consumer Electronics Show en Las Vegas, EE.UU., el lunes (01/05), el director de la empresa más valiosa del mundo reveló nuevos detalles sobre el chip, cuyo lanzamiento está previsto para finales de este año.

Según un informe de Reuters, los ejecutivos de Nvidia dijeron que el chip ya había sido probado por la empresa de inteligencia artificial en los laboratorios de la compañía. Nvidia se enfrenta a una competencia cada vez mayor por parte de sus competidores y de sus propios clientes.





Se espera que la plataforma Vera Rubin, que consta de seis chips Nvidia separados, se lance a finales de este año. El servidor insignia contará con 72 unidades gráficas de la compañía y 36 de sus nuevos procesadores centrales.

Huang demostró cómo estos chips podrían conectarse en una “cápsula” que contiene más de 1.000 chips de rubí, afirmando que esto podría aumentar diez veces la eficiencia de generar “tokens” de las unidades básicas de un sistema de IA.

Para lograr estos nuevos resultados de rendimiento, Huang dice que el chip Ruby aprovecha un tipo de datos patentado que la compañía espera que se adopte en toda la industria.

“Así es como pudimos lograr un aumento tan significativo en el rendimiento a pesar de que el número de transistores era sólo 1,6 veces mayor”, dijo Huang.

Si bien Nvidia todavía domina el mercado de entrenamiento de modelos de inteligencia artificial (IA), la compañía enfrenta una competencia mucho más dura, tanto de rivales tradicionales como Advanced Micro Devices (AMD) como de clientes como Google (Alphabet), cuando se trata de poner los resultados de esos modelos a disposición de cientos de millones de usuarios de chatbots y otras tecnologías.

Gran parte del discurso de Huang se centró en la eficacia del nuevo chip para esta tarea. Esto incluye la adición de una nueva tecnología de almacenamiento llamada “Almacenamiento de memoria contextual”, que está diseñada para ayudar a los chatbots a responder más rápidamente a preguntas y conversaciones largas.

Nvidia también está promocionando una nueva generación de conmutadores de red equipados con un nuevo tipo de conexión llamada Co-Packaged Optics.

Esta tecnología es esencial para conectar miles de máquinas en una sola unidad y compite con productos de Broadcom y Cisco Systems.

Nvidia anunció que CoreWeave será uno de los primeros en utilizar el nuevo sistema Vera Rubin y espera que Microsoft, Oracle, Amazon y Alphabet también lo adopten.

En otro anuncio, Huang destacó un nuevo software que podría ayudar a los automóviles autónomos a determinar qué camino tomar y luego proporcionar a los ingenieros un rastro en papel.

Nvidia dio a conocer una investigación sobre su software Alpamayo a fines del año pasado, y el lunes Huang anunció que lanzaría el software más ampliamente, junto con datos de capacitación, para que los fabricantes de automóviles pudieran realizar evaluaciones.

“No sólo compartimos abiertamente estos modelos, sino también los datos que utilizamos para entrenarlos, porque es la única manera de confiar realmente en cómo se desarrollaron los modelos”, dijo Huang en el escenario de Las Vegas.

El mes pasado, Nvidia adquirió talento y tecnología de chips de la startup Groq, incluidos ejecutivos que desempeñaron papeles clave para ayudar a Google de Alphabet a desarrollar sus propios chips de inteligencia artificial.

Si bien Google es el principal cliente de Nvidia, sus propios chips están emergiendo gradualmente como una de las mayores amenazas de Nvidia a medida que Google trabaja en estrecha colaboración con Meta Platforms y otros para socavar el dominio de Nvidia en el sector de la inteligencia artificial.

Durante una sesión de preguntas y respuestas con analistas financieros después de su discurso, Huang explicó que la adquisición de Groq no afectaría el negocio principal de Nvidia, pero podría conducir a nuevos productos que ampliarían su línea de productos.

Mientras tanto, Nvidia está tratando de demostrar que sus últimos productos superan a los chips más antiguos como el H200, cuya exportación a China fue autorizada anteriormente por el ex presidente de Estados Unidos, Donald Trump.

Según un informe de Reuters, los chips, que son predecesores de los actuales chips “Blackwell” de Nvidia, tienen una gran demanda en China, un hecho que preocupa a los defensores de políticas duras hacia China en todo el espectro político estadounidense.

Después de su discurso de apertura, Huang dijo a los analistas financieros que la demanda de chips H200 en China era muy alta, y la directora financiera Colette Kress explicó que Nvidia había solicitado una licencia para enviar los chips a China pero todavía estaba esperando la aprobación del gobierno de EE.UU. y de otros países.

(wpj/dmi)

(Gambas: vídeo de CNN)

About The Author