diciembre 3, 2025
GettyImages-1136663877.jpg

Amazon Web Services, que lleva años desarrollando sus propios chips de entrenamiento de IA, acaba de presentar una nueva versión llamada Trainium3 que ofrece algunas especificaciones impresionantes.

El proveedor de la nube, que hizo el anuncio el martes en su AWS re:Invent 2025, también anunció el próximo producto en su hoja de ruta de productos de capacitación en IA: Trainium4, que ya está en proceso y puede funcionar con los chips de Nvidia.

AWS aprovechó su conferencia anual de tecnología para presentar oficialmente Trainium3 UltraServer, un sistema basado en el chip Trainium3 de 3 nanómetros de vanguardia de la compañía, así como en su tecnología de redes propia. Como era de esperar, el chip y el sistema de tercera generación ofrecen grandes mejoras de rendimiento para el entrenamiento y la inferencia de IA con respecto a la segunda generación, según AWS.

Según AWS, los sistemas son más de cuatro veces más rápidos y tienen cuatro veces más memoria, no sólo para la capacitación sino también para implementar aplicaciones de inteligencia artificial durante los picos de demanda. Además, se pueden conectar miles de UltraServers para ofrecer una aplicación con hasta 1 millón de chips Trainium3, 10 veces más que la generación anterior. Según la empresa, cada UltraServer puede albergar 144 chips.

Quizás lo más importante es que AWS dice que los chips y sistemas también son un 40% más eficientes energéticamente que la generación anterior. Mientras el mundo se apresura a construir centros de datos más grandes que funcionen con gigavatios astronómicos de electricidad, el gigante de los centros de datos AWS está tratando de desarrollar sistemas que utilicen menos, no más.

Obviamente, es de interés directo para AWS hacer esto. Pero en su forma clásica y consciente de los costos, Amazon promete que estos sistemas también ahorrarán dinero a sus clientes de la nube de IA.

Los clientes de AWS como Anthropic (en la que Amazon también es inversor), las empresas japonesas LLM Karakuri, Splashmusic y Decart ya están utilizando el chip y el sistema de tercera generación y han reducido significativamente sus costos de inferencia, dijo Amazon.

Evento tecnológico

san francisco
|
13-15 de octubre de 2026

AWS también presentó una especie de hoja de ruta para el próximo chip, Trainium4, que ya está en desarrollo. AWS prometió que el chip ofrecerá otro gran aumento de rendimiento y admitirá la tecnología de interconexión de chips NVLink Fusion de alta velocidad de Nvidia.

Esto significa que los sistemas basados ​​en AWS Trainium4 podrán trabajar con las GPU de Nvidia y aumentar su rendimiento sin dejar de aprovechar la tecnología de rack de servidores de menor costo y de cosecha propia de Amazon.

También vale la pena señalar que CUDA (Compute Unified Device Architecture) de Nvidia se ha convertido en el estándar de facto que admiten todas las aplicaciones de IA. Los sistemas basados ​​en Trainium4 podrían facilitar la atracción de grandes aplicaciones de inteligencia artificial creadas con GPU de Nvidia a la nube de Amazon.

Amazon no ha anunciado un cronograma para Trainium4. Si Amazon se apega a los cronogramas de implementación actuales, es probable que escuchemos más sobre Trainium4 en la conferencia del próximo año.

About The Author