La conferencia tecnológica anual de Amazon Web Services, AWS re:Invent, concluyó otro día de programación, trayendo consigo una avalancha de noticias sobre productos y conferencias magistrales, así como las obligatorias historias de éxito de los clientes.
El tema, como era de esperar, es la IA para empresas. Este año se trata de actualizaciones que brindan a los clientes más control en la personalización de los agentes de IA, incluida una que, según AWS, puede aprender de usted y luego trabajar de forma independiente durante días.
AWS re:Invent 2025, que se extenderá hasta el 5 de diciembre, comenzó con un discurso de apertura del director ejecutivo de AWS, Matt Garman, quien analizó la idea de que los agentes de IA pueden desbloquear el “verdadero valor” de la IA.
“Los asistentes de IA están dando paso gradualmente a agentes de IA que pueden realizar y automatizar tareas en su nombre”, dijo durante el discurso de apertura del 2 de diciembre. “Aquí es donde comenzamos a ver importantes retornos comerciales de sus inversiones en IA”.
El 3 de diciembre, la conferencia continuó con noticias sobre agentes de IA y análisis más profundos de las historias de los clientes. Swami Sivasubramanian, vicepresidente de Agentic AI en AWS, pronunció uno de los discursos de apertura. Decir que era optimista tal vez sea quedarse corto.
“Vivimos en tiempos de grandes cambios”, dijo Sivasubramanian durante la conferencia. “Por primera vez en la historia, podemos describir lo que queremos lograr en lenguaje natural y los agentes crean el plan. Escriben el código, llaman a las herramientas necesarias y ejecutan la solución completa. Los agentes le dan la libertad de desarrollar sin límites, acelerando la rapidez con la que puede pasar de una idea a un gran impacto”.
Si bien se espera que las noticias sobre agentes de IA sean una presencia permanente en AWS re:Invent 2025, también hubo otros anuncios. Aquí hay un resumen de los anuncios que llamaron nuestra atención. TechCrunch actualizará este artículo al final de AWS re:Invent con los últimos hallazgos al principio. Asegúrate de volver a consultar.
Duplicar el número de cursos LLM
AWS anunció herramientas adicionales para que los clientes empresariales creen sus propios modelos de límites. Específicamente, AWS dijo que está agregando nuevas funciones tanto para Amazon Bedrock como para Amazon SageMaker AI para facilitar la creación de Frontier LLM.
Por ejemplo, AWS ofrece personalización de modelos sin servidor a SageMaker, lo que permite a los desarrolladores comenzar a crear un modelo sin tener que preocuparse por los recursos informáticos o la infraestructura. Se puede acceder a la personalización del modelo sin servidor a través de una ruta autodirigida o solicitando un agente de IA.
AWS también anunció Reinforcement Fine Tuning en Bedrock, lo que permite a los desarrolladores seleccionar un flujo de trabajo preestablecido o un sistema de recompensas y hacer que Bedrock ejecute automáticamente su proceso de ajuste de principio a fin.
Evento tecnológico
san francisco
|
13 al 15 de octubre de 2026
Andy Jassy comparte algunos números
El director ejecutivo de Amazon, Andy Jassy, recurrió a la plataforma de redes sociales X para explicar el discurso de apertura del director ejecutivo de AWS, Matt Garman. El mensaje: La generación actual del chip de IA Trainium2, competidor de Nvidia, ya está generando mucho dinero.
Sus comentarios se produjeron en el contexto de la presentación del chip de próxima generación, Trainium3, y tenían como objetivo pronosticar un futuro prometedor de ventas para el producto.
Se acercan los ahorros en la base de datos
Escondido entre decenas de anuncios se encuentra un artículo que ya suscita aplausos. Descuentos.
Específicamente, AWS anunció que está lanzando planes de ahorro de bases de datos que ayudarán a los clientes a reducir los costos de las bases de datos hasta en un 35 % cuando se comprometan a una tasa de uso constante ($/hora) durante un período de un año. La compañía dijo que los ahorros se aplicarán automáticamente al uso elegible de todos los servicios de bases de datos admitidos cada hora, y cualquier uso adicional más allá del compromiso se facturará según las tarifas según demanda.
Corey Quinn, economista jefe de la nube en Duckbill, lo dijo en su blog titulado “Seis años de quejas finalmente están dando sus frutos”. bien dicho.
Un chip de entrenamiento de IA y compatibilidad con Nvidia
AWS presentó una nueva versión de su chip de entrenamiento de IA llamado Trainium3 junto con un sistema de IA llamado UltraServer que lo ejecuta. El TL;DR: Este chip actualizado cuenta con algunas especificaciones impresionantes, incluida la promesa de un aumento de hasta cuatro veces en el rendimiento tanto en el entrenamiento como en la inferencia de IA, al tiempo que reduce el consumo de energía en un 40%.
AWS también proporcionó un adelanto. La empresa ya tiene en desarrollo Trainium4, que puede funcionar con los chips de Nvidia.
Funciones avanzadas de AgentCore
AWS anunció nuevas funciones en su plataforma de creación de agentes AgentCore AI. Una característica notable es la política de AgentCore, que brinda a los desarrolladores la capacidad de establecer límites más fácilmente para los agentes de IA.
AWS también anunció que los agentes ahora podrán registrar y recordar cosas sobre sus usuarios. Además, la compañía anunció que ayudará a sus clientes a calificar a los agentes utilizando 13 sistemas de calificación prediseñados.
Una abeja agente de IA que trabaja constantemente
AWS anunció tres nuevos agentes de IA (es un término allí nuevamente) llamados Frontier Agents, incluido uno llamado Kiro Self Agent, que escribe código y está diseñado para aprender cómo le gusta trabajar a un equipo para que puedan operar en gran medida de forma autónoma durante horas o días.
Otro de estos nuevos agentes se encarga de los procesos de seguridad, como las revisiones de código, y el tercero se encarga de las tareas de DevOps, como la prevención de incidentes cuando se activa el nuevo código. Las versiones preliminares de los agentes ya están disponibles.
Nuevos modelos y servicios Nova
AWS está introduciendo cuatro nuevos modelos de IA dentro de su familia de modelos Nova AI: tres de los cuales generan texto y uno puede generar texto e imágenes.
La compañía también anunció un nuevo servicio llamado Nova Forge que permite a los clientes de la nube de AWS acceder a modelos previamente entrenados, semidesentrenados o posdesentrenados, que luego pueden aumentar entrenando con sus propios datos. La gran ventaja de AWS es su flexibilidad y adaptabilidad.
El caso de Lyft a favor de los agentes de IA
La empresa de transporte compartido estuvo entre muchos clientes de AWS que se presentaron durante el evento para compartir sus historias de éxito y evidencia de cómo los productos han impactado su negocio. Lyft está utilizando el modelo Claude de Anthropic a través de Amazon Bedrock para crear un agente de inteligencia artificial que maneja preguntas y problemas de conductores y pasajeros.
La compañía dijo que este agente de IA redujo el tiempo promedio de resolución en un 87%. Lyft también dijo que ha visto un aumento del 70% en el uso de su agente de inteligencia artificial por parte de los conductores este año.
Una fábrica de IA para el centro de datos privado
Amazon también anunció “fábricas de IA” que permiten a grandes empresas y gobiernos ejecutar sistemas de IA de AWS en sus propios centros de datos.
El sistema fue desarrollado en colaboración con Nvidia e incluye tecnología Nvidia y AWS. Si bien las empresas que lo utilizan pueden equiparlo con GPU Nvidia, también pueden optar por el último chip de inteligencia artificial de Amazon, el Trainium3. Con el sistema, Amazon aborda la soberanía de los datos, es decir, la necesidad de que los gobiernos y muchas empresas controlen sus datos y no los compartan, incluso cuando se trata del uso de IA.
Vea las últimas revelaciones sobre todo, desde la inteligencia artificial de los agentes y la infraestructura de la nube hasta la seguridad y más, en el evento emblemático de Amazon Web Services en Las Vegas. Este vídeo se presenta en colaboración con AWS.