AWS lanza su tercer chip de entrenamiento de IA y suma 18 modelos abiertos a Bedrock para ganar músculo frente a Nvidia, Google y OpenAI

Así es Trainium3, el chip “low cost” que quiere plantar cara a Nvidia

EPA/CJ GUNTHER

Amazon Web Services ha presentado Trainium3, su nuevo chip de inteligencia artificial diseñado para abaratar y hacer más eficiente el entrenamiento de modelos generativos a gran escala. Integrado en los nuevos Trn3 UltraServers y acompañado por una gran ampliación de modelos abiertos en Amazon Bedrock, el movimiento sitúa a la compañía en el centro de la batalla por el hardware de IA, mientras tiende la mano a Nvidia para sus futuras generaciones de chips.

Amazon mueve ficha en la carrera del hardware de inteligencia artificial

Amazon Web Services (AWS) ha dado un paso clave en la carrera por dominar la infraestructura de inteligencia artificial con la presentación de Trainium3, su nuevo chip diseñado específicamente para entrenar y desplegar modelos de IA generativa a gran escala. La compañía promete una infraestructura más barata, más rápida y con menor impacto ambiental, en un momento en el que el coste computacional se ha convertido en uno de los grandes cuellos de botella de la industria. 

Trainium3 UltraServers: más potencia, menos consumo y escalabilidad masiva

El nuevo chip se despliega a través de los Trn3 UltraServers, una generación de servidores que lleva la apuesta de AWS a otro nivel. Según la propia compañía, estos equipos ofrecen hasta 4,4 veces más rendimiento de cómputo, 4 veces mayor eficiencia energética y casi 4 veces más ancho de banda de memoria que la generación previa basada en Trainium2. Esto permite entrenar modelos de gran tamaño en menos tiempo, con menos energía y reduciendo de forma significativa los costes operativos para los clientes empresariales. 

Además, los Trn3 UltraServers pueden agrupar hasta 144 chips Trainium3 en un único sistema integrado, alcanzando cientos de petaFLOPS en precisión FP8 y recortando de forma notable la latencia. En la práctica, esto se traduce en la capacidad de abordar proyectos de IA que antes eran demasiado caros o lentos, acelerando el paso de la fase de experimentación al despliegue real en producto.

Bedrock se refuerza con 18 modelos abiertos, incluido Mistral Large 3

El lanzamiento de Trainium3 llega acompañado de un movimiento estratégico en el plano del software: Amazon Bedrock, la plataforma de modelos fundacionales de AWS, incorpora 18 modelos open weight totalmente gestionados, el mayor salto de su historia. Entre ellos destacan los nuevos Mistral Large 3 y la familia Ministral 3 (3B, 8B y 14B parámetros), además de modelos de proveedores como Google, Moonshot AI, MiniMax AI, Nvidia, OpenAI y Qwen. 

Con este catálogo ampliado, AWS busca posicionarse no solo como proveedor de infraestructura barata, sino como un hub de modelos avanzados donde las empresas pueden probar, comparar y cambiar de modelo sin rehacer sus aplicaciones. Trainium3 actúa así como el acelerador nativo más rápido de Bedrock, ofreciendo hasta tres veces más rendimiento que la generación anterior en la ejecución de estos modelos. 

Competencia directa con Nvidia… pero con mano tendida

El mensaje de fondo es claro: Amazon quiere competir de forma directa con Nvidia, Google y el resto de gigantes que dominan hoy el mercado de chips de IA. AWS asegura que Trainium3 puede ofrecer hasta un 50% de ahorro en costes y 4,4 veces más velocidad en tareas de entrenamiento frente a su predecesor, un argumento potente para clientes que buscan reducir la factura de nube sin renunciar a potencia. 

Pero la estrategia no es exclusivamente de confrontación. La compañía ha confirmado que sus futuras generaciones de chips, como Trainium4, integrarán NVLink Fusion de Nvidia, una tecnología que mejora de forma drástica la comunicación entre chips y permite construir servidores aún más grandes y eficientes. AWS combina así el desarrollo de silicio propio con una colaboración selectiva con Nvidia, buscando atraer tanto a clientes que quieren alternativas como a quienes ya están estandarizados en su ecosistema. 

Lo que se juega Amazon en la nueva ola de la IA

La apuesta de Amazon por Trainium3 no es solo tecnológica, sino también estratégica. El negocio de chips de IA de la compañía ya mueve miles de millones y crece a triple dígito trimestre a trimestre, impulsando también sus resultados en nube. Frente a un mercado en el que Microsoft se apoya en los chips de Nvidia y Google empuja sus propios TPUs, AWS necesita diferenciarse con una propuesta que combine precio, rendimiento y ecosistema de modelos.

Con Trainium3, los nuevos UltraServers y la expansión de Bedrock, Amazon lanza un mensaje al mercado: la próxima batalla de la IA no se ganará solo con modelos más grandes, sino con infraestructura eficiente, abierta y accesible para empresas de todos los tamaños. La cuestión ahora es si esta combinación será suficiente para recortar distancia frente a Nvidia y consolidar a AWS como uno de los grandes ganadores de la ola de la inteligencia artificial generativa.