Meta cierra con AWS decenas de millones de núcleos para su IA

meta union europea
El acuerdo sitúa a Meta entre los mayores clientes de Graviton y consolida el negocio de silicio propio de Amazon como alternativa real a un mercado dominado por cuellos de botella.

Meta ha decidido que su próxima fase de inteligencia artificial no puede depender de una sola tubería. La compañía anunció este viernes un acuerdo con Amazon Web Services para integrar decenas de millones de núcleos Graviton en su cartera de cómputo, con margen para ampliar el despliegue.
El mensaje es claro: el cuello de botella ya no es solo la GPU. La “IA agente” exige músculo constante, barato y estable.
En los centros de datos, el debate se traslada al coste por tarea, al consumo y a la resiliencia de la cadena de suministro.
Y ahí, la CPU vuelve al centro del tablero, pero con apellido: silicio diseñado a medida.
“As we scale the infrastructure behind Meta’s AI ambitions, diversifying our compute sources is a strategic imperative… expanding to Graviton allows us to run the CPU-intensive workloads behind agentic AI with the performance and efficiency we need at our scale.”

Diversificación a contrarreloj

La operación no es una anécdota técnica: es una decisión industrial. Meta entra en Graviton a escala masiva en un momento en que los grandes actores intentan blindarse ante la volatilidad del suministro y la dependencia de un único proveedor dominante. El propio anuncio subraya que la integración puede crecer “con el potencial de expandir” el número de chips desplegados.
Lo más relevante es el cambio de enfoque. Durante dos años, la conversación pública sobre IA se redujo a la carrera por la GPU. Sin embargo, a medida que los sistemas evolucionan hacia agentes que planifican, consultan herramientas y ejecutan tareas encadenadas, la demanda de cómputo sostenido se dispara también en la capa CPU: orquestación, preprocesado, bases de datos, colas, seguridad y parte del post-entrenamiento.
La consecuencia es clara: diversificar ya no es “deseable”, es un seguro operativo.

El giro hacia la CPU en la era de los agentes

La “agentic AI” promete automatizar flujos completos —desde atención al cliente hasta análisis interno—, pero castiga la infraestructura de forma distinta: más llamadas, más pasos intermedios y más ciclos que no pasan por la GPU. En ese terreno, la CPU vuelve a ser protagonista por pura economía del sistema.
Meta lo formula como “cargas intensivas en CPU” detrás de sus agentes, un matiz que revela que la empresa está diseñando una arquitectura híbrida: GPUs para entrenamiento e inferencia pesada; CPUs de alta densidad para el resto de la cadena.
El contraste con el relato clásico resulta demoledor. Ya no basta con comprar aceleradores: hay que sostener el “backend” que alimenta a esos modelos a escala planetaria. Y eso implica reducir latencias internas, mejorar la eficiencia y —sobre todo— asegurar disponibilidad. En el nuevo mapa de la IA, quien controle la infraestructura controla el ritmo de despliegue.

Graviton5, el músculo silencioso

Amazon vende Graviton5 como su CPU más potente y eficiente, y lo hace con cifras que apuntan directamente a los problemas del cómputo masivo. El chip integra 192 núcleos en un solo paquete y un diseño que reduce la distancia de datos entre núcleos, recortando la latencia de comunicación hasta un 33%.
A eso suma una caché L3 cinco veces mayor que la generación anterior, un detalle menos vistoso que una GPU, pero crítico cuando se persigue rendimiento estable en tareas repetitivas y de alto tráfico.
Amazon sitúa la mejora de rendimiento en torno al 25% frente al predecesor, con la promesa añadida de abaratar costes y ayudar a objetivos de sostenibilidad.
La arquitectura se apoya además en el AWS Nitro System, con hardware y software dedicados para aislamiento y seguridad, algo especialmente sensible cuando el cómputo se reparte en millones de instancias.

Dependencia energética y coste por inferencia

El telón de fondo es el mismo para toda la industria: la factura eléctrica y la capacidad de conectar nueva potencia mandan más que cualquier “roadmap”. Meta, de hecho, ha articulado una división específica —Meta Compute— para coordinar centros de datos y alianzas de suministro, con planes que apuntan a “decenas de gigavatios” esta década.
En ese contexto, cada punto de eficiencia se traduce en millones. Una CPU con densidad extrema y menor latencia interna permite consolidar cargas, reducir servidores por tarea y aliviar el cuello de botella de red dentro del propio rack. Es un ahorro que no se mide solo en coste de chip, sino en refrigeración, espacio y mantenimiento.
Lo más grave para los operadores es la imprevisibilidad: modelos que crecen, servicios que se disparan y reguladores que exigen más trazabilidad. La apuesta por Graviton apunta a una estrategia: bajar el coste unitario del cómputo “de soporte” para poder gastar donde realmente duele: en entrenamiento, inferencia avanzada y despliegue global.

Efecto dominó en el mercado de chips

La decisión de Meta también es un espaldarazo político-industrial a AWS. No solo por volumen —decenas de millones de núcleos—, sino porque coloca a Graviton como alternativa “mainstream” frente a x86 y refuerza el argumento de que el silicio propio es el nuevo campo de batalla.
El acuerdo, descrito como multimillonario y de varios años por medios financieros, encaja en una tendencia más amplia: la nube quiere capturar valor en chips, no solo en alquiler de máquinas.
El contraste con otros gigantes es evidente. Google empuja sus TPUs; Amazon combina Trainium con Graviton; y el resto del sector busca vías para no quedar atrapado por un único cuello de botella.
Para Intel y AMD, la señal es incómoda: el mayor crecimiento en centros de datos puede venir acompañado de arquitecturas alternativas. Para Nvidia, el mensaje no es de sustitución, sino de reparto: el presupuesto total de IA se diversifica por capas.

Lo que Meta compra, y lo que se reserva

Meta presenta el movimiento como “imperativo estratégico”, pero también como gestión del riesgo. La empresa no renuncia a su ecosistema actual; lo amplía. En la práctica, compra capacidad para ejecutar a escala los procesos que hacen viable un producto de IA: desde el “runtime” de agentes hasta la infraestructura de seguridad, observabilidad y datos que los sostiene.
Amazon, por su parte, coloca a Graviton en el centro de la conversación sobre IA, recordando que el fenómeno no es solo entrenamiento, sino operación continua. Y deja una frase entre líneas: si la demanda de agentes crece, la CPU eficiente será tan crítica como el acelerador.
El resultado es un mercado más fragmentado —y por eso mismo, más competitivo— donde el poder se mide por quién puede encender capacidad nueva sin retrasos. Meta acaba de pagar por esa tranquilidad. Y lo ha hecho donde duele menos políticamente: en un componente “invisible” que, sin embargo, decide el ritmo real de la IA.