Google y Meta pactan megacontrato de chips de IA
Meta Platforms ha cerrado, según ha adelantado The Information, un acuerdo multimillonario para alquilar chips de inteligencia artificial de Google y utilizarlos en el entrenamiento y despliegue de sus modelos. Se trata de los tensor processing units (TPU), procesadores diseñados por Alphabet para cargas masivas de IA y hasta ahora reservados casi en exclusiva a sus propios centros de datos. El pacto, que se extendería durante varios años y sumaría miles de millones de dólares en capacidad de cómputo, supone el primer gran salto de Meta fuera de la órbita de Nvidia, de cuya tecnología gráfica depende hoy la mayor parte de su infraestructura de IA. Según las filtraciones, el alquiler de TPUs comenzaría a gran escala en 2026, con vistas a una posible instalación de chips de Google directamente en los centros de datos de Meta a partir de 2027.
El movimiento llega en plena carrera global por asegurarse hardware para modelos generativos cada vez más grandes y costosos. Y abre un nuevo frente en la batalla estratégica entre Google y Nvidia por el negocio más codiciado del momento: los chips que alimentan la revolución de la inteligencia artificial.
Si el acuerdo se consolida, Meta enviará una señal clara al mercado: hay vida más allá de Nvidia en el ecosistema de hardware de IA.
Un giro en la guerra del chip de inteligencia artificial
Hasta ahora, la fotografía era clara: Nvidia concentraba más del 80% del mercado de procesadores de IA en centros de datos, mientras gigantes tecnológicos como Meta, Microsoft o Amazon competían por asegurarse cada lote disponible de sus GPU más avanzadas.
La irrupción de Google como proveedor de chips de terceros cambia el tablero. La compañía lleva años utilizando sus TPU internamente para servicios como Búsqueda, YouTube o Google Photos, pero se había resistido a abrirlos de forma masiva a clientes externos, más allá de su oferta limitada en Google Cloud.
El acuerdo con Meta —uno de los mayores compradores de chips de IA del mundo— supone un salto cualitativo. De cerrarse en los términos que se están negociando, Google pasaría de ser un proveedor de infraestructura de nicho a disputar de frente una parte del negocio que hasta ahora alimentaba casi en exclusiva a Nvidia.
Algunos ejecutivos de Google Cloud creen que la nueva estrategia podría permitirle capturar hasta un 10% de los ingresos anuales de Nvidia en data centers, una cifra que, a precios actuales, se traduciría en más de 10.000 millones de dólares al año. La consecuencia es clara: dejar de depender sólo del crecimiento del negocio cloud y anclar parte de su futuro a la venta masiva de chips propios.
Cómo se estructura el acuerdo: alquiler primero, instalación después
Lo conocido hasta ahora dibuja un esquema en dos fases. En una primera etapa, Meta alquilará capacidad de TPUs a través de Google Cloud, pagando por hora de cómputo y sin necesidad de invertir en la compra de hardware ni en su mantenimiento.
En una segunda fase, prevista para 2027, Google ofrecería a Meta la posibilidad de instalar racks de TPUs directamente en sus centros de datos, bajo acuerdos de suministro plurianuales. Este modelo híbrido —cloud primero, on-premise después— permite a ambas partes minimizar riesgos: Meta prueba el rendimiento de los chips y software de Google antes de comprometer inversiones masivas, y Google gana volumen y referencias para consolidar su ecosistema frente a Nvidia.
Las filtraciones apuntan a un contrato valorado en “miles de millones de dólares”, sin cifra concreta, pero coherente con las ambiciones de Meta, que ya ha señalado al mercado que prevé invertir hasta 70.000 millones de dólares anuales en capex ligado sobre todo a IA y centros de datos.
En la práctica, esto significa reservar desde ya varios años de producción de TPUs avanzados, probablemente de las generaciones v5 y v6 y, más adelante, v7, con mejoras de rendimiento que en algunos casos multiplican por cinco la potencia de versiones previas.
La dependencia de Meta de Nvidia, en el punto de mira
Meta se había convertido en uno de los clientes estrella de Nvidia, con compromisos de compra que distintas estimaciones del mercado sitúan en torno a 60.000–70.000 millones de dólares en la presente década.
Esa apuesta le ha permitido desplegar rápidamente su familia de modelos Llama y alimentar funciones de IA generativa en Facebook, Instagram y WhatsApp. Pero el coste ha sido doble: una factura astronómica en hardware y una dependencia tecnológica de un único proveedor con capacidad limitada de fabricación.
Con el acuerdo con Google, Meta envía un mensaje interno y externo: diversificar o morir. El grupo pretende reducir su exposición a los cuellos de botella de Nvidia, ganar poder negociador en precio y plazo de entrega y, al mismo tiempo, presionar a sus socios actuales para acelerar la innovación y rebajar tarifas.
No se trata sólo de elegir quién suministra los chips, sino de decidir quién controla la capa de software y herramientas de desarrollo sobre la que se construye la próxima generación de servicios de IA. Ahí es donde Nvidia ha levantado un foso defensivo con su plataforma CUDA, utilizada por más de 4 millones de desarrolladores en todo el mundo y difícil de sustituir de la noche a la mañana.
La apuesta de Google: de cliente a competidor de Nvidia
Para Google, el acuerdo con Meta encaja en una estrategia más amplia: convertir sus TPU en una alternativa creíble a las GPU de Nvidia para entrenamiento y despliegue de grandes modelos.
En los últimos años, el grupo ha anunciado sucesivas generaciones de chips —TPU v4, v5 y v6 (Trillium)— con mejoras de rendimiento superiores al 400% en determinadas cargas de trabajo respecto a versiones anteriores. Cada nueva iteración se integra en “pods” de miles de chips interconectados, capaces de entrenar modelos de cientos de miles de millones de parámetros.
Google ya había logrado un cliente de referencia con Anthropic, que se comprometió a utilizar hasta un millón de TPUs en los próximos años para entrenar sus modelos Claude, en un acuerdo valorado en decenas de miles de millones.
La incorporación de Meta a esta lista elevaría a otro nivel la apuesta: no sólo reforzaría el negocio cloud de Google, sino que consolidaría una especie de “bloque alternativo” a Nvidia, formado por grandes tecnológicas que apuestan por chips personalizados y acuerdos de suministro cruzados para no quedar atrapadas por un único proveedor.
El impacto inmediato en el mercado: presión para Nvidia
Aunque el acuerdo aún no se ha formalizado públicamente, las filtraciones ya han tenido reflejo en los mercados. Tras las primeras informaciones, Alphabet subió en torno a un 2-4% en bolsa, mientras que Nvidia llegó a registrar una caída intradía cercana al 2-3%, según datos recopilados en Wall Street.
El diagnóstico es inequívoco: los inversores empiezan a descontar que, a medida que Google abra sus TPUs a terceros, la hegemonía absoluta de Nvidia en centros de datos se irá erosionando. Eso no implica un desplome inmediato de sus ingresos —la demanda sigue desbordada—, pero sí un cambio en las expectativas a medio plazo.
Además, acuerdos como el de Meta y Google pueden desencadenar un efecto dominó. Otras grandes plataformas tecnológicas, hoy volcadas en las GPU de Nvidia, tendrán más incentivos para explorar alternativas, ya sea con chips de Google, diseños propios basados en ARM o alianzas con nuevos actores especializados en aceleradores de IA.
Riesgos técnicos y comerciales: nada está garantizado
Sin embargo, no todo son ventajas. Migrar parte de las cargas de trabajo de Meta a TPUs implica reescribir y optimizar una parte significativa de su software de entrenamiento y despliegue, hoy altamente adaptado al ecosistema CUDA de Nvidia. Incluso con herramientas de compatibilidad, el esfuerzo en ingeniería puede ser enorme.
Existe además el riesgo de bloqueo inverso: sustituir una dependencia de Nvidia por otra de Google, especialmente si Meta decide instalar TPUs en sus propios centros de datos y firmar contratos de suministro a muy largo plazo.
En el plano comercial, las cuentas sólo salen si Google es capaz de ofrecer precios por unidad de cómputo claramente inferiores a los de Nvidia, manteniendo al mismo tiempo un rendimiento igual o superior. De lo contrario, Meta habrá asumido un coste de transición elevado para obtener un beneficio limitado.
Lo más grave, desde la óptica regulatoria, es que la concentración de poder en unas pocas plataformas tecnológicas que controlan tanto los modelos de IA como la infraestructura de chips reaviva el debate sobre competencia y acceso equitativo a la capacidad de cómputo. Bruselas y Washington ya han puesto el foco en estos riesgos en el marco de las leyes de IA y de mercados digitales.

