¿El fin del reinado de Nvidia? Meta elige los chips de Google en un acuerdo histórico
La guerra por el “hardware” de la inteligencia artificial entra en una fase nueva.
Meta ha cerrado un acuerdo multianual valorado en miles de millones de dólares para alquilar chips de IA de Google, según adelantó The Information y confirmaron fuentes del mercado.
Se trata de las Tensor Processing Units (TPU), los aceleradores propios con los que Google entrena sus modelos Gemini y que hasta ahora apenas ofrecía a terceros.
El contrato dará a Meta potencia de cálculo adicional para entrenar y desplegar nuevos modelos, mientras sigue apoyándose de forma masiva en las GPU de Nvidia.
El movimiento convierte a Google en rival directo de Nvidia en el negocio de chips de IA y consolida a Meta como el mayor comprador de cómputo del planeta digital. La consecuencia es clara: la carrera por la infraestructura se acelera y se encarece al mismo tiempo.
Un alquiler de chips valorado en miles de millones
Según la información disponible, el acuerdo entre Meta y Google tiene duración de varios años y un importe conjunto de miles de millones de dólares en alquiler de capacidad de cómputo basada en TPU. No se han revelado cifras exactas, pero fuentes del sector sitúan el contrato en un rango comparable al de los grandes compromisos de gasto en GPU que se han firmado en los últimos 18 meses.
La estructura combina alquiler de capacidad en la nube de Google y la posibilidad de desplegar TPU dentro de los propios centros de datos de Meta a partir de 2027, una opción que Google lleva meses ofreciendo para convertir sus chips en un negocio independiente de su ‘cloud’. Esto supone un cambio estratégico: hasta ahora, las TPU eran un activo casi exclusivo de los servicios internos de Google y de algunos clientes de su nube.
En la práctica, el contrato asegura a Meta una “tercera vía” de suministro —además de Nvidia y AMD— y da a Google un cliente ancla con un volumen de consumo que puede superar fácilmente los centenares de megavatios de potencia de cómputo durante la vigencia del acuerdo.
Meta rompe el monopolio de facto de Nvidia
Meta fue de las primeras grandes tecnológicas en reconocer abiertamente su dependencia de Nvidia. La propia compañía desveló que, a cierre de 2024, su infraestructura de IA incluiría 350.000 GPU H100, con una capacidad total equivalente a casi 600.000 unidades de ese chip. Solo en 2024 destinó 38.000-40.000 millones de dólares a servidores y centros de datos, y prevé elevar esa cifra a 60.000-65.000 millones en 2025, impulsada en gran parte por la compra de hardware de IA.
En paralelo, Meta ha firmado en los últimos días un acuerdo potencial de hasta 100.000 millones de dólares con AMD para adquirir sus futuras GPU MI450 a lo largo de varios años, con hasta 6 GW de capacidad de cómputo y la opción de tomar hasta un 10% del capital de la compañía. El pacto se suma a la ampliación de su colaboración con Nvidia para desplegar “millones de GPU” en nuevos centros de datos.
La lectura es inequívoca: Meta ha decidido no depender de un solo proveedor. En lugar de apostar todo a Nvidia, está construyendo un portafolio mixto de GPU (Nvidia y AMD) y aceleradores específicos (TPU de Google) capaz de absorber cuellos de botella, negociar precios a la baja y reducir la vulnerabilidad ante problemas de suministro. En el nuevo mapa de la IA, el riesgo no es tener demasiado hardware, sino demasiado poco.
La jugada de Google: de usar TPU a venderlas
Para Google, el acuerdo supone la consolidación de una estrategia largamente anunciada: convertir sus TPU en un negocio de infraestructura a gran escala, más allá de su uso interno. Durante años, estos chips han sido el corazón silencioso de productos como YouTube, Gmail o Maps, y más recientemente del entrenamiento de Gemini, el modelo insignia de la compañía.
La última generación comercial, TPU v5p, se organiza en “pods” de 8.960 chips conectados con enlaces de 4.800 Gbps por chip, con más del doble de potencia de cálculo y triple memoria de alta velocidad que la versión anterior. Estas cifras colocan a las TPU en la misma liga que las GPU más avanzadas de Nvidia para entrenar modelos de gran tamaño, con la ventaja de una integración muy estrecha con la nube de Google.
Hasta ahora, sin embargo, Google había sido muy celosa de sus aceleradores: los alquilaba a clientes de su nube, pero no los convertía en un estándar de facto más allá de su propio ecosistema. El acuerdo con Meta rompe esa barrera. Si un gigante externo apuesta miles de millones por TPU, otros ‘hyperscalers’ y grandes empresas podrían seguir el mismo camino, lo que reforzaría a Google como tercer pilar del oligopolio de chips de IA junto a Nvidia y AMD.
Una carrera de ‘capex’ sin precedentes en Silicon Valley
El contexto de fondo es una escalada de inversión sin parangón. Meta ha comunicado al mercado que su gasto de capital en 2025 podría alcanzar los 65.000 millones de dólares, casi el doble que en 2024, impulsado por nuevos centros de datos, redes y chips de IA. Microsoft, por su parte, se mueve en un rango de 80.000 millones anuales, mientras Amazon, Google y otros grandes actores incrementan igualmente sus presupuestos para seguir el ritmo.
A estas cifras se suman los contratos específicos: decenas de miles de millones comprometidos con Nvidia, hasta 60.000 millones con AMD en el caso de Meta según algunas estimaciones, y ahora un acuerdo multibillonario con Google. La consecuencia es clara: la infraestructura de IA se ha convertido en el mayor capítulo de inversión corporativa de la historia reciente de la tecnología.
No faltan voces que advierten del riesgo de una burbuja de infraestructuras, con inversiones que podrían adelantarse a la demanda real si los modelos no encuentran usos masivos y rentables en el corto plazo. Sin embargo, por ahora, el mensaje de Meta, Google y el resto del sector es que el coste de quedarse corto sería aún más alto.
Qué gana Meta: flexibilidad, precio y margen de maniobra
Desde la óptica de Meta, el acuerdo con Google tiene varias ventajas. La primera es la flexibilidad: disponer de tres familias de chips —GPU de Nvidia, GPU de AMD y TPU de Google— le permite adaptar cada carga de trabajo al hardware más eficiente en coste o rendimiento. Determinados modelos internos pueden optimizarse para TPU, mientras otros seguirán explotando la enorme base instalada de GPU.
La segunda es el poder de negociación. Ningún proveedor quiere perder al que probablemente sea ya el mayor cliente de cómputo de IA del mundo. Tener sobre la mesa contratos de varios miles de millones con Google y AMD refuerza la posición de Meta cuando se sienta con Nvidia a renegociar precios, plazos y prioridad en la cadena de suministro.
Por último, el acuerdo es una póliza de seguro frente a futuros cuellos de botella. Si las GPU vuelven a escasear o se encarecen de forma abrupta, Meta tendría la opción de desviar parte de sus proyectos a clusters de TPU, tanto en la nube como en sus propios centros de datos, sin detener su hoja de ruta de producto.
Qué gana Google: un cliente ancla y escala industrial
Para Google, el beneficio estratégico es igual de claro. Meta se convierte en cliente ancla de su negocio de chips, un papel similar al que juega OpenAI para Microsoft en el lado de las GPU. Asegurarse un flujo multianual de ingresos por alquiler de TPU —con cifras de miles de millones— justifica nuevas inversiones en fábricas de chips, redes y centros de datos dedicados a este negocio.
Además, el movimiento refuerza a Google Cloud frente a Microsoft Azure y Amazon Web Services. Aunque el acuerdo no convierte a Meta en cliente “cautivo” de la nube de Google, sí lo vincula a su ecosistema tecnológico, herramientas y soporte. Cada modelo que Meta entrene sobre TPU genera aprendizajes, optimizaciones de software y efectos de red que mejoran la oferta de Google a otros clientes.
Por último, el éxito de este contrato es un escaparate comercial: si una compañía que ya opera con cientos de miles de GPU decide diversificar hacia TPU, otros grandes grupos —desde bancos a telecos o petroleras— pueden interpretarlo como una señal de madurez tecnológica y plantearse migrar parte de sus cargas de trabajo a la plataforma de Google.
Impacto en el mercado de chips y en los ‘hyperscalers’
El acuerdo Meta–Google envía una señal fuerte al mercado: el dominio de Nvidia ya no es incuestionable, aunque sigue siendo abrumador. La entrada de AMD como segundo gran proveedor de GPU de gama alta y la consolidación de las TPU como alternativa real dibujan un oligopolio de tres grandes tecnologías en la cúspide del cómputo de IA.
Para otros ‘hyperscalers’ —Microsoft, Amazon, Oracle— el mensaje es doble. Por un lado, la presión para cerrar acuerdos de suministro a largo plazo se intensifica: nadie quiere quedar como el actor con menos acceso a hardware de última generación. Por otro, el giro de Google hacia la venta masiva de TPU abre una puerta para que incluso competidores directos puedan, en teoría, integrar estos chips en sus propias nubes o centros de datos.
En el terreno de los fabricantes de chips tradicionales, el panorama es más incierto. Empresas que aspiraban a entrar en el juego de la IA con soluciones especializadas pueden encontrarse ahora con un mercado copado por tres gigantes con integración vertical, músculo de inversión y ecosistemas de software muy consolidados. La ventana para los ‘challengers’ se estrecha.
Riesgos: burbuja de infra, sobrecapacidad y consumo energético
Más allá del brillo de las cifras, el movimiento no está exento de riesgos. El más evidente es el de sobrecapacidad: que la industria construya demasiados centros de datos, compre demasiados chips y sobredimensione sus clústeres frente a una demanda real que tarde años en materializarse en ingresos. Varios analistas ya hablan de una “burbuja de acero y silicio” alimentada por expectativas quizá excesivamente optimistas sobre los usos comerciales de la IA.
El segundo riesgo es regulatorio y social. Los centros de datos de IA son enormes consumidores de energía y agua, y empiezan a toparse con resistencias políticas y ciudadanas en distintos países. Las autoridades europeas y estadounidenses vigilan cada vez más de cerca el impacto climático y competitivo de este despliegue masivo de infraestructura.
El tercero, menos visible pero igual de relevante, es la dependencia mutua entre un puñado de empresas. Si gran parte de las capacidades de IA del mundo dependen de acuerdos cruzados entre tres o cuatro gigantes —Meta, Google, Nvidia, AMD—, cualquier fallo técnico, disputa comercial o intervención regulatoria puede tener efectos sistémicos.
El diagnóstico es inequívoco: con este acuerdo, Meta y Google refuerzan su posición en la cúspide de la pirámide de la IA, pero también se atan aún más a una carrera de gasto que no admite tropiezos. El tiempo dirá si la apuesta por alquilar miles de millones en chips de IA genera los retornos que el mercado da hoy por descontado.

