La nueva infraestructura conecta centros de datos en Wisconsin y Atlanta

Microsoft y NVIDIA refuerzan su alianza para impulsar la ‘superfábrica’ de IA de Fairwater

Microsoft y NVIDIA han anunciado una ampliación de su alianza estratégica para construir la nueva Fairwater AI Superfactory, un complejo de centros de datos que conectará la instalación de Fairwater, en Wisconsin, con un nuevo centro de última generación en Atlanta (Georgia). La infraestructura integrará cientos de miles de GPUs NVIDIA Blackwell para entrenamiento de modelos y más de 100.000 GPUs Blackwell Ultra en sistemas NVIDIA GB300 NVL72 destinados a tareas de inferencia distribuidas por todo el mundo. Además, Microsoft desplegará conmutadores Ethernet NVIDIA Spectrum-X para sostener el tráfico de datos de estos sistemas de frontera, con el objetivo declarado de reducir costes, ganar eficiencia y mantener una plataforma «flexible y continuamente modernizada» para la nueva era de la IA.

China pone freno al H200 de Nvidia: Pekín quiere decidir quién accede a los chips de IA
Microsoft y NVIDIA refuerzan su alianza para impulsar la ‘superfábrica’ de IA de Fairwater

La colaboración se extiende más allá de la capa de hardware. Ambas compañías integrarán la pila de software de NVIDIA en los servicios en la nube de Azure, en Microsoft 365, en SQL Server 2025 y en nuevas herramientas de agentes de IA, con el fin de acelerar la adopción empresarial de estas tecnologías. Los trabajos de optimización conjunta han permitido, según las compañías, reducir en más de un 90% el coste de los modelos tipo GPT en Azure en los últimos dos años, una variable clave en plena carrera por escalar la inteligencia artificial generativa.

Superfábrica Fairwater

La llamada AI Superfactory de Microsoft se concibe como una red de centros de datos especializados en cargas de IA de muy alta densidad, con el complejo de Fairwater (Wisconsin) como núcleo y un nuevo centro en Atlanta (Georgia) conectado a través de redes de alta capacidad. La compañía describe estas infraestructuras como «fábricas» capaces de transformar energía eléctrica en capacidad de cómputo útil para entrenar y desplegar modelos de IA de gran tamaño, incluidos aquellos con cientos de billones de parámetros.

La ampliación de la alianza con NVIDIA sitúa a Fairwater como una de las instalaciones de IA más grandes del mundo, diseñada específicamente para soportar cargas de trabajo de OpenAI, del equipo de Microsoft AI Superintelligence y de servicios comerciales como Microsoft 365 Copilot. Estos clústeres se construyen con criterios de escalabilidad global, de forma que nuevos centros de datos puedan conectarse a la superestructura a medida que crece la demanda de cómputo.

Apuesta masiva por GPUs Blackwell

En el corazón técnico del acuerdo se sitúa la arquitectura NVIDIA Blackwell, la nueva generación de GPUs diseñada para cargas de IA generativa y modelos de lenguaje de gran tamaño. Microsoft se compromete a integrar cientos de miles de GPUs Blackwell para entrenamiento y a desplegar más de 100.000 Blackwell Ultra en configuraciones GB300 NVL72 en distintos centros de datos, optimizadas para servicios de inferencia a escala.

Los sistemas GB300 NVL72 se conciben como racks de cómputo de muy alta densidad, con decenas de GPUs interconectadas mediante NVLink y redes InfiniBand o Ethernet de última generación, capaces de ofrecer hasta 1.440 petaflops de rendimiento FP4 por rack, según datos de Microsoft. Esta capacidad permite reducir los tiempos de entrenamiento de modelos de frontera de meses a semanas y soportar contextos más largos y modelos más complejos, un factor crítico para la carrera por la IA avanzada.

Red Spectrum-X y centros de datos

Para sostener el tráfico entre estos clústeres de GPUs, Microsoft implementará NVIDIA Spectrum-X, una familia de soluciones Ethernet específicamente diseñada para cargas de IA, que promete reducir la latencia, aumentar el rendimiento efectivo de red y mejorar la utilización global de los recursos de cómputo. La compañía describe la red de Fairwater como una de las implementaciones de Ethernet para IA más grandes y complejas del sector.

Además del hardware de red, Microsoft está rediseñando la capa de orquestación y almacenamiento para operar estos clústeres como un único sistema distribuido: desde la programación de trabajos de entrenamiento hasta la gestión de memoria y el enrutado de datos entre racks y centros de datos. Este enfoque busca maximizar la utilización de las GPUs, un aspecto clave para contener los costes operativos de infraestructuras con un consumo energético y una inversión de capital tan elevados.

Integración en Azure, SQL Server y Microsoft 365

El acuerdo incluye una expansión de las integraciones de NVIDIA en el ecosistema de software de Microsoft. En Azure, se estrenan nuevas máquinas virtuales NC Series impulsadas por GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, ya en vista previa pública, orientadas a cargas como agentes de IA, simulación industrial y computación científica.

En el ámbito de datos y productividad, SQL Server 2025 integrará modelos NVIDIA Nemotron y microservicios NIM para habilitar capacidades de RAG (retrieval-augmented generation) directamente sobre la base de datos, mientras que el NVIDIA NeMo Agent Toolkit se conectará con Microsoft 365 para crear agentes de IA que operen en aplicaciones como Outlook, Teams, Word o SharePoint. Estas integraciones buscan acercar la IA generativa al corazón de las aplicaciones empresariales sin que los clientes tengan que construir infraestructuras propias.

Impacto para clientes y competencia en la nube

Tanto Microsoft como NVIDIA subrayan que la colaboración se extiende a toda la pila, desde el ‘silicon’ hasta los servicios, con el objetivo de ofrecer una infraestructura que combine escala de centro de datos y cómputo acelerado. «Al combinar la escala sin precedentes de los centros de datos de Azure con la computación acelerada de NVIDIA, maximizamos el rendimiento y la eficiencia de los centros de datos de IA», afirmó Nidhi Chappell, vicepresidenta corporativa de gestión de producto en Microsoft.

En un mercado en el que hiperescalares como Amazon Web Services o Google Cloud también están construyendo grandes clústeres de GPUs para IA, la ampliación de la alianza Microsoft-NVIDIA refuerza la posición de Azure como uno de los principales proveedores de infraestructura para modelos de frontera. La promesa de reducciones de costes de más del 90% en modelos GPT en Azure y el acceso a GPUs Blackwell de última generación se convierten en argumentos clave para atraer a empresas que buscan escalar sus proyectos de IA sin asumir inversiones directas en hardware.

Perspectivas y próximos pasos

El despliegue de la Fairwater AI Superfactory y de los clústeres GB300 NVL72 forma parte de una estrategia más amplia de Microsoft para consolidarse como proveedor de referencia de infraestructura para IA avanzada y para soportar tanto sus propios servicios como los de socios como OpenAI. La compañía anticipa que, a medida que se incorporen nuevos centros de datos y se optimice el software, sus clientes podrán entrenar y desplegar modelos más grandes en menos tiempo y con un coste unitario menor.

El movimiento confirma que la carrera por la IA generativa se libra tanto en el terreno algorítmico como en el de la infraestructura física y de red. Para Microsoft y NVIDIA, la expansión de su alianza en torno a Fairwater y a las GPUs Blackwell marca un nuevo umbral en la escala del cómputo para IA, con implicaciones directas para competidores, reguladores y empresas que dependen cada vez más de estos servicios en la nube para desarrollar sus propias soluciones de inteligencia artificial.

Comentarios