OpenAI compromete 20.000 millones con Cerebras y abre la guerra anti-Nvidia

Open AI Andrew-neel Unsplash

Un pacto a tres años, con warrants y 1.000 millones para centros de datos, redibuja el mapa del cómputo: la IA ya no compite solo por modelos, sino por megavatios.

OpenAI se prepara para gastar más de 20.000 millones de dólares en servidores basados en chips de Cerebras en apenas tres años.

La operación incluye warrants para tomar una participación minoritaria que podría escalar hasta el 10%.

Y añade un anticipo de 1.000 millones para levantar centros de datos dedicados.

La escasez de GPU ya no es un bache coyuntural, sino un riesgo estructural.

Un cheque de 20.000 millones para ganar independencia de Nvidia

La cifra no es solo un titular. Es una declaración estratégica. OpenAI habría pactado con Cerebras un desembolso superior a 20.000 millones para consumir capacidad de servidores impulsados por sus procesadores durante los próximos tres años. La consecuencia es clara: diversificar el suministro de cómputo en un mercado donde Nvidia se ha convertido, de facto, en cuello de botella y fijador de precios.

El movimiento encaja con el giro industrial que ya venían anticipando los acuerdos de infraestructura firmados desde enero. La alianza contempla añadir 750 MW de cómputo de baja latencia a la plataforma, con entregas por tramos hasta 2028. Si en 2025 el debate era “qué modelo gana”, en 2026 la pregunta empieza a ser otra: quién garantiza el enchufe y a qué precio.

Warrants y centros de datos: la letra pequeña que ata a las dos compañías

El contrato no se limita a alquilar potencia de cálculo. Introduce mecanismos típicos de capital riesgo en una relación que, en teoría, es de cliente-proveedor. OpenAI obtendría warrants para una participación minoritaria en Cerebras, con posibilidad de ampliarla en función del gasto, hasta un 10% en el horizonte de tres años. Este hecho revela dos capas: por un lado, incentiva a OpenAI a concentrar consumo; por otro, le da una cobertura financiera si Cerebras se revaloriza con la tracción del acuerdo.

Además, OpenAI aportaría alrededor de 1.000 millones para financiar la construcción de centros de datos que ejecuten sus modelos. No es un detalle menor: implica compartir parte del riesgo de despliegue físico —suelo, energía, refrigeración— en un sector donde los retrasos se miden en trimestres y las penalizaciones, en reputación. Es, en la práctica, un paso más hacia la integración vertical del cómputo.

Del entrenamiento a la inferencia: la nueva batalla por la velocidad

La IA ya no se define únicamente por entrenar sistemas más grandes, sino por responder más rápido y durante más tiempo sin romper la experiencia de usuario. OpenAI lo ha formulado con un objetivo claro: integrar capacidad de baja latencia para que la IA responda mucho más rápido. Esa prioridad —la inferencia— es donde Cerebras ha construido su relato: una arquitectura diseñada para reducir cuellos de botella y acelerar salidas largas.

El contraste con el ciclo anterior resulta demoledor. Hasta hace poco, la obsesión era el entrenamiento: más datos, más parámetros, más GPU. Ahora la presión viene del uso masivo: chatbots, agentes, generación de código, imagen y tareas de razonamiento que “piensan” antes de contestar. En ese terreno, cada milisegundo cuenta y cada punto de latencia se convierte en retención, consumo y, finalmente, ingresos.

750 megavatios y la economía de los megavatios

Cuando un acuerdo se mide en megavatios, el debate deja de ser tecnológico y pasa a ser industrial. La alianza contempla 750 MW de capacidad que se incorporará por fases hasta 2028. Para ponerlo en contexto: ya no hablamos de “comprar chips”, sino de reservar centrales eléctricas virtuales. Y eso arrastra una factura doble: CAPEX para centros de datos y OPEX para energía, mantenimiento y conectividad.

Este nuevo orden explica por qué OpenAI ha normalizado acuerdos de muchos miles de millones para asegurar cómputo. La ampliación hasta la órbita de 20.000 millones sugiere o bien un salto sustancial de consumo, o un esquema de pago más intensivo. En ambos casos, el mercado lee lo mismo: la IA se está convirtiendo en infraestructura crítica.

El efecto dominó sobre Nvidia y la carrera de las alternativas

El movimiento tensiona a todo el ecosistema. Para Nvidia, no es solo perder un cliente potencial, sino ver cómo se legitima un modelo “post-GPU” para cargas concretas de inferencia. Para el resto, es una invitación a copiar la estrategia: diversificar proveedores, firmar capacidad a largo plazo, y convertir la ingeniería de sistemas en ventaja competitiva.

Cerebras, por su parte, encuentra el catalizador perfecto para los mercados. La compañía podría revelar detalles del acuerdo en el marco de su documentación de salida a bolsa, tras haber pospuesto intentos anteriores. La operación con OpenAI cumple una función obvia: ofrece visibilidad de ingresos y reduce la dependencia de grandes clientes, un punto que los inversores penalizan con dureza.

Qué puede pasar ahora: IPO, energía y el riesgo de concentración

El diagnóstico es inequívoco: OpenAI está comprando tiempo y resiliencia. Pero paga un precio: concentración de gasto, exposición a cronogramas de construcción y, sobre todo, dependencia del coste energético. A medida que la inferencia se generaliza, el margen se juega en eficiencia por token, no en marketing. Y ahí cualquier desviación —retrasos de centros de datos, encarecimiento eléctrico, problemas de suministro— puede traducirse en latencia, caídas o recortes de servicio.

Para Cerebras, el riesgo es el inverso: ganar escala demasiado deprisa con un cliente dominante. La promesa de warrants que podrían llevar a OpenAI hasta un 10% añade una capa política a la relación: cuanto más gasta OpenAI, más se difuminan las fronteras entre proveedor y socio. En un sector donde la narrativa cambia cada trimestre, lo decisivo no será quién tenga el chip más rápido, sino quién sobreviva al coste de sostenerlo.