OpenAI eleva su “compute margin” al 70%: la eficiencia que alivia a ChatGPT, pero no cierra la factura de la IA
OpenAI habría elevado hasta el 70% su “compute margin” en octubre de 2025, una métrica interna que refleja cuánto ingreso queda tras pagar el coste de ejecutar los modelos para clientes de pago. El salto sugiere mejoras reales en eficiencia y monetización, aunque la gran pregunta sigue siendo la misma: si la industria puede sostener el ritmo de inversión en infraestructura que exige la carrera por la IA.
Un dato que cambia el foco: del “crecimiento a cualquier precio” a la eficiencia
OpenAI estaría logrando una mejora relevante en su economía unitaria: su “compute margin” —una métrica interna que mide el porcentaje de ingresos que queda después de cubrir el coste de ejecutar los modelos para usuarios de pago— habría alcanzado el 70% en octubre de 2025, según una información atribuida a The Information y citada por distintos medios. El mismo reporte sitúa el indicador en torno al 52% al cierre de 2024 y cerca del 35% en enero de 2024, lo que sugiere una mejora muy marcada en menos de dos años.
Este tipo de métrica no es un “margen operativo” tradicional ni una cuenta de resultados completa: se centra en el coste directo de servir inferencia (y, en función de cómo se compute internamente, parte de la operación asociada) frente al ingreso que generan suscriptores y clientes empresariales. Por eso mismo, su lectura es doble: es una señal potente de optimización, pero también una foto parcial del negocio.
Qué es exactamente el “compute margin” y por qué se ha vuelto un termómetro del sector
En la práctica, el compute margin intenta responder a una pregunta simple: ¿cuánto “deja” cada euro/dólar que entra, una vez pagas la computación necesaria para entregar el servicio? En un producto como ChatGPT o en el acceso vía API, ese coste está dominado por la infraestructura (GPU/TPU o chips equivalentes), la capacidad contratada en centros de datos, y la eficiencia con la que el sistema procesa solicitudes (latencia, batching, rutas de inferencia, etc.).
Que un actor líder marque un 70% en esta métrica tiene implicaciones: indica que, al menos en su base de usuarios de pago, el negocio se parece más a una dinámica de software escalable que al “agujero negro” de costes que muchos críticos temen cuando se habla de IA generativa. Aun así, OpenAI no habría confirmado oficialmente el dato y, de acuerdo con lo publicado, un portavoz habría declinado comentar o divulgar esa métrica.
Cómo se llega a un 70%: presión competitiva, ingeniería y un mix de ingresos más rentable
El salto de eficiencia no ocurre en el vacío. El propio reporte atribuido a The Information sugiere que OpenAI intensificó la atención sobre costes de servidor tras la irrupción de DeepSeek, en un contexto de competencia donde el precio por rendimiento se convirtió en munición estratégica. En paralelo, el mercado ha observado movimientos de rivales y proveedores que empujan el coste marginal a la baja, especialmente cuando aparecen propuestas “más baratas” o con mejoras en eficiencia.
En este marco, la eficiencia puede venir de varias palancas: optimizaciones en inferencia (mejor utilización de hardware, técnicas de paralelización y batching, reducción de coste por token), negociación y diversificación de proveedores de computación, y una estrategia comercial que prioriza clientes y planes con mejor margen. Además, el despliegue de suscripciones de mayor precio o planes empresariales con tickets más altos tiende a elevar el ingreso por unidad de consumo, mejorando el margen incluso si el coste técnico no cae al mismo ritmo.
La advertencia clave: un margen de “pago” no equivale a rentabilidad total
El dato del 70% es llamativo, pero no debe confundirse con beneficio neto. La propia conversación en torno a OpenAI sigue marcada por el peso del gasto estructural: entrenamientos de modelos, I+D, expansión de infraestructura, acuerdos de capacidad a largo plazo y el coste de atender a una base masiva de usuarios gratuitos (si se subsidia con computación). Análisis externos han subrayado que la escalada de centros de datos y el alquiler de capacidad pueden tensionar el flujo de caja durante años, incluso si la economía unitaria de “usuarios de pago” mejora.
De hecho, en el ecosistema de financiación y expansión, continúan apareciendo señales de que la infraestructura es el “campo de batalla” central: desde grandes conversaciones de inversión y acuerdos de nube hasta estimaciones de necesidades de financiación de largo plazo para sostener la carrera. En esa lógica, mejorar el compute margin es una condición necesaria para la sostenibilidad, pero no necesariamente suficiente.
Qué cambia para 2026: precios, inversión y la narrativa de “burbuja”
Si la métrica se consolida, OpenAI gana margen de maniobra en tres frentes. Primero, pricing: puede competir sin destruir su economía unitaria, o segmentar mejor entre consumo y empresa. Segundo, producto: puede reinvertir parte del “aire” de margen en mejoras, seguridad y nuevas capacidades sin que cada lanzamiento incremente el coste unitario de forma descontrolada. Y tercero, financiación: en un entorno donde los inversores miran con lupa el retorno del gasto en IA, demostrar eficiencia operativa reduce el “descuento” asociado al riesgo de sobreinversión.
Pero el mercado seguirá exigiendo respuestas sobre el resto del P&L: cuánto cuesta entrenar la próxima generación, cómo se amortizan compromisos de centros de datos, y qué porcentaje de usuarios se convierte a pago sin deteriorar experiencia. En resumen: el 70% puede ser un punto de inflexión en la narrativa, pero no es el final del debate; es, más bien, el inicio de una etapa donde la pregunta deja de ser “¿puede crecer?” y pasa a ser “¿puede hacerlo sin quemar capital indefinidamente?”.