OpenAI pisa el freno y vuelve al código
El giro que adelanta The Wall Street Journal no parece un volantazo improvisado, sino la formalización de una tendencia ya visible: menos dispersión, más empresa y una apuesta mucho más agresiva por el software como puerta de entrada al negocio real.
OpenAI empieza a admitir que no puede ganar todas las guerras a la vez.
Según The Wall Street Journal, la compañía prepara un reajuste estratégico para concentrarse en usuarios empresariales y programación, dejando en segundo plano parte de su impulso por abarcarlo todo al mismo tiempo.
La clave no está solo en la reunión interna que, según ese diario, habría impulsado Fidji Simo, sino en lo que revela: el mercado ya no premia tanto la amplitud como la ejecución.
Y hoy la ejecución se mide en dos sitios muy concretos: en el escritorio corporativo y en el repositorio de código.
OpenAI sigue siendo el gran referente de la IA generativa, pero empieza a comportarse como una empresa que necesita priorizar caja, producto y foco antes de seguir multiplicando frentes.
No es un giro, es una admisión
La información del Wall Street Journal debe leerse con una idea en mente: OpenAI no estaría descubriendo ahora el negocio corporativo, sino reconociendo que ese negocio debe pasar a mandar. El diario sostiene que la dirección quiere recortar “side quests” para “clavar” el núcleo del negocio, con una revisión de proyectos a depriorizar y un anuncio previsto próximamente. Conviene subrayarlo: a esta hora no hay un comunicado oficial que detalle ese recorte, de modo que el movimiento debe tratarse como una reordenación avanzada por prensa, no como una decisión ya formalizada.
Sin embargo, el diagnóstico encaja demasiado bien con la trayectoria reciente de la compañía como para despacharlo como un simple rumor. OpenAI ha pasado los últimos meses empaquetando herramientas para trabajo profesional, lanzando plataformas de agentes para empresa y reforzando su oferta de programación. Lo que cambia ahora no es la dirección de fondo, sino la jerarquía interna de las prioridades. El contraste con su etapa más expansiva es evidente: antes la ambición consistía en estar en todas partes; ahora parece consistir en dominar los casos de uso que pagan más, retienen mejor y exigen menos narrativa futurista para justificar su valor.
Fidji Simo entra para ordenar la casa
Aquí aparece una figura clave. Sam Altman anunció hace diez meses que Fidji Simo se incorporaba como CEO de Aplicaciones, reportando directamente a él, con el encargo de fortalecer y escalar las funciones más “tradicionales” de la empresa mientras OpenAI entraba en una nueva etapa de crecimiento. El propio Altman dejó escrito entonces que el área de Aplicaciones reúne los equipos de negocio y operaciones responsables de llevar la investigación al mundo real. Traducido del lenguaje corporativo: Simo no llega para adornar el organigrama, sino para convertir capacidad técnica en producto vendible y operación repetible.
Por eso el supuesto mensaje interno descrito por el Journal tiene tanta importancia. Si quien lidera Aplicaciones está pidiendo foco en empresa y productividad, no se trata de una preferencia estética, sino de una señal de ejecución. Lo más relevante es que la propia OpenAI había defendido hasta hace poco que podía escalar varias líneas a la vez. Ahora empieza a aflorar una idea menos épica y más adulta: crecer no consiste solo en lanzar más cosas, sino en decidir qué deja de ser central. Y en esa poda estratégica, las herramientas de trabajo profesional parecen haber ganado la partida frente a otros experimentos con más brillo mediático que certidumbre comercial.
Codex ya es la apuesta más tangible
Si hay un producto que resume este desplazamiento, ese producto es Codex. OpenAI lo presentó en mayo de 2025 como un agente de ingeniería de software en la nube capaz de trabajar en muchas tareas en paralelo, escribir funciones, responder preguntas sobre una base de código, corregir errores y proponer pull requests para revisión. Cada tarea corre en un entorno aislado y, según la compañía, suele completarse en un rango de 1 a 30 minutos dependiendo de la complejidad. Es una propuesta muy distinta a la del chatbot generalista: aquí el valor no es conversar mejor, sino producir trabajo técnico verificable.
Lo más significativo es que Codex ya no aparece como accesorio experimental. La documentación actual lo define como “el agente de programación” de OpenAI y confirma su inclusión en los planes Plus, Pro, Business, Edu y Enterprise. Además, el changelog del producto muestra que la compañía sigue ampliando integraciones y controles de administración para clientes de pago. Este hecho revela el verdadero centro de gravedad del nuevo OpenAI: no una IA universal para todo y todos, sino una pila de herramientas con una salida muy concreta al mercado de desarrolladores y equipos técnicos. Cuando una empresa convierte el código en paquete, en licencia y en flujo de trabajo, deja de vender promesa y empieza a vender sustitución parcial de horas cualificadas.
La empresa, por fin, ya tiene un producto empaquetado
El segundo gran pilar del giro es el cliente corporativo. OpenAI no solo ofrece ya planes Business y Enterprise con facturación por usuario, sino que ha llenado esa oferta de funciones que responden a una preocupación clásica de cualquier CIO: seguridad, control y gobernanza. Su página de precios muestra que el plan Business incluye SSO/SAML, consola de gestión, analíticas, cumplimiento SOC 2 Tipo 2, conocimiento de empresa, aplicaciones conectadas a herramientas internas y el agente Codex, mientras que Enterprise añade capas superiores como certificaciones ISO, SCIM o gestión empresarial de claves. No es el lenguaje de una app de consumo; es el vocabulario de un proveedor que quiere entrar en compras, compliance y TI.
A esto se suma un movimiento todavía más revelador. En febrero, OpenAI presentó Frontier, una plataforma para que las empresas construyan, desplieguen y gestionen agentes de IA que hagan “trabajo real”, y poco después anunció alianzas plurianuales con BCG, McKinsey, Accenture y Capgemini para llevar esos agentes a producción dentro de grandes organizaciones. La consecuencia es clara: la compañía ya no quiere limitarse a vender acceso al modelo; quiere capturar la implantación, la consultoría, el rediseño del proceso y la dependencia operativa posterior. Ese es el negocio grande. Y ese negocio no se gana con demos virales, sino con arquitectura, seguridad y resultados medibles.
Los datos internos empujan en la misma dirección
OpenAI también ha empezado a construir el relato cuantitativo que justifica esta prioridad. En su informe sobre IA empresarial publicado a finales de 2025, la compañía explicó que el análisis se apoya en datos de uso reales y en una encuesta a 9.000 trabajadores de casi 100 empresas. Entre sus hallazgos, destaca que las bases de clientes empresariales en Australia, Brasil, Países Bajos y Francia crecían por encima del 140% interanual, que los trabajadores más intensivos en IA enviaban 6 veces más mensajes que el empleado mediano y que las empresas más avanzadas registraban 2 veces más mensajes por asiento que la media.
Estas cifras importan porque introducen una verdad incómoda: la adopción profunda vale mucho más que la adopción masiva superficial. Un usuario ocasional genera notoriedad; un equipo integrado en flujos de trabajo genera retención, dependencia y presupuesto. Además, el lanzamiento de GPT-5.4 reforzó esa misma lógica. OpenAI lo presentó este mes como su modelo más capaz y eficiente para “trabajo profesional”, con 1 millón de tokens de contexto, mejoras nativas en uso de ordenador y métricas claramente orientadas a productividad: 83,0% en GDPval frente al 70,9% de GPT-5.2, y 75,0% en OSWorld-Verified frente al 47,3% del modelo previo. El diagnóstico es inequívoco: la empresa está afinando su tecnología para que haga mejor aquello por lo que las compañías sí pagan.
Anthropic ha obligado a OpenAI a corregirse
El factor competitivo también pesa. El Wall Street Journal sitúa a Anthropic como una de las presiones que explican la necesidad de reenfoque, especialmente por su avance en programación y empresa. No es un detalle menor. Mientras OpenAI perseguía una expansión muy amplia de formatos y productos, Anthropic se fue posicionando con Claude Code y con un discurso mucho más centrado en el rendimiento profesional. Su propia oferta empresarial subraya integración con infraestructuras existentes en AWS Bedrock, Google Vertex AI y Azure, y añade analítica de uso, controles administrativos y ampliaciones de capacidad para equipos y empresas.
Lo más grave para OpenAI no es perder titulares, sino perder la percepción de que domina el caso de uso que probablemente más valor destruye y más presupuesto mueve: el trabajo de software. Wired resumía hace unos días esa ansiedad interna como una carrera por recortar distancia frente a Claude Code. El contraste con etapas anteriores resulta demoledor. La empresa que enseñó al mercado a conversar con la IA ahora necesita recordar que su poder económico puede depender menos del entretenimiento generalista y más de una vieja disciplina empresarial: resolver mejor que nadie problemas caros, repetitivos y mensurables. Y pocos problemas cumplen hoy esa condición como escribir, revisar y mantener código.