Altman cierra con el Pentágono el salto de OpenAI a redes clasificadas
El movimiento llegó con un tuit y una frase cuidadosamente calibrada: “AI safety and wide distribution of benefits are the core of our mission”. Pero el trasfondo es mucho menos neutro. Sam Altman ha confirmado que OpenAI ha alcanzado un acuerdo con el Departamento de Defensa de Estados Unidos para operar modelos de IA dentro de la red clasificada del Pentágono, con despliegue completo en sistemas cloud y “salvaguardas técnicas” para limitar usos sensibles. La noticia, además, estalla en el peor momento posible para el sector: apenas unas horas antes, el Pentágono etiquetó a su principal rival, Anthropic, como “riesgo para la cadena de suministro”, un estigma que equivale a un veto de facto en el ecosistema de contratistas federales.
Altman sostiene que el pacto permitirá que los modelos de OpenAI funcionen en la red clasificada del Pentágono, un salto cualitativo frente al uso administrativo o experimental típico de la IA generativa en organismos públicos. Según varias informaciones, la arquitectura del acuerdo contempla despliegue en cloud y condiciones técnicas de seguridad para garantizar “uso seguro”.
El detalle más relevante no es el acceso, sino el marco: Altman insiste en que las líneas rojas se incorporan al propio contrato, con referencias explícitas a prohibiciones sobre vigilancia masiva doméstica y a la responsabilidad humana en el uso de la fuerza, incluso en escenarios de sistemas autónomos.
En términos de negocio, es una puerta que consolida el tránsito de OpenAI desde proveedor comercial a actor de infraestructura. El Pentágono no compra solo un chatbot: compra capacidad de modelo, soporte, despliegue y gobernanza. En términos de poder, es aún más: operar en entornos clasificados te convierte en parte del “sistema operativo” del Estado.
El nuevo marco: “Department of War” y la política de choque
Un elemento que ha pasado casi inadvertido fuera de Washington es el cambio de lenguaje oficial. En distintos documentos y portales gubernamentales recientes se usa “Department of War (DoW)”, una denominación que reabre, simbólicamente, la lógica de bloque frente a bloque. El portal del Chief Digital and AI Office (CDAO) ya habla de acelerar la adopción de datos y IA en el “DoW”.
Este hecho revela algo más profundo: la administración estadounidense está empujando una estrategia “AI-first” para la defensa, con énfasis en experimentación rápida, capital privado y despliegues a escala. Un documento de estrategia publicado en enero enmarca el objetivo de desbloquear “habilitadores fundacionales” para acelerar capacidades en el ejercicio 2026.
El resultado es un entorno en el que las cláusulas sobre ética y usos aceptables dejan de ser un apéndice reputacional para convertirse en un campo de batalla contractual. Y, por extensión, en una herramienta de exclusión: si no aceptas los términos, quedas fuera del mercado.
La caída de Anthropic: de socio tecnológico a “riesgo” nacional
Lo más grave es el precedente. La designación de Anthropic como “supply-chain risk” —acompañada, según varias crónicas, por una orden política para que agencias federales dejen de usar su tecnología— abre un conflicto directo entre Washington y Silicon Valley sobre quién impone límites.
Anthropic se había resistido a aceptar un marco de “uso sin restricciones” que, según su posición pública, podía permitir vigilancia masiva o armas totalmente autónomas. La compañía ha defendido que esas restricciones están alineadas con principios de seguridad y con salvaguardas de derechos civiles.
Pero la respuesta del Pentágono no ha sido técnica, sino punitiva: una etiqueta que golpea a toda la cadena de contratistas y socios, con un periodo de transición de seis meses para cortar vínculos, según algunos relatos.
El contraste con OpenAI resulta demoledor: mientras Anthropic es expulsada por resistirse, OpenAI entra por aceptar un marco que, paradójicamente, Altman describe como compatible con límites estrictos. En esa tensión se esconde la pregunta esencial: ¿qué entiende exactamente el Estado por “salvaguarda” cuando lo que está en juego es capacidad de guerra?
La cifra que manda: 200 millones y la lógica del contrato marco
En la práctica, esta pugna se apoya en contratos ya existentes. OpenAI recibió en junio de 2025 un acuerdo de hasta 200 millones de dólares con el Departamento de Defensa para prototipar capacidades de “frontier AI”.
Y no es un caso aislado. La propia AP ha señalado que los contratos para las principales firmas de IA —OpenAI, Anthropic, Google y xAI— se han movido en el entorno de hasta 200 millones por compañía.
La lectura económica es sencilla: cuando el cliente es el Estado y el producto es infraestructura cognitiva, el contrato actúa como palanca de estandarización. No solo remunera el servicio: define el lenguaje, las responsabilidades, las auditorías, el tipo de cloud permitido y, sobre todo, quién puede trabajar y quién queda marcado.
En una industria que vive de ciclos de financiación y de acceso a compute, perder el canal federal no es solo perder ingresos: es perder legitimidad, acceso a casos de uso avanzados y, en algunos casos, capacidad de competir.
Cloud clasificado: el cuello de botella real
La discusión pública habla de modelos y principios. Pero el cuello de botella, en realidad, es infraestructura. El Pentágono lleva años migrando capacidades a un esquema de cloud militar unificado —el Joint Warfighting Cloud Capability (JWCC)— con el objetivo de operar “a todas las clasificaciones”, desde cuarteles generales hasta el borde táctico.
Ese vehículo tiene un techo de 9.000 millones de dólares y pretende racionalizar el uso de nube en todo el Departamento, empujando a componentes y agencias a migrar al contrato marco.
Aquí es donde el acuerdo de OpenAI cobra sentido operativo: si el despliegue de modelos se integra con la lógica JWCC —o con entornos equivalentes— el Pentágono no solo obtiene IA; obtiene IA en el lugar donde corre la guerra moderna: redes secretas, comunicaciones, logística, inteligencia y ciberdefensa.
Y, de nuevo, la etiqueta de “supply-chain risk” se convierte en arma: si te excluyen de esa infraestructura, estás fuera del futuro presupuesto.
La carrera presupuestaria: 13.400 millones para IA y autonomía
El contexto presupuestario explica la dureza. Informes sobre el ejercicio 2026 han apuntado a una inversión récord de 13.400 millones de dólares en IA y autonomía dentro de la petición presupuestaria del Pentágono, en un marco global de defensa que supera el billón.
En paralelo, planes recientes subrayan el giro hacia sistemas no tripulados y automatización en aire, mar y tierra, con incrementos significativos en programas de innovación: por ejemplo, se ha señalado un salto del presupuesto de la Defense Innovation Unit a 2.000 millones, desde 1.300 millones el año anterior.
Estas cifras no son decoración. Son la razón por la que la negociación con Anthropic se ha convertido en un choque político, y por la que OpenAI busca fijar “sus” salvaguardas como estándar: si el mercado federal se convierte en el mayor comprador de IA aplicada, quien escriba el contrato escribe el futuro.