El Pentágono firma 200 millones con OpenAI para IA clasificada
Un contrato de hasta 200 millones de dólares ha colocado a OpenAI dentro de uno de los perímetros más sensibles del Estado: el despliegue de modelos en entornos clasificados del Pentágono.
El movimiento llega tras la ruptura con Anthropic, ahora etiquetada como “supply chain risk” en una decisión inédita que amenaza con reordenar proveedores y subcontratas.
La clave no es solo tecnológica: es contractual, política y geoestratégica. Y tiene un socio imprescindible por debajo de la mesa: la nube, con AWS como columna vertebral del cloud militar estadounidense.
OpenAI promete “tres líneas rojas” —nada de vigilancia masiva doméstica ni armas autónomas—, pero el Pentágono exige operar “para todos los fines lícitos”. La fricción está servida.
Un contrato que reescribe la frontera público-privada
El acuerdo con OpenAI no es un contrato más: es un cambio de fase. Hasta ahora, la adopción de IA generativa en la Administración había convivido con límites difusos, pilotos y pruebas en ámbitos no clasificados. El salto a redes clasificadas introduce otra lógica: trazabilidad, control de acceso, auditoría y, sobre todo, responsabilidad política en caso de errores.
La cifra que circula —hasta 200 millones de dólares— funciona como señal hacia el mercado: el Estado no solo compra software; compra capacidad estratégica y la integra en la cadena de mando. Y, en paralelo, abre la puerta a un nuevo estándar de “proveedor confiable” en el que ya no bastan certificaciones: importan gobernanza, postureo público y disposición a aceptar cláusulas operativas del Pentágono.
Este hecho revela un patrón más profundo: Washington está acelerando la industrialización de la IA como ventaja competitiva, igual que lo hizo con el GPS o Internet. La diferencia es que ahora el proveedor no es un contratista tradicional, sino un laboratorio de frontera con usuarios civiles masivos y tensiones internas sobre ética y uso militar.
Guardarraíles en papel: las “tres líneas rojas” de OpenAI
OpenAI ha intentado blindar el relato con un documento inusual por su tono y detalle. Habla de un despliegue “cloud-only”, de mantener su “safety stack” bajo su control y de tener personal autorizado (“cleared”) “en el bucle” para supervisión y mejoras. El núcleo es claro: tres prohibiciones explícitas —vigilancia masiva doméstica, dirección de armas autónomas y “decisiones automatizadas de alto impacto” (como sistemas de “crédito social”).
Lo relevante no es la lista, sino su ambición: OpenAI sostiene que, al limitar el despliegue a la nube (y no al “edge”), dificulta usos que exigen latencias y autonomía operativa en campo. En términos de diseño, es un freno técnico; en términos políticos, es una garantía negociable.
También hay un segundo candado: tras ajustes posteriores, se explicitó que la tecnología no se usará para vigilancia doméstica de ciudadanos estadounidenses ni se desplegará en agencias de inteligencia sin un acuerdo separado, un matiz que intenta desactivar el mayor foco de críticas.
Lo más grave es que el propio Altman admitió que el pacto fue “definitely rushed” y que “the optics don’t look good”: una confesión que, en defensa, vale casi tanto como un anexo contractual.
Anthropic fuera del tablero: “riesgo de suministro” como arma
La salida de Anthropic no se explica por falta de capacidad técnica, sino por una guerra de cláusulas. El Pentágono quería que los modelos pudieran emplearse “para todos los fines lícitos”; Anthropic pedía líneas rojas explícitas contra vigilancia masiva y armas plenamente autónomas. El choque terminó en una decisión excepcional: el Departamento anunció que Anthropic y sus productos se consideraban “supply chain risk, effective immediately”, presionando incluso a contratistas para cortar vínculos comerciales.
“This has been about one fundamental principle: the military being able to use technology for all lawful purposes.”
Esa frase —seca, burocrática— contiene la lógica del Pentágono: un proveedor no puede condicionar operaciones si el uso es legal y está dentro de doctrina. Y aquí aparece el nudo: legalidad no es lo mismo que legitimidad, ni reduce el riesgo reputacional cuando hablamos de IA generativa aplicada a inteligencia, targeting o vigilancia.
La consecuencia inmediata es un efecto dominó en la industria: si la etiqueta de “riesgo de suministro” se usa como palanca contra una firma estadounidense, el umbral de seguridad jurídica para el resto cae. Y, cuando eso ocurre, la contratación pública se convierte en un campo de batalla ideológico además de tecnológico.
AWS, el músculo invisible: de la nube comercial al cloud militar
El texto base acierta en el protagonista silencioso: sin infraestructura cloud no hay IA de frontera a escala. El Pentágono opera desde hace años con vehículos como el Joint Warfighting Cloud Capability (JWCC), un contrato con techo de 9.000 millones de dólares adjudicado a varios proveedores —entre ellos AWS— para servicios cloud en distintos niveles de clasificación.
En paralelo, OpenAI y AWS anunciaron una alianza estratégica plurianual para ejecutar y escalar cargas de trabajo de IA. Distintos medios han descrito esa relación como un acuerdo de capacidad de hasta 38.000 millones de dólares a siete años, lo que ilustra la magnitud del hambre de cómputo.
El contraste con ciclos anteriores resulta demoledor: en la era JEDI la batalla era “quién gana la nube”; hoy es “quién controla el cómputo que entrena y ejecuta modelos” y, por extensión, quién fija estándares de seguridad, auditoría y acceso. La sinergia OpenAI–AWS reduce fricciones técnicas y acorta plazos de despliegue, justo cuando Defensa busca velocidad como ventaja táctica.
Para qué quiere la IA el Pentágono: productividad, inteligencia y guerra
La narrativa oficial sugiere un uso amplio —“all lawful purposes”—, pero el interés real es más específico: análisis de inteligencia, priorización de señales, síntesis de documentación, soporte a decisiones y automatización de back-office a escala. La IA generativa promete recortar tiempos de ciclo en entornos donde el cuello de botella es humano: leer, cruzar fuentes, redactar, validar.
El riesgo, sin embargo, es proporcional al incentivo. En guerra —y más aún con información clasificada— el error no se arregla con un parche. Por eso OpenAI apoya su argumentario en normas existentes, como la Directiva 3000.09 del DoD (actualizada en enero de 2023) sobre sistemas autónomos y semiautónomos, que exige verificación, validación y pruebas antes de despliegue.
Además, el acuerdo se ha ido ajustando a golpes de presión pública: a los pocos días se añadieron aclaraciones sobre vigilancia doméstica y sobre el veto de uso en agencias de inteligencia sin nuevo contrato. Esa secuencia —primero firma, luego corrige— alimenta el diagnóstico incómodo: el Estado quiere ir rápido, y la gobernanza va detrás.