La compañía de Sam Altman quiere entrar en entornos clasificados tras su acuerdo con el Pentágono y en pleno pulso con Anthropic por los límites éticos de la IA militar.

OpenAI negocia llevar su IA a las redes secretas de la OTAN

EPA/FRANCK ROBICHON

La próxima batalla de la inteligencia artificial ya no se libra en los benchmarks, sino en los despachos donde se decide quién entra —y quién no— en las infraestructuras más sensibles de Occidente. OpenAI estudia un paso de enorme calado: desplegar sus sistemas dentro de las redes clasificadas de la OTAN, según ha revelado The Information citando a un portavoz de la empresa. El movimiento llega apenas días después de que OpenAI cerrara un acuerdo para llevar sus modelos al entorno del Pentágono, con una arquitectura diseñada para operar en entornos restringidos y con salvaguardas explícitas. Lo más grave es que esta carrera se acelera en mitad de una crisis política y reputacional: Washington ha etiquetado a Anthropic como “riesgo para la cadena de suministro”, abriendo un vacío que OpenAI no ha tardado en ocupar.

Que OpenAI quiera instalarse en la OTAN no es un capricho coyuntural. Es la prolongación lógica de un giro: el salto desde la IA “para productividad” a la IA como capacidad soberana para inteligencia, logística y mando y control. La propia OpenAI ha detallado que su despliegue con el Pentágono se articula como “cloud-only” y con personal habilitado “en el bucle”, una manera de conservar control técnico y contractual sobre cómo se usa el modelo.
En paralelo, el clima político en Estados Unidos ha endurecido el marco. Desde septiembre de 2025, una orden ejecutiva permite usar como título secundario la denominación “Department of War” para el Departamento de Defensa, un gesto simbólico que busca proyectar una imagen más beligerante y que ha contaminado el debate público sobre el uso militar de la IA.

El mensaje para Europa es incómodo: si la OTAN avanza hacia la adopción de modelos fundacionales, la discusión ya no será solo técnica. Será de gobernanza, dependencia industrial y control democrático. Y ahí, cada cláusula pesa.

La etiqueta de “riesgo” a Anthropic y el hueco que deja

La aceleración de OpenAI se entiende mejor por contraste. Anthropic, uno de sus principales rivales, ha pasado en días de negociar con el Pentágono a ser objeto de una decisión sin precedentes: el Gobierno estadounidense ha impulsado su designación como “supply-chain risk”, una etiqueta que puede cerrar el acceso a contratos federales y que la empresa ya ha prometido combatir.
En el fondo late una disputa sobre límites. Según varios relatos periodísticos, el choque se produjo por exigencias relacionadas con usos en vigilancia y empleo operacional, ámbitos donde la frontera entre apoyo y automatización es difusa.

Este hecho revela un patrón: cuando la IA entra en el circuito de seguridad nacional, la ventaja competitiva no se mide solo en precisión, sino en disposición a aceptar condiciones. Lo que para una compañía es una “línea roja”, para un contratante puede ser un “requisito operativo”. Y ese desajuste no se resuelve con marketing, sino con contratos, auditorías y capacidad de verificación.

Guardarraíles en papel: “tres líneas rojas” y una guerra de confianza

OpenAI intenta anticiparse al principal riesgo reputacional: que su tecnología termine siendo percibida como el cerebro de una maquinaria de vigilancia o de letalidad autónoma. En su acuerdo con el Pentágono, la empresa fija tres límites que presenta como no negociables: no vigilancia masiva doméstica, no dirección de armas autónomas y no decisiones automatizadas de alto impacto (como sistemas de “crédito social”).
Además, el texto incorpora referencias explícitas al marco legal estadounidense —incluida la Cuarta Enmienda— y una prohibición de uso deliberado para vigilancia de ciudadanos.

“No use of OpenAI technology for mass domestic surveillance”, resume la compañía en su enumeración de líneas rojas.

Sin embargo, el diagnóstico es inequívoco: en entornos clasificados, la confianza es un activo tan crítico como el modelo. No basta con prometer límites; hay que demostrar que se pueden hacer cumplir en arquitecturas cerradas, con datos sensibles y con presiones operativas reales. Y ahí es donde empieza el verdadero examen.

El cuello de botella técnico: redes aisladas y soberanía cloud

La pregunta clave no es si la OTAN “quiere” IA, sino cómo la integra sin abrir nuevas superficies de ataque. Los despliegues militares serios tienden a exigir entornos air-gapped o con conectividad altamente restringida. Eso choca con el ADN de muchos modelos comerciales, acostumbrados a iterar en nubes públicas y a apoyarse en telemetría.

La solución que OpenAI está defendiendo —según su propio marco para el Pentágono— es mantener una capa de seguridad operada por la compañía, con capacidad de actualizar clasificadores y verificar que no se cruzan líneas rojas.
Pero en Europa aparece un factor adicional: la soberanía. No es casual que la OTAN, a través de su agencia de comunicaciones e información, haya estado reforzando capacidades cloud “soberanas” para cargas de trabajo sensibles. Google Cloud, por ejemplo, anunció un contrato multimillonario con la NCIA para capacidades de cloud seguro y soberano, precisamente orientadas a entornos desconectados.

En otras palabras: sin plataforma, no hay IA. Y sin control de plataforma, la promesa de control político se vuelve frágil.

La OTAN ya compra IA: de Palantir a la normalización del dato

El debate no parte de cero. La OTAN lleva tiempo modernizando su columna vertebral digital y comprando capacidades de análisis y fusión de datos. En marzo de 2025, la Alianza adquirió el Maven Smart System (MSS NATO), un sistema de guerra asistida por IA ligado a Palantir, en una de las compras más rápidas de su historia reciente: seis meses desde el requisito hasta la adquisición.
La expectativa operativa también fue reveladora: despliegue para uso del mando aliado en 30 días.

“Maven Smart System NATO… adds a true operational value”, defendió el Estado Mayor de SHAPE al anunciar la adquisición.

Este precedente marca el tono: cuando la OTAN identifica una brecha —datos dispersos, decisiones lentas, interoperabilidad— está dispuesta a comprar rápido. Y eso explica por qué un “frontier lab” como OpenAI puede ver una autopista: la Alianza no busca solo software, busca ventaja temporal.

El negocio y la geopolítica: la IA como contrato estratégico

Detrás del discurso ético hay una realidad industrial: la IA de frontera se está financiando con capex masivo y necesita clientes capaces de absorber costes, justificar inversiones y garantizar continuidad. En el ámbito militar, el historial de OpenAI ya no es especulativo: en junio de 2025, el Pentágono adjudicó a la compañía un contrato de hasta 200 millones de dólares para prototipos de IA de frontera, según informó Breaking Defense.

La OTAN, por su parte, se mueve en un contexto de expansión presupuestaria. Solo los aliados europeos y Canadá han pasado de gastar el 1,43% del PIB en defensa en 2014 al 2,02% en 2024, con una inversión combinada de más de 482.000 millones de dólares (en precios ajustados).
España, que venía rezagada, anunció un salto para alcanzar el 2% con un plan de 10.500 millones de euros adicionales.

El contraste con otras regiones resulta demoledor: donde hay gasto, hay compras; donde hay compras, hay dependencia tecnológica. Y quien se convierte en estándar, fija reglas.

Europa ante el espejo: regulación, control y dependencia industrial

La OTAN ha actualizado su enfoque: su estrategia revisada de IA insiste en la adopción “responsable”, la necesidad de datos de calidad y la mitigación de interferencias adversarias, incluyendo desinformación e “operaciones de información” habilitadas por IA.
Es un reconocimiento implícito de que la IA es arma de doble filo: puede acelerar decisiones, pero también amplificar sesgos, automatizar errores y aumentar el riesgo de escalada.

El problema europeo es doble. Primero, la Alianza necesita interoperabilidad entre 32 miembros con marcos legales distintos. Segundo, la capacidad de modelos fundacionales punteros sigue muy concentrada. La consecuencia es clara: si se adopta un proveedor dominante, el “vendor lock-in” no será un problema informático, sino estratégico. Y si se fragmenta por países, se pierde interoperabilidad, justo lo que la OTAN pretende ganar.

Aquí aparece la tensión que nadie quiere verbalizar: el equilibrio entre seguridad y autonomía tecnológica. Y la respuesta —si llega— pasará por auditorías, certificación y acuerdos de gobernanza más parecidos a un tratado que a un contrato.