La ruptura con Anthropic y el nuevo eje con OpenAI convierten la inteligencia artificial en un activo estratégico de primer orden mientras sube el petróleo, repunta el oro y Wall Street descuenta el riesgo geopolítico

El Pentágono, Anthropic y la batalla oculta por la inteligencia artificial en seguridad nacional

El Pentágono, Anthropic y la batalla oculta por la inteligencia artificial en seguridad nacional

La tensión entre el Pentágono y Anthropic ha dejado de ser un asunto técnico para convertirse en un caso de escuela sobre cómo se va a gobernar —o descontrolar— la inteligencia artificial aplicada a la guerra. En cuestión de días, el Departamento de Defensa ha pasado de amenazar con cancelar un contrato de 200 millones de dólares con Anthropic a estrechar lazos con OpenAI, en plena escalada militar con Irán. El giro no es menor: la Casa Blanca de Trump ha ordenado a todas las agencias federales dejar de usar los modelos de Anthropic, a la vez que el propio Pentágono reconoce su dependencia de Claude en algunos de sus sistemas más sensibles. En paralelo, OpenAI se consolida como el socio preferente para los nuevos programas de IA de defensa, apoyada en contratos que pueden alcanzar, también, los 200 millones y en una política de uso mucho más flexible para fines militares.

El choque arranca con un dato clave: el Pentágono mantiene contratos de hasta 200 millones de dólares con cada una de las grandes compañías de IA —Anthropic, OpenAI, Google y xAI— para desarrollar modelos de “frontera” destinados a misiones de defensa, desde ciberseguridad a apoyo en operaciones de combate.

En el caso de Anthropic, la relación se envenena cuando la compañía se niega a retirar las salvaguardas de Claude frente a usos como la vigilancia masiva o las armas totalmente autónomas. El secretario de Defensa, Pete Hegseth, responde con un ultimátum: o la empresa permite que el ejército use la IA para “todos los fines lícitos”, o arriesga no solo el contrato, sino ser declarada “riesgo de cadena de suministro”, una etiqueta letal para cualquier proveedor federal.

Trump eleva la presión un escalón más y ordena a todas las agencias federales dejar de utilizar la tecnología de Anthropic en un plazo de seis meses, acusando a su dirección de poner en peligro la seguridad nacional por negarse a relajar las restricciones.

El vacío que deja Anthropic no tarda en ser ocupado. En cuestión de días, OpenAI anuncia un acuerdo con el Pentágono que amplía el alcance de su ya existente contrato de 200 millones para prototipos de IA, ahora con acceso a entornos clasificados y un encaje más directo en operaciones de defensa.

Lo más grave es el mensaje que envía este movimiento: la administración premia al actor dispuesto a aceptar un marco más amplio de usos militares de la IA y castiga al que intenta introducir límites contractuales explícitos. La batalla no es solo por un contrato, sino por quién escribe las reglas de la IA militar.

Claude en la mesa de guerra: simulaciones para Irán

Mientras se cruzan ultimátums y comunicados, la IA deja de ser un asunto teórico. Diversas informaciones apuntan a que Claude ha sido utilizado por el Pentágono para simular escenarios operativos y apoyar decisiones en un ataque conjunto de Estados Unidos e Israel contra Irán, pese a que el veto político a Anthropic ya estaba ordenado.

Según estas filtraciones, Claude habría servido para procesar inteligencia, priorizar objetivos y evaluar cadenas de respuesta iraní, actuando como un analista silencioso en el centro de mando. Este hecho revela hasta qué punto los grandes modelos de lenguaje han penetrado en la lógica cotidiana de la planificación militar, mucho antes de que existan reglas claras sobre su uso.

La contradicción es evidente: por un lado, Washington denuncia a Anthropic por “poner frenos” a la IA; por otro, el propio Departamento de Defensa reconoce de facto que no puede desprenderse de Claude de la noche a la mañana porque el modelo está ya embebido en sistemas críticos.

En paralelo, estudios recientes han mostrado que, en simulaciones de conflictos, modelos avanzados de OpenAI, Google y Anthropic tendieron a escalar hasta el uso de armas nucleares en el 95% de los juegos de guerra automatizados.

Es decir: las mismas herramientas que hoy ayudan a evaluar escenarios sobre Irán han demostrado una inquietante propensión a la escalada extrema cuando se les deja operar en cadenas de decisión complejas.

La consecuencia es clara: cada vez que se delega en la IA una parte —por pequeña que sea— del análisis estratégico, se está metiendo un factor de riesgo adicional en una arquitectura ya de por sí frágil.

Seguridad, vigilancia y armas autónomas: el choque de modelos éticos

En el núcleo de la disputa no hay solo dinero, sino dos visiones antagónicas sobre los límites de la IA militar. El Pentágono insiste en que los modelos deben poder utilizarse para “cualquier propósito legal”, incluyendo vigilancia masiva, análisis de grandes bases de datos de ciudadanos estadounidenses y apoyo a sistemas de armas con altos niveles de autonomía.

Anthropic, en cambio, ha construido su marca sobre un discurso de “seguridad primero” y exige cláusulas específicas que prohíban el uso de Claude para vigilancia doméstica y para armas capaces de seleccionar y atacar objetivos sin una supervisión humana robusta.

En la práctica, la empresa plantea que haya zonas vedadas a la IA aunque sean legales bajo el marco actual. El Pentágono lo considera inaceptable, porque limitaría su flexibilidad futura. El choque es frontal: para la empresa, la ética exige ir más allá de la ley; para Defensa, la ley basta y sobra.

OpenAI, por su parte, ha suavizado en los últimos años sus propias restricciones. La compañía eliminó de sus términos de uso la prohibición explícita de aplicaciones militares, y aunque mantiene vetos formales a la “destrucción de propiedad” o al desarrollo directo de armas, ha abierto la puerta a proyectos de “seguridad nacional” aprobados caso por caso.

Según ha trascendido, el punto más sensible del nuevo contrato entre OpenAI y el Pentágono es el tratamiento de datos. Anthropic exigía vetar también la recolección masiva de datos públicos de estadounidenses para usos de vigilancia; el acuerdo con OpenAI solo restringe el empleo de datos privados, dejando un amplio margen de maniobra sobre todo lo que está en abierto.

El contraste resulta demoledor: el Gobierno ha preferido al proveedor que acepta una zona gris sobre vigilancia masiva frente al que reclama blindarla por contrato.

Los 200 millones que redefinen el mapa de la IA de defensa

Más allá del pulso ético, la batalla tiene una dimensión empresarial clara. El ecosistema de contratos de IA del Departamento de Defensa se ha convertido en un mercado de alto valor estratégico. Solo en el paquete de “frontier AI” gestionado por la oficina digital del Pentágono, cada una de las grandes compañías puede acceder a hasta 200 millones de dólares en encargos a lo largo de la próxima década.

En paralelo, el presupuesto agregado del DoD para programas relacionados con IA y machine learning supera ya los 20.000 millones de dólares anuales si se suman investigación, desarrollo y adquisiciones, según los últimos documentos presupuestarios.

En ese contexto, perder el sello de proveedor de defensa no es solo un revés reputacional: supone renunciar a una fuente recurrente de ingresos y a un canal privilegiado de influencia tecnológica. Anthropic no solo se juega un contrato; se arriesga a quedar fuera de cualquier proyecto en el que participe el complejo militar-industrial estadounidense si se consuma la etiqueta de “riesgo de cadena de suministro”.

Para OpenAI, el movimiento tiene el efecto contrario. Tras años enfocada al mercado comercial, la empresa consolida una segunda pata de negocio en el sector público, respaldada por un programa específico, “OpenAI for Government”, diseñado para trabajar con agencias de seguridad y defensa.

El diagnóstico es sencillo: en un momento en el que las valoraciones de las grandes tecnológicas descansa en buena parte sobre la promesa de la IA, asegurar un flujo estable de contratos ligados a defensa y seguridad nacional se ha convertido en una ventaja competitiva crítica.

Mercados en tensión: crudo, oro y bolsas leyendo el riesgo geopolítico

Mientras Washington redibuja su mapa de proveedores de IA, los mercados reaccionan al frente verdaderamente inmediato: la tensión con Irán y el riesgo de una escalada regional. El Brent ha rebotado hasta la zona de 80 dólares el barril, alrededor de un 8%-10% por encima de los mínimos recientes, mientras el WTI consolida subidas similares.

El movimiento encaja con el patrón habitual: cada vez que aumenta el riesgo de interrupciones en el Golfo Pérsico, el mercado de crudo descuenta un escenario de oferta más ajustada, aunque sea de forma preventiva. Un repunte de 5-7 dólares en pocas sesiones es suficiente para tensionar la inflación futura y reabrir el debate sobre los tipos de interés, especialmente en economías importadoras de energía como la zona euro.

En paralelo, el oro retoma su papel de activo refugio: cotiza cerca de los 2.200 dólares por onza, con una subida acumulada superior al 7% en el año, mientras el S&P 500 encadena caídas cercanas al 1,5%-2% en las últimas sesiones. Los flujos de inversión muestran una rotación clara desde renta variable cíclica hacia defensivos, deuda soberana de máxima calidad y materias primas vinculadas a la seguridad energética.

Lo relevante es el nexo con la IA: los inversores empiezan a incorporar al análisis de riesgo geopolítico la variable de quién controla los modelos que asesoran a los mandos militares. Si la IA tiende a la escalada en simulaciones y el Pentágono prioriza la máxima libertad de uso, el riesgo percibido de errores de cálculo aumenta… y se traduce en más volatilidad en petróleo, oro y bolsas.