El Pentágono amenaza con romper su alianza de IA con Anthropic
La tensión entre el Departamento de Defensa de Estados Unidos y la empresa de inteligencia artificial Anthropic ha escalado hasta el punto de que el Pentágono estudia cortar un contrato valorado en torno a 200 millones de dólares. El motivo: la negativa de la compañía a levantar los límites que impiden usar su modelo Claude en el diseño de armas, operaciones de inteligencia y vigilancia masiva. Según reveló Axios y ha confirmado Reuters, el Departamento de Defensa exige a cuatro grandes compañías —Anthropic, OpenAI, Google y xAI— que permitan utilizar sus modelos para “all lawful purposes”, sin vetos éticos adicionales. Anthropic es, de momento, la que se resiste. La presión llega apenas horas después de que trascendiera que Claude habría sido utilizado en la operación militar estadounidense para capturar al ex presidente venezolano Nicolás Maduro, pese a que las propias normas de la empresa prohíben el apoyo a la violencia y la vigilancia.
Un contrato millonario y una cláusula incómoda
Según las filtraciones recogidas por medios estadounidenses, el contrato de Anthropic con el Departamento de Defensa ronda los 200 millones de dólares y se inscribe en la estrategia del Pentágono de desplegar potentes modelos de lenguaje en redes clasificadas.
El núcleo del conflicto está en una frase: el Pentágono quiere usar estas herramientas para “todos los fines legales”, mientras Anthropic mantiene una lista estricta de usos prohibidos, entre ellos el diseño, despliegue o coordinación de armas autónomas y la vigilancia masiva de poblaciones.
El choque no es solo jurídico. Es económico y político. Un contrato de esta magnitud no solo lo es por los ingresos directos, sino porque supone un sello de legitimidad: ser proveedor de la mayor máquina militar del planeta abre la puerta a nuevos clientes gubernamentales y refuerza valoraciones que, en el caso de las empresas de IA, superan con facilidad los 20.000 o 30.000 millones de dólares.
Sin embargo, aceptar un “cheque en blanco” de uso militar puede convertirse en un pasivo reputacional y regulatorio. En un contexto en el que la IA militar se asocia ya con drones autónomos, ciberoperaciones ofensivas y sistemas de decisión letales, la cláusula de “todos los fines legales” es, para muchas compañías, demasiado amplia como para firmarla sin matices.
Del laboratorio ético al campo de batalla
Anthropic nació precisamente con la promesa de priorizar la seguridad frente a la velocidad comercial. Sus fundadores, antiguos investigadores de OpenAI LP, hicieron bandera de la idea de los llamados “frontier labs” responsables, con compromisos explícitos contra el uso de sus modelos en armas, terrorismo o vigilancia masiva.
Ese marco choca frontalmente con la doctrina recién explicitada por el Pentágono: el Departamento de Defensa afirma que puede utilizar herramientas de IA comerciales aunque los términos de uso de las empresas digan lo contrario, siempre que se respeten las leyes estadounidenses. Un memorando interno de enero así lo recoge, según han adelantado varios medios.
El choque revela algo más profundo: para los militares, la IA es ya una capacidad estratégica, comparable a un nuevo sistema de radar o a una flota de drones; para los laboratorios de IA, en cambio, es una tecnología de propósito general cuya legitimidad depende de limitar ciertos usos.
En palabras atribuídas al director ejecutivo de Anthropic, “la IA debe apoyar la defensa, pero nunca de formas que nos acerquen a las prácticas de los regímenes autoritarios”. La consecuencia es clara: si el pulso se rompe, será el primer gran caso en el que una empresa de IA renuncia a un contrato militar clave por razones éticas… o en el que esos principios terminan diluidos bajo presión estatal.
Claude en la operación contra Maduro
El conflicto estalló públicamente tras una investigación del Wall Street Journal que detalla cómo el modelo Claude habría sido utilizado en la operación estadounidense para capturar a Maduro el mes pasado, a través de la plataforma de Palantir Technologies, proveedor habitual del Pentágono.
Según distintas fuentes, Claude habría ayudado a procesar ingentes volúmenes de inteligencia y comunicaciones en tiempo real, priorizando objetivos y rutas en un contexto de combate urbano. La operación, siempre según los datos difundidos por Caracas, dejó decenas de muertos —el Ministerio de Defensa venezolano habla de al menos 83 fallecidos— y un intenso bombardeo sobre la capital.
Lo más grave, desde el punto de vista de la gobernanza tecnológica, es que Anthropic prohíbe expresamente que sus modelos se usen para “violencia, armas o vigilancia”, tal y como recoge su política de uso aceptable. Si se confirma que Claude intervino en la operación, supondría una violación directa de esos compromisos, aunque fuera a través de un socio integrado en redes militares.
Este hecho revela hasta qué punto es difícil, en la práctica, controlar el destino de modelos de IA una vez que se integran en ecosistemas complejos de defensa, donde convergen contratistas, subcontratas, integradores de sistemas y redes clasificadas.
La batalla por el control de los usos de la IA
Más allá del caso Maduro, la disputa entre el Pentágono y Anthropic cristaliza un debate global: ¿pueden las empresas vetar usos concretos de una tecnología que los Estados consideran estratégica para su seguridad?
El Departamento de Defensa insiste en que ya existen marcos legales y reglas de enfrentamiento para prevenir abusos y que imponer límites adicionales desde el sector privado podría dejar a Estados Unidos en desventaja frente a rivales como China o Rusia, donde la integración de IA en vigilancia y armamento apenas encuentra contrapesos.
Anthropic, por su parte, sostiene que las salvaguardas técnicas —bloqueos en los propios modelos, sistemas de monitorización, auditorías— son la única forma realista de reducir el riesgo de escalada hacia armas autónomas sin supervisión humana o programas de espionaje masivo.
El contraste con otras compañías resulta llamativo. Mientras Anthropic planta cara, otras tres grandes firmas han aceptado, según las filtraciones, el principio de “todos los fines legales”, aunque insisten en que seguirán negociando salvaguardas.
El diagnóstico es inequívoco: la primera gran batalla por el control de los usos militares de la IA no se está librando en un parlamento, sino en una mesa de negociación contractual entre una ‘startup’ y el mayor aparato militar del planeta.
Lo que se juegan las grandes ‘big tech’ de defensa
El caso Anthropic llega en un momento en el que la IA acapara ya el 44% de la financiación en defensa, seguridad y resiliencia a nivel global, con unos 1.700 millones de dólares canalizados solo en 2025 hacia proyectos de decisión, vigilancia, drones e imagen satelital.
Para las ‘big tech’ y los nuevos laboratorios de IA, el mercado militar es atractivo por tres motivos: volumen de contratos, estabilidad presupuestaria y capacidad de arrastre sobre otros clientes institucionales. Un gran contrato con el Pentágono o con la OTAN puede justificar valoraciones que, en mercados privados, dependen cada vez más de promesas de monetización futura.
Sin embargo, el coste reputacional también se ha disparado. Ser percibida como la empresa que diseña “cerebros” para armas autónomas o para sistemas de vigilancia masiva puede cerrar puertas en mercados civiles, generar boicots y convertirse en una desventaja competitiva frente a actores que opten por el “no military use” como signo de identidad.
La paradoja es evidente: cuanto más estratégica se vuelve la IA para la defensa, más difícil resulta para las empresas mantener una distancia prudente sin renunciar a una parte sustancial del negocio.
