Anthropic desafía al Pentágono y rechaza relajar sus cortafuegos de IA
La tensión entre el Pentágono y Anthropic, uno de los principales desarrolladores de modelos de inteligencia artificial del mundo, ha entrado en una fase abiertamente confrontativa. Tras recibir un ultimátum para flexibilizar las salvaguardas que impiden usar su modelo Claude en vigilancia masiva doméstica y en armas totalmente autónomas, la compañía ha comunicado que no puede “en conciencia” aceptar las condiciones exigidas por el Departamento de Defensa. La respuesta abre la puerta a una represalia sin precedentes: la posible designación de Anthropic como “riesgo para la cadena de suministro”, una etiqueta reservada hasta ahora casi en exclusiva a proveedores de países adversarios, y la amenaza adicional de recurrir a la Defense Production Act, la ley que permite forzar a la industria privada a priorizar la producción para defensa nacional.
Amodei ha resumido la paradoja con una frase que marcará el debate: “Estas dos amenazas son inherentemente contradictorias: una nos pinta como riesgo de seguridad; la otra presenta a Claude como esencial para la seguridad nacional”. La batalla ya no es solo contractual. Es, en realidad, el primer gran choque abierto entre un campeón de la IA segura y el aparato de seguridad de la primera potencia militar del planeta.
Un pulso inédito entre Silicon Valley y el Pentágono
La disputa llega tras meses de negociaciones sobre el uso de Claude Gov, la versión para gobiernos y agencias de seguridad del modelo de Anthropic, actualmente integrada en varios sistemas clasificados de Estados Unidos gracias a acuerdos con Palantir y Amazon Web Services. El Pentágono presiona para que su IA pueda emplearse para “todos los fines lícitos”, una fórmula que incluiría desde planificación operativa e inteligencia táctica hasta desarrollo de nuevas armas y programas de vigilancia a gran escala.
Anthropic, por el contrario, ha fijado dos líneas rojas explícitas en sus políticas de uso: nada de armas letales sin supervisión humana significativa y nada de vigilancia masiva de ciudadanos estadounidenses. La fricción era, en realidad, cuestión de tiempo. El mismo Dario Amodei ha advertido públicamente de los riesgos de una carrera descontrolada en armas autónomas y ha defendido que los sistemas de IA avanzados pueden ser usados para consolidar regímenes autoritarios mediante vigilancia y represión algorítmica si no se ponen límites desde el diseño.
Lo novedoso ahora no es el desacuerdo ético, sino el arsenal de herramientas coercitivas que el Departamento de Defensa está dispuesto a desplegar contra una empresa estadounidense que, paradójicamente, ya colabora en misiones sensibles. El mensaje hacia el resto del sector es claro: o se aceptan las reglas del juego del complejo militar-industrial, o se asume el coste de quedarse fuera de la mayor cartera de gasto tecnológico del planeta.
De contrato estrella de 200 millones a amenaza de veto
El choque se produce apenas meses después de que Anthropic lograra un contrato con el Departamento de Defensa por hasta 200 millones de dólares para suministrar capacidades de IA a distintas ramas del aparato militar y de inteligencia. El acuerdo situó a la compañía entre los proveedores estratégicos de la Casa Blanca en materia de IA, junto con gigantes como Google, OpenAI y xAI.
Sin embargo, la letra pequeña se ha revelado explosiva. Según diversas filtraciones, durante las conversaciones para ampliar el despliegue de Claude en entornos clasificados, el Pentágono trató de eliminar las cláusulas que vetan su uso en armas totalmente autónomas y en programas de vigilancia masiva en territorio estadounidense. Anthropic se negó. La respuesta ha sido una escalada gradual: revisión del contrato, advertencias públicas y, finalmente, la amenaza de designarla como “supply chain risk”, un sello que obligaría a cualquier contratista de defensa a certificar que no utiliza Claude en sus sistemas si quiere seguir vendiendo al Estado.
El contraste es llamativo: el valor del contrato militar (esos 200 millones) representa solo una fracción del negocio potencial de Anthropic en la economía civil, mientras que la etiqueta de riesgo podría cerrar el acceso a miles de clientes ligados directa o indirectamente al sector defensa. En términos económicos, el Pentágono amenaza con multiplicar por diez el coste reputacional y comercial de mantener las salvaguardas éticas. El mensaje interno a los ejecutivos es brutalmente pragmático: o renuncias a tus cortafuegos, o renuncias a una parte sustancial del mercado estadounidense.
El choque: “toda finalidad lícita” frente a dos líneas rojas
En el fondo del conflicto hay dos visiones muy distintas sobre qué significa “uso responsable” de la IA en el ámbito militar. El Departamento de Defensa se acoge a la fórmula de que sus sistemas se emplean únicamente para “fines lícitos” bajo el derecho estadounidense y el derecho internacional humanitario, y sostiene que esa condición basta para encuadrar cualquier uso, desde la selección de objetivos hasta la vigilancia de amenazas internas.
Anthropic replica que no basta con la legalidad formal: si se permite que modelos generalistas como Claude operen en bucles de decisión letales sin un control humano robusto, o que se utilicen para monitorizar a millones de ciudadanos en tiempo real, se cruzan líneas éticas y de riesgo sistémico que ni la empresa ni sus inversores están dispuestos a asumir.
En este contexto, la frase de Amodei tiene más peso del que parece:
“Nuestro firme deseo es seguir prestando servicio al Departamento y a nuestros soldados, pero con dos salvaguardas muy concretas: sin vigilancia masiva doméstica y sin armas totalmente autónomas. Pedirnos que renunciemos a ellas en nombre de la seguridad nacional vacía de contenido cualquier compromiso de seguridad de la IA”.
El diagnóstico que hacen en privado varias fuentes del sector es inequívoco: si el Pentágono logra doblar el brazo a Anthropic, quedará claro que los límites los marca el cliente militar, no el diseñador del sistema. Y el resto de proveedores tomará nota.
Un arma regulatoria pensada para Huawei ahora sobre Claude
La herramienta elegida por el Pentágono para presionar a Anthropic no es menor. La designación como “risks to the supply chain” o “proveedor de alto riesgo” se ha utilizado tradicionalmente contra compañías como Huawei o Kaspersky, a las que se considera susceptibles de estar bajo la influencia de gobiernos adversarios.
Aplicar esa etiqueta a una empresa estadounidense que ya trabaja en misiones clasificadas supone un salto cualitativo:
-
obligaría a miles de contratistas a certificar que no usan Claude en ningún flujo de trabajo vinculado a defensa;
-
convertiría a Anthropic en una especie de paria regulatorio dentro del ecosistema de seguridad nacional;
-
enviaría un mensaje claro a otros proveedores: los desacuerdos sobre guardarraíles se pagan con aislamiento en la cadena de suministro de seguridad.
La amenaza de recurrir además a la Defense Production Act —una ley nacida en 1950 para movilizar la economía estadounidense durante la Guerra de Corea y utilizada de nuevo durante la pandemia de Covid-19 para forzar la producción de respiradores y material médico— eleva aún más el pulso.
En la práctica, invocar la DPA para IA permitiría al Ejecutivo ordenar a Anthropic priorizar determinados desarrollos o despliegues “esenciales para la defensa nacional”. Sería un precedente inédito: hasta ahora, el uso de esta ley se había concentrado en ámbitos físicos —armamento, energía, suministros médicos—, no en servicios algorítmicos de propósito general.
Qué se juega Anthropic: reputación, negocio y acceso a datos
En términos estrictamente financieros, perder un contrato de 200 millones de dólares es un golpe, pero no necesariamente letal para una compañía respaldada por grandes inversores tecnológicos y alianzas en la nube. Sin embargo, el verdadero riesgo para Anthropic es triple:
-
Riesgo reputacional: si cede, la marca que ha construido sobre la promesa de “IA alineada y segura” quedaría seriamente dañada. Si resiste, puede convertirse en símbolo para quienes reclaman límites estrictos a la militarización de la IA… pero también atraer la ira del aparato de seguridad.
-
Riesgo comercial: una etiqueta de “supply chain risk” podría cerrar la puerta no solo a Defensa, sino a grandes corporaciones que dependen de contratos públicos y no quieran arriesgarse a incumplir certificaciones. El contagio podría afectar a sectores como banca, energía o infraestructuras críticas.
-
Riesgo de datos y aprendizaje: buena parte de la competitividad de los modelos se juega hoy en el acceso a datos de uso en entornos reales. Renunciar al cliente militar estadounidense implica renunciar a uno de los bancos de datos operativos más sensibles del planeta.
La compañía parece haber calculado que, a medio plazo, el coste de diluir sus salvaguardas sería mayor que el de perder un cliente, por importante que sea. En juego está también la confianza de reguladores, socios europeos y organizaciones de la sociedad civil que, cada vez más, exigen coherencia entre los discursos sobre IA segura y las prácticas comerciales reales.
El precedente para OpenAI, Google y el resto del sector
El caso Anthropic no se produce en el vacío. Según diversas informaciones, otras grandes tecnológicas —OpenAI, Google o xAI— habrían mostrado mayor flexibilidad a la hora de permitir el uso de sus modelos en sistemas militares no clasificados, aceptando, al menos parcialmente, la fórmula de “todos los fines lícitos”.
La consecuencia es clara: si Anthropic mantiene sus líneas rojas y el Pentágono la expulsa de la cadena de suministro, otros proveedores ocuparán su lugar. El mercado de IA militar, valorado en más de 14.000 millones de dólares en 2024 y llamado a duplicarse hasta cerca de 29.000 millones en 2030, seguirá creciendo con tasas de dos dígitos anuales, impulsado precisamente por aplicaciones de autonomía, análisis masivo de datos y sistemas de armas inteligentes.
El diagnóstico que se escucha ya en algunos foros de defensa es incómodo: la presión competitiva empuja a las empresas a reducir, y no a reforzar, sus restricciones éticas si quieren acceder a un mercado que puede superar los 30.000 millones de dólares antes de que acabe la década. A medio plazo, el riesgo es que solo sobrevivan los actores dispuestos a aceptar el paquete completo: desde la automatización de la logística hasta la integración en cadenas de “matar más rápido” en el campo de batalla.
Vigilancia masiva y armas autónomas: el debate que llega a la ONU
Las dos líneas rojas de Anthropic no son una excentricidad aislada, sino el reflejo de un debate internacional que se acelera. Más de 120 países han pedido en la ONU negociar un tratado que prohíba o limite de forma estricta las armas autónomas letales, mientras el secretario general António Guterres ha calificado estos sistemas de “políticamente inaceptables” y “moralmente repugnantes”.
En paralelo, organizaciones como Stop Killer Robots y Human Rights Watch alertan de que los sistemas capaces de seleccionar y atacar objetivos sin un control humano significativo pueden rebajar el umbral político para ir a la guerra, aumentar los errores y hacer prácticamente imposible asignar responsabilidades cuando algo sale mal.
La vigilancia masiva apoyada en IA —el otro gran frente del pulso Anthropic-Pentágono— ya es una realidad en varios regímenes autoritarios, donde se combinan cámaras, reconocimiento facial y análisis predictivo para monitorizar a la población. La preocupación de muchos expertos es que ese modelo se “normalice” también en democracias consolidadas bajo el paraguas de la seguridad nacional. En ese contexto, que una gran empresa estadounidense ponga por escrito que no quiere que su tecnología se use para vigilar a millones de ciudadanos en su propio país no es un gesto menor.