Una jueza frena el veto del Pentágono a Anthropic

La cautelar de Rita Lin cuestiona que Washington convierta una disputa sobre armas autónomas y vigilancia masiva en un castigo ejemplar contra una de las mayores firmas de inteligencia artificial del mundo.

ANTHROPIC
ANTHROPIC

La batalla entre el Pentágono y Anthropic ha dejado de ser una simple disputa contractual para convertirse en un caso de enorme calado político, económico y constitucional. La jueza federal Rita Lin ha paralizado temporalmente la designación de la compañía como “supply chain risk”, una etiqueta reservada en la práctica para amenazas de seguridad y cuya aplicación a una empresa estadounidense podía cerrar contratos, romper alianzas y deteriorar su negocio en cuestión de días. Lo más grave no es solo el choque sobre el uso militar de la IA. Es que la magistrada ve indicios claros de represalia por libertad de expresión, al entender que el Gobierno castigó a la empresa por hacer pública su discrepancia con Washington.

Una reprimenda judicial de alto voltaje

La resolución de Lin es, sobre todo, un correctivo de enorme dureza institucional. La jueza no obliga al Pentágono a seguir trabajando con Anthropic, pero sí le impide, por ahora, mantener una arquitectura punitiva mucho más amplia: la etiqueta de riesgo para la cadena de suministro y la directriz presidencial que ordenaba a las agencias federales dejar de usar Claude, el modelo estrella de la empresa. El diagnóstico es inequívoco: el Ejecutivo puede elegir proveedor, pero no puede convertir una discrepancia política o ética en una suerte de señalamiento de seguridad nacional. La frase más contundente de la orden resume el fondo del conflicto: “Punishing Anthropic for bringing public scrutiny to the government’s contracting position is classic illegal First Amendment retaliation.”

Ese matiz importa mucho. En contratación pública, el Estado dispone de amplísimo margen para comprar o dejar de comprar. Sin embargo, este caso revela una frontera delicada: una cosa es rescindir o no renovar un acuerdo, y otra muy distinta dañar reputacionalmente a una empresa para asfixiarla en todo el ecosistema federal y privado. Lin llegó incluso a sugerir en vista oral que la maniobra parecía un intento de “cripple” a Anthropic. La consecuencia es clara: el pleito ya no trata solo de IA militar, sino del uso expansivo del poder del Estado contra un actor tecnológico incómodo.

Del contrato roto al castigo público

El origen del choque se remonta a la estrategia de IA fijada por el Pentágono el 9 de enero de 2026, cuando el Departamento exigió introducir en sus contratos la posibilidad de “cualquier uso legal” de estas herramientas. Anthropic se negó a cruzar dos líneas rojas: que su tecnología pudiera emplearse en vigilancia masiva doméstica y en armas totalmente autónomas. A partir de ahí, la relación se deterioró con rapidez. El Gobierno terminó señalando a la empresa como riesgo de cadena de suministro y amplió la presión a contratistas y agencias. La jueza considera que ese salto no parece responder a una necesidad técnica acreditada, sino a la voluntad de escarmentar a una compañía que llevó el desacuerdo a la esfera pública.

El contraste con la práctica ordinaria resulta demoledor. Si el Pentágono entendía que Anthropic no encajaba en su política de compras, podía dejar de usar Claude y buscar otro proveedor. De hecho, eso mismo deslizó Lin durante la vista. Lo que cuestiona el tribunal es haber ido más allá: equiparar a una firma estadounidense con un riesgo estratégico, una categoría que normalmente se asocia a proveedores vinculados a potencias rivales o a amenazas externas. Ahí reside la excepcionalidad del caso y, también, su potencia política.

El mercado detrás del pleito

No se trata de una startup marginal. Anthropic cerró el 12 de febrero de 2026 una ronda de 30.000 millones de dólares que situó su valoración en 380.000 millones post-money, una cifra que la coloca en la primera división mundial de la IA. Además, la propia empresa había anunciado en julio de 2025 un acuerdo con el Departamento de Defensa, vía CDAO, con un techo de 200 millones de dólares para prototipar capacidades avanzadas para seguridad nacional. Es decir, Washington no estaba lidiando con un proveedor periférico, sino con un actor al que acababa de validar como socio estratégico. Ese dato convierte el giro posterior en algo todavía más llamativo.

La dimensión económica explica la contundencia de la demanda. Anthropic sostuvo ante el tribunal que la designación estaba sembrando dudas entre socios y clientes y podía poner en riesgo ingresos de cientos de millones e incluso miles de millones. No es una exageración retórica: en el negocio de la IA, donde la confianza institucional pesa tanto como la potencia del modelo, una etiqueta de seguridad puede convertirse en una condena comercial inmediata. Lo más grave es que la herida no se limita al sector público. Una vez el Estado señala, el mercado interpreta; y cuando el mercado interpreta miedo regulatorio, los contratos empiezan a congelarse.

La línea roja que lo cambió todo

Anthropic no planteó una retirada total del negocio de defensa. Su posición era más específica y, por eso mismo, más incómoda para Washington: aceptar el trabajo con el Estado, pero manteniendo límites sobre determinados usos. El problema para el Pentágono es que su nueva doctrina de IA persigue justamente lo contrario: que la cadena de mando militar decida el alcance operativo de estas herramientas, sin que el proveedor privado imponga restricciones adicionales. La jueza lo formuló con precisión al distinguir entre el debate político —quién debe fijar los límites de la IA militar— y el jurídico —si el Gobierno puede castigar a quien discrepa—.

Esta tensión anticipa un conflicto mayor. La IA ya no es solo software corporativo: se ha convertido en infraestructura de guerra, de inteligencia y de administración pública. El presupuesto de defensa para 2026 se mueve en torno a 961.600 millones de dólares en el Departamento de Defensa, dentro de una estrategia que busca acelerar el dominio militar en IA. En ese contexto, la discusión sobre quién controla el modelo —la empresa que lo diseña o el Estado que lo despliega— deja de ser filosófica y pasa a ser una disputa material por poder, mercado y legitimidad.

Silicon Valley toma nota

La relevancia del caso se mide también por quién se alineó con Anthropic. En los escritos de apoyo aparecieron Microsoft, asociaciones empresariales, trabajadores tecnológicos y antiguos mandos militares, entre otros. Ese frente revela que la industria ha leído el movimiento del Pentágono como algo más que una pelea bilateral. Lo percibe como un precedente capaz de redefinir la relación entre la Casa Blanca, el complejo militar y las grandes firmas de IA. El mensaje que muchos ejecutivos extraen es sencillo: hoy el castigado es Anthropic; mañana podría ser cualquier proveedor que intente introducir límites éticos o contractuales no deseados por Washington.

Ese temor no es abstracto. El Pentágono había señalado en febrero que quería tener a OpenAI, Google, xAI y Anthropic bajo una base contractual común. Cuando una de esas piezas se sale del guion, el incentivo de las demás pasa a ser doble: no incomodar al cliente público y ocupar el espacio vacante. De ahí que este litigio funcione también como advertencia competitiva. La cuestión no es solo quién tiene el mejor modelo, sino quién acepta ceder más control operativo al Estado. Y en un mercado donde los contratos públicos pueden actuar como sello de legitimidad global, esa diferencia vale una fortuna.

Un precedente delicado para la contratación pública

La fuerza del auto reside en que ataca el corazón del razonamiento gubernamental. Según el Ejecutivo, Anthropic podía suponer un riesgo si, al ver vulneradas sus líneas rojas, alteraba o deshabilitaba el comportamiento del modelo en operaciones sensibles. Lin preguntó expresamente qué prueba existía de que la empresa mantuviera ese grado de control una vez entregada la tecnología. Esa duda desmonta una parte decisiva de la narrativa oficial: sin evidencia técnica sólida, la etiqueta de riesgo parece menos una medida preventiva que una sanción ejemplarizante.

Aquí aparece la dimensión política más incómoda. Si el Gobierno puede tildar de amenaza a una compañía nacional por airear un desacuerdo sobre usos de su producto, la contratación pública entra en una zona gris en la que la obediencia reputacional pesa casi tanto como la solvencia técnica. El precedente sería devastador no solo para la IA, sino para cualquier sector intensivo en Estado: defensa, ciberseguridad, nube, semiconductores o telecomunicaciones. La seguridad nacional dejaría de ser un criterio excepcional para convertirse en herramienta de disciplinamiento industrial. Y eso, incluso desde una lógica promercado, introduce un riesgo sistémico evidente.

Comentarios