Anthropic rompe el pacto de Trump con Silicon Valley

El choque entre la Casa Blanca y la empresa de Claude revela el límite real de la alianza tecnológica de Donald Trump: Washington acepta la innovación privada, pero no que una compañía imponga líneas rojas al uso militar de la inteligencia artificial.
amazon anthropic
amazon anthropic

La ruptura llegó con una medida excepcional. El 27 de febrero, Donald Trump ordenó a todas las agencias federales “cesar inmediatamente” el uso de la tecnología de Anthropic, con un periodo de retirada de seis meses, y pocos días después el Pentágono formalizó la designación de la compañía como “supply-chain risk” para la seguridad nacional. La relevancia del gesto no está solo en su dureza, sino en su carácter inédito: Time y análisis jurídicos posteriores subrayan que es la primera vez conocida que esa etiqueta se aplica a una empresa estadounidense de IA, un instrumento normalmente reservado para adversarios extranjeros. La consecuencia es política y empresarial a la vez: la Administración que había convertido la desregulación y la expansión de la IA en su gran acuerdo con Silicon Valley acaba de demostrar que ese pacto tiene una condición previa: el Gobierno manda, y el proveedor no puede discutir los términos estratégicos.

<iframe src="https://www.youtube.com/embed/[CÓDIGO]" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>

Una sanción sin precedentes

Lo más duro del episodio es que la Casa Blanca no se limitó a romper un contrato. Convirtió un desacuerdo sobre guardarraíles en una represalia institucional de gran escala. ABC News, AP y Reuters coinciden en que la orden presidencial fue seguida por la decisión de Pete Hegseth de apartar a Anthropic de los flujos del Pentágono y de sus contratistas, abriendo un proceso de sustitución tecnológica que afecta a sistemas ya desplegados. Incluso hoy, según Reuters, personal del Pentágono, exfuncionarios y contratistas se resisten a abandonar Claude porque lo consideran superior a varias alternativas. Ese detalle es devastador para el relato oficial: Washington no está expulsando a un proveedor marginal, sino a una de las herramientas que parte del propio aparato de defensa considera más útil. No es una simple rescisión; es un aviso disciplinario al resto del sector. Y ese aviso cambia la relación entre Estado y empresas de IA, porque introduce una nueva variable: disentir puede costar acceso al mayor cliente del mundo.

Anthropic no era un actor hostil

Ese es, precisamente, el punto que hace más significativa la fractura. Anthropic no había adoptado una posición antimilitar ni antiestatal. Según la propia compañía, fue la primera frontera AI lab en desplegar modelos en redes clasificadas del Gobierno estadounidense, la primera en entrar en los laboratorios nacionales y la primera en ofrecer modelos personalizados a clientes de seguridad nacional. Además, TechCrunch y The Wall Street Journal sitúan en hasta 200 millones de dólares el contrato del Pentágono que ha saltado por los aires. En febrero, la compañía cerró además una ronda de 30.000 millones de dólares que la valoró en 380.000 millones, una escala que la convierte en un actor sistémico de la nueva economía de la IA. Lo más revelador es que la Casa Blanca no ha ido contra un disidente externo, sino contra una empresa plenamente integrada en el complejo tecnológico-industrial estadounidense. Eso reduce el conflicto a su verdadera esencia: no se discute si la IA debe servir a la seguridad nacional, sino quién fija los límites de ese servicio.

Dos líneas rojas que Washington no quiso aceptar

Anthropic ha repetido en sus comunicados que su desacuerdo con el Pentágono se concentraba en dos excepciones muy concretas: impedir el uso de Claude para vigilancia masiva doméstica y para armas plenamente autónomas sin control humano significativo. Dario Amodei insiste en que la empresa nunca ha querido participar en la toma de decisiones operativas del Ejército y que sus objeciones son de alto nivel, no tácticas. La compañía defendió además que los modelos actuales “no son lo bastante fiables” para alimentar armas totalmente autónomas, y que la IA aplicada a la agregación masiva de datos comerciales sobre ciudadanos estadounidenses abre una puerta nueva al control social. El contraste con el discurso oficial resulta demoledor. Para la Administración, esas reservas equivalían a que una empresa privada pretendiera imponer su propia constitución al Gobierno. Para Anthropic, eran límites mínimos para evitar que la colaboración con el Estado destruyera la legitimidad democrática del producto. Ahí está el verdadero choque: no sobre velocidad de despliegue, sino sobre soberanía moral y jurídica en la era de la IA militar.

OpenAI ocupó el hueco en horas

La fractura de la alianza con Silicon Valley no significa, sin embargo, un divorcio completo. Significa algo más incómodo: una selección de aliados. Horas después de la ofensiva contra Anthropic, OpenAI anunció un acuerdo con el Pentágono para desplegar sus modelos en entornos clasificados. Y lo hizo con un argumento que complica aún más la posición de la Casa Blanca: aseguró que su contrato incluía más guardarraíles, no menos. OpenAI publicó que sus tres líneas rojas eran la vigilancia masiva doméstica, la dirección autónoma de armas y otras decisiones automáticas de alto riesgo; añadió después lenguaje explícito para prohibir la vigilancia doméstica de ciudadanos estadounidenses y sostuvo que Anthropic no debería haber sido declarada riesgo de cadena de suministro. La contradicción es evidente: una empresa fue castigada por exigir límites que otra obtuvo por la vía del acuerdo. La lectura que deja este episodio es brutal para el sector: el problema no era necesariamente el contenido de las líneas rojas, sino quién podía plantearlas, en qué tono y bajo qué correlación de fuerzas con Washington.

Silicon Valley se alinea… pero no del todo

La reacción del ecosistema tecnológico muestra una grieta real. No hubo una rebelión corporativa frontal contra Trump, pero sí señales de incomodidad poco habituales. Más de 200 trabajadores de Google y OpenAI, y después más de 30 empleados de ambas compañías en sede judicial, respaldaron públicamente la posición de Anthropic y advirtieron de que castigar a una empresa por mantener límites básicos tendría consecuencias para la competitividad científica e industrial de Estados Unidos. A eso se sumaron grupos empresariales de Washington que, según Axios, pidieron al Pentágono que no normalizara el uso del sello de supply-chain risk contra compañías estadounidenses porque introduce incertidumbre en toda la cadena de proveedores. La consecuencia es clara: Trump conserva el apoyo de buena parte de la élite tecnológica en infraestructuras, energía y desregulación, pero el episodio Anthropic ha reactivado una vieja fractura cultural dentro del sector. No entre halcones y pacifistas, sino entre quienes creen que la colaboración con el Estado exige obediencia plena y quienes sostienen que aún deben existir fronteras éticas no negociables.

El pacto con Trump tenía un precio

Hasta ahora, la relación entre la Administración y Silicon Valley parecía avanzar en una dirección muy clara. AP explicó en julio que el AI Action Plan de Trump asumía muchas de las ideas defendidas por sus patrocinadores e inversores tecnológicos: menos trabas regulatorias, más permisos para centros de datos, más exportación de tecnología y una guerra abierta contra lo que la Casa Blanca denomina “woke AI”. Bloomberg fue aún más gráfico en enero: las grandes tecnológicas gastaron 109 millones de dólares en lobby el año pasado y aprendieron que para prosperar en el Washington de Trump había que visitar la Casa Blanca, adular al presidente y alinearse con su agenda industrial. Todo eso sigue en pie. Pero el caso Anthropic introduce una cláusula que antes solo se intuía: la alianza vale mientras la empresa no discuta el margen de decisión soberana del Gobierno en seguridad nacional. Lo que se rompe, por tanto, no es la cooperación económica entre Trump y la industria. Lo que se agrieta es la ficción de que esa cooperación era entre iguales.

Comentarios