La empresa de Sam Altman renegocia su contrato militar para acotar el uso de sus modelos y apagar el riesgo de espionaje interno a ciudadanos estadounidenses

OpenAI refuerza con el Pentágono el veto a la vigilancia masiva

La alianza entre OpenAI y el Pentágono ha durado apenas unos días en su versión original. Tras el estallido de críticas por el riesgo de que sus modelos pudieran alimentar sistemas de vigilancia masiva sobre ciudadanos estadounidenses, la compañía de Sam Altman y el Departamento de Defensa —rebautizado políticamente como Departamento de Guerra (DoW) por la Administración Trump— han acordado reforzar las salvaguardias del contrato, según avanzó Axios y ha recogido la agencia baha. El ajuste llega después de que un primer acuerdo, firmado la semana pasada para desplegar los modelos de OpenAI en redes clasificadas, se vendiera como el más garantista de la historia… pero dejara grietas legales en materia de datos públicos y vigilancia algorítmica. Altman se ha reunido con Emil Michael, poderoso subsecretario de Investigación e Ingeniería, para introducir un blindaje adicional contra la vigilancia doméstica.

EPA/FRANCK ROBICHON
EPA/FRANCK ROBICHON

El punto de partida es un acuerdo sin precedentes: el Pentágono ha autorizado el uso de los modelos de OpenAI en su red clasificada, después de romper con Anthropic y declarar a su rival un riesgo para la cadena de suministro. El contrato, revelado por Altman en una larga nota en X y detallado después en una entrada corporativa, fijaba tres “líneas rojas”: prohibición de la vigilancia masiva doméstica, veto a dirigir armas autónomas y exclusión de decisiones automatizadas de alto impacto, como sistemas de crédito social.

Sin embargo, juristas y expertos en privacidad detectaron enseguida una trampa de fondo: el texto se apoya en “uso lícito” bajo la legislación estadounidense y en salvaguardias técnicas controladas por la propia empresa, pero no incorpora prohibiciones directamente exigibles en un tribunal sobre vigilancia masiva o armas totalmente autónomas. La propia ficha de OpenAI en Wikipedia recoge ese matiz: el acuerdo menciona las líneas rojas, pero no las convierte en obligaciones jurídicas cerradas. De ahí el nuevo movimiento: según Axios, Pentágono y OpenAI han pactado reforzar la cláusula de vigilancia para eliminar cualquier margen de interpretación que permita usar los modelos en sistemas de monitorización interna a gran escala, incluso cuando se nutran de datos “públicos”.

El riesgo oculto: la vigilancia a partir de datos “públicos”

El núcleo del problema no está sólo en los datos privados, protegidos por la Cuarta Enmienda, sino en el gigantesco universo de información pública y comercial que el Gobierno estadounidense compra y explota desde hace años. Directivas del propio Departamento de Defensa permiten usar Publicly Available Information (PAI) para “apoyar todo el espectro de misiones del DoD”, desde la planificación hasta la ejecución de operaciones, siempre bajo un paraguas genérico de legalidad.

En paralelo, la Oficina del Director de Inteligencia Nacional (ODNI) ha aprobado un marco específico para los datos comercialmente disponibles (CAI), que reconoce que la combinación de enormes bases de datos —ubicaciones, historiales de compra, actividad en redes sociales— con técnicas avanzadas de análisis algorítmico plantea “importantes preocupaciones de privacidad y libertades civiles”. Organizaciones como EPIC y el Brennan Center denuncian que los servicios de inteligencia compran paquetes de datos altamente sensibles sin orden judicial, amparándose en que, técnicamente, son “información disponible en el mercado”.

Ahí es donde se encendieron las alarmas con el contrato de OpenAI. Aunque el texto mencionaba la prohibición de la “vigilancia masiva doméstica”, no quedaba claro si esa salvaguardia se aplicaba también a la ingesta y análisis de CAI a gran escala. Anthropic, en las negociaciones que finalmente saltaron por los aires, había exigido que el veto alcanzara explícitamente los datos públicos y comerciales de ciudadanos estadounidenses. El hecho de que ahora el Pentágono acepte reforzar el lenguaje con OpenAI revela que ese riesgo no era teórico.

Altman, Michael y la nueva arquitectura del poder tecnológico

La rectificación se cocina en la cúspide de un triángulo muy concreto de poder: Sam Altman, CEO de OpenAI; Emil Michael, exejecutivo de Uber; y el secretario de Defensa Pete Hegseth, artífice del giro agresivo en política de IA bajo la Administración Trump. Michael, nombrado subsecretario de Defensa para Investigación e Ingeniería y director tecnológico del Departamento de Guerra, es quien pilota la transformación digital del Pentágono y concentra bajo su paraguas las principales oficinas de innovación y datos.

En distintos foros, Michael ha defendido que quiere tener “una capacidad de IA en tres millones de escritorios del Departamento en apenas seis a nueve meses”, una cifra que ilustra la ambición de desplegar agentes y asistentes basados en modelos generativos en todo el aparato militar. Que Altman vuele a Washington para sentarse con él a retocar la letra pequeña del contrato muestra la nueva jerarquía: los grandes laboratorios de IA ya no son sólo proveedores tecnológicos, sino actores centrales de la doctrina militar.

La paradoja es evidente. Mientras cientos de empleados de OpenAI y Google firmaban una carta abierta pidiendo mantener las líneas rojas de Anthropic frente a las presiones del Pentágono, sus máximos directivos buscaban precisamente un encaje contractual que les permita seguir dentro del juego militar sin romper del todo con el discurso de la “IA responsable”.

La sombra de Anthropic y la guerra por los contratos militares

Nada de esto se entiende sin la ruptura previa entre Anthropic y el Pentágono. La compañía de Dario Amodei fue la primera en entrar en redes clasificadas con un contrato de hasta 200 millones de dólares, pero se negó a eliminar sus vetos al uso militar para vigilancia masiva y armas autónomas. Tras semanas de tensión, el secretario Hegseth amenazó con declararla “riesgo de la cadena de suministro” —una etiqueta reservada normalmente a proveedores vinculados a adversarios extranjeros— y el presidente Trump ordenó a las agencias federales dejar de usar sus modelos.

En ese vacío se coló OpenAI. Altman anunció su acuerdo horas después de que se comunicara el castigo a Anthropic y se apresuró a recalcar que las mismas líneas rojas que habían llevado a la ruptura con su rival quedaban ahora recogidas en su propio contrato. La consecuencia es clara: Washington manda un mensaje disuasorio a las empresas que se planten, mientras premia a quien encuentre fórmulas más flexibles para conciliar los deseos del Pentágono con las sensibilidades de opinión pública y plantilla.

La decisión de reforzar ahora las salvaguardias con OpenAI no borra ese episodio. Más bien consolida la idea de que las cláusulas éticas en contratos de IA militar se negocian bajo presión política y mediática, con un margen limitado para posiciones de principio como la de Anthropic.

Una industria atada a contratos de 200 millones

En menos de dos años, el Pentágono ha cerrado acuerdos de hasta 200 millones de dólares con los principales laboratorios de IA —Anthropic, OpenAI y Google, entre otros— para desplegar modelos en entornos clasificados y desarrollar prototipos de “frontera” tanto para tareas administrativas como para operaciones en primera línea. OpenAI, además, ya contaba desde 2025 con un contrato del mismo orden de magnitud para su programa OpenAI for Government, que consolida todos sus productos públicos para la Administración federal.

Estos importes son relativamente modestos frente a las cifras privadas del sector: la compañía ha anunciado rondas de financiación por 110.000 millones de dólares que la valoran por encima de los 700.000 millones, según distintas informaciones de prensa. Pero tienen un valor estratégico desproporcionado. Atar a OpenAI con contratos multianuales en defensa y seguridad nacional significa convertir su infraestructura en una pieza crítica del aparato militar, creando una dependencia difícil de revertir incluso si surgen nuevos escándalos de uso.

Para las arcas públicas, además, estos acuerdos se multiplican: si cada laboratorio tiene un techo de 200 millones y hay al menos cuatro grandes actores, el compromiso potencial se acerca a los 800 millones de dólares sólo en esta primera oleada, sin contar proyectos paralelos con contratistas tradicionales. La consecuencia es un ecosistema de IA militar donde la concentración de poder tecnológico y presupuestario en unos pocos grupos privados es cada vez mayor.

Qué cambia realmente con las nuevas salvaguardias

La pregunta clave es si las modificaciones que negocian ahora OpenAI y el Pentágono alteran de verdad el equilibrio de poder o son, sobre todo, un movimiento de contención reputacional tras el vendaval mediático. Según las filtraciones recogidas por Axios, el objetivo es clarificar que los modelos de la empresa no podrán usarse para ninguna forma de vigilancia masiva sobre ciudadanos estadounidenses, independientemente de que la materia prima sean datos privados, públicos o comerciales, y reforzar los mecanismos de auditoría interna.

En teoría, el contrato ya contempla que una violación grave de esas líneas rojas permitiría a OpenAI rescindir el acuerdo, una amenaza que la compañía ha repetido en sus comunicaciones oficiales. Pero su capacidad real de plantarse frente a un cliente que puede representar cientos de millones de dólares y un acceso privilegiado a datos y casos de uso es limitada. Más aún cuando la empresa compite con rivales como xAI o Google, dispuestos a ofrecer alternativas.

Lo más relevante del nuevo texto será cómo define términos ambiguos como “vigilancia masiva”, “objetivos legítimos” o “fines lícitos”. Ahí se juega si el veto se aplica sólo a sistemas de rastreo indiscriminado de toda la población o también a búsquedas masivas en redes sociales, geolocalización comercial y otras formas de monitorización algorítmica que, sin ser técnicamente ilegales, generan efectos de control social similares.

Comentarios