El empleo de Claude en la redada de Caracas abre una brecha entre el Ejército de Estados Unidos y la ‘startup’ que se presentaba como el bastión de la IA segura

El Pentágono usó la IA de Anthropic para capturar a Maduro

EPA/STRINGER

La operación de madrugada con la que las fuerzas especiales de Estados Unidos capturaron a Nicolás Maduro en Caracas no solo supuso un terremoto geopolítico. También ha destapado un salto cualitativo en la forma de hacer la guerra: según han revelado varios medios, el Departamento de Defensa utilizó de forma activa el modelo de inteligencia artificial Claude, desarrollado por Anthropic PBC, durante la redada. El dato es especialmente explosivo porque la compañía se ha erigido en los últimos años en adalid de la “IA segura”, con políticas internas que prohíben explícitamente colaborar en acciones violentas o de vigilancia masiva. 

Una operación relámpago en Caracas

La captura de Maduro se produjo en la madrugada del 3 de enero, en el marco de la operación “Absolute Resolve”, con la que Washington culminó años de presión política y sanciones sobre el régimen chavista. Según las reconstrucciones disponibles, el ataque combinó bombardeos selectivos contra bases y antenas militares en Caracas con la inserción de comandos de élite en helicóptero para irrumpir en el complejo donde se refugiaba el dirigente venezolano y su esposa, Cilia Flores.

La acción duró menos de tres horas entre las primeras explosiones y el anuncio oficial de la captura. En ese intervalo, la cadena de mando estadounidense coordinó ataques aéreos, neutralización de defensas antiaéreas y movimientos de tropas en una ciudad de más de cinco millones de habitantes, todavía a oscuras tras cortes eléctricos deliberados.

Maduro, de 63 años, fue trasladado de inmediato a Nueva York, donde ha sido imputado por delitos de narcotráfico y “narco-terrorismo”. Ante el juez federal Alvin Hellerstein se declaró no culpable y afirmó ser “un prisionero de guerra”, insistiendo en que sigue considerándose presidente legítimo de Venezuela.
La contundencia militar de la operación ya había suscitado críticas internacionales. Sin embargo, la revelación del papel jugado por una IA comercial de última generación añade ahora una capa de complejidad ética y tecnológica que trasciende el caso venezolano.

Claude entra en escena

Lo que ha despertado la alarma no es solo que el Departamento de Defensa de Estados Unidos use algoritmos avanzados —algo habitual desde hace años—, sino que, según adelantaron Wall Street Journal y otros medios, Claude se habría utilizado “activamente” durante la redada, no solo en la fase de planificación.

Las filtraciones indican que el modelo, accesible en entornos clasificados a través de la plataforma de Palantir Technologies, habría asistido a los mandos estadounidenses en tareas de análisis de inteligencia: cruce de señales interceptadas, interpretación rápida de informes humanos y resúmenes en tiempo real de imágenes satelitales y de drones.

En la práctica, esto situaría al sistema de Anthropic dentro de la “sala de guerra”, como una herramienta más en la mesa de decisiones que determinan cuándo y dónde disparar. Aunque no está claro si Claude llegó a proponer directamente objetivos o rutas de entrada, fuentes citadas por Axios subrayan que su empleo fue “operacional”, es decir, integrado en el flujo de mando y control durante la intervención.

La consecuencia es clara: por primera vez, un modelo de lenguaje de uso comercial, nacido para redactar textos o programar código, aparece explícitamente vinculado a una operación militar con fuego real y víctimas mortales.

Choque entre negocio y principios en Anthropic

La polémica golpea de lleno la fachada ética de Anthropic. La empresa, fundada en 2021 por antiguos investigadores de OpenAI, se constituyó como “public benefit corporation”, con un mandato estatutario de priorizar el beneficio social a largo plazo frente al puro rendimiento financiero.

Sus modelos Claude han sido entrenados bajo el paradigma de la “IA constitucional”, en teoría diseñada para rechazar usos relacionados con la violencia, el diseño de armas o la vigilancia masiva. En sus políticas públicas, Anthropic asegura que no permitirá que sus sistemas se empleen para “matar, dañar o privar de derechos fundamentales” a personas.

Sin embargo, en los últimos años la compañía ha firmado acuerdos para suministrar versiones especializadas de Claude a agencias de inteligencia y defensa estadounidenses, incluida una variante “Claude Gov” adaptada a entornos clasificados. El punto de inflexión fue el contrato de 200 millones de dólares adjudicado por el Pentágono en 2025, en el que Anthropic compartía protagonismo con Google, OpenAI y xAI.

“Queremos ayudar a las democracias a mantenerse por delante en IA, pero no a cualquier precio”, ha repetido en los últimos meses Dario Amodei, consejero delegado de la compañía. El uso de Claude en una redada que dejó decenas de muertos sitúa esa línea roja en el centro del debate: o Anthropic no controla cómo se despliega su tecnología, o sus compromisos éticos eran menos estrictos de lo que proclamaba.

Palantir, la puerta de entrada al complejo militar

La otra pieza clave del puzle es Palantir. La empresa de análisis de datos, convertida desde hace años en proveedor casi estructural del aparato de seguridad estadounidense, opera como intermediario tecnológico entre los modelos de IA punteros y las redes ultrasecretas del Pentágono y otras agencias.

Según las informaciones publicadas, Claude solo estaba disponible en esos entornos clasificados a través de la infraestructura de Palantir, que ya integraba otros sistemas de análisis, simulación y visualización empleados en Afganistán, Irak o en el control de fronteras. En la práctica, esto significa que una vez firmado el acuerdo, Anthropic pierde visibilidad granular sobre qué tipo de consultas realizan los usuarios militares a su modelo.

Este hecho revela un problema de fondo: el riesgo de “desintermediación ética”. Las startups de IA proclaman reglas estrictas, pero delegan la ejecución técnica en integradores que trabajan a puerta cerrada con los ejércitos. Si el intermediario configura el sistema para que funcione con menos restricciones en nombre de la “operatividad”, la empresa creadora del modelo solo puede confiar en cláusulas contractuales difíciles de auditar en tiempo real.

En este contexto, la captura de Maduro demuestra hasta qué punto el diseño de la cadena tecnológica —desde el modelo de lenguaje hasta el panel de mando en un búnker— condiciona la capacidad de imponer límites reales al uso militar de la IA.

Legalidad, control democrático y una ‘kill chain’ acelerada

El caso Maduro también pone el foco en la transformación doctrinal del Pentágono. En los últimos años, el Departamento de Defensa ha invertido miles de millones de dólares en acelerar lo que denomina la “kill chain”, la secuencia que va desde la detección de un objetivo hasta su neutralización. La lógica es sencilla: quien decida más rápido, gana.

La integración de modelos como Claude promete precisamente eso: capacidad de digerir en segundos lo que antes exigía equipos humanos enteros y horas de análisis. Pero la consecuencia es inquietante. Si las recomendaciones se basan en un sistema estadístico opaco, entrenado con ingentes cantidades de datos, ¿qué margen real tiene un oficial para cuestionar la salida del algoritmo ante la presión del tiempo?

Además, el uso de herramientas de IA en operaciones encubiertas plantea problemas de rendición de cuentas. ¿Quién es responsable si un error en la interpretación de inteligencia contribuye a un bombardeo que causa víctimas civiles? ¿El comandante que aprieta el botón, el integrador que configuró la plataforma o la empresa que entrenó el modelo? Por ahora, ni el Pentágono ni Anthropic han ofrecido detalles sobre qué salvaguardas se aplicaron durante la redada de Caracas.

El contraste con los debates sobre la IA en el ámbito civil —centrados en el sesgo algorítmico o la protección de datos— resulta demoledor: en el terreno militar se está avanzando a una velocidad mucho mayor, con mucha menos transparencia.

Un precedente para las guerras del futuro

Aunque el uso de algoritmos en la guerra no es nuevo, la participación de Claude marca un punto de inflexión simbólico. A diferencia de sistemas más clásicos de visión artificial o reconocimiento de señales, este modelo de lenguaje está diseñado para interactuar en lenguaje natural, razonar sobre escenarios escritos y proponer cursos de acción.

Los expertos llevan años advirtiendo de que integrar este tipo de IA generativa en decisiones de vida o muerte puede generar una peligrosa ilusión de objetividad. “Si la máquina lo dice, será que es correcto” es la trampa mental que muchos estrategas temen.

El diagnóstico es inequívoco: el caso Maduro será citado durante años como el primer gran ejemplo documentado de un modelo de uso masivo participando en una operación militar de alto perfil. A partir de ahora, cualquier despliegue similar por parte de otras potencias —desde Rusia hasta China— podrá alegar el precedente estadounidense.

Para Anthropic, además, el episodio llega en un momento de expansión vertiginosa. La compañía acaba de ser valorada entre 350.000 y 380.000 millones de dólares tras una nueva ronda de financiación de 30.000 millones, con ingresos anuales que se disparan y más de 500 grandes clientes empresariales. Cuanto mayor es su peso en la economía digital, más difícil le resultará mantenerse al margen de las presiones de gobiernos y ejércitos.