China agita el “Terminator” y pide frenos a la IA militar
166 países ya han votado en Naciones Unidas a favor de reforzar las reglas sobre armas autónomas, un síntoma de que el debate dejó de ser ciencia ficción.
En ese clima, China eleva el tono y rescata la metáfora más rentable: el miedo a un futuro “Terminator”, con máquinas tomando decisiones críticas sin supervisión humana. La imagen no es casual: el propio entorno militar chino ha coqueteado con esa narrativa al hablar de robots humanoides en el campo de batalla.
Lo relevante, sin embargo, no es el titular: es la pugna por fijar el estándar. Porque quien consiga definir qué significa “control humano” dominará la legitimidad del próximo salto tecnológico.
El “Terminator” de Pekín: cuando el miedo se convierte en doctrina
El recurso a Terminator no es una anécdota pop. Es una herramienta de poder. Convertir una discusión técnica —sensores, autonomía, latencia, reglas de enfrentamiento— en una imagen universal permite a Pekín presentarse como el adulto en la sala: “prudencia”, “ética”, “estabilidad”. Y, sobre todo, desplazar el foco: del desarrollo acelerado de la IA militar china hacia la supuesta ausencia de límites en Washington.
La metáfora también cumple otra función: coloniza el debate público. Cuando el ciudadano escucha “robots que deciden”, no piensa en sistemas de recomendación; piensa en fuerza letal. Y ahí Pekín gana terreno narrativo con un coste mínimo. El propio ecosistema mediático europeo ya recoge cómo el Ejército chino “eleva el espectro” de escuadrones de robots humanoides al estilo Terminator.
Pero el miedo, por sí solo, no regula nada. La cuestión real es operativa: ¿quién autoriza el uso de la fuerza, quién puede desconectar, y qué pasa cuando el sistema “funciona” y aun así se equivoca? En esa grieta se cuela el riesgo estratégico: una cadena de decisiones más rápida que la política y más opaca que el derecho.
El dato duro: 166 votos, 3 en contra y una fecha límite en 2026
La presión internacional existe y ya tiene números. En diciembre de 2024, la Asamblea General aprobó una resolución sobre sistemas autónomos letales con 166 votos a favor, 3 en contra y 15 abstenciones, con la idea de avanzar hacia prohibiciones y regulaciones. No es un tratado. Pero sí una señal: la mayoría de países quiere reglas antes de que la tecnología marque el paso.
La ONU, además, ha puesto un reloj sobre la mesa. En el marco del CCW (Convención sobre Ciertas Armas Convencionales), se menciona el llamamiento del secretario general para concluir antes de 2026 un instrumento jurídicamente vinculante que prohíba armas autónomas letales. Esa fecha no es decorativa: es un reconocimiento tácito de que el despliegue puede ir más rápido que la diplomacia.
En paralelo, organizaciones humanitarias y de derechos humanos empujan con fuerza. Human Rights Watch recuerda que más de 120 países apoyan negociar un tratado que prohíba sistemas sin “control humano significativo” o que apunten a personas. Es el consenso mínimo que intenta abrirse paso entre potencias: prohibir lo inaceptable y regular lo inevitable.
“Bajo control humano”: la bandera china en la ONU
China ha querido ocupar la posición de “responsable” en el tablero multilateral. En octubre de 2024, su delegación ante la ONU defendió que los países adopten una actitud prudente y que los sistemas de armas relevantes “permanezcan bajo control humano”. En 2025, el vicecanciller Ma Zhaoxu insistió en la necesidad de una gobernanza global que garantice un uso “pacífico” y “controlable” de la IA, con la ONU como canal principal.
El mensaje es claro: Pekín quiere reglas… pero no cualquiera. Quiere reglas que le sirvan como paraguas diplomático y como instrumento de presión contra Washington. La frase “control humano” funciona como eslogan moral y, al mismo tiempo, como palanca política: obliga a EE. UU. a demostrar que no está construyendo un sistema de decisión letal “sin manos”.
La contradicción es que el concepto no está cerrado. “Control humano” puede significar desde un humano autorizando cada disparo (human-in-the-loop) hasta un humano supervisando a distancia con capacidad teórica de abortar (human-on-the-loop). Ese margen semántico es el verdadero campo de batalla. Y China lo sabe.
El Pentágono acelera: doctrina de desconexión y “decisión superior”
Estados Unidos no se presenta como un actor sin frenos. Al contrario: ha convertido la “IA responsable” en parte de su narrativa estratégica. En febrero de 2023, Washington lanzó una declaración política de 12 puntos para promover normas no vinculantes sobre el uso militar de la IA, subrayando la necesidad de control humano en decisiones críticas —incluida la dimensión nuclear— y con participación de unas 60 naciones, entre ellas China.
En el plano doctrinal, el DoD actualizó en enero de 2023 su directiva sobre autonomía en sistemas de armas (DoDD 3000.09), fijando procedimientos, aprobaciones y un principio clave: la IA debe ser “governable”, es decir, diseñada para detectar comportamientos no deseados y permitir desactivar sistemas que se desvíen.
Y, a nivel de despliegue, el Pentágono explicitó en 2023 que la adopción de IA busca mantener “decision superiority” en el campo de batalla. La paradoja es evidente: cuanto más se enfatiza la velocidad de decisión como ventaja militar, más difícil resulta sostener una supervisión humana significativa sin perder el beneficio táctico. Ahí nace el dilema que Pekín explota.
El origen de la hipocresía: pedir frenos mientras se compite por ventaja
La competición tecnológica hace que la moral sea, también, una herramienta. China denuncia riesgos de descontrol, pero en paralelo defiende acelerar la gobernanza global “para el bien” mientras pide un entorno “abierto” y critica el “proteccionismo” tecnológico. Washington, por su parte, proclama ética y control, pero impulsa una carrera de adopción rápida para no perder ventaja operacional.
En esa dinámica, el debate sobre “killer robots” se parece peligrosamente al de otras eras: todos apoyan reglas, siempre que las reglas no recorten su margen. El Comité Internacional de la Cruz Roja lo verbaliza con crudeza: “Si esta tecnología se despliega sin control, aceptamos un mundo donde máquinas eligen quién vive y quién muere”. (cita breve)
Y aquí aparece la consecuencia menos comentada: la proliferación. Si el estándar internacional se queda en una declaración voluntaria, los sistemas más baratos —drones con autonomía parcial, enjambres, munición merodeadora— se expandirán a actores con menos controles, más opacidad y más incentivos para “probar”. La historia enseña que la tecnología se democratiza más rápido que la regulación.