Microsoft, Google y xAI aceptan el “examen” de seguridad nacional a sus IA

Google, xAI, Microsoft , EPA/FILIP SINGER [L] / EPA/ CRISTOBAL HERRERA-ULASHKEVICH [C] / EPA/KENA BETANCUR [R]

Tres gigantes de la IA han aceptado someter sus próximos modelos a una revisión federal antes de hacerlos públicos. El acuerdo otorga a CAISI —la nueva pieza del Departamento de Comercio— capacidad para probar, medir y “red-teamear” sistemas de frontera con foco en ciberataques y uso dual. La consecuencia es clara: Washington deja de mirar solo a la innovación y empieza a exigir controles predespliegue en el corazón del negocio.

 

Microsoft, xAI y Google han pactado con el Center for AI Standards and Innovation (CAISI) entregar acceso temprano a sus nuevos modelos para una evaluación previa al despliegue. El objetivo oficial es “conducir evaluaciones predespliegue y research dirigido”, un giro que institucionaliza algo que hasta ahora se movía en la zona gris de los compromisos voluntarios.

Lo más sensible no es el titular, sino el alcance: parte de esas pruebas se realizarían con versiones “con menos salvaguardas o sin ellas” para comprobar qué ocurre cuando el sistema opera sin barandillas. Ese detalle revela el nuevo enfoque: medir capacidad real, no solo compliance de cara a la galería. CAISI sostiene que ya ha ejecutado más de 40 revisiones similares, lo que le permite presentarse como un evaluador “repetible” y no como un comité ad hoc.

Una agencia que busca autoridad

CAISI es, en la práctica, la evolución del anterior AI Safety Institute, ahora reorientado hacia estándares y seguridad nacional. Su propia misión, según NIST, es servir como punto de contacto para testing y colaboración con industria, además de liderar evaluaciones no clasificadas de capacidades que puedan suponer riesgos para el país.

El nombramiento de Chris Fall como director —confirmado la semana pasada— añade un elemento político: Washington quiere una figura con perfil de administración y músculo científico para convertir el laboratorio en política pública.

«La ciencia de medición independiente y rigurosa es esencial para comprender la IA de frontera y sus implicaciones para la seguridad nacional», trasladó Fall al presentar la nueva etapa. El mensaje es nítido: sin métricas comparables, no hay control posible, y sin control, el coste lo paga el Estado cuando la tecnología se filtra hacia usos hostiles.

Ciberseguridad, bioseguridad y el riesgo químico

El perímetro de la revisión no se limita a “sesgos” o contenidos. CAISI pone el foco en tres vectores: ciberseguridad, bioseguridad y amenazas relacionadas con armas químicas. Es decir, el territorio de los modelos como herramienta para acelerar capacidades: desde automatizar explotación de vulnerabilidades hasta mejorar procesos de laboratorio o facilitar síntesis y rutas.

Este enfoque reduce el debate a su núcleo duro: los sistemas de frontera se parecen cada vez más a infraestructura crítica. La consecuencia es clara: si un modelo puede elevar productividad, también puede elevar la eficacia de un atacante. En un contexto de tensión tecnológica global, la “ventaja” comercial de lanzar primero se convierte, para el regulador, en una externalidad que alguien debe contener antes de que sea tarde.

La presión política detrás del giro

El acuerdo llega mientras la Casa Blanca sopesa fórmulas para endurecer la supervisión, con especial énfasis en un estándar de defensa digital. Axios y otros medios sitúan el movimiento como parte de un pivote: acelerar adopción, sí, pero blindando el flanco de ciberseguridad.

El contraste con la etapa anterior es demoledor. Bajo Biden se impulsó el marco que dio origen al instituto de seguridad; con Trump, el mensaje cambió —se retiró incluso la palabra “safety” del nombre—, pero no desapareció la preocupación por usos hostiles. Simplemente se tradujo a lenguaje operativo: estándares, pruebas y capacidad de verificación.

Ventaja competitiva y coste de cumplimiento

Para las compañías, el pacto funciona como seguro reputacional. Ceder acceso temprano a CAISI permite anticipar críticas y, sobre todo, alinear el producto con lo que el Gobierno considera “aceptable” en riesgos de alto impacto. Pero también introduce fricción: cada iteración puede requerir ajustes, parches y documentación. En el mejor de los casos, hablamos de ventanas de revisión de 30 a 60 días por modelo, un retraso asumible para gigantes, no tanto para actores medianos.

Sin embargo, el mercado también premia estabilidad regulatoria. Si CAISI se consolida como árbitro técnico, las empresas obtendrán una hoja de ruta más predecible. El diagnóstico es inequívoco: el “modelo de confianza” será parte del producto, igual que lo es hoy la seguridad en la nube. Y quien no entre en ese carril quedará expuesto a sanción política, boicots o vetos de contratación pública.

El efecto dominó para el sector y para Europa

La señal de Washington tiene efectos fuera de sus fronteras. Si CAISI estandariza pruebas de ciber y uso dual, ese marco tenderá a exportarse —por compras públicas, por alianzas militares y por la propia industria—. El resultado probable es una división de facto: modelos “auditables” para mercados regulados y versiones menos controladas para el resto, con el consiguiente incentivo a la arbitrariedad geográfica.

El antecedente ya existía: CAISI llevaba tiempo trabajando con acuerdos similares con OpenAI y Anthropic, y el ecosistema anglosajón empuja hacia evaluaciones repetibles y comparables. Ahora la diferencia es el tamaño del gesto: cuando entran Microsoft y Google, el estándar deja de ser experimento y pasa a ser industria.