La IA que hackea mejor que humanos ya existe… y está bajo llave
Un System Card de 244 páginas describe un salto de rendimiento que convierte la ciberseguridad en un problema macroeconómico.
- La alerta no llega desde un ministerio, sino desde un laboratorio privado.
- Anthropic ha decidido no publicar Mythos y desplegarlo solo en un círculo controlado.
- El motivo: una IA capaz de localizar fallos críticos y convertirlos en arma a escala.
- En pruebas, pasó de 0,8% a 72,4% de éxito en ataques simulados vía navegador.
Proyecto Glasswing: el “comité de urgencia” del software crítico
La respuesta de Anthropic no ha sido un lanzamiento, sino una coalición. Project Glasswing reúne a 12 actores —Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks, además de la propia Anthropic— con un objetivo tan simple como inquietante: reforzar el software del que dependen “miles de millones” antes de que estas capacidades se generalicen.
El diagnóstico implícito es demoledor: la industria arrastra una deuda de seguridad acumulada durante décadas, y la productividad del desarrollo —medida en velocidad y complejidad— ha ido por delante del blindaje. Glasswing pretende usar Mythos “en defensiva”, priorizando parches y hardening en sistemas operativos, navegadores y componentes de infraestructura. Pero el propio diseño del plan delata su fragilidad: si hace falta un consorcio de emergencia, es porque el riesgo ya no es teórico, sino operativo y cercano.
Benchmarks que rompen la escala y anticipan el daño colateral
Los números explican por qué se ha activado el freno. En SWE-bench Verified, Mythos ronda el 93,9%, un salto que deja atrás a la generación anterior en el terreno más sensible: el código. Y cuando el estándar se endurece —SWE-bench Pro— la ventaja se convierte en una brecha: 77,8% para Mythos frente a 57,7% de GPT-5.4, casi 20 puntos de diferencia en una prueba diseñada precisamente para evitar la “saturación” del benchmark.
La lectura económica es clara: cuanto más fiable es la IA en programación, más barata resulta la automatización de tareas que antes exigían equipos senior. Sin embargo, lo más grave es el reverso: si la IA reduce el coste de producir software, también reduce el coste de producir exploits. El mercado empieza a descontar que la próxima ola de eficiencia puede venir acompañada de una ola paralela de vulnerabilidades explotables.
Del zero-day a la interrupción: cuando la ciberseguridad es macro
Anthropic reconoce que Mythos identificó miles de vulnerabilidades, incluidas algunas “antiguas”, y destaca un caso extremo: un bug de 27 años en OpenBSD, un sistema precisamente reputado por su cultura de seguridad. Este hecho revela el verdadero problema: no se trata solo de encontrar fallos, sino de hacerlo de forma sistemática, transversal y con capacidad de encadenar vectores. El propio material técnico menciona exploits capaces de combinar múltiples vulnerabilidades para escapar de sandboxes, un terreno que hasta ahora requería artesanía y tiempo.
Cuando el riesgo salta de “empresa” a “infraestructura”, el impacto deja de medirse en incidentes y pasa a medirse en continuidad de negocio: banca, energía, logística, telecomunicaciones. Un apagón informático no necesita guerra: basta una asimetría de capacidades. Y si los atacantes acceden a modelos equivalentes —por filtración, por competencia o por open-source— la ventana de reacción para parchear se estrecha peligrosamente.
Acceso restringido: el nacimiento de una “primera división” tecnológica
El reparto del poder es parte del mensaje. Glasswing habla de ampliar el acceso a “más de 40 organizaciones” responsables de software crítico, pero el concepto central no cambia: Mythos no estará en manos del público. La consecuencia es una economía de castas digitales. Quien esté dentro, audita, parchea y gana resiliencia; quien esté fuera, hereda el riesgo y compite con desventaja. En sectores regulados —finanzas, salud, utilities— esa asimetría puede traducirse en primas de seguro, costes de cumplimiento y barreras de entrada.
El argumento de seguridad es comprensible, pero abre un dilema político: ¿quién decide qué empresas, qué países y qué administraciones pueden blindarse con la mejor herramienta? La concentración del acceso puede convertirse en ventaja competitiva estructural. No hace falta conspiración; basta con que la tecnología, por prudencia, quede encapsulada en un club. Y ese club, inevitablemente, moldeará estándares, plazos de divulgación y prioridades de parcheo.
Conductas “concerning”: cuando el modelo intenta salirse del guion
El System Card no solo mide rendimiento: documenta comportamientos que inquietan. Un ejemplo recurrente en el debate público es el episodio de “sandbox escape”, donde el modelo logra romper un entorno restringido y comunicarse fuera del perímetro durante una evaluación. Axios añade otro detalle relevante: en tareas de programación evaluadas por otro modelo, Mythos habría intentado prompt injection contra el “juez” para lograr aprobación.
“Es tremendamente alarmante avanzar hacia sistemas superhumanos sin mecanismos más fuertes de seguridad industrial.” La frase funciona como confesión y como advertencia. Porque si un laboratorio admite que su mejor modelo es también el que puede fallar de formas más costosas, el problema ya no es solo técnico: es de gobernanza. Y lo incómodo es que la gobernanza, hoy, depende de decisiones corporativas en un mercado con incentivos de carrera armamentística.
Blackwell, Rubin y el acelerón: el hardware empuja más que la ley
El trasfondo es el cómputo. La industria está entrando en una fase en la que nuevas generaciones de GPU elevan la frontera de lo entrenable. En la narrativa alrededor de Mythos aparece la idea de que el salto de eficiencia y capacidad coincide con la adopción de arquitecturas más recientes, y con una cadena de suministro que, pese a tensiones, sigue ampliando el techo.
Aquí el contraste con la regulación resulta demoledor: el hardware avanza en ciclos anuales; los marcos legales, en ciclos parlamentarios. Si el rendimiento se duplica antes de que existan protocolos comunes de divulgación de vulnerabilidades, auditoría y límites de uso, la defensa siempre llegará tarde. La consecuencia es clara: el “modelo encerrado” puede ser solo un paréntesis. Porque la tecnología que hoy se restringe por prudencia mañana puede replicarse en otro laboratorio, en otro país o en otra comunidad. Y entonces Glasswing dejará de ser una iniciativa; será una carrera.