Una inteligencia artificial que quizá pueda reforzar la ciberseguridad... o destruirla

Tech cc pexels-nic-scrollstoppingphotos-6432056
Tech cc pexels-nic-scrollstoppingphotos-6432056

La inteligencia artificial ha vuelto a situarse en el punto donde la promesa tecnológica se cruza con el vértigo institucional. Anthropic, empresa dirigida por Dario Amodei y considerada uno de los actores centrales en la carrera global por dominar la tecnología generativa, ha presentado recientemente una iniciativa que nace a raíz de un modelo de inteligencia artificial no publicado denominado Claude Mythos Preview. Según el comunicado oficial difundido por la compañía, estamos ante una herramienta cuya capacidad de programación permite superar a todos los humanos, excepto a los más expertos, en la detección y explotación de vulnerabilidades de software. No obstante, la respuesta de Anthropic ante sus propios avances resulta paradójica: la empresa sostiene que no estamos preparados para los cambios que trae aparejada esta tecnología, al tiempo que anuncia el Proyecto Glasswing como un esfuerzo por proteger el software más crítico del mundo.

Debe tenerse presente que la dualidad entre el anuncio de capacidades extraordinarias y la restricción absoluta del acceso genera una incógnita difícil de disipar. La iniciativa prevé una alianza con Amazon, Apple, Microsoft, Google y Nvidia, entre otras entidades, pero el círculo de sujetos con acceso real al modelo algorítmico es tan reducido —apenas 40 organizaciones seleccionadas— que resulta imposible contrastar independientemente las afirmaciones de la empresa sobre el potencial destructivo o protector de la herramienta. Lo anterior me sugiere que la incertidumbre generada podría responder, simplemente, a una campaña de generación de expectativas con fines publicitarios, diseñada para posicionar a Anthropic como el guardián responsable de una tecnología demasiado peligrosa para ser liberada, aunque ello no sea fácilmente verificable por terceros.

II. El modelo no publicado y sus presupuestos técnicos

El núcleo del anuncio reside en Claude Mythos Preview, un sistema que permanece en fase no liberada y que representa, según sus creadores, un salto significativo en capacidad de programación y análisis de seguridad. La compañía asegura que estos modelos han alcanzado un nivel en el que pueden superar a casi todos los humanos, salvo a los expertos más avanzados, en la identificación y explotación de vulnerabilidades de software. Las cifras internas que acompañan este anuncio son las que han encendido el debate: el modelo habría identificado miles de vulnerabilidades de alta gravedad en sistemas reales, incluyendo fallos presentes en todos los principales sistemas operativos y navegadores web.

Considero que la naturaleza de estas afirmaciones resulta particularmente difícil de verificar dado el carácter cerrado de las pruebas realizadas. No se trata de errores marginales, sino de vulnerabilidades profundas que en muchos casos habrían permanecido ocultas durante años en código ampliamente desplegado. La diferencia con generaciones anteriores de modelos no sería solo cuantitativa, sino operativa: en entornos de pruebas de seguridad, el sistema no se limitaría a señalar debilidades pasivamente, sino que sería capaz de razonar sobre su posible explotación, alterando por completo la ecuación tradicional de la ciberseguridad. Entiendo que si estas capacidades son reales, estamos ante un cambio de paradigma cualitativo; si son exageradas, ante una operación de marketing sofisticada que utiliza el miedo tecnológico como diferenciador competitivo.

III. La arquitectura restrictiva del Proyecto Glasswing

Ante este escenario de supuesto riesgo sistémico, Anthropic ha anunciado el Proyecto Glasswing como un marco de uso controlado en el que las organizaciones participantes utilizarían el modelo para auditar sus propios sistemas y reforzar software crítico antes de que esas vulnerabilidades pudieran ser explotadas externamente. La compañía ha comprometido hasta 100 millones de dólares en créditos de uso del modelo y 4 millones adicionales en donaciones dirigidas a organizaciones de seguridad de código abierto. El mensaje subyacente es claro: la velocidad de avance de estos sistemas obligaría a invertir en defensa de forma anticipada y coordinada.

Hay que reseñar que esta estrategia de despliegue restringido contrasta frontalmente con las prácticas de liberación abierta que han caracterizado a otros actores del sector. La selección de apenas 40 organizaciones cuidadosamente seleccionadas, vinculadas a infraestructura esencial y desarrollo de software abierto, configura un perímetro de confianza que sirve simultáneamente para controlar los riesgos y para generar una escasez artificial que aumenta el valor percibido de la tecnología. Asumo que la concentración de estos conocimientos en manos de un número reducido de entidades plantea interrogantes sobre la concentración del poder tecnológico y la posibilidad real de verificación independiente de las capacidades atribuidas al sistema.

IV. El dilema entre la prudencia y la desconfianza legítima

La postura restrictiva de Anthropic no resulta enteramente nueva. Durante 2026, la compañía mantuvo fricciones directas con la administración estadounidense al rechazar flexibilizar sus salvaguardas sobre el uso militar de sus modelos, especialmente en relación con vigilancia masiva y sistemas autónomos de armamento. Esta resistencia derivó en su clasificación como riesgo para la cadena de suministro y en la suspensión de su uso en agencias federales bajo la órbita de Donald Trump. Mientras otros actores del sector aceptaron contratos de uso militar más amplios, Anthropic defendió límites explícitos, consolidando una reputación de prudencia extrema.

Ello me obliga a deducir que la empresa ha construido una narrativa de responsabilidad corporativa que, convenientemente, también la diferencia de competidores como OpenAI. Sin embargo, la imposibilidad de auditar independientemente las afirmaciones sobre Claude Mythos Preview deja a la comunidad técnica y jurídica en una posición de desconfianza inevitable. Cuando una empresa declara poseer una tecnología capaz de descubrir vulnerabilidades críticas a escala industrial pero restringe el acceso bajo argumentos de seguridad, se crea una situación epistemológica problemática: debemos aceptar su palabra sobre los riesgos que justifican la contención, precisamente porque la contención impide verificar la magnitud real de esos riesgos.

V. La verificación imposible y la economía del miedo tecnológico

Voces expertas del sector advierten de que la seguridad ya no puede depender solo de identidad o perímetro, sino del comportamiento real del software en ejecución. Anthropic sostiene que la progresión de estas capacidades es tan rápida que en cuestión de meses podrían generalizarse herramientas con este nivel de potencia. El riesgo no sería únicamente técnico, sino sistémico: infraestructuras críticas, sistemas financieros y cadenas de suministro de software podrían verse expuestos a una nueva clase de automatización ofensiva.

Considero que este escenario apocalíptico, aunque técnicamente plausible, resulta sospechosamente conveniente para una estrategia de diferenciación comercial. La paradoja permanece intacta: cuanto más eficaz sería la inteligencia artificial para proteger sistemas, más evidente se vuelve su potencial para comprometerlos si deja de estar estrictamente controlada. Pero esta misma paradoja sirve para justificar tanto la inversión en la tecnología como su restricción. El Proyecto Glasswing se presenta como una medida de contención preventiva, pero también como un mecanismo de captación de valor económico y reputacional en un mercado saturado de modelos generativos. La dificultad para distinguir entre la prudencia genuina y la generación de expectativas publicitarias reside precisamente en el diseño mismo de la iniciativa, que impide la verificación independiente bajo la aparente nobleza de la protección colectiva.

VI. La gobernanza algorítmica en la era de la incertidumbre controlada

En definitiva, la iniciativa de Anthropic ilustra los límites actuales de la gobernanza tecnológica. Cuando la tecnología permite escalar automáticamente el descubrimiento de vulnerabilidades críticas, la distinción entre investigación defensiva y arma cibernética se vuelve difusa. Sin embargo, la concentración de estas capacidades en manos de una corporación privada que filtra el acceso mediante criterios opacos plantea problemas de legitimidad democrática.

La comunidad jurídica internacional deberá abordar progresivamente la cuestión de si estas capacidades deben someterse a regímenes de control similares a los aplicados a las armas convencionales, dado su potencial de destrucción masiva de infraestructuras esenciales. Hasta que estos marcos no se consoliden, las decisiones empresariales de contención voluntaria —sean producto de una responsabilidad genuina o de una estrategia de marketing sofisticada— constituyen el único dique de contención disponible. La incertidumbre sobre la naturaleza real de Claude Mythos Preview, mantenida viva por el propio diseño restrictivo del proyecto, se convierte así en el elemento central de su narrativa, ya sea que respondamos a ella con admiración por la prudencia o con sospecha por la opacidad.

Comentarios