OpenAI lanza GPT-5.5 y acelera la era de los agentes

El nuevo modelo llega a ChatGPT y Codex con más autonomía, blindaje reforzado y precios de API ya fijados.

OpenAI
OpenAI

 

GPT-5.5 no se vende como un salto estético, sino como un cambio de comportamiento: entender antes la intención, decidir mejor los pasos y sostener el trabajo cuando la tarea se ensucia. OpenAI lo presenta como “una nueva clase de inteligencia” orientada al trabajo real: programar, investigar online, analizar datos, generar documentos y hojas de cálculo y, sobre todo, moverse entre herramientas hasta cerrar el encargo.

La frase clave apunta al tipo de usuario que más se estaba frustrando con los modelos anteriores: el que necesita delegar, no conversar. “Give GPT-5.5 a messy, multi-part task and trust it to plan, use tools, check its work, and keep going.” En esa promesa se condensa el giro: menos microgestión y más persistencia. La consecuencia es clara: la ventaja ya no está solo en “saber”, sino en hacer de forma verificable.

Los datos de rendimiento que marcan el nuevo listón

OpenAI acompaña el lanzamiento con métricas que buscan una idea concreta: no es un modelo “mejor” en abstracto, sino más fiable en flujos largos. En Terminal-Bench 2.0, centrado en coordinación de herramientas y tareas de consola, GPT-5.5 alcanza 82,7%. En SWE-Bench Pro, ligado a resolución de incidencias reales, marca 58,6%.

En trabajo de oficina y “uso del ordenador”, el discurso se vuelve incómodo para muchos competidores: 84,9% en GDPval (44 ocupaciones), 78,7% en OSWorld-Verified y 98,0% en Tau2-bench Telecom sin ajuste de prompt. En las tablas comparativas aparecen rivales directos, un recordatorio de que la pelea ya se juega en productividad, no en demos.

Precio, contexto y el peaje de la autonomía

La otra cara del salto es la factura. En ChatGPT, GPT-5.5 (Thinking) se habilita para Plus, Pro, Business y Enterprise, mientras que GPT-5.5 Pro queda reservado a Pro, Business y Enterprise. En Codex, además, llega con un contexto de 400.000 tokens y un modo “Fast” que genera 1,5 veces más rápido a 2,5 veces el coste.

Y el punto sensible del comunicado es la API: “requiere salvaguardas distintas”. No está disponible hoy, pero OpenAI ya fija precios: 5 dólares por 1 millón de tokens de entrada y 30 dólares por 1 millón de salida, con 1 millón de tokens de ventana de contexto; la variante gpt-5.5-pro subiría a 30/180 dólares (entrada/salida). Es un mensaje doble: se frena la distribución masiva por seguridad, pero se prepara el mercado para asumir el coste de un modelo que promete ahorrar tokens por tarea.

Codex como prueba interna de productividad

Lo más revelador no está en el benchmark, sino en cómo OpenAI describe su propia adopción. Según la compañía, más del 85% de su plantilla usa Codex cada semana en áreas que van de finanzas a comunicación o marketing. Ese dato, por sí solo, funciona como termómetro de madurez: deja de ser “herramienta de ingeniería” y entra en el circuito corporativo.

El ejemplo más contundente llega desde finanzas: revisión de 24.771 formularios K-1, un total de 71.637 páginas, con un ahorro de dos semanas respecto al año anterior. En go-to-market, automatizar informes semanales libera 5-10 horas por semana. Este hecho revela el punto central del lanzamiento: la IA se normaliza cuando reduce tiempos de cierre, no cuando impresiona. Y esa normalización cambia presupuestos, roles y métricas internas de rendimiento.

Salvaguardas más duras y el retorno de la política

OpenAI insiste en que GPT-5.5 llega con su “conjunto más fuerte de salvaguardas”, tras pruebas internas y externas, red-teaming y feedback de casi 200 socios de acceso temprano. Pero la novedad es el tono: ciberseguridad y bio son tratadas como capacidades “High” dentro de su Preparedness Framework, y se anuncian clasificadores más estrictos para riesgo ciber —“molestos” al principio, admite la propia empresa.

Aquí entra la dimensión política. OpenAI habla de “trusted access” y de trabajo con socios gubernamentales para proteger infraestructuras críticas, desde redes eléctricas a sistemas de datos. Ese marco anticipa tensiones regulatorias: si la IA opera software y ejecuta flujos, los controles ya no son un adorno reputacional, sino una exigencia operativa. El contraste con la etapa “chatbot” resulta demoledor: ahora el riesgo no es solo el error, es la acción.

Qué cambia para empresas y administraciones desde hoy

Para el tejido empresarial, GPT-5.5 empuja una transición: del copiloto al operador. La promesa de persistencia —planificar, usar herramientas, verificar— convierte la IA en una capa de ejecución sobre sistemas existentes. Eso puede acelerar productividad en consultoría, finanzas o legal, pero también elevar la dependencia de un proveedor si los flujos se diseñan alrededor del modelo y su política de acceso.

En el sector público, el choque será doble: velocidad frente a trazabilidad. Si la IA redacta, calcula y navega, la administración necesitará controles de auditoría y criterios de compra que vayan más allá del “chat”. Y, mientras la API no se despliega, el uso se canaliza por ChatGPT y Codex, con gobernanza más cerrada. Lo más grave es el incentivo: quien llegue tarde no solo pierde eficiencia; pierde capacidad de competir en plazos, licitaciones y análisis. En un mercado donde la ejecución se automatiza, el tiempo vuelve a ser el verdadero impuesto.

Comentarios