El fallo de ChatGPT deja en vilo a un millón de empresas

OpenAI investiga un nuevo pico de errores en su servicio estrella para clientes corporativos, convertido ya en infraestructura crítica global

 

OpenAI, EPA/ADAM VAUGHAN
OpenAI, EPA/ADAM VAUGHAN

La mañana en Estados Unidos se torció a las 10.33 horas (ET), cuando OpenAI reconoció en su página de estado “elevated error rates” en las conversaciones de ChatGPT para usuarios Business y Enterprise. Desde ese momento, miles de compañías vieron cómo su asistente de IA corporativo empezaba a devolver errores, respuestas incompletas o directamente dejaba de funcionar. El grupo asegura contar ya con más de un millón de clientes empresariales y millones de puestos de trabajo asociados a sus licencias, lo que multiplica el impacto potencial de cualquier incidencia. Tras aplicar una “mitigación”, la compañía afirma que está monitorizando la recuperación del servicio. Sin embargo, el episodio llega en un momento en el que ChatGPT maneja unos 800 millones de usuarios semanales y se ha convertido en la “centralita digital” de la economía mundial. La pregunta de fondo es clara: ¿puede una infraestructura privada soportar, sin red de seguridad, el peso de tanta dependencia?

Un aviso más en una larga serie de incidencias

El incidente no es aislado. Desde 2024, la página de estado de OpenAI ha ido encadenando avisos por “elevated error rates” o degradación del servicio en ChatGPT y en su API, con al menos una decena de episodios que han afectado tanto a usuarios de pago como a empresas y desarrolladores. En algunos casos, las interrupciones se han prolongado durante varias horas, con cadenas de mensajes que van desde “investigando” a “mitigación aplicada” y, finalmente, “recuperación completa”.

En una de las caídas más graves, en junio de 2025, la compañía reconoció una ventana de problemas que se extendió desde primera hora de la mañana hasta bien entrada la noche, afectando a múltiples componentes de ChatGPT y de las APIs en paralelo. El patrón se repite: un problema técnico en una capa de la infraestructura —red, orquestación de servicios, balanceo de carga o modelo— se propaga rápidamente al resto del sistema. El mensaje oficial suele limitarse a fórmulas genéricas: “hemos identificado la causa raíz y estamos trabajando en una mitigación”, sin ofrecer de inmediato detalles técnicos ni métricas de impacto por sectores.

Lo más relevante para las empresas no es tanto la frecuencia exacta de las incidencias como el recordatorio que cada una de ellas deja: la oficina digital de medio planeta depende hoy de una única tubería de datos que, cuando se atasca, arrastra consigo desde asistentes internos a chatbots de atención al cliente, pasando por flujos enteros de trabajo automatizados.

Chat GPT
Chat GPT

De aplicación curiosa a infraestructura crítica

En apenas tres años, ChatGPT ha pasado de ser una curiosidad tecnológica a convertirse en una de las piezas centrales de la infraestructura digital mundial. OpenAI y distintas fuentes externas sitúan ya el uso del servicio en torno a 800 millones de usuarios activos a la semana y miles de millones de consultas diarias, con un crecimiento que ha duplicado la base de usuarios en cuestión de meses.

Este salto cuantitativo se ha traducido en un cambio cualitativo: lo que antes era una herramienta de apoyo individual se ha integrado en plataformas de productividad, CRMs, sistemas de recursos humanos, software de desarrollo y, cada vez más, en procesos regulados de sectores como finanzas, salud o seguros. Informes recientes señalan que más del 90% de las compañías del Fortune 500 ya utilizan tecnología de OpenAI, bien a través de ChatGPT, bien de sus APIs.

La implicación es evidente: un problema en ChatGPT deja de ser una mera molestia para convertirse en un riesgo operativo de primer orden. La comparación con las primeras grandes caídas de AWS o de los servicios de Microsoft y Google se queda corta. En aquellos casos, el debate giraba en torno a la nube. Hoy, lo que está en juego es una capa cognitiva que interviene directamente en procesos de decisión y que se ha incrustado en las tareas diarias de millones de trabajadores.

Un millón de empresas ante la misma avería

El foco de esta última incidencia está en los clientes Business y Enterprise, la gama de productos donde OpenAI concentra su apuesta corporativa. Distintas estimaciones apuntan a que ChatGPT Enterprise supera ya las 600.000 empresas de pago, mientras que el conjunto de licencias y asientos corporativos —incluidos planes específicos para grandes grupos y administraciones públicas— rebasaría el millón de clientes empresariales a escala global.

Esto significa que desde una pyme manufacturera que ha montado su sistema de presupuestos sobre un GPT personalizado, hasta un banco que utiliza el modelo para resumir expedientes o un grupo sanitario que lo integra en sus circuitos de soporte clínico, todos comparten el mismo punto de fallo. Cuando ChatGPT empieza a devolver errores, los equipos de IT de medio mundo reciben la misma respuesta: “incidencia en curso, mitigación aplicada, monitorizando la recuperación”.

El contraste con otras infraestructuras críticas es llamativo. En electricidad o telecomunicaciones, la diversificación de operadores y redes crea cierto colchón ante una caída. En la IA generativa, la concentración de mercado es extrema: un solo proveedor supera el 60% de cuota en el mercado de servicios de IA como servicio en Estados Unidos, según algunos análisis. El efecto es claro: un problema de OpenAI se convierte de inmediato en un problema sistémico para la productividad global.

La fragilidad de una ‘caja negra’ global

Las notas técnicas que la propia OpenAI ha publicado sobre incidentes anteriores dan algunas pistas de la fragilidad del sistema. En una caída registrada en agosto de 2024, la compañía atribuyó el fallo a una combinación de tareas de mantenimiento y una actualización en la capa de entrada de tráfico que provocó una regresión en el plano de control de red y dejó inoperativos varios servicios durante casi hora y media.

En la gran incidencia de junio de 2025, la cronología oficial muestra una sucesión de mensajes de “investigando” y “elevadas tasas de error y latencia” que se prolongó durante más de diez horas, con una recuperación progresiva por componentes. La imagen que se desprende es una arquitectura extremadamente compleja, altamente escalable y difícil de aislar cuando algo se rompe.

A esta complejidad técnica se suma otra capa: la opacidad algorítmica. Empresas y reguladores conocen el efecto —el servicio se degrada—, pero no necesariamente cómo se comportan los modelos bajo estrés ni qué garantías pueden ofrecerse en términos de consistencia o integridad de las respuestas durante un incidente.

Causas, mitigaciones… y un problema de fondo

En esta última avería, el guion vuelve a ser conocido: primero, un aviso escueto de que los usuarios de pago están experimentando “elevated errors”; después, la confirmación de que se ha identificado la causa y se ha aplicado una mitigación; finalmente, la fase de monitorización de la recuperación.

El problema de fondo es que, para muchos de esos clientes, esa información llega tarde y resulta insuficiente. Los responsables de sistemas necesitan saber si se trata de un episodio de minutos, de horas o potencialmente más largo; si afecta solo al interfaz de chat o también a llamadas API críticas; y si pueden verse comprometidas la integridad o el registro de las interacciones.

Europa, regulación y la exigencia de resiliencia

La repetición de episodios de este tipo se produce en paralelo a la entrada en vigor del Reglamento Europeo de Inteligencia Artificial (AI Act). La norma distingue entre sistemas de “riesgo limitado”, “alto riesgo” y “riesgo inaceptable”. Los modelos de propósito general como ChatGPT quedan sometidos a obligaciones específicas de transparencia, documentación técnica y gestión de riesgos.

Aunque un chatbot corporativo no es, por sí solo, un sistema de “alto riesgo”, sí puede convertirse en una pieza de soluciones que sí lo son: evaluación crediticia, sistemas sanitarios, infraestructuras críticas o servicios públicos.

Qué pueden hacer ahora las empresas usuarias

Ante este panorama, la reacción intuitiva —“esperar a que se arregle”— resulta cada vez menos aceptable en términos de gestión de riesgos. Los responsables de tecnología y de negocio empiezan a dibujar estrategias de mitigación que pasan por diversificar proveedores de modelos, mantener capacidades mínimas internas y establecer planes de continuidad específicos para fallos de la capa de IA.

Los datos de uso apuntan a que un cliente empresarial medio integra ya los servicios de OpenAI en cinco o más aplicaciones internas, lo que multiplica el efecto cascada de cualquier interrupción. El diagnóstico es inequívoco: no se trata de decidir si se prescinde de la IA, sino de cómo reducir una dependencia excesivamente concentrada.

Comentarios