Nueva caída de ChatGPT expone el talón de Aquiles de OpenAI
La última incidencia de ChatGPT vuelve a poner una idea incómoda en primer plano: detrás de la aparente omnipresencia de la IA hay una infraestructura tan masiva como frágil. OpenAI reconoció en su página de estado que los usuarios estaban sufriendo “errores elevados” en varios servicios vinculados a ChatGPT y reiteró el guion habitual: “estamos trabajando en implementar una mitigación”.
El episodio llega cuando el chatbot ya concentra centenares de millones de usuarios activos cada semana y se ha incrustado en flujos de trabajo críticos de empresas, administraciones y medios. Lo que hace unos años habría sido una molestia técnica se traduce hoy en entregas retrasadas, atención al cliente en suspensión y desarrollos bloqueados.
Lo relevante no es solo el fallo puntual, sino el patrón. En los últimos meses se han sucedido interrupciones con mensajes casi calcados —“elevated error rates”, “degraded performance”— tanto en ChatGPT como en las APIs. Y el efecto es directo: la fiabilidad del buque insignia de la IA generativa entra en zona de escrutinio justo cuando la carrera inversora proyecta valoraciones de OpenAI de entre 500.000 y 730.000 millones de dólares.
Un aviso en plena expansión masiva de ChatGPT
La última incidencia llega en el peor momento posible para OpenAI: cuando su herramienta estrella ya opera como servicio cotidiano para una parte significativa del planeta. Las cifras que circulan en el mercado sitúan a ChatGPT en entre 700 y 800 millones de usuarios activos semanales, más de 5.000 millones de visitas mensuales y alrededor de 2.000 millones de consultas diarias.
Ese volumen convierte cualquier desviación pequeña en un problema grande. Un aumento de la tasa de error que afecte solo al 1% de las peticiones puede implicar decenas de millones de interacciones fallidas en horas. Para el usuario particular, el coste suele ser repetir una pregunta. Para un banco que analiza documentación, una tecnológica que genera código con la API o un bufete que apoya su trabajo en resúmenes automáticos, el impacto se mide en tiempo, incidencias y reputación.
El contraste entre el relato de hiperproductividad “siempre disponible” y la realidad de estos cortes es difícil de maquillar. ChatGPT no es magia: corre sobre centros de datos sometidos a una presión extraordinaria, donde un cambio mal calibrado puede disparar errores. La propia OpenAI ya reconoció en 2025 que un experimento interno mal ajustado provocó una oleada de respuestas en blanco durante más de una hora.
Qué ha pasado: de los “errores elevados” al apagón parcial
En la última incidencia, OpenAI comunicó en su página de estado que había identificado “elevated errors” en los servicios afectados y que trabajaba en “implementar una mitigación”. Traducido al usuario: conversaciones que no cargan, sesiones congeladas, mensajes de error genéricos y respuestas que nunca llegan.
Los portales de monitorización independientes, como DownDetector, reflejaron picos de más de 12.000 informes de fallo en cuestión de minutos durante la gran caída de principios de febrero, con especial incidencia en Estados Unidos y Europa. La secuencia descrita por medios internacionales fue consistente: fallos intermitentes, después imposibilidad de iniciar sesión y, finalmente, una recuperación gradual tras dos o tres horas de interrupción.
En el plano técnico, OpenAI habló de tasas de error elevadas en trabajos de finetuning y en peticiones de ChatGPT y de la plataforma. La lectura es clara: síntomas que apuntan a componentes transversales, no a una única funcionalidad. Aun así, la compañía no ha ofrecido un desglose detallado del origen exacto del fallo, más allá de prometer análisis posteriores, un compromiso que en episodios previos ha tardado días en materializarse —cuando lo ha hecho—.
Un historial de incidencias que ya no se puede ignorar
La caída más reciente no es un episodio aislado. Desde finales de 2024 se han registrado interrupciones relevantes de ChatGPT y de las APIs de OpenAI con el mismo patrón semántico: “high error rates”, “elevated errors” o “degraded performance”. En diciembre de 2024, una incidencia dejó a decenas de miles de usuarios sin servicio y generó más de 15.000 avisos en DownDetector.
En junio de 2025, otro apagón global afectó tanto a la web como a las aplicaciones móviles durante horas, con problemas de inicio de sesión y errores masivos en la generación de respuestas. Meses después, en verano de 2025, OpenAI volvió a reconocer errores elevados en todas sus APIs y en conversaciones de ChatGPT, que obligaron a aplicar mitigaciones de emergencia.
El diagnóstico se endurece con cada repetición: la infraestructura que sostiene los modelos de propósito general está bajo presión y aún no ofrece una robustez comparable a servicios digitales maduros. Cada lanzamiento —modelos más grandes, integraciones con voz, vídeo o herramientas externas— aumenta complejidad y riesgo operativo. Y, aun así, buena parte del tejido empresarial ha dado por hecho que esta capa funcionará con la estabilidad del correo electrónico.
El coste oculto para desarrolladores y grandes corporaciones
OpenAI puede resumir el episodio como una “degradación temporal”, pero el daño se acumula por debajo del radar. En la caída de febrero, medios especializados hablaron de miles de empresas con flujos de trabajo interrumpidos y equipos de desarrollo obligados a detener despliegues, pruebas y automatizaciones.
Un intervalo de tres horas de indisponibilidad en horario laboral puede suponer generación de código detenida, chatbots comerciales mudos, sistemas internos que no responden y equipos que vuelven a procesos manuales. Para compañías que integran la API en productos de cara al cliente, la factura llega como incidencias, reembolsos y pérdida de confianza.
A esto se suma un vacío contractual que el mercado empieza a pagar: muchos acuerdos aún no incorporan cláusulas claras de SLA, compensaciones por caídas o responsabilidades cuando un fallo deja inoperativo un proceso crítico. Mientras tanto, el negocio pivota hacia ingresos recurrentes —con alrededor de 10 millones de suscriptores de pago y una facturación anual estimada de 10.000 millones de dólares—, elevando la exigencia de fiabilidad a la altura del peso económico.
Dependencia extrema de un único proveedor de IA
Cada caída expone algo más serio que un fallo técnico: la concentración de riesgo. ChatGPT concentra más del 60% de cuota de mercado de herramientas de IA generativa, según estimaciones ampliamente citadas, y se ha convertido en estándar de facto para desarrolladores y usuarios empresariales.
Esa centralización tiene una consecuencia inmediata: cuando OpenAI falla, el temblor se siente en cadena. En la caída de febrero, incluso competidores como Anthropic, con Claude, reportaron problemas similares el mismo día, con tasas de error elevadas en sus APIs. El mensaje de fondo es estructural: la economía digital empieza a depender de un puñado de modelos de IA que operan cerca del límite y, además, comparten cuellos de botella (infraestructura, chips y nube).
La comparación con otras infraestructuras críticas incomoda por lo que revela. Telecomunicaciones, electricidad o pagos funcionan bajo regulaciones estrictas, redundancias obligatorias y protocolos de continuidad. En IA, abundan contratos de adhesión, promesas genéricas de “best effort” y una supervisión regulatoria que apenas empieza a desplegarse.
Riesgos regulatorios y de reputación en plena carrera inversora
El contexto regulatorio se endurece. El Reglamento europeo de IA (AI Act) activa obligaciones específicas para proveedores de modelos de propósito general con potencial riesgo sistémico: evaluación de riesgos, mitigación de incidentes y mayores exigencias de transparencia. Y Bruselas avanza en mecanismos —incluidos códigos de prácticas— para elevar estándares de seguridad y continuidad.
Las caídas recurrentes alimentan un debate que ya no es teórico: si la autorregulación es suficiente o si la IA debe asumir estándares similares a los de servicios esenciales. Esta presión coincide con una carrera inversora sin precedentes, con valoraciones que el mercado sitúa entre 500.000 y 730.000 millones de dólares y con grandes actores disputando posiciones. El contraste es corrosivo: mientras el capital descuenta crecimiento casi ilimitado, el usuario ve cómo el servicio se queda en blanco en momentos críticos. Cada apagón erosiona confianza y, con ella, la narrativa de inevitabilidad.
Lo que OpenAI explica… y lo que calla
En las incidencias recientes, el patrón comunicativo es estable. Primero, silencio mientras se acumulan reportes. Después, un mensaje breve: “users are experiencing elevated errors… implementing a mitigation”. Más tarde, una frase de cierre: “all impacted services have now fully recovered”.
Solo en algunos casos aparece un análisis posterior de causa raíz, con referencias a experimentos internos mal configurados o fallos de componentes. Pero la información sigue siendo limitada: no se detallan impactos por región, qué perfiles de clientes sufrieron más ni medidas concretas de compensación.
Esa asimetría pesa. Mientras las empresas usuarias deben explicar internamente por qué su producto dejó de funcionar durante horas, el proveedor dominante puede pasar página con unas líneas en una página de estado. Si los modelos de IA se consolidan como infraestructura esencial de facto, la expectativa de transparencia, garantías y supervisión crecerá en la misma proporción.
Lecciones para las empresas: prepararse para la próxima caída
La pregunta ya no es si habrá una nueva caída, sino cuándo y con qué impacto. La lección para cualquier organización es nítida: depender de un único proveedor de IA sin plan B es asumir un riesgo operativo innecesario.
El frente técnico empieza por arquitecturas multiproveedor capaces de redirigir cargas a otros modelos (Claude, Gemini u opciones on premise) cuando un servicio crítico se degrada. El segundo frente es operativo: mecanismos de degradación controlada que permitan seguir funcionando —aunque sea con prestaciones reducidas— y protocolos manuales listos para activarse. Y el tercero es contractual: negociar SLA explícitos, métricas de disponibilidad y esquemas de compensación cuando se incumplen.
La IA promete productividad, pero exige disciplina de continuidad. Cada aviso de “errores elevados” es un recordatorio de que el talón de Aquiles de esta nueva economía sigue estando en la capacidad —y la voluntad— de unos pocos actores para garantizar que, cuando más se necesita, la luz no se apague.