ChatGPT

Google da un golpe bajo para ChatGPT y da la clave para revolucionar la IA: "Es una ilusión"

La nueva app de Google para Windows permite buscar archivos, apps, Drive y web con solo Alt + Space

Durante años, gigantes como ChatGPT, Gemini o Claude han revolucionado el mundo con sus capacidades. Pero todos compartían un secreto incómodo que en el sector se sabía, pero pocos explicaban con claridad: estos modelos no aprenden nada nuevo después de ser entrenados. No pueden incorporar experiencias recientes ni actualizarse sobre la marcha. Solo “predicen” a partir de lo que ya fue entrenado.

Ahora, Google Research lanza un paper que podría convertirse en otro momento histórico, comparable al que inició la revolución de los Transformers en 2017. El estudio, titulado “Nested Learning: The Illusion of Deep Learning Architectures”, lo dice sin rodeos: los modelos actuales no aprenden, comprimen. Y explica por qué.

Pero lo más revolucionario no es la crítica, sino la alternativa que presentan: Nested Learning, una arquitectura que intenta dar a las IA la capacidad real de aprender, memorizar y modificar su comportamiento en tiempo real.

El diagnóstico: los modelos actuales no “aprenden”, solo comprimen

El equipo de Google —Ali Behrouz, Meisam Razaviyayn, Peiling Zhong y Vahab Mirrokni— arranca el paper con una advertencia que incomoda a medio sector:

“Los modelos actuales de deep learning comprimen su context flow, pero no son sistemas que puedan learning/memorize”.

Es decir: cuando un modelo “razona” sobre el texto que recibe, no está aprendiendo, sino filtrando información dentro de un patrón estadístico extremadamente comprimido. Es lo que ellos llaman la ilusión del aprendizaje profundo.

La consecuencia es enorme:
un ChatGPT no recuerda experiencias, no mejora con el uso y no acumula conocimientos nuevos. Todo eso es una ilusión generada por la escala descomunal de sus parámetros.

La solución de Google: Nested Learning

Nested Learning propone un concepto revolucionario:
modelos compuestos por módulos anidados, cada uno con su propio context flow y capacidad de actualización autónoma.

Dicho de forma simple:
una IA con “niveles”, cada uno capaz de aprender y reconfigurarse.

El paper resume tres avances prácticos que esta arquitectura abre:

1. Deep Optimizers

Google afirma que optimizadores universales como Adam o SGD, considerados estándar durante décadas, en realidad son módulos de memoria asociativa disfrazados.

Nested Learning permitiría optimizadores capaces de aprender nuevas reglas de entrenamiento sobre la marcha, no solo ajustar gradientes.

2. Self-Modifying Titans

Aquí llega una de las ideas más futuristas del paper:
modelos que pueden aprender su propio algoritmo de actualización.

Es decir, IA capaces de modificar cómo aprenden, no solo lo que aprenden.

3. Continuum Memory System

Google también propone una nueva arquitectura de memoria que rompe la clásica distinción entre memoria corta y larga.
El objetivo: permitir modelos que recuerden, ajusten y acumulen información como un sistema cognitivo continuo.

Esto desemboca en un concepto completamente nuevo llamado HOPE, un módulo de aprendizaje diseñado para tareas de continual learning y razonamiento de largo contexto.

Por qué este paper importa (y mucho)

La industria lleva años hablando de “IA capaz de aprender en caliente”, pero ninguna de las grandes arquitecturas actuales lo permite sin reentrenamiento masivo.
Eso limita:

  • La memoria real

  • La personalización

  • El aprendizaje post-entrenamiento

  • La adaptabilidad

  • La eficiencia energética

Nested Learning apunta directamente a estos cinco problemas.

Y lo hace con un diseño matemáticamente transparente, casi en oposición al “caja negra” que domina hoy en día.

¿Estamos ante el comienzo del “post-transformer”?

No es casualidad que Google publique esto justo ahora.
En los últimos años, OpenAI y otros competidores han superado a Google en implementación, pero no en investigación teórica. Con Nested Learning, Google reclama su terreno: el futuro conceptual de la IA.

Si esta arquitectura funciona, supondría:

  • Modelos que realmente aprenden del usuario

  • IA personalizada sin reentrenamiento

  • Memoria estable y continua

  • Sistemas más baratos y eficientes

  • Modelos que mejoran solos con la experiencia

  • Una ruptura con la arquitectura Transformer tradicional

En términos históricos, podría ser para 2025 lo que el paper original de Transformers fue para 2017.

Y no es exageración: así lo están interpretando ya numerosos expertos.

Conclusión (sin llamarla así): estamos en el inicio de otro gran salto

Nested Learning abre un nuevo paradigma: IA que no solo predice, sino que aprende.

Si el enfoque funciona, lo que hoy conocemos como ChatGPT, Gemini o Claude será recordado como la “prehistoria” del aprendizaje automático. No porque fueran malos, sino porque fueron la primera etapa antes de modelos realmente adaptativos.

Como ocurrió con los Transformers, ahora podríamos estar leyendo el paper que dentro de unos años todos los ingenieros citarán como “el inicio de todo”.

Google acaba de mover ficha. Y no es un movimiento menor.