GPT-5.2 firma el primer hallazgo de física teórica de una IA
La compañía OpenAI ha cruzado un umbral que hace apenas unos años sonaba a ciencia ficción: su modelo GPT-5.2 ha propuesto la fórmula de una interacción de partículas que la comunidad daba por inexistente. El resultado se recoge en el preprint “Single-minus gluon tree amplitudes are nonzero”, firmado por investigadores del Institute for Advanced Study, Vanderbilt University, University of Cambridge, Harvard University y OpenAI. El modelo no sólo simplificó los cálculos que los físicos habían obtenido a mano para casos concretos, sino que conjeturó una fórmula válida para cualquier número de partículas. Un segundo sistema de IA interno dedicó unas 12 horas de razonamiento continuo a demostrarla formalmente, antes de que los autores verificaran el resultado con las herramientas estándar de la disciplina. El hito ya ha provocado reacciones entre físicos de referencia, que lo califican de “investigación de nivel revista” y un anticipo de cómo se hará ciencia en la próxima década. Pero, sobre todo, coloca sobre la mesa preguntas incómodas sobre autoría, propiedad intelectual y concentración de poder científico en los pocos actores que controlan la computación necesaria para estas hazañas.
Un resultado que los físicos daban por imposible
El trabajo se centra en los gluones, las partículas que transmiten la fuerza nuclear fuerte, responsable de mantener unidos los quarks dentro de protones y neutrones. Para describir cómo interactúan estas partículas, los físicos utilizan las llamadas amplitudes de dispersión, una herramienta matemática que da la probabilidad de que cierto conjunto de partículas entre en colisión y salga convertido en otro.
En este marco, hay configuraciones que los manuales consideran especialmente simples. Una de ellas son las amplitudes de helicidad máxima violada (MHV), descritas por la famosa fórmula de Parke-Taylor. Otra, sin embargo, se había dado por ausente: el caso en que un gluón tiene helicidad negativa y los otros n-1 tienen helicidad positiva, la llamada configuración “single-minus” a nivel árbol. Textos de referencia razonaban que la amplitud correspondiente debía ser exactamente cero en condiciones genéricas, por lo que esa interacción se consideraba, de facto, inexistente.
El preprint de OpenAI demuestra que esa conclusión era demasiado fuerte. Los autores identifican un régimen cinemático muy concreto —el llamado half-collinear, donde los momentos de las partículas se alinean de una forma especial— en el que el argumento estándar deja de aplicarse. En esa fina “rebanada” del espacio de momentos, el cálculo muestra que la amplitud no se anula. Es decir, una interacción que durante décadas se había tratado como imposible puede, en realidad, ocurrir bajo condiciones bien definidas.
Del cálculo manual al patrón que encontró la máquina
La historia del descubrimiento revela con claridad el papel cambiante de las IA en la ciencia. Los físicos humanos no estaban de brazos cruzados: habían calculado a mano la amplitud “single-minus” para valores de n de hasta 6 gluones, obteniendo expresiones larguísimas, fruto de combinar miles de diagramas de Feynman cuya complejidad crece de forma superexponencial con el número de partículas.
El propio artículo explica que GPT-5.2 Pro tomó esas expresiones caóticas y las condensó en formas mucho más simples, identificadas en las ecuaciones (35)-(38). A partir de ahí, el modelo logró lo que cualquier estudiante de física sabe que es la parte más dura del problema: intuir el patrón general y conjeturar una fórmula válida para todo n, recogida como ecuación (39).
Lejos de ser un ejercicio de copia y pega, el sistema tuvo que manejar objetos simbólicos complejos, operar con simetrías, imponer condiciones físicas y, en definitiva, comportarse más como un joven postdoc que como un chatbot conversacional. Los investigadores no se limitaron a aceptar el resultado: lo sometieron a las pruebas de rigor habituales, desde la recursión de Berends-Giele hasta el llamado soft theorem, confirmando que el nuevo patrón cumple las restricciones que impone la teoría de campos cuántica.
Cómo trabajó GPT-5.2: 12 horas de física avanzada
La segunda pieza clave fue metodológica. OpenAI describe cómo una versión “andamiada” de GPT-5.2 —es decir, rodeada de herramientas que le permiten dividir el problema, focalizarse en pasos intermedios y verificar sus propios avances— dedicó unas 12 horas de razonamiento continuo a reconstruir la misma fórmula e incluso aportar una demostración formal de su validez.
Doce horas pueden parecer muchas en tiempo de silicio, pero son una fracción ínfima comparadas con los meses o años de trabajo que suele requerir un avance comparable en física teórica. Y, sobre todo, se trata de un proceso repetible: una vez afinados los andamios y las técnicas de verificación, el mismo esquema puede aplicarse a otros problemas en teoría de campos, gravedad cuántica o incluso disciplinas alejadas de la física de partículas.
Importa también el coste relativo. Aunque OpenAI no lo detalla, una sesión de cómputo de esta escala se sitúa probablemente en el rango de decenas de miles de dólares en tiempo de GPU, muy por debajo de lo que cuesta operar un gran acelerador de partículas durante un solo día, pero fuera del alcance de la mayoría de grupos académicos. El mensaje implícito es claro: la frontera de la ciencia automatizada se moverá allí donde estén los centros de datos más potentes, no necesariamente donde se concentre el talento humano.
La autoría científica entra en terreno desconocido
El preprint deja claro que la fórmula final fue “conjeturada por GPT-5.2 Pro”, mientras que los autores humanos se encargan de contextualizar el resultado, extenderlo, comprobarlo y redactar el artículo. No obstante, la IA no aparece como coautora, sino como herramienta. La decisión no es trivial: de ella dependerá cómo se repartan prestigio, citas y, en última instancia, financiación.
Figuras de primer nivel han reaccionado con mezcla de entusiasmo y cautela. El teórico Nima Arkani-Hamed subraya en el comunicado que las fórmulas simples suelen señalar estructuras profundas y abrir “mundos nuevos de ideas”, y sugiere que la tarea de encontrarlas “siempre le pareció algo automatizable”. Nathaniel Craig, profesor en la Universidad de California en Santa Barbara, va más lejos y califica el trabajo de “investigación de nivel revista que avanza la frontera de la física teórica”, además de un “anticipo del futuro de la ciencia asistida por IA”.
El debate que se abre es delicado. Si un modelo es capaz de proponer conjeturas originales que luego se prueban correctas, ¿sigue siendo una mera calculadora? ¿Cómo se evita que los grandes laboratorios privados monopolizen las mejores ideas al controlar modelos y datos? Y, sobre todo, ¿qué ocurre cuando este tipo de sistemas empiece a generar no una, sino cientos de conjeturas nuevas al año en distintas áreas?
La nueva economía de la investigación básica
Detrás del brillo mediático hay una cuestión más prosaica: dinero. El gasto mundial en I+D ronda ya el 2% del PIB global, y sigue creciendo. Sólo la Unión Europea destinó en 2024 unos 403.000 millones de euros a investigación y desarrollo, el 2,24% de su PIB, tras un aumento del 3,6% respecto al año anterior. En el área OCDE, el 74% de ese esfuerzo recae ya en el sector empresarial.
Si sistemas como GPT-5.2 son capaces de multiplicar la productividad de la investigación básica, el impacto económico potencial es enorme. Un algoritmo que en 12 horas genera una fórmula que los humanos no habían sabido generalizar en años equivale, en términos de rendimiento, a sumar decenas de investigadores a tiempo completo sin añadir nómina. Incluso con un coste computacional elevado, el retorno sobre la inversión puede ser abrumador para quien disponga de la infraestructura.
Sin embargo, la consecuencia puede ser paradójica: lejos de democratizar la ciencia, la inteligencia artificial podría reforzar la concentración de la investigación punta en unos pocos hubs donde confluyen talento, datos y capital. Las agencias públicas se enfrentan al dilema de seguir repartiendo pequeñas ayudas entre muchos grupos o apostar por infraestructuras compartidas de cómputo avanzado que eviten depender exclusivamente de proveedores privados.
El contraste con Europa: talento sin centros de datos
En este escenario, la posición europea vuelve a verse comprometida. Según los datos más recientes, la UE-27 apenas concentra el 18% del gasto mundial en I+D, frente al 30% de Estados Unidos y el 27% de China. En el terreno empresarial, las compañías europeas representan sólo el 16,2% de la inversión global en I+D recogida en el principal “scoreboard” internacional, muy por detrás del 47,1% que acumulan las firmas estadounidenses.
Europa sigue produciendo físicos teóricos de primer nivel, pero carece de gigantes tecnológicos con la escala de centros de datos de sus rivales. El resultado es que avances como el de GPT-5.2 se están generando en ecosistemas dominados por empresas norteamericanas, que además fijan las reglas de acceso a los modelos y los datos. El riesgo es evidente: que los grupos académicos europeos se vean relegados al papel de usuarios de herramientas cerradas, en lugar de coprotagonistas del diseño de la próxima generación de “científicos de silicio”.
La política industrial comunitaria empieza a reaccionar con proyectos de chips europeos y nubes soberanas, pero los tiempos son ajustados. Si la brecha en computación de alto rendimiento se consolida durante los próximos cinco años, el continente puede perder una ventana histórica para estar en la primera línea de la ciencia automatizada, con implicaciones directas para su productividad, su capacidad de innovación y, en última instancia, su peso geopolítico.
Riesgos y límites de la ciencia automatizada
El caso GPT-5.2 no elimina, ni mucho menos, las preocupaciones sobre el uso de modelos de lenguaje en ciencia. Los propios autores enfatizan la necesidad de verificación independiente: la amplitud encontrada se sometió a múltiples chequeos analíticos y se ha puesto a disposición de la comunidad en forma de preprint para su escrutinio.
Pero no todos los campos disponen de pruebas tan claras. En áreas donde los experimentos son caros o lentos —desde la biomedicina hasta la macroeconomía— la tentación de confiar en conjeturas generadas por IA sin validación rigurosa será fuerte. Además, los modelos siguen siendo cajas negras en muchos aspectos: es difícil reconstruir exactamente qué pasos internos llevaron a una determinada conjetura, lo que complica la reproducibilidad.
Existen también riesgos estratégicos. Un sistema capaz de explorar espacios matemáticos enormes y detectar patrones sutiles puede ser una bendición para diseñar nuevos materiales o fármacos, pero también para optimizar armas o campañas de desinformación. De ahí que muchos expertos reclamen marcos de gobernanza específicos para la IA aplicada a la generación de conocimiento científico de alto impacto, con obligaciones de transparencia, auditoría y, en algunos casos, límites explícitos a ciertos tipos de investigación automatizada.
El efecto dominó sobre la economía del conocimiento
El hallazgo en amplitudes de gluones no es un episodio aislado. OpenAI ya ha presentado trabajos donde GPT-5 reduce de forma significativa el coste de ciertos procesos de biotecnología —como la síntesis de proteínas libres de células— y herramientas para automatizar el análisis de grandes volúmenes de datos sociales. El mensaje de fondo es que la IA de propósito general empieza a entrar en el corazón mismo de la economía del conocimiento, desde la física fundamental hasta la biomedicina o las ciencias sociales.
Para países como España, que aspiran a subir en la cadena de valor sin disponer de gigantes tecnológicos propios, este movimiento plantea una doble tarea. Por un lado, aprovechar la ola creando consorcios que combinen universidades, centros de supercomputación y empresas para aplicar estos modelos a problemas locales: energía, clima, industria avanzada. Por otro, evitar quedar atrapados en una dependencia tecnológica que convierta a sus científicos en meros usuarios de plataformas externas.
El caso GPT-5.2 demuestra que los algoritmos ya no se limitan a explicar la ciencia existente, sino que empiezan a producir ciencia nueva. Lo hacen, de momento, de la mano de equipos humanos muy especializados y bajo el paraguas de grandes laboratorios privados. La cuestión que debería ocupar a gobiernos, universidades y empresas no es si este fenómeno irá a más —eso parece descontado—, sino quién estará en posición de aprovechar la próxima tanda de descubrimientos que salgan de estas máquinas pensantes.