La guerra que importa en la IA ya no va de chips

El verdadero oligopolio de la inteligencia artificial: el talento y el dinero que puede matar a las ‘startups milagro’

Imagen creada con IA que se ha hecho viral
La nueva batalla de la inteligencia artificial no es solo OpenAI vs Anthropic: es Microsoft, Google, Meta y los grandes fondos compitiendo por unas pocas centenas de investigadores clave. 

Lo que está pasando con LeCun, Ilya Sutskever, Mira Murati y compañía no es un culebrón más de Silicon Valley. Es la señal de que en inteligencia artificial el recurso escaso ya no son los chips: son las personas. Mientras los focos miran al duelo OpenAI vs Anthropic o a la última subida del Nasdaq, la batalla real se libra en despachos muy concretos, donde Microsoft, Google, Meta, Amazon, Bezos y los grandes fondos pelean por unas pocas centenas de cerebros capaces de empujar la frontera tecnológica. Y, en paralelo, por inyectar tanto capital en las nuevas estrellas de la IA que el propio dinero puede convertirse en veneno.

El verdadero oligopolio es de talento, no de modelos

Safe Superintelligence, la compañía de Ilya Sutskever, nace en 2024 prácticamente sin producto público, con un equipo minúsculo… y en cuestión de meses levanta más de 1.000 millones de dólares, con valoraciones que ya superan los 30.000 millones. Thinking Machines Lab, la nueva empresa de Mira Murati, ex CTO de OpenAI, se funda en 2025, sale de la sombra y cierra alrededor de 2.000 millones a una valoración de 12.000 millones; casi dos tercios del equipo son ex OpenAI.

El mensaje es cristalino: la competición real hoy no es por lanzar el siguiente chatbot, sino por fichar a las 500 personas del mundo que saben realmente cómo construir y escalar la próxima generación de modelos. Los gigantes lo han entendido mejor que nadie. Meta, por ejemplo, está ofreciendo paquetes de compensación que pueden llegar a los 300 millones de dólares en cuatro años para algunos investigadores estrella, con cheques de más de 100 millones el primer año. El propio Sam Altman ha señalado que Meta intenta atraer talento de OpenAI con bonus de hasta 100 millones; dentro de la casa lo describen con una metáfora doméstica: “es como si nos entraran en casa a robar”.

Estamos en una Champions League de fichajes, pero en vez de Mbappés son ingenieros de machine learning. Y los salarios se están volviendo igual de irracionales. Cuando el mercado eleva a categoría de “activo estratégico” a un puñado de científicos y les pone delante paquetes personales de nueve cifras, las reglas tradicionales de retención, cultura y compromiso se quedan cortas.

El dinero como veneno: la infraestructura de IA como pozo de capital

Sobre este campo de talento se monta un segundo nivel de tensión: el de la infraestructura. La IA se ha convertido en el mayor pozo de capital de la historia reciente. Solo Nvidia está ingresando decenas de miles de millones por trimestre en su negocio de centros de datos, casi todo impulsado por la demanda de computación para modelos generativos. Cada nuevo laboratorio de “superinteligencia” necesita fábricas enteras de GPUs, megavatios de energía y acuerdos de nube a diez años.

Anthropic es un buen ejemplo de escala: aspira a alcanzar unos 9.000 millones de ingresos anuales a finales de 2025 y hasta 26.000 millones en 2026. A cambio, firma compromisos de compra de nube y chips con gigantes como Microsoft o Amazon por decenas de miles de millones. OpenAI, tres cuartos de lo mismo: filtraciones hablan de una posible quema de caja de más de 100.000 millones de dólares hasta 2029, financiada con deuda, adelantos de clientes y acuerdos gigantescos con proveedores de cloud.

Ahora imagina que eres una “startup”, aunque te apellides LeCun o Murati. ¿Qué significa todo esto? Que o firmas un pacto con uno de los hiperescaladores —Microsoft, Google, Amazon— o directamente no entras al campo de juego. Ellos te dan créditos de nube hoy… y dependencia total mañana. La paradoja es brutal: el mismo dinero que hoy te compra GPUs es el que mañana te ata de pies y manos al gigante al que, en teoría, ibas a desafiar.

Cuando entra demasiado dinero demasiado pronto, la prioridad deja de ser hacer ciencia o productos útiles y pasa a ser cuadrar la narrativa de la siguiente ronda. Subes salarios a niveles absurdos, fichas perfiles mercenarios, la cultura se degrada… y a la mínima turbulencia macro o regulatoria, el capital se va. Lo que muere no es la tecnología —que suele sobrevivir en otro sitio—, sino el proyecto y el equipo que la estaba desarrollando.

La verdadera muerte de una startup de IA: cuando se va el “equipo fundador extendido”

En este contexto todo el mundo habla de fosos defensivos tecnológicos: datos propios, infraestructuras, modelos más grandes, acuerdos exclusivos. Pero la única fosa defensiva que hoy importa de verdad es la más aburrida y la más difícil de proteger: el equipo.

Thinking Machines Lab ilustra bien el riesgo. Su estructura de gobierno da a Murati un voto súper reforzado para proteger la misión frente a los inversores, un diseño pensado precisamente para resistir presiones de corto plazo. Y aun así, uno de sus cofundadores clave, Andrew Tulloch, ya ha saltado a Meta en plena ofensiva de Zuckerberg por fichar talento de élite con cheques descomunales. El patrón se repite: los mejores fundadores montan algo nuevo, se rodean de ex OpenAI, ex DeepMind, ex Anthropic… los grandes les ponen valoraciones de 10, 20, 30.000 millones… y luego llegan los gigantes con ofertas personales que ninguna estructura de capital puede igualar.

Cuando se te van esas diez personas que de verdad podían empujar la frontera, ya no tienes laboratorio: tienes una marca bonita y un PowerPoint. Y, a partir de ahí, da igual cuántos miles de millones hayas levantado o cuántos acuerdos de nube hayas firmado: el activo clave ya no está.

El verdadero riesgo sistémico hoy no es que una IA se vuelva loca. Es que el talento se vuelva loco. Si los mejores investigadores empiezan a ver este sector solo como un casino financiero —un lugar donde maximizar equity y bonus a tres años vista—, la seguridad y la ética pasan automáticamente a segundo plano. La presión por justificar valoraciones extremas empuja hacia lanzamientos apresurados, menos supervisión, menos pruebas y más marketing.

Para la industria, acostumbrada a seguir la cara visible del boom de la IA en bolsa y resultados trimestrales, la conclusión es incómoda pero necesaria: detrás de cada gráfico de Nvidia, de cada ronda récord de OpenAI o Anthropic, hay una batalla mucho menos visible por el control de unos cientos de personas clave. Si ese oligopolio de talento se concentra demasiado en unos pocos gigantes y se contamina de incentivos puramente especulativos, el problema no será solo quién domina el mercado. Será quién, y en qué condiciones, está diseñando la tecnología que va a atravesar todas las industrias en la próxima década.

Imagen creada con IA que se ha hecho viral