OpenAI reafirma alianza con Nvidia mientras busca chips más rápidos para IA
OpenAI reafirmó su compromiso con Nvidia (NVDA) pese a informes sobre descontento con algunos de sus chips de inferencia. El CEO Sam Altman aseguró que Nvidia sigue siendo fundamental para entrenar y ejecutar modelos de inteligencia artificial, mientras la compañía explora soluciones complementarias con AMD, Cerebras y Broadcom. Al mismo tiempo, Oracle también confirmó su confianza en Nvidia, destacando su liderazgo en hardware para IA y reforzando la relevancia del fabricante en el ecosistema tecnológico global.
La importancia de Nvidia en la estrategia de OpenAI
Sam Altman declaró en X: “Amamos trabajar con NVIDIA y hacen los mejores chips de IA del mundo. Esperamos ser un cliente gigante durante mucho tiempo. No entiendo de dónde viene toda esta locura”.
OpenAI utiliza actualmente Nvidia para la mayoría de su flota de inferencia, que permite a los modelos entrenados analizar datos nuevos, generar respuestas y tomar decisiones en tiempo real. Nvidia sigue siendo dominante en chips para entrenamiento de modelos grandes, mientras que la inferencia representa un área competitiva en crecimiento.
Sachin Katti, responsable de infraestructura de cómputo de OpenAI, afirmó: “Nuestra asociación con NVIDIA es fundamental. No es una relación de proveedor, sino una colaboración profunda y continua en co-diseño”.
Búsqueda de alternativas para chips de inferencia
Reuters informó que OpenAI ha buscado alternativas desde 2025, enfocándose en chips con memoria SRAM integrada, que ofrecen mayor velocidad en tareas de inferencia, como la ejecución de chatbots y la generación de código. Este tipo de memoria reduce el tiempo de acceso a datos externos, acelerando la interacción con usuarios de Codex y ChatGPT.
Entre las empresas con las que OpenAI exploró colaboraciones se encuentran Cerebras y Groq, startups especializadas en chips de inferencia rápida. Sin embargo, las negociaciones con Groq se complicaron después de que Nvidia cerrara un acuerdo de licencia de 20.000 millones de dólares con la compañía.
El interés de OpenAI en estos chips busca cubrir aproximadamente el 10 % de sus necesidades de cómputo de inferencia, enfocándose en tareas que requieren mayor velocidad y eficiencia.
Nvidia y Oracle: liderazgo consolidado
A pesar de la exploración de alternativas por parte de OpenAI, Nvidia mantiene su liderazgo en hardware de IA. Un portavoz señaló: “Los clientes siguen eligiendo NVIDIA para inferencia porque ofrecemos el mejor rendimiento y coste total de propiedad a escala”.
El CEO de Nvidia, Jensen Huang, desmintió los rumores sobre descontento con OpenAI: “Eso es absurdo”. Además, aunque se mencionó una inversión potencial de 100.000 millones de dólares en OpenAI, la compañía aclaró que nunca se trató de un compromiso formal, y que cualquier inversión se evaluará de manera individual.
Paralelamente, Oracle reafirmó su confianza en Nvidia, destacando que los chips de la compañía siguen siendo un pilar estratégico para proyectos de IA corporativos y para su propia infraestructura tecnológica. Este respaldo de Oracle refuerza la percepción de Nvidia como líder del sector a nivel global.
Estrategia de ecosistema abierto de OpenAI
Para acelerar el desarrollo y adaptarse a la explosión de casos de uso reales, OpenAI sigue un modelo de ecosistema abierto, colaborando con Cerebras, AMD y Broadcom además de Nvidia. Katti explicó: “Esto nos permite movernos más rápido, desplegar más ampliamente y mantener la fiabilidad y el rendimiento sin comprometer la experiencia del usuario”.
La diversificación responde también a necesidades específicas de rendimiento, como mejorar la velocidad de inferencia en programación automática y comunicación de IA con otros softwares, donde Nvidia no cumple ciertos requisitos de rapidez.
Implicaciones para el mercado de IA
El interés de OpenAI en chips SRAM y la búsqueda de soluciones alternativas reflejan la creciente competencia en la industria de hardware para IA. Nvidia, pese a su liderazgo, enfrenta desafíos ante empresas como AMD y startups innovadoras que desarrollan arquitecturas optimizadas para inferencia.
El objetivo de OpenAI es combinar el rendimiento de Nvidia con nuevas tecnologías para responder a demandas de velocidad y eficiencia en productos como Codex y ChatGPT, manteniendo una experiencia de usuario fluida y confiable.
OpenAI y Oracle mantienen a Nvidia como pilar mientras diversifican su infraestructura
Aunque OpenAI explora alternativas para chips de inferencia más rápidos, la alianza con Nvidia sigue siendo el núcleo de su infraestructura de entrenamiento e inferencia. La compañía combina este liderazgo tecnológico con colaboraciones estratégicas con AMD, Cerebras y Broadcom, así como mejoras operativas continuas, para garantizar que sus modelos de inteligencia artificial funcionen a escala global con máxima eficiencia y rapidez.
Asimismo, Oracle reafirmó su confianza en Nvidia, destacando su liderazgo en hardware de IA y reforzando la relevancia del fabricante en el ecosistema tecnológico global.
Esta estrategia permite a OpenAI adaptarse a nuevas demandas de rendimiento, acelerar el desarrollo de productos como ChatGPT y Codex, y mantener su posición competitiva en un mercado de IA cada vez más exigente y dinámico.