OpenAI está buscando alternativas a algunos chips de Nvidia. La empresa creadora de ChatGPT no está del todo satisfecha con el rendimiento de ciertos procesadores del gigante de semiconductores.
Esta movida, que según fuentes cercanas viene gestándose desde el año pasado, podría complicar la relación entre dos de los nombres más importantes del boom de la IA.
¿Qué está pasando realmente entre OpenAI y Nvidia?
Pues bien, resulta que OpenAI y Nvidia estaban en conversaciones para cerrar un acuerdo multimillonario. En septiembre de 2025, Nvidia anunció su intención de invertir hasta $100,000 millones de dólares en OpenAI.
Sonaba como un matrimonio perfecto: Nvidia obtendría participación en la startup más caliente del momento, y OpenAI conseguiría el efectivo necesario para comprar los chips más avanzados.
Sin embargo… las cosas no han salido como se esperaba. El trato, que debía cerrarse en cuestión de semanas, lleva meses arrastrándose. Durante ese tiempo, OpenAI ha firmado acuerdos con AMD y otras compañías para conseguir GPUs que puedan competir con las de Nvidia.
El CEO de Nvidia, Jensen Huang, restó importancia al tema el sábado pasado, llamando «tonterías» a los reportes de tensión y reafirmando el plan de inversión masiva en OpenAI.
El problema de velocidad que nadie esperaba
Aquí es donde la historia se pone interesante. Siete fuentes confirmaron que OpenAI no está conforme con la velocidad a la que el hardware de Nvidia puede escupir respuestas a los usuarios de ChatGPT en ciertos tipos de problemas.
Hablamos específicamente de desarrollo de software y situaciones donde la IA necesita comunicarse con otros programas.
La cifra es clara: OpenAI necesita hardware nuevo que eventualmente cubra alrededor del 10% de sus necesidades de cómputo para inferencia. Y ese «eventualmente» ya está aquí.
El meollo del asunto está en la arquitectura. Los chips de Nvidia y AMD dependen de memoria externa, lo que añade tiempo de procesamiento y ralentiza la interacción con el chatbot.
Para inferencia, necesitas más memoria que para entrenamiento, porque el chip pasa relativamente más tiempo buscando datos en la memoria que realizando operaciones matemáticas.
Dentro de OpenAI, el problema se hizo especialmente visible con Codex, su producto para crear código de computadora. Personal de la compañía atribuyó parte de las debilidades de Codex al hardware basado en GPU de Nvidia.
La búsqueda de alternativas más rápidas
OpenAI ha estado explorando opciones con startups como Cerebras y Groq, empresas que fabrican chips con grandes cantidades de memoria SRAM incrustada directamente en el mismo pedazo de silicio.
Esta arquitectura puede ofrecer ventajas de velocidad significativas para chatbots y otros sistemas de IA que procesan peticiones de millones de usuarios.
La memoria SRAM es la clave: tiene un costo energético por bit movido muchísimo más bajo que DRAM o HBM.
Para cargas de trabajo donde cada microsegundo cuenta (asistentes de voz, robótica, agentes en tiempo real), la inferencia respaldada por SRAM puede ofrecer una consistencia que las GPUs de propósito general tienen dificultades para igualar.
En enero de 2026, OpenAI firmó un acuerdo con Cerebras valorado en más de $10,000 millones de dólares, que incluye el despliegue de 750 megavatios de potencia de cómputo.
Fuente: Reuters