OpenAI dio un paso importante a principios de agosto al lanzar dos modelos de inteligencia artificial de pesos abiertos, justo antes del estreno de ChatGPT 5 el día 7 de ese mes.
Esta fue la primera vez que la startup lanzaba modelos abiertos desde GPT-2 en 2019. Sam Altman, CEO de OpenAI, reconoció que la competencia de empresas chinas influyó significativamente en esta decisión.
Los modelos abiertos de OpenAI
Los dos modelos liberados son gpt-oss-120b y gpt-oss-20b. El primero es un modelo grande pensado para trabajar con sistemas de datos y computadoras portátiles de alto rendimiento.
En cambio, gpt-oss-20b puede funcionar en la mayoría de laptops, computadoras de escritorio e incluso en teléfonos con hardware modesto, según OpenAI.
Estos modelos pueden ejecutarse localmente y ser personalizados por investigadores, desarrolladores y empresas, lo que abre grandes posibilidades de adaptación.
Competencia y presión del sector chino
A principios de año, la empresa DeepSeek revolucionó el mercado de la inteligencia artificial con su modelo R1, que no solo igualó a ChatGPT y Gemini en capacidades, sino que además fue completamente de código abierto.
Esto ofreció una libertad mucho mayor a los usuarios en comparación con modelos cerrados como ChatGPT.
Este movimiento de DeepSeek generó preocupación en OpenAI. Sam Altman admitió que liberar modelos abiertos se volvió necesario para evitar que el dominio en la IA fuera tomado principalmente por modelos chinos de código abierto.
En una entrevista con CNBC, comentó que existía un riesgo real de que «el mundo terminara siendo construido mayormente sobre modelos open source chinos«. Aunque esta fue una razón importante, también señaló que no era la única.
¿Qué significa realmente un modelo con pesos abiertos?
Un modelo con pesos abiertos, como gpt-oss, no es exactamente lo mismo que un modelo de código abierto como el R1 de DeepSeek. En un modelo con pesos abiertos, se da acceso a los «pesos», que son los parámetros o características que se usan para entrenar un modelo de lenguaje grande (LLM).
Esto quiere decir que, para ciertas consultas, la IA asigna más importancia a determinadas palabras o secuencias, y esos valores de importancia pueden ser analizados por los usuarios.
De esta forma, los desarrolladores pueden entender mejor cómo se usan estos pesos para construir los modelos.
Sin embargo, el proceso completo de entrenamiento de la IA y la información empleada para ello sigue siendo confidencial. El código y los datos usados para entrenar gpt-oss no están disponibles públicamente.
Ventajas estratégicas del lanzamiento de pesos abiertos
Aunque no sea completamente abierto, el acceso a modelos con pesos abiertos como los de ChatGPT es crucial. Permite a los desarrolladores no solo comprender la estructura interna de los modelos, sino también ejecutarlos localmente o integrarlos en programas existentes.
Esto reduce la dependencia de modelos chinos de código abierto y fortalece la posición de Estados Unidos en la carrera de la inteligencia artificial.
Este lanzamiento se da en un momento en que el gobierno de Estados Unidos está preocupado por el ascenso de China en la carrera tecnológica de la IA.
La administración Trump, por ejemplo, ha impuesto restricciones más estrictas a la venta de chips avanzados a Pekín, buscando limitar el acceso del gigante asiático a tecnologías clave.
Fuente: Fortune