Luego de una larga espera, la compañía OpenAI acaba de anunciar sus dos nuevos modelos de lenguaje abiertos y son: gpt-oss-120b y gpt-oss-20b. Estos nuevos modelos están pensados para tareas de razonamiento pero con un redimiendo superior. La compañía afirma que estos nuevos móldelos ya están optimizados lo suficientes para poder ejecutarlos en hardware de consumo.
Para ir entrando en materia, el modelo gpt-oss-120b se podría decir que es el más grande y ofrece un rendimiento comparable al del o4-mini al ejecutarse con una sola GPU de 80 GB. En cambio el modelo gpt-oss-20b es el más pequeño, ofrece un rendimiento comparable al del o3-mini en las pruebas de rendimiento habituales al ejecutarse en dispositivos con tan solo 16 GB de memoria. Esto lo convierte en la opción ideal para aplicaciones de IA integradas en el dispositivo.
Te recomendamos: OpenAI Podría Lanzar un Plan Más Barato para ChatGPT
OpenIA anuncia oficialmente sus nuevos modelos GPT-OSS
Cabe mencionar que aparte del rendimiento de razonamiento y los bajos requisitos de hardware, estos modelos ofrecen un excelente rendimiento en el uso de herramientas, realizan pocas llamadas a las funciones y el razonamiento CoT y HealthBench.
Al igual que otros modelos de la compañía, estos nuevos modelos de «peso abierto» son compatibles con la API de Respuestas. Dado que la seguridad es fundamental para los modelos abiertos, OpenAI ha introducido una capa adicional de evaluación mediante la prueba de una versión de gpt-oss-120b optimizada para análisis adversarial.
Cabe mencionar que los desarrolladores ya pueden descargar los pesos de ambos modelos en Hugging Face, y vienen cuantificados de forma nativa en MXFP4. OpenAI también está publicando un renderizado de código abierto, tanto en Python como en Rust, para facilitar su adopción.
Para facilitar los primeros pasos de los desarrolladores, OpenAI también está lanzando implementaciones de referencia para ejecutar inferencias con PyTorch y en la plataforma Metal de Apple.
No obstante, la compañía OpenAI se ha tenido que asociar con Microsoft Azure, Hugging Face, vLLM, Ollama, llama.cpp , LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare y OpenRouter para que estos nuevos modelos de peso abierto sean ampliamente accesibles para los desarrolladores.
Además, estos modelos están optimizados para ejecutarse en diversas plataformas de hardware de NVIDIA, AMD, Cerebras y Groq. También la compañía Microsoft anuncia versiones optimizadas para GPU del modelo gpt-oss-20b para PC con Windows que admiten la ejecución local.
Estos modelos optimizados estarán disponibles a través de Foundry Local y el kit de herramientas de IA para VS Code. Si quieres probar los modelos sin necesidad de descargarlos, puedes consultarlos en el área de OpenAI.
¿Qué te parecen los nuevos modelos de OpenAI?¿Ya los probaste?
Comentarios!