La compañía OpenIA ha vuelto a sorprender al ecosistema de desarrolladores con el lanzamiento de GPT-5-Codex-Mini, se trata de una versión más compacta y económica de su reconocido modelo de programación GPT-5-Codex. Este nuevo modelo promete mantener una alta calidad en tareas de ingeniería de software, pero con un costo operativo mucho menor.
La compañía busca democratizar el acceso a la inteligencia artificial aplicada al desarrollo de software, ofreciendo un modelo que combina eficiencia, rapidez y una reducción significativa de recursos computacionales. Con GPT-5-Codex-Mini, los desarrolladores podrán trabajar más y gastar menos, sin sacrificar la precisión en la generación y factorización de código.

GPT-5-Codex-Mini: el equilibrio entre rendimiento y rentabilidad
OpenIA ha presentado este nuevo modelo como parte de su estrategia para optimizar el ecosistema Codex, una plataforma enfocada en la codificación agentiva, es decir, aquella en la que los modelos actúan como asistentes autónomos dentro del proceso de programación.
GPT-5-Codex-Mini permitirá a los desarrolladores disfrutar de un uso cuatro veces mayor que el de GPT-5-Codex, con una ligera reducción en sus capacidades, afirmó OpenAI durante el anuncio oficial.
Este nuevo modelo logró un 71,3 % en la prueba SWE-bench Verified, un resultado muy competitivo frente al 74,5 % de GPT-5-Codex y al 72,8 % del GPT-5 High, demostrando que su menor tamaño no compromete de manera significativa el rendimiento.
Un modelo diseñado para tareas de codificación reales
La compañía recomienda GPT-5-Codex-Mini para desarrolladores que necesiten realizar tareas más sencillas o cuando estén próximos a alcanzar los límites de ejecución en Codex. De hecho, la propia plataforma sugerirá de forma automática el cambio al modelo Mini cuando se detecte un 90% de uso del límite.
Además, el modelo ya esta disponible tanto en la CLI como en la extensión del IDE, y la compatibilidad con la API se incorporará próximamente. Gracias a las mejoras de la eficiencia de GPU, los usuarios de ChatGPT Plus, Business y Edu ahora contarán con un límite de velocidad de un 50% superior, mientras que los clientes de ChatGPT Pro y Enterprise obtendrán prioridad en el procesamiento.
Una experiencia más estable y rápida para desarrolladores
Otra de las grandes novedades es la optimización interna del sistema Codex. OpenAI confirmó que los ajustes en el enrutamiento del tráfico y la carga de trabajo permitirán mantener un rendimiento constante durante todo el día, eliminando las variaciones de velocidad que antes afectaban la experiencia de los desarrolladores.
Con esta mejora, la compañía consolida su liderazgo en el ámbito de los modelos de inteligencia artificial para la codificación, marcando un paso importante hacia un futuro en el que el desarrollo de software sea más ágil, accesible y potenciado por IA.

Comentarios!