GPT-5.1-Codex-Max: el nuevo modelo de OpenAI que redefine la programación de larga duración

GPT-5.1-Codex-Max: el modelo de OpenAI para tareas de código duraderas.

GPT-5.1-Codex-Max
GPT-5.1-Codex-Max

OpenAI ha presentado GPT-5.1-Codex-Max, su modelo de codificación más avanzado hasta la fecha, diseñado para ejecutar tareas de larga duración con una eficiencia sin precedentes. Esta nueva versión de la serie GPT-5.1 llega tras el lanzamiento de modelos como GPT-5.1 Instant y GPT-5.1 Thinking, pero con un enfoque claro: ofrecer un rendimiento sostenido en proyectos de ingeniería complejos y entornos de desarrollo reales.

A diferencia de sus predecesores, GPT-5.1-Codex-Max no solo amplía el contexto de trabajo, sino que introduce una tecnología clave: la compactación, una técnica que permite al modelo mantener la coherencia y el razonamiento en sesiones que pueden extenderse por millones de tokens.

GPT-5.1-Codex-Max
GPT-5.1-Codex-Max

Un salto técnico en codificación agentiva: GPT-5.1-Codex-Max

Según ha informado la compañía, este modelo está especialmente entrenado para tareas de ingeniería de software del mundo real, abarcando desde la revisión de código y las solicitudes de extracción hasta el desarrollo frontend y la resolución de preguntas técnicas.

GPT-5.1-Codex-Max se entrenó con tareas de ingeniería de software del mundo real, como la creación de solicitudes de extracción, la revisión de código, la codificación frontend y las preguntas y respuestas, y supera a nuestros modelos anteriores en muchas evaluaciones de codificación de vanguardia.

Los resultados mostrados confirman la mejora: mientras que GPT-5.1-Codex obtuvo un 73,7 % en SWE-Bench Verified, el nuevo modelo alcanza un 77,9 %, además de 79,9 % en SWE-Lancer IC SWE y 58,1 % en TerminalBench 2.0. Estas cifras sitúan al modelo como líder en evaluaciones de codificación automatizada.

Diseñado para entornos Windows y sesiones ininterrumpidas

Uno de los cambios más relevantes es que GPT-5.1-Codex-Max se ha entrenado para trabajar en entornos de Windows, expandiendo el soporte más allá del entorno Unix tradicional. Esta compatibilidad facilita su integración en empresas y desarrolladores que operan en ecosistemas mixtos.

Por otra parte, su capacidad para autocompactar sesiones marca una diferencia clave frente a otros modelos: cuando se acerca al límite de su ventana de contexto, el modelo reorganiza y resume la información internamente, evitando bloqueos o pérdidas de coherencia. Gracias a esto, OpenAI asegura que puede trabajar de forma continua durante más de 24 horas en una misma tarea.

Eficiencia y razonamiento extendido

El nuevo modelo no solo mejora su rendimiento, también reduce el consumo de recursos. En pruebas con SWE-Bench Verified, GPT-5.1-Codex-Max utilizó un 30 % menos de tokens para lograr los mismos resultados que la versión anterior.

La introducción del nuevo modo de razonamiento Extra Alto («xhigh») permite un procesamiento más profundo en tareas complejas, sin comprometer la velocidad ni la coherencia del código generado. Este equilibrio entre potencia y eficiencia podría marcar un antes y un después en la automatización del desarrollo de software.

Disponibilidad y despliegue en entornos de desarrollo

GPT-5.1-Codex-Max ya está disponible en la CLI de Codex, la extensión del IDE, Codex Cloud y el sistema de revisión de código de OpenAI. Pueden acceder usuarios con suscripciones ChatGPT Plus, Pro, Business, Edu y Enterprise, y pronto estará disponible también en la API de OpenAI.

La compañía confirmó además que GPT-5.1-Codex-Max reemplazará a GPT-5.1-Codex como el modelo predeterminado en Codex, consolidando su papel como estándar para tareas de programación asistida por IA. Con este lanzamiento, OpenAI busca llevar la programación autónoma a un nuevo nivel, acercando la posibilidad de agentes de desarrollo verdaderamente persistentes y eficientes.

Siga a Cultura Informática en Google y reciba más noticias en su feed.