DeepSeek desafía a GPT-5 con su nuevo modelo de razonamiento gratuito

DeepSeek lanza un modelo gratuito que iguala el razonamiento de GPT-5.

DeepSeek presenta nuevos modelos
DeepSeek presenta nuevos modelos

La IA vuelve a sacudir el tablero, DeepSeek, la startup china que revolucionó el sector con su eficiencia extrema, acaba de presentar DeepSeek-V3.2 y DeepSeek-V3.2-Speciale, dos modelos de IA que igualan -y en algunos casos superan- a GPT-5 y Gemini 3 Pro. Ambos pueden razonar, usar herramientas de manera autónoma y, sorprendentemente, son gratuitos y de código abierto.

El anuncio coloca a la compañía de Hangzhou en el centro del debate global sobre el futuro del razonamiento automático. Con esta nueva generación, DeepSeek no solo desafía el dominio de OpenAI y Google, sino que redefine lo que significa la “inteligencia artificial abierta” en 2025.

DeepSeek presenta nuevos modelos

DeepSeek-V3.2: el modelo razonador que iguala a GPT-5

El modelo DeepSeek-V3.2 introduce un salgo técnico crucial: el razonamiento integrado en el uso de herramientas. Esto significa que puede «pensar» internamente mientras ejecuta tareas como búsqueda web, cálculos o escritura de códigos, algo que hasta ahora requería procesos separados.

DeepSeek-V3.2 iguala el rendimiento de GPT-5 en múltiples pruebas de razonamiento, aseguró la empresa en su comunicado oficial.

El sistema funciona en dos modos: razonamiento visible (similar al de ChatGPT o Gemini) y razonamiento oculto, donde el modelo actúa sin mostrar su pensamiento intermedio. Además, mantiene la coherencia entre llamadas a herramientas, un avance clave para aplicaciones complejas que requieren memoria contextual prolongada.

Una arquitectura más eficiente: DeepSeek Sparse Attention

La innovación técnica detrás de este salto se llama DeepSeek Sparse Attention (DSA). Este diseño permite activar solo una fracción de los 671.000 millones de parámetros del modelo en cada operación –concretamente, unos 37.000 millones por token-, reduciendo el coste computacional en un 50 % frente a arquitecturas densas tradicionales.

Gracias a esta optimización, DeepSeek-V3.2 puede manejar contextos de hasta 128.000 tokens en entornos de producción. Para entrenar sus capacidades de agente, los ingenieros generaron más de 1.800 entornos sintéticos y 85.000 tareas, dedicando más del 10 % del cómputo total a aprendizaje por refuerzo.

Rendimiento y transparencia sin precedentes

El modelo DeepSeek-V3.2-Speciale ha demostrado su poder al ganar medallas de oro en la Olimpiada Matemática Internacional 2025, la Olimpiada Internacional de Informática 2025, el ICPC Mundial 2025 y la Olimpiada Matemática China. Son logros poco comunes incluso para modelos cerrados de alto coste.

Además, DeepSeek ha publicado los pesos completos y el informe técnico del entrenamiento, algo inusual incluso entre los proyectos de “código abierto” de gigantes como Meta. Esta transparencia busca demostrar que un enfoque verdaderamente abierto puede competir con los sistemas propietarios más avanzados del mercado.

Actualmente, DeepSeek-V3.2 está disponible vía aplicación, web y API, mientras que V3.2-Speciale se ofrece exclusivamente mediante API.

El nuevo equilibrio del poder en la IA

El movimiento de DeepSeek cambia la conversación global sobre la inteligencia artificial. Si los resultados de laboratorio se mantienen en casos de uso reales, el modelo podría establecer un nuevo estándar de eficiencia y apertura. Sin embargo, los benchmarks públicos no siempre reflejan el rendimiento práctico, y las pruebas del modo razonador autónomo aún están en desarrollo.

Pese a ello, la empresa china ha logrado algo que pocos anticipaban: demostrar que el código abierto no está reñido con la excelencia técnica, y que el futuro del razonamiento automatizado podría ser tanto libre como poderoso.

Salir de la versión móvil