DeepSeek lanza los modelos V4-Pro y V4-Flash con un costo un 98% menor que el GPT-5.5 Pro de OpenAI

Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts. V4-Flash tiene 284 mil millones de parámetros totales con 13 mil millones activos.

Los precios son significativamente más bajos que los de la competencia: V4-Pro cuesta $1.74 por millón de tokens de entrada y $3.48 por millón de tokens de salida—aproximadamente un 98% menos que el GPT-5.5 Pro de OpenAI ($30 input, $180 output) y alrededor de una vigésima parte del costo de Claude Opus 4.7. V4-Flash se fija en $0.14 para entrada y $0.28 para salida por cada millón de tokens. Ambos modelos son de código abierto bajo la licencia MIT y pueden ejecutarse localmente de forma gratuita.

DeepSeek logró mejoras de eficiencia mediante dos nuevos mecanismos de atención: Compressed Sparse Attention y Heavily Compressed Attention, que reducen los costos de cómputo al 27% del predecesor V4-Pro (V3.2) y al 10% para V4-Flash. La compañía entrenó V4 en parte con chips Huawei Ascend, eludiendo las restricciones de exportación de EE. UU. sobre procesadores Nvidia avanzados. DeepSeek indicó que, una vez que entren en línea 950 nuevos supernodos más tarde en 2026, los precios bajarán aún más.

En benchmarks de rendimiento, V4-Pro-Max ocupa el primer lugar en Codeforces competitive programming (3,206 puntos, ubicándose alrededor del puesto 23 entre los concursantes humanos) y obteniendo 90.2% en problemas de matemáticas de Apex Shortlist frente al 85.9% de Claude Opus 4.6. Sin embargo, se queda atrás en benchmarks de multitarea: MMLU-Pro (87.5% frente al 91.0% de Gemini-3.1-Pro) y Humanity’s Last Exam (37.7% frente al 44.4%). En tareas de contexto largo, V4-Pro lidera a los modelos de código abierto pero pierde frente a Claude Opus 4.6 en pruebas de recuperación MRCR.

V4-Pro introduce “pensamiento intercalado,” lo que permite que los flujos de trabajo de agentes conserven el contexto de razonamiento a través de múltiples llamadas a herramientas sin vaciarlo entre pasos. Ambos modelos admiten integraciones de programación con Claude Code y OpenCode. Según la encuesta a desarrolladores de DeepSeek de 85 usuarios, el 52% dijo que V4-Pro estaba listo como su agente de codificación predeterminado, y el 39% se inclinó por adoptarlo. Los endpoints antiguos deepseek-chat y deepseek-reasoner se retirarán el 24 de julio de 2026.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios