Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts. V4-Flash tiene 284 mil millones de parámetros totales con 13 mil millones activos.
Los precios son significativamente más bajos que los de la competencia: V4-Pro cuesta $1.74 por millón de tokens de entrada y $3.48 por millón de tokens de salida—aproximadamente un 98% menos que el GPT-5.5 Pro de OpenAI ($30 input, $180 output) y alrededor de una vigésima parte del costo de Claude Opus 4.7. V4-Flash se fija en $0.14 para entrada y $0.28 para salida por cada millón de tokens. Ambos modelos son de código abierto bajo la licencia MIT y pueden ejecutarse localmente de forma gratuita.
DeepSeek logró mejoras de eficiencia mediante dos nuevos mecanismos de atención: Compressed Sparse Attention y Heavily Compressed Attention, que reducen los costos de cómputo al 27% del predecesor V4-Pro (V3.2) y al 10% para V4-Flash. La compañía entrenó V4 en parte con chips Huawei Ascend, eludiendo las restricciones de exportación de EE. UU. sobre procesadores Nvidia avanzados. DeepSeek indicó que, una vez que entren en línea 950 nuevos supernodos más tarde en 2026, los precios bajarán aún más.
En benchmarks de rendimiento, V4-Pro-Max ocupa el primer lugar en Codeforces competitive programming (3,206 puntos, ubicándose alrededor del puesto 23 entre los concursantes humanos) y obteniendo 90.2% en problemas de matemáticas de Apex Shortlist frente al 85.9% de Claude Opus 4.6. Sin embargo, se queda atrás en benchmarks de multitarea: MMLU-Pro (87.5% frente al 91.0% de Gemini-3.1-Pro) y Humanity’s Last Exam (37.7% frente al 44.4%). En tareas de contexto largo, V4-Pro lidera a los modelos de código abierto pero pierde frente a Claude Opus 4.6 en pruebas de recuperación MRCR.
V4-Pro introduce “pensamiento intercalado,” lo que permite que los flujos de trabajo de agentes conserven el contexto de razonamiento a través de múltiples llamadas a herramientas sin vaciarlo entre pasos. Ambos modelos admiten integraciones de programación con Claude Code y OpenCode. Según la encuesta a desarrolladores de DeepSeek de 85 usuarios, el 52% dijo que V4-Pro estaba listo como su agente de codificación predeterminado, y el 39% se inclinó por adoptarlo. Los endpoints antiguos deepseek-chat y deepseek-reasoner se retirarán el 24 de julio de 2026.
Related News
Google aumenta la apuesta con una inversión de 40 mil millones de dólares en Anthropic: primero paga 10 mil millones y luego libera 30 mil millones según el desempeño, con capacidad informática de 5 GW de TPU
La valoración en el mercado secundario de Anthropic supera 1 billón de dólares: Forge Global se sitúa por encima de OpenAI en 880.000 millones
DeepSeek lanza una versión preliminar de código abierto V4, puntuación técnica 3206 superando a GPT-5.4