Gate News, 25 April — DeepSeek merilis versi pratinjau V4-Pro dan V4-Flash pada 24 April, dua model open-weight dengan jendela konteks satu juta token. V4-Pro memiliki total 1,6 triliun parameter tetapi hanya mengaktifkan 49 miliar per pass inferensi menggunakan arsitektur Mixture-of-Experts. V4-Flash memiliki total 284 miliar parameter dengan 13 miliar yang aktif.
Harga secara signifikan lebih rendah dibanding kompetitor: V4-Pro berharga $1,74 per satu juta token input dan $3,48 per satu juta token output—sekitar 98% lebih rendah daripada GPT-5.5 Pro milik OpenAI ($30 input, $180 output) serta sekitar seperduapuluh biaya Claude Opus 4.7. V4-Flash dibanderol $0,14 untuk input dan $0,28 untuk output per satu juta token. Kedua model bersifat open-source di bawah lisensi MIT dan bisa dijalankan secara lokal secara gratis.
DeepSeek meraih peningkatan efisiensi melalui dua mekanisme perhatian baru: Compressed Sparse Attention dan Heavily Compressed Attention, yang menurunkan biaya komputasi menjadi 27% dari pendahulu V4-Pro (V3.2) dan 10% untuk V4-Flash. Perusahaan melatih V4 sebagian dengan chip Huawei Ascend, menghindari pembatasan ekspor AS untuk prosesor Nvidia yang canggih. DeepSeek menyatakan bahwa ketika 950 supernode baru hadir pada paruh akhir tahun 2026, harga akan turun lebih lanjut.
Pada benchmark performa, V4-Pro-Max menempati peringkat pertama pada Codeforces untuk pemrograman kompetitif (3,206 poin, berada di sekitar peringkat ke-23 di antara kontestan manusia) dan memperoleh 90,2% pada soal matematika Apex Shortlist dibanding Claude Opus 4.6 yang 85,9%. Namun, model ini tertinggal pada benchmark multitasking: MMLU-Pro (87,5% vs 91,0% milik Gemini-3.1-Pro) dan Humanity’s Last Exam (37,7% vs 44,4%). Pada tugas konteks panjang, V4-Pro memimpin model open-source tetapi kalah dari Claude Opus 4.6 pada uji retrieval MRCR.
V4-Pro memperkenalkan “interleaved thinking,” yang memungkinkan alur kerja agen mempertahankan konteks penalaran di seluruh banyak panggilan alat tanpa membuangnya di antara langkah. Kedua model mendukung integrasi untuk coding dengan Claude Code dan OpenCode. Menurut survei pengembang DeepSeek terhadap 85 pengguna, 52% mengatakan V4-Pro sudah siap sebagai agen coding default mereka, dengan 39% cenderung mengadopsinya. Endpoint lama deepseek-chat dan deepseek-reasoner akan dihentikan pada 24 Juli 2026.
Related News
Google menambah investasi sebesar 40 miliar dolar ke Anthropic: membayar lebih dulu 10 miliar, lalu melepaskan 30 miliar berdasarkan kinerja, dengan dukungan komputasi 5GW TPU
Penilaian pasar sekunder Anthropic menembus 1 triliun dolar: Forge Global mengungguli OpenAI sebesar 880 miliar
DeepSeek meluncurkan V4 versi pratinjau sumber terbuka, penilaian teknis 3206 melampaui GPT-5.4