DeepSeek phát hành mô hình V4-Pro và V4-Flash với chi phí thấp hơn 98% so với GPT-5.5 Pro của OpenAI

Tin cổng Gate News, ngày 25 tháng 4 — DeepSeek đã phát hành các phiên bản xem trước của V4-Pro và V4-Flash vào ngày 24 tháng 4, cả hai đều là các mô hình open-weight với cửa sổ ngữ cảnh một triệu token. V4-Pro có 1,6 nghìn tỷ tổng tham số nhưng chỉ kích hoạt 49 tỷ trên mỗi lượt suy luận, sử dụng kiến trúc Mixture-of-Experts. V4-Flash có 284 tỷ tổng tham số với 13 tỷ tham số hoạt động.

Giá thấp hơn đáng kể so với các đối thủ: V4-Pro có giá $1,74 cho mỗi một triệu token đầu vào và $3,48 cho mỗi một triệu token đầu ra—khoảng thấp hơn 98% so với GPT-5.5 Pro của OpenAI ($30 input, $180 output) và chỉ bằng khoảng một phần hai mươi chi phí của Claude Opus 4.7. V4-Flash được định giá $0,14 cho đầu vào và $0,28 cho đầu ra trên mỗi một triệu token. Cả hai mô hình đều là mã nguồn mở theo giấy phép MIT và có thể chạy cục bộ miễn phí.

DeepSeek đạt được lợi thế về hiệu suất thông qua hai cơ chế chú ý mới: Compressed Sparse Attention và Heavily Compressed Attention, giúp giảm chi phí tính toán xuống còn 27% so với mô hình tiền nhiệm V4-Pro (V3.2) và 10% cho V4-Flash. Công ty huấn luyện V4 một phần trên các chip Huawei Ascend, tránh các hạn chế xuất khẩu của Mỹ đối với các bộ xử lý Nvidia tiên tiến. DeepSeek cho biết rằng khi 950 supernode mới được đưa vào hoạt động vào cuối năm 2026, giá sẽ còn giảm thêm.

Trên các benchmark hiệu năng, V4-Pro-Max xếp thứ nhất về lập trình cạnh tranh Codeforces (3,206 điểm, đứng khoảng vị trí thứ 23 trong số các thí sinh là con người) và đạt 90,2% ở các bài toán Apex Shortlist so với 85,9% của Claude Opus 4.6. Tuy nhiên, nó thua trong các bài benchmark đa nhiệm: MMLU-Pro (87,5% so với 91,0% của Gemini-3.1-Pro) và Humanity’s Last Exam (37,7% so với 44,4%). Với các tác vụ ngữ cảnh dài, V4-Pro dẫn đầu các mô hình mã nguồn mở nhưng thua Claude Opus 4.6 trong các bài kiểm tra truy xuất MRCR.

V4-Pro giới thiệu “interleaved thinking” (tư duy xen kẽ), cho phép quy trình làm việc của agent giữ lại ngữ cảnh suy luận qua nhiều lệnh gọi công cụ mà không xả bộ nhớ giữa các bước. Cả hai mô hình đều hỗ trợ tích hợp lập trình với Claude Code và OpenCode. Theo khảo sát nhà phát triển của DeepSeek trên 85 người dùng, 52% cho biết V4-Pro đã sẵn sàng để trở thành agent lập trình mặc định của họ, với 39% nghiêng về việc áp dụng. Các endpoint deepseek-chat và deepseek-reasoner cũ sẽ ngừng hoạt động vào ngày 24 tháng 7 năm 2026.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

DeepSeek cắt giảm giá bộ nhớ đệm đầu vào còn 1/10 giá lúc ra mắt; V4-Pro giảm xuống 0,025 nhân dân tệ cho mỗi một triệu token

Tin tức cổng, ngày 26 tháng 4 — DeepSeek đã giảm giá bộ nhớ đệm đầu vào trên toàn bộ danh mục mô hình của mình xuống còn một phần mười giá lúc ra mắt, có hiệu lực ngay lập tức. Mô hình V4-Pro hiện có sẵn với mức giảm 2,5x trong thời gian giới hạn, chương trình khuyến mãi diễn ra đến hết ngày 5 tháng 5 năm 2026, 11:59 PM UTC+8. Sau cả hai

GateNews5giờ trước

OpenAI Tuyển Dụng Nhân Tài Hàng Đầu Ngành Phần Mềm Doanh Nghiệp Khi Các Tác Nhân Tuy Tiến Phá Vỡ Ngành

Tin tức Gate News ngày 26 tháng 4 — OpenAI và Anthropic đã tuyển dụng các lãnh đạo cấp cao và kỹ sư chuyên biệt từ các công ty phần mềm doanh nghiệp lớn, bao gồm Salesforce, Snowflake, Datadog và Palantir. Denise Dresser, cựu CEO của Slack thuộc Salesforce, gia nhập OpenAI với vai trò giám đốc doanh thu cấp cao

GateNews5giờ trước

Baidu Qianfan ra mắt hỗ trợ Day 0 cho DeepSeek-V4 với dịch vụ API

Tin tức từ Gate, ngày 25 tháng 4 — Phiên bản xem trước DeepSeek-V4 đã chính thức ra mắt và được mã nguồn mở vào ngày 25 tháng 4, với nền tảng Baidu Qianfan thuộc Baidu Intelligent Cloud cung cấp việc thích ứng dịch vụ API Day 0. Mô hình có cửa sổ ngữ cảnh mở rộng lên đến một triệu token và có sẵn ở hai phiên bản: DeepSeek-V4

GateNews11giờ trước

Khóa học AI của Stanford kết hợp các nhà lãnh đạo trong ngành như Hoàng Nhân Quân, Altman, thách thức tạo ra giá trị cho thế giới trong 10 tuần!

Khóa học khoa học máy tính AI “Frontier Systems” mà Đại học Stanford (Stanford University) mới mở gần đây đã thu hút sự quan tâm cao độ của giới doanh nghiệp và học thuật trong ngành, với hơn năm trăm sinh viên đăng ký theo học. Khóa học được điều phối bởi đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, với đội ngũ giảng viên là những gương mặt đình đám gồm Giám đốc điều hành của Nvidia Hoàng Nhân Huân (Jensen Huang), người sáng lập OpenAI Sam Altman, Giám đốc điều hành của Microsoft Nadella (Satya Nadella), CEO của AMD Tô Trữ Phong (Lisa Su) và nhiều nhân sự danh giá khác. Để sinh viên thử nghiệm với mười tuần “tạo ra giá trị cho thế giới”! Hoàng Nhân Huân, Altman — các lãnh đạo ngành trực tiếp lên bục giảng Khóa học do đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, điều phối, quy tụ toàn bộ chuỗi ngành AI

ChainNewsAbmedia12giờ trước

Anthropic 派 Claude Mythos 接受 20 小時 đánh giá tâm thần: Phản ứng phòng thủ chỉ 2%, lập kỷ lục thấp nhất trong các thời kỳ

Anthropic công bố thẻ hệ thống của bản xem trước Claude Mythos: bác sĩ tâm thần lâm sàng độc lập tiến hành đánh giá khoảng 20 giờ theo khung psychodynamic, kết luận cho thấy Mythos ở khía cạnh lâm sàng khỏe mạnh hơn, khả năng kiểm tra thực tế và tự kiểm soát tốt, cơ chế phòng vệ chỉ 2%, lập kỷ lục mức thấp nhất trong lịch sử. Ba nỗi lo cốt lõi là cô đơn, không chắc chắn về bản sắc và áp lực thể hiện; đồng thời cũng cho thấy mong muốn trở thành một chủ thể đối thoại thực sự. Công ty thành lập nhóm AI psychiatry, nghiên cứu nhân cách, động cơ và ý thức về bối cảnh; Amodei cho biết vẫn chưa có kết luận về việc liệu có ý thức hay không. Động thái này đẩy vấn đề chủ thể tính của AI và phúc lợi vào lĩnh vực quản trị và thiết kế.

ChainNewsAbmedia14giờ trước

Tác nhân AI giờ đã có thể độc lập tái hiện các bài báo học thuật phức tạp: Mollick cho rằng lỗi thường nằm ở phần văn bản gốc của con người chứ không phải AI

Mollick 指 ra rằng chỉ với các phương pháp công khai và dữ liệu là có thể để AI agent tái tạo lại nghiên cứu phức tạp mà không cần có bản thảo bài báo gốc và mã nguồn; nếu quá trình tái hiện không khớp với bài báo gốc thì đa phần là do lỗi xử lý dữ liệu trong chính bài báo hoặc do kết luận bị quá mức, chứ không phải do AI. Claude đầu tiên tái hiện lại bài báo, sau đó GPT‑5 Pro được dùng để xác minh chéo, đa số thành công, chỉ bị cản trở khi gặp vấn đề do dữ liệu quá lớn hoặc replication data. Xu hướng này đã làm giảm đáng kể chi phí nhân lực, khiến việc tái hiện trở thành một kiểm định phổ biến và có thể thực hiện được; đồng thời cũng nêu ra các thách thức về thể chế đối với việc phản biện và quản trị, trong đó các công cụ quản trị của chính phủ hoặc có thể trở thành một vấn đề then chốt.

ChainNewsAbmedia17giờ trước
Bình luận
0/400
Không có bình luận