Sakana AI và Nvidia đã mã nguồn mở TwELL, một định dạng dữ liệu thưa giúp các GPU H100 bỏ qua 80% các phép tính không hợp lệ trong các mô hình ngôn ngữ lớn mà không làm giảm độ chính xác. Giải pháp mang lại suy luận nhanh hơn tới 30% và huấn luyện nhanh hơn 24% trên H100, đồng thời giảm mức sử dụng bộ nhớ đỉnh. Trong thử nghiệm với một mô hình tham số 1,5 tỷ, phương pháp này đã đưa số nơ-ron hoạt động xuống dưới 2% nhờ cơ chế chính quy hóa nhẹ trong quá trình huấn luyện, không suy giảm hiệu năng trên bảy tác vụ hạ nguồn.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Tranh cãi Chế độ Mã Code Mode của Anthropic với MCP Vs CLI: công cụ hóa Runtime, giảm tokens từ 150K xuống 2K
Trong cả năm 2025, cộng đồng AI Engineering đã tranh luận không ngừng về câu hỏi “MCP hay CLI phù hợp hơn cho việc gọi công cụ của Agent”, và bài báo “Code execution with MCP” do Anthropic công bố vào tháng 11/2025 đã định nghĩa lại vấn đề từ những nguyên lý cốt lõi. akshay\pachaar đã tổng hợp thread vào ngày 5/10, giải thích rằng vấn đề không nằm ở bản thân giao thức, mà nằm ở thói quen cũ “khi bắt đầu session, nhét toàn bộ mô tả công cụ vào context”. Giải pháp của Anthropic là để mô hình viết
ChainNewsAbmedia1giờ trước
ByteDance dự kiến tăng 25% chi tiêu cho hạ tầng AI lên 200 tỷ nhân dân tệ trong năm nay
Theo ChainCatcher dẫn nguồn từ Golden Data, ByteDance dự kiến sẽ tăng chi tiêu cho hạ tầng AI thêm 25% lên 200 tỷ nhân dân tệ trong năm nay, do chi phí chip nhớ tăng cao và tiến độ phát triển trí tuệ nhân tạo được đẩy nhanh.
GateNews1giờ trước
Nền tảng AI Doanh nghiệp đóng vòng $16M Series, được dẫn dắt bởi a16z
Theo Odaily, nền tảng AI doanh nghiệp Pit đã công bố hoàn tất vòng gọi vốn 16 triệu USD, do a16z dẫn dắt, với sự tham gia của Lakestar và các lãnh đạo từ OpenAI, Anthropic, Google, Deel và Revolut. Pit định vị mình là “AI product team as a service”, được thiết kế để thay thế các bảng tính truyền thống và các hệ thống SaaS cứng nhắc.
GateNews1giờ trước
Google thí điểm tuyển dụng bằng các kỳ thi cho phép kỹ sư sử dụng công cụ AI
Theo The Chosun Daily, Google đang thí điểm các bài kiểm tra tuyển dụng cho phép ứng viên kỹ sư phần mềm tại Mỹ sử dụng công cụ AI ở một số vị trí tuyển dụng cấp đầu vào và cấp trung gian. Thử nghiệm này bao gồm các nhiệm vụ về hiểu mã, trong đó ứng viên xem lại mã hiện có, sửa lỗi và cải thiện hiệu năng. Người phỏng vấn sẽ đánh giá cách ứng viên ra lệnh cho AI, kiểm tra đầu ra, chỉnh sửa kết quả và gỡ lỗi mã, thay vì chỉ đánh giá khả năng tự viết mã từ đầu.
GateNews4giờ trước
OpenAI ngừng API tinh chỉnh (fine-tuning) hiệu lực ngay lập tức; người dùng hiện tại có thể truy cập cho đến ngày 6 tháng 1 năm 2027
Theo thông báo chính thức của OpenAI, được Beating theo dõi, công ty đang ngừng cung cấp API Fine-tuning tự phục vụ cho nhà phát triển, có hiệu lực ngay lập tức. Người dùng mới không còn có thể tạo các tác vụ fine-tuning, trong khi người dùng hiện tại đang hoạt động vẫn có thể truy cập dịch vụ cho đến ngày 6 tháng 1 năm 2027. Các mô hình đã được fine-tune sẽ có dịch vụ suy luận gắn với vòng đời của các mô hình nền (base model), và sẽ dừng khi mô hình nền bị ngừng hỗ dụng. OpenAI cho biết các mô
GateNews4giờ trước
Microsoft Open-nguồn mô hình Phi-Ground 4B, vượt trội OpenAI Operator và Claude về độ chính xác khi bấm màn hình
Theo Beating, Microsoft gần đây đã mã nguồn mở họ mô hình Phi-Ground, được thiết kế để giải quyết vấn đề AI nên nhấp vào đâu trên màn hình máy tính. Phiên bản 4 tỷ tham số, kết hợp với các mô hình ngôn ngữ lớn hơn để lập kế hoạch theo hướng dẫn, đã vượt độ chính xác nhấp chuột của OpenAI Operator và Claude Computer Use trong benchmark Showdown, đồng thời xếp hạng đầu trong số tất cả các mô hình dưới 100 tỷ tham số qua năm đánh giá, bao gồm cả ScreenSpot-Pro. Nhóm đã huấn luyện trên hơn 40 triệu
GateNews6giờ trước