Nous Research Mở mã nguồn Lighthouse Attention với tốc độ nhanh hơn 17 lần trên B200 cho ngữ cảnh 512K

Theo Beating, Nous Research đã công bố mã nguồn mở Lighthouse Attention, một cơ chế huấn luyện cho ngữ cảnh dài giúp tăng tốc 17 lần cho việc xử lý văn bản dài 512K trên một GPU B200 duy nhất, đồng thời tăng tốc huấn luyện end-to-end 1,4–1,7 lần ở độ dài 98K. Kỹ thuật này sử dụng phương pháp thô đến tinh: trước tiên, nó quét các bản tóm tắt đã được nén ở nhiều mức độ khác nhau để xác định các đoạn cốt lõi, sau đó chuyển phần văn bản đã lọc sang FlashAttention để xử lý. Trong các thử nghiệm với một mô hình 5,3 tỷ tham số được huấn luyện trên 50 tỷ token, cách tiếp cận này không chỉ rút ngắn thời gian huấn luyện mà còn đạt mức tương đương hoặc vượt hiệu năng nền của huấn luyện dựa hoàn toàn vào cơ chế attention.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận