Nous Research Merilis Lighthouse Open-Source dengan Percepatan 17x di B200 untuk Konteks 512K

Menurut Beating, Nous Research telah merilis open-source Lighthouse Attention, sebuah mekanisme pelatihan long-context yang mencapai percepatan 17x untuk pemrosesan teks sepanjang 512K pada satu GPU B200, serta percepatan pelatihan end-to-end 1,4–1,7x pada panjang 98K. Teknik ini menggunakan pendekatan coarse-to-fine: pertama-tama memindai ringkasan terkompresi pada berbagai tingkat untuk mengidentifikasi segmen inti, lalu meneruskan teks yang telah disaring ke FlashAttention untuk diproses. Dalam pengujian pada model dengan 5,3 miliar parameter yang dilatih pada 50 miliar token, pendekatan ini tidak hanya mengurangi waktu pelatihan, tetapi juga menyamai atau melampaui performa dasar dari pelatihan berbasis full-attention.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar