Nous Research は、512K のコンテキスト向けに B200 で 17倍の高速化を実現した Lighthouse Attention をオープンソース公開します

Beating によると、Nous Research は、長い文脈の学習メカニズムである Lighthouse Attention をオープンソース化しており、単一の B200 GPU で 512K 長のテキスト処理を行う際に 17 倍の高速化を達成し、さらに 98K 長ではエンドツーエンドの学習を 1.4〜1.7 倍加速します。この手法は粗密(coarse-to-fine)のアプローチを用います。まず、異なるレベルで圧縮された要約を走査して主要なセグメントを特定し、その後、フィルタしたテキストを FlashAttention に渡して処理します。500億トークンで学習した 51.2万パラメータのモデルでのテストでは、このアプローチは学習時間を短縮しただけでなく、完全に注意(attention)ベースの学習におけるベースライン性能と同等、またはそれを上回りました。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし