AIチップ競争は過去2年ほぼすべてHBMを中心に展開してきたが、AIアプリケーションがモデル学習から大規模推論へと進むにつれて、次の供給ボトルネックはもはやHBMだけではなく、HBF(High Bandwidth Flash、高頻度帯域フラッシュメモリ)になる可能性がある。チューリング賞受賞者でUC Berkeleyの教授David Pattersonは4月30日、米国サンフランシスコで、HBFが次に需要が急増し、さらには新たなボトルネックを形成し得る重要なメモリ技術になるだろうと考えていると述べた。
(NVIDIAのVera Rubinには何が変わった?記憶メモリ戦国時代を読み解く:SKハイニックス、三星、ミicron、SanDisk)
チューリング賞受賞者 David PattersonはなぜHBFを見込むのか
AIメモリの議論はほぼHBM(高帯域メモリ)をめぐって行われているが、AIアプリケーションがモデル学習から大規模推論へと進むにつれて、次の供給ボトルネックはもはやHBMだけではなく、HBF(High Bandwidth Flash、高頻度帯域フラッシュメモリ)になる可能性がある。
Pattersonはコンピュータサイエンス界の重鎮で、RISCアーキテクチャの重要な設計者の一人と見なされている。彼はHBMの次の段階について語る中で、HBFにもまだ多くの技術的課題があり解決が必要だとしつつも、SKハイニックスやSanDiskなどの企業が推進しているHBFには、「より低い消費電力で大容量を提供できる」という特性があるため、将来のAIシステムの中核となる変数は、計算力だけではなく、データが効率的に保存・運用(調整)・供給できるかどうかになるだろうと指摘した。
HBFとは何か?NAND Flashを積み上げる、それはHBMの代替ではなく分業だ
HBFとHBMの最大の違いは、基盤となるメモリ材料が異なる点にある。HBMはDRAMを垂直に積層し、GPUやAIアクセラレータに必要な高帯域でのデータアクセス能力を提供するためのもので、主に「高速にデータを演算ユニットへ送り込む」ことを担う。HBFは非揮発性メモリであるNAND Flashを積層するもので、極限のスピードを競うのではなく、より低いコストとより低い消費電力で、より大きなデータ容量を提供できることが中核的な強みだ。
言い換えれば、HBMはAIの演算プロセスにおける「速度」の課題を解決し、HBFはAIシステムがますます巨大化する「容量」の課題を解決する。だからこそHBFは単にHBMを置き換えるものではなく、HBMとともに新しいメモリ分業を形成する。HBMは即時の高速なデータ交換を担当し、HBFは大規模な中間データ、コンテキストデータ、そして推論過程で繰り返し呼び出されるデータの保存ニーズを担う。
AI推論市場が拡大し、HBFの需要が表に浮上
HBFが2026年にかけてより注目されるようになっているのは、AI市場の重心が訓練から推論へと段階的に移っていることが大きい。AI訓練は大量のデータをモデルに与えて、モデルがパラメータや規則を学習するプロセスである。一方、AI推論は、モデルが訓練を終えた後に、実際にユーザーの入力に基づいて答えを生成し、タスクを実行し、前後の文脈を記憶しつつ継続的に判断するプロセスだ。
推論の場面では、AIは単発で質問に答えるだけでなく、これまでの対話、作業の文脈、判断結果、ツール呼び出しの記録、さらにはタスクをまたいだ中間データまで保持する必要がある。これらのデータは量が膨大で、繰り返し読み取り・更新が求められる。
問題は、これらのデータをすべてHBMに置くとコストが高すぎ、容量面でも現実的ではないことだ。HBMは、すぐに必要となる高速データの処理には適しているが、推論過程で生じるコンテキストや中間状態データのすべてを担うのには向いていない。AI Agent、長いコンテキストモデル、多モーダル推論、企業向けAIワークフローが普及すると、システムが必要とするのは、より速いメモリだけではなく、より大きな高速データプールだ。これこそがHBFが注目される理由である。
SKハイニックスとSNDKが推進する標準化、2038年にはHBFの需要がHBMを上回る可能性
帯域を追求するために、SKハイニックスとSanDiskがHBFの開発を協力して進めている。これはHBMに似た3D積層技術だが、NANDのウエハを使い、従来のSSDより数倍のスループットを提供することを目的としており、AI推論に特化している。
韓国KAISTの電気・電子工学系教授キム・ジョンホは、2月のHBF技術説明会でも、PC時代の中核はCPU、スマートフォン時代の中核は低消費電力であり、AI時代の中核はメモリだと述べた。彼はHBMとHBFの役割を明確に分けており、「速度を決めるのはHBMで、容量を決めるのはHBF」だという。さらにキム・ジョンホは、2038年以降、HBFの需要がHBMを超える可能性があると予測している。
この見立ての背景にある論理は、AI推論市場が大きくなるほど、モデルが扱う即時のコンテキスト、過去データ、タスク状態はますます巨大化するという点にある。HBMだけで拡張しようとすればコストがかさむだけでなく、システム全体の消費電力とパッケージ(封止)への負荷も、引き続き上がってしまう。HBFが帯域、パッケージ、耐久性、標準化でブレークスルーを達成できれば、AIデータセンターの新しい世代の重要なメモリ層になり得る。
HBMからHBFへ。AI競争は「速く計算する」から「記憶し、調整できる」へ
過去に市場でAI半導体について語る際、焦点の多くはGPU、先端製造プロセス、そしてHBMの供給に置かれていた。特にNvidiaのAIサーバー需要が急増した後、HBMは一時期、SKハイニックス、三星、ミicronといったメモリメーカーの競争力を測る重要指標になった。しかしPattersonの見方は、市場に対し、AI基盤インフラのボトルネックがより複雑になりつつあることを思い起こさせる。
AIが大規模モデルの学習競争フェーズにある間は、より高い帯域のメモリでGPUを十分に満たすことが重視される。しかしAIが大規模推論やAgentアプリケーションの段階に入ると、課題は次のように変わる。モデルは長時間、コンテキストをどう維持するのか。タスク状態を低コストでどう保存するのか。データをGPU、HBM、SSD、Flash、そしてネットワークストレージの間で、より効率よく流動させるにはどうするのか?
そのため、次の段階のAIメモリ競争は、もはやHBMの生産能力をめぐる争いだけではなく、メモリ階層全体の再編になる可能性がある。HBMは依然として重要で、AIチップが高速に演算できるかどうかを左右するからだ。しかしHBFの登場は、AIシステムが従来のストレージと高帯域メモリのあいだに位置する新しいデータ層を必要とし始めたことを意味する。それは必ずしも最速ではないが、容量、消費電力、コストの間で新たなバランスを見つけられるかもしれない。
つまり、AIサプライチェーンの次の重要キーワードは、「高帯域メモリ」から「高帯域フラッシュメモリ」へ広がる可能性がある。HBMはAIの即時演算ボトルネックを解決し、HBFは推論時代における、さらに巨大なデータの記憶ボトルネックを解決することになるかもしれない。
この記事では、HBMの後に来るAIメモリのボトルネックはHBF?チューリング賞受賞者David Patterson:推論がストレージ・アーキテクチャを再定義することになる。最初に登場:鏈新聞ABMedia。
Related News
バークレーGEPA解析:重みを更新しなくてもAIは新しいタスクを学習でき、訓練コストを35倍も削減してRLに勝つ
JPモルガン:ステーブルコインの取引量が急増しているが、Velocity(速度)メカニズムにより時価総額は等比で成長しない
A16zはコメント:「ステーブルコイン」という言葉は時代遅れになり、次は「プログラム可能な通貨」だ
OpenAI が GPT-5.5-Cyber を発表:Anthropic の Mythos に対戦
NVIDIAのディープラーニング担当副社長は、AIの計算コストが人件費を上回ると考えている