AI-чиповая гонка в последние два года почти целиком была сосредоточена на HBM, но по мере того, как AI-приложения смещаются от обучения моделей к масштабному выводу, следующая узкая “бутылочная горлышко” поставок может быть уже не только HBM, а HBF (High Bandwidth Flash, высокопропускная флэш-память). Лауреат премии Тьюринга, профессор UC Berkeley Дэвид Паттерсон 30 апреля в Сан-Франциско (США) заявил, что HBF, вероятно, станет ключевой технологией памяти, чей спрос быстро вырастет и даже сформирует новое “узкое место”.
(Что изменилось у Nvidia Vera Rubin? Разбор эпохи войны памяти: SK hynix, Samsung, Micron, SanDisk)
Почему лауреат премии Тьюринга David Patterson делает ставку на HBF
Обсуждение AI-памяти почти целиком вращается вокруг HBM (high bandwidth memory), но по мере того, как AI-приложения смещаются от обучения моделей к масштабному выводу, следующая узкая “бутылочная горлышко” поставок может быть уже не только HBM, а HBF (High Bandwidth Flash, высокопропускная флэш-память).
Паттерсон — фигура мирового масштаба в компьютерной науке, его считают одним из важных проектировщиков архитектуры RISC. Говоря о следующем этапе после HBM, он отметил: хотя у HBF еще много технических задач, которые нужно решить, продвигаемый компаниями вроде SK hynix и SanDisk HBF обладает характеристикой “обеспечивать большие объемы при более низком энергопотреблении”. В будущем ключевой переменной для AI-систем будет не только вычислительная мощность, а то, сможет ли данные эффективно храниться, обрабатываться и поставляться.
Что такое HBF? Складывать NAND Flash, но не чтобы заменить HBM, а чтобы распределить роли
Главное отличие HBF от HBM — в типе базовых материалов памяти. HBM — это вертикальная укладка DRAM для обеспечения GPU и AI-ускорителям нужного высокоскоростного доступа к данным: он в основном отвечает за “быструю подачу данных в вычислительные блоки”. HBF же — это стекование энергонезависимой памяти NAND Flash; его ключевое преимущество — не предельная скорость, а возможность поставлять большие объемы данных за счет более низкой стоимости и более низкого энергопотребления.
Иначе говоря, HBM решает проблему “скорости” в процессе AI-вычислений, а HBF — проблему “емкости” для все более массивных данных AI-систем. Поэтому HBF — это не просто замена HBM, а формирование нового разделения функций памяти: HBM отвечает за мгновенный, высокоскоростной обмен данными, а HBF берет на себя потребности в хранении больших объемов промежуточных данных, контекстов и данных, которые многократно вызываются в ходе вывода.
Спрос на HBF растет на фоне расширения рынка AI-вывода
То, почему HBF в 2026 году привлекает больше внимания, связано с тем, что центр тяжести AI-рынка постепенно смещается с обучения на вывод. Обучение AI — это когда большим объемом данных “кормят” модель, чтобы она выучила параметры и закономерности; вывод же — это когда после завершения обучения модель на основе вводов пользователя генерирует ответы, выполняет задачи, сохраняет предысторию и контекст и постоянно делает дальнейшие оценки.
В сценариях вывода AI — это не разовый ответ на вопрос: система должна удерживать предыдущие реплики, рабочий контекст, результаты оценок, историю вызовов инструментов и даже промежуточные данные между задачами. Объем этих данных огромен, и их нужно многократно читать и обновлять.
Проблема в том, что если бы все эти данные размещать в HBM, стоимость была бы слишком высокой, а объем — нереалистичным. HBM подходит для работы с теми данными, которым нужна немедленная высокоскоростная подача, но не годится для того, чтобы нести весь контекст и промежуточные состояния, возникающие в процессе вывода. После распространения AI Agent, моделей с длинным контекстом, мультимодального вывода и корпоративных AI-рабочих процессов системе понадобится не просто более быстрая память, а более крупный пул высокоскоростных данных. Именно поэтому HBF стали рассматривать всерьез.
SK hynix и SNDK продвигают стандартизацию: к 2038 году спрос на HBF может превысить спрос на HBM
Стремясь к росту пропускной способности, SK hynix и SanDisk разработали HBF. Это разновидность похожей на HBM технологии 3D-стеков, но с использованием NAND-вафель; она нацелена на обеспечение пропускной способности в несколько раз выше, чем у традиционных SSD, и предназначена специально для AI-вывода.
Профессор инженерного факультета KAIST (Южная Корея) Ким Чжон Хо также указывал на одном из технических мероприятий по HBF в феврале, что “в эпоху ПК” ядром был CPU, “в эпоху смартфонов” — низкое энергопотребление, а “в эпоху AI” — память. Он четко разделил роли HBM и HBF: скорость определяет HBM, емкость — HBF. Ким Чжон Хо добавил прогноз: начиная с 2038 года потребность в HBF может превысить потребность в HBM.
Логика этого предположения такова: чем больше рынок AI-вывода, тем больше будет массив мгновенного контекста, исторических данных и состояний задач, которые должна обрабатывать модель. Если расширять только HBM, то это будет и дорого, и приведет к дальнейшему росту энергопотребления и нагрузок на упаковку всей системы. Если HBF сможет добиться прорыва в пропускной способности, упаковке, надежности и стандартизации, то он может стать новым ключевым уровнем памяти для AI-центров обработки данных.
От HBM к HBF: гонка AI переходит от “считать быстрее” к “запоминать и управлять”
Когда раньше на рынке обсуждали AI-полупроводники, фокус чаще всего был на GPU, передовых техпроцессах и поставках HBM. Особенно после резкого всплеска спроса на Nvidia AI-серверы HBM некоторое время стал ключевым индикатором конкурентоспособности компаний-производителей памяти вроде SK hynix, Samsung и Micron. Но слова Паттерсона напоминают рынку: узкие места AI-инфраструктуры становятся все более сложными.
Пока AI находится на этапе гонки за обучение больших моделей, ключевым является кормить GPU высокоскоростной памятью с большой пропускной способностью. Но когда AI переходит к масштабному выводу и приложениям с Agent, вопрос меняется: как модель длительное время удерживает контекст? Как с низкой стоимостью сохранять состояния задач? Как сделать так, чтобы данные эффективнее “текли” между GPU, HBM, SSD, Flash и сетевым хранилищем?
Поэтому следующая стадия конкуренции в AI-памяти, вероятно, будет не только борьбой за производственные мощности HBM, а перестройкой всей “памятной” иерархии. HBM по-прежнему важен, потому что он определяет, сможет ли AI-чип быстро выполнять вычисления; но появление HBF означает, что AI-система начинает нуждаться в новом типе “слоя данных” между традиционным хранением и высокоскоростной памятью. Он не обязательно будет самым быстрым, но может найти новый баланс между емкостью, энергопотреблением и стоимостью.
Это также означает, что следующий ключевой термин в цепочке поставок AI может расшириться от “high bandwidth memory” до “high bandwidth flash”. HBM закрывает узкое место с немедленными вычислениями AI, а HBF, вероятно, закроет более массивное узкое место с запоминанием данных в эпоху вывода.
Эта статья HBM-после AI-узкое место в памяти — это HBF? Лауреат премии Тьюринга David Patterson: вывод переопределит архитектуру хранения Впервые опубликовано на Цепочке новостей ABMedia.
Related News
Разбор Berkeley GEPA: ИИ может научиться новым задачам без обновления весов, при этом затраты на обучение в 35 раз ниже, чем у RL
JPMorgan: Объёмы торгов стейблкоинами резко выросли, но из-за механизма Velocity рыночная капитализация не будет расти пропорционально
A16z прокомментировала: термин «стейблкоин» устареет, а следующим станет «программируемые деньги»
OpenAI запускает GPT-5.5-Cyber: дуэль с Anthropic Mythos
Вице-президент по глубокому обучению в Nvidia считает, что расходы на ИИ-вычисления превышают затраты на зарплаты персонала