После HBM узкое место в памяти для ИИ — это HBF? Лауреат премии Тьюринга Дэвид Паттерсон: вывод (инференс) снова переопределит архитектуру хранения

AI-чиповая гонка в последние два года почти целиком была сосредоточена на HBM, но по мере того, как AI-приложения смещаются от обучения моделей к масштабному выводу, следующая узкая “бутылочная горлышко” поставок может быть уже не только HBM, а HBF (High Bandwidth Flash, высокопропускная флэш-память). Лауреат премии Тьюринга, профессор UC Berkeley Дэвид Паттерсон 30 апреля в Сан-Франциско (США) заявил, что HBF, вероятно, станет ключевой технологией памяти, чей спрос быстро вырастет и даже сформирует новое “узкое место”.

(Что изменилось у Nvidia Vera Rubin? Разбор эпохи войны памяти: SK hynix, Samsung, Micron, SanDisk)

Почему лауреат премии Тьюринга David Patterson делает ставку на HBF

Обсуждение AI-памяти почти целиком вращается вокруг HBM (high bandwidth memory), но по мере того, как AI-приложения смещаются от обучения моделей к масштабному выводу, следующая узкая “бутылочная горлышко” поставок может быть уже не только HBM, а HBF (High Bandwidth Flash, высокопропускная флэш-память).

Паттерсон — фигура мирового масштаба в компьютерной науке, его считают одним из важных проектировщиков архитектуры RISC. Говоря о следующем этапе после HBM, он отметил: хотя у HBF еще много технических задач, которые нужно решить, продвигаемый компаниями вроде SK hynix и SanDisk HBF обладает характеристикой “обеспечивать большие объемы при более низком энергопотреблении”. В будущем ключевой переменной для AI-систем будет не только вычислительная мощность, а то, сможет ли данные эффективно храниться, обрабатываться и поставляться.

Что такое HBF? Складывать NAND Flash, но не чтобы заменить HBM, а чтобы распределить роли

Главное отличие HBF от HBM — в типе базовых материалов памяти. HBM — это вертикальная укладка DRAM для обеспечения GPU и AI-ускорителям нужного высокоскоростного доступа к данным: он в основном отвечает за “быструю подачу данных в вычислительные блоки”. HBF же — это стекование энергонезависимой памяти NAND Flash; его ключевое преимущество — не предельная скорость, а возможность поставлять большие объемы данных за счет более низкой стоимости и более низкого энергопотребления.

Иначе говоря, HBM решает проблему “скорости” в процессе AI-вычислений, а HBF — проблему “емкости” для все более массивных данных AI-систем. Поэтому HBF — это не просто замена HBM, а формирование нового разделения функций памяти: HBM отвечает за мгновенный, высокоскоростной обмен данными, а HBF берет на себя потребности в хранении больших объемов промежуточных данных, контекстов и данных, которые многократно вызываются в ходе вывода.

Спрос на HBF растет на фоне расширения рынка AI-вывода

То, почему HBF в 2026 году привлекает больше внимания, связано с тем, что центр тяжести AI-рынка постепенно смещается с обучения на вывод. Обучение AI — это когда большим объемом данных “кормят” модель, чтобы она выучила параметры и закономерности; вывод же — это когда после завершения обучения модель на основе вводов пользователя генерирует ответы, выполняет задачи, сохраняет предысторию и контекст и постоянно делает дальнейшие оценки.

В сценариях вывода AI — это не разовый ответ на вопрос: система должна удерживать предыдущие реплики, рабочий контекст, результаты оценок, историю вызовов инструментов и даже промежуточные данные между задачами. Объем этих данных огромен, и их нужно многократно читать и обновлять.

Проблема в том, что если бы все эти данные размещать в HBM, стоимость была бы слишком высокой, а объем — нереалистичным. HBM подходит для работы с теми данными, которым нужна немедленная высокоскоростная подача, но не годится для того, чтобы нести весь контекст и промежуточные состояния, возникающие в процессе вывода. После распространения AI Agent, моделей с длинным контекстом, мультимодального вывода и корпоративных AI-рабочих процессов системе понадобится не просто более быстрая память, а более крупный пул высокоскоростных данных. Именно поэтому HBF стали рассматривать всерьез.

SK hynix и SNDK продвигают стандартизацию: к 2038 году спрос на HBF может превысить спрос на HBM

Стремясь к росту пропускной способности, SK hynix и SanDisk разработали HBF. Это разновидность похожей на HBM технологии 3D-стеков, но с использованием NAND-вафель; она нацелена на обеспечение пропускной способности в несколько раз выше, чем у традиционных SSD, и предназначена специально для AI-вывода.

Профессор инженерного факультета KAIST (Южная Корея) Ким Чжон Хо также указывал на одном из технических мероприятий по HBF в феврале, что “в эпоху ПК” ядром был CPU, “в эпоху смартфонов” — низкое энергопотребление, а “в эпоху AI” — память. Он четко разделил роли HBM и HBF: скорость определяет HBM, емкость — HBF. Ким Чжон Хо добавил прогноз: начиная с 2038 года потребность в HBF может превысить потребность в HBM.

Логика этого предположения такова: чем больше рынок AI-вывода, тем больше будет массив мгновенного контекста, исторических данных и состояний задач, которые должна обрабатывать модель. Если расширять только HBM, то это будет и дорого, и приведет к дальнейшему росту энергопотребления и нагрузок на упаковку всей системы. Если HBF сможет добиться прорыва в пропускной способности, упаковке, надежности и стандартизации, то он может стать новым ключевым уровнем памяти для AI-центров обработки данных.

От HBM к HBF: гонка AI переходит от “считать быстрее” к “запоминать и управлять”

Когда раньше на рынке обсуждали AI-полупроводники, фокус чаще всего был на GPU, передовых техпроцессах и поставках HBM. Особенно после резкого всплеска спроса на Nvidia AI-серверы HBM некоторое время стал ключевым индикатором конкурентоспособности компаний-производителей памяти вроде SK hynix, Samsung и Micron. Но слова Паттерсона напоминают рынку: узкие места AI-инфраструктуры становятся все более сложными.

Пока AI находится на этапе гонки за обучение больших моделей, ключевым является кормить GPU высокоскоростной памятью с большой пропускной способностью. Но когда AI переходит к масштабному выводу и приложениям с Agent, вопрос меняется: как модель длительное время удерживает контекст? Как с низкой стоимостью сохранять состояния задач? Как сделать так, чтобы данные эффективнее “текли” между GPU, HBM, SSD, Flash и сетевым хранилищем?

Поэтому следующая стадия конкуренции в AI-памяти, вероятно, будет не только борьбой за производственные мощности HBM, а перестройкой всей “памятной” иерархии. HBM по-прежнему важен, потому что он определяет, сможет ли AI-чип быстро выполнять вычисления; но появление HBF означает, что AI-система начинает нуждаться в новом типе “слоя данных” между традиционным хранением и высокоскоростной памятью. Он не обязательно будет самым быстрым, но может найти новый баланс между емкостью, энергопотреблением и стоимостью.

Это также означает, что следующий ключевой термин в цепочке поставок AI может расшириться от “high bandwidth memory” до “high bandwidth flash”. HBM закрывает узкое место с немедленными вычислениями AI, а HBF, вероятно, закроет более массивное узкое место с запоминанием данных в эпоху вывода.

Эта статья HBM-после AI-узкое место в памяти — это HBF? Лауреат премии Тьюринга David Patterson: вывод переопределит архитектуру хранения Впервые опубликовано на Цепочке новостей ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев