Samsung показала память HBM4E для серверов и вычислительных систем, которые обрабатывают задачи искусственного интеллекта. Такие решения используют в инфраструктуре крупных дата-центров и в платформах вроде NVIDIA Rubin Ultra, где важны высокая скорость и большой объем памяти.

Изображение - WCCFTech
HBM4E разгоняется до 16 Гбит/с на контакт, а один стек такой памяти может пропускать до 4 ТБ данных в секунду. В конфигурации с 16 слоями объем достигает 48 ГБ. Это ключевые параметры, на которые делает упор производитель.
Память создавали с расчетом на платформу Rubin Ultra от NVIDIA. В такой системе общий объем может доходить до 384 ГБ, а пропускная способность — до 64 ТБ/с. Эти показатели достигаются при использовании стеков с 16 слоями и скоростью 16 Гбит/с на контакт, что напрямую связано с архитектурой самой платформы, где увеличено число графических процессоров и модулей HBM. За счет этого система получает более плотную компоновку памяти и стабильную работу при высоких нагрузках, характерных для задач искусственного интеллекта.
Параллельно Samsung развивает и HBM4, которая уже вышла в производство. Также компания показала новые серверные решения — модули SOCAMM2 и SSD с интерфейсом PCIe 6.0. Они должны работать вместе и закрывать задачи хранения и обработки данных в ИИ-системах.

