Nvidia массово скупает память SOCAMM для интеграции в свои ИИ-системы

Только за этот год компания планирует внедерить в свои устройства до 800 тысяч модулей
16 июля 2025, среда 11:01
Zelikman для раздела Блоги

Nvidia готовится к массовому внедрению модульной памяти SOCAMM в свои ИИ-решения. Компания планирует упростить процесс обновления памяти в своих устройствах. Это позволит добиться высокой производительности и энергоэффективности.

По данным источников, Nvidia закупает сотни тысяч модулей SOCAMM на базе LPDDR. Спрос на эту технологию вырастет с выходом SOCAMM второго поколения. Новая память была представлена на конференции GTC. Платформа GB300 использует память SOCAMM от Micron. Эта технология отличается от HBM и LPDDR5X. SOCAMM находит применение в серверах и мобильных платформах и основана на LPDDR DRAM. В отличие от других решений, новые модули памяти не впаяны в плату, а крепятся тремя винтами.

Корейское издание ETNews сообщает о масштабных планах Nvidia. Компания Micron поставит 600–800 тысяч модулей SOCAMM в этом году. Производство расширяют для внедрения в ИИ-продукты Nvidia. Согласно источникам, масштабирование начнётся уже в 2026 году. 

Форм-фактор SOCAMM также отличается компактностью. А её пропускная способность превышает показатели RDIMM, LPDDR5X и LPCAMM — новое решение обеспечивает 150–250 ГБ/с. В будущем SOCAMM может стать стандартом для маломощных ИИ-устройств. Сейчас модули производит Micron. Однако, Samsung и SK Hynix также намерены заключить соглашения с Nvidia на поставки своих моделей.