Платим блогерам
Блоги
Zelikman
Только за этот год компания планирует внедерить в свои устройства до 800 тысяч модулей

Nvidia готовится к массовому внедрению модульной памяти SOCAMM в свои ИИ-решения. Компания планирует упростить процесс обновления памяти в своих устройствах. Это позволит добиться высокой производительности и энергоэффективности.

По данным источников, Nvidia закупает сотни тысяч модулей SOCAMM на базе LPDDR. Спрос на эту технологию вырастет с выходом SOCAMM второго поколения. Новая память была представлена на конференции GTC. Платформа GB300 использует память SOCAMM от Micron. Эта технология отличается от HBM и LPDDR5X. SOCAMM находит применение в серверах и мобильных платформах и основана на LPDDR DRAM. В отличие от других решений, новые модули памяти не впаяны в плату, а крепятся тремя винтами.

Может быть интересно

Корейское издание ETNews сообщает о масштабных планах Nvidia. Компания Micron поставит 600–800 тысяч модулей SOCAMM в этом году. Производство расширяют для внедрения в ИИ-продукты Nvidia. Согласно источникам, масштабирование начнётся уже в 2026 году. 

Форм-фактор SOCAMM также отличается компактностью. А её пропускная способность превышает показатели RDIMM, LPDDR5X и LPCAMM — новое решение обеспечивает 150–250 ГБ/с. В будущем SOCAMM может стать стандартом для маломощных ИИ-устройств. Сейчас модули производит Micron. Однако, Samsung и SK Hynix также намерены заключить соглашения с Nvidia на поставки своих моделей.

+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают