
Являясь ключевым игроком на рынке, конкурирующим с Samsung и Micron, SK Hynix представила инновационный модуль памяти SOCAMM (Small Outline Compression Attached Memory Module), предназначенный для мощных ИИ-чипов Nvidia. В основе решения лежит широко используемая память CAMM, интегрированная в чипы Nvidia, однако, новинка отличается повышенной энергоэффективностью по сравнению с традиционной DRAM.
SK Hynix занимает лидирующие позиции в сфере разработки передовых решений памяти для высокопроизводительных вычислительных систем, включая графические процессоры для дата-центров. Компания анонсировала презентацию своих новейших 12-слойных модулей HBM3E и SOCAMM на конференции GTC 2025, проводимой с 17-21 марта.

Решение SK Hynix SOCAMM позволит существенно расширить возможности оперативной памяти, что, в свою очередь, повысит эффективность при обработке задач, связанных с искусственным интеллектом, без ущерба для энергопотребления. В дополнение к SOCAMM, SK Hynix представит свою HBM3E память с увеличенной в 12 раз ёмкостью, поставляемую Nvidia для создания передовых графических процессоров Blackwell GB300. SK Hynix имеет уникальное соглашение с Nvidia на поставку чипов GB300 для ИИ, что даёт ей существенное преимущество перед конкурентами.
SK Hynix начала массовое производство 12H HBM3E еще в сентябре прошлого года, в то время как Samsung потребуется дополнительное время, чтобы достичь уровня SK Hynix. Высшие руководители SK Hynix представят новейшие разработки компании на конференции GTC. В числе прочего, будет продемонстрирована передовая память HBM4 с 12-слойной компоновкой, находящаяся на этапе разработки и тестирования у ключевых клиентов, включая Nvidia, которая планирует использовать её в графических процессорах линейки Rubin. HBM4 с 12-слойным стеком предложит ёмкость до 36 ГБ на модуль и пропускную способность до 2 ТБ/с. Ожидается, что серийное производство 12-слойной HBM4 начнётся во второй половине 2025 года с применением 3-нм техпроцесса TSMC.

