Рынок микросхем HBM готов к настоящему буму. По прогнозам экспертов, к 2025 году его объем вырастет до $46,7 миллиарда, что вдвое превышает показатели 2024 года. Такой резкий рост связывают с неуклонно растущим спросом на высокоскоростную память для приложений искусственного интеллекта.
На недавнем TrendForce Roadshow в Сеуле старший вице-президент компании Аврил Ву поделилась оптимистичными ожиданиями. Она отметила, что в 2024 году объем рынка составит около $18,2 миллиарда, но уже в следующем году он вырастет на впечатляющие 156%. Это означает, что HBM станет важной частью общего рынка DRAM, увеличив свою долю до 34%.
Чипы NVIDIA Blackwell AI играют ключевую роль в этом процессе. Их внедрение требует новых стандартов памяти, что подстегивает спрос на HBM3E. TrendForce сообщает, что в 2025 году доля HBM3E на рынке вырастет до 85%, что значительно выше 46% в 2024 году. Это связано с тем, что новые графические процессоры от NVIDIA будут использовать именно эту высокоскоростную память.
Генеральный директор SK hynix Квак Но-Джунг подтвердил, что компания готова к массовому производству 12-слойного HBM3E. Он подчеркнул, что сроки отгрузки и поставок идут по плану, что вселяет уверенность в успешное выполнение графика.
Память для ИИ становится краеугольным камнем в этой динамичной отрасли. Чем больше и быстрее память, тем лучше результаты работы алгоритмов. Этот принцип стал основой для стремительного роста интереса к HBM, который продолжает набирать популярность среди разработчиков и компаний, работающих в области технологий.