Платим блогерам
Блоги
technoboom
H100 продается за $57000 в интернет-магазине поставщика оборудования CDW.

Чип Nvidia, возможно, стал самой важной частью технологии, способствующей буму искусственного интеллекта. Имея 80 миллиардов транзисторов, H100 является идеальной рабочей средой для обучения большим языковым моделям, лежащим в основе таких приложений, как ChatGPT OpenAI, и помог Nvidia доминировать на рынке чипов искусственного интеллекта.

Может быть интересно


Когда в 2016 году генеральный директор Nvidia Дженсен Хуанг представил OpenAI первый AI-сервер компании со старым поколением графических процессоров, мало кто мог предсказать, какую роль эти чипы сыграют в грядущей революции ChatGPT. Видеокарты Nvidia тогда были синонимом видеоигр, а не машинного обучения. Но Хуанг сразу понял, что их уникальная архитектура, способная к так называемым параллельным вычислениям, лучше подходит для обработки массивной и одновременной обработки данных, которую требуют модели искусственного интеллекта, по сравнению с традиционными компьютерными процессорами от Intel.

Чтобы поддержать усилия OpenAI, Microsoft в конечном итоге построила суперкомпьютер с примерно 20 000 графическими процессорами Nvidia A100, предшественником H100. Amazon, Google, Alphabet, Oracle и Meta Platforms вскоре разместили такие же крупные заказы на H100 для создания своей облачной инфраструктуры и центров обработки данных, которые Хуан теперь называет «фабрикой искусственного интеллекта». Китайские компании даже поспешили накопить более слабые версии графических процессоров Nvidia, производительность которых была ограничена из-за контроля США за экспортом полупроводников. 

В гонке за чипами такого уровня сроки их поставки могут растянуться более чем на шесть месяцев. «На данный момент графические процессоры получить значительно труднее, чем наркотики», — пошутил прошлой весной Илон Маск.

Линейка продуктов с микросхемами привела к резкому росту доходов Nvidia. В последнем квартале продажи подразделения центров обработки данных достигли $14,5 млрд, что почти в четыре раза больше, чем за тот же период годом ранее.

Но узкое место в графических процессорах также заставило отрасль осознать риски, связанные с зависимостью от одного предприятия в столь важном компоненте своих портфелей ИИ. Чтобы снизить затраты и добиться повышения производительности, Google вложила значительные средства в свои собственные чипы TPU, а Amazon и Microsoft недавно продемонстрировали свои собственные ускорители искусственного интеллекта. Между тем, Intel рекламирует свой процессор Gaudi 2 как альтернативу H100, а AMD заявила, что ее новый MI300 откроет ей доступ к рынку чипов искусственного интеллекта стоимостью 400 миллиардов долларов в ближайшие годы.

Для некоторых технологических гигантов переход только на свои чипы может испортить отношения с Nvidia. С одной стороны Amazon и Google не хотят чрезмерно зависеть от Nvidia, с другой стороны они не хотят портить свои отношения с самым ценным в мире производителем чипов и потенциально ставить под угрозу будущий доступ к новейшим и лучшим графическим процессорам. Хотя в этом году директор Nvidia сказал, что он не возражает, если его крупнейшие клиенты также станут его конкурентами, и что он не будет относиться к ним по-другому. 

В любом случае, пока неясно, сможет ли какой-либо из этих новых чипов искусственного интеллекта существенно повлиять на лидерство Nvidia в 2024 году. В прошлом месяце Nvidia объявила об обновлении своего процессора искусственного интеллекта под названием H200, который, по ее словам, будет поставляться во втором квартале следующего года. Amazon и Google уже стали первыми клиентами.

1
Показать комментарии (1)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают