Чип Nvidia, возможно, стал самой важной частью технологии, способствующей буму искусственного интеллекта. Имея 80 миллиардов транзисторов, H100 является идеальной рабочей средой для обучения большим языковым моделям, лежащим в основе таких приложений, как ChatGPT OpenAI, и помог Nvidia доминировать на рынке чипов искусственного интеллекта.

Когда в 2016 году генеральный директор Nvidia Дженсен Хуанг представил OpenAI первый AI-сервер компании со старым поколением графических процессоров, мало кто мог предсказать, какую роль эти чипы сыграют в грядущей революции ChatGPT. Видеокарты Nvidia тогда были синонимом видеоигр, а не машинного обучения. Но Хуанг сразу понял, что их уникальная архитектура, способная к так называемым параллельным вычислениям, лучше подходит для обработки массивной и одновременной обработки данных, которую требуют модели искусственного интеллекта, по сравнению с традиционными компьютерными процессорами от Intel.
Чтобы поддержать усилия OpenAI, Microsoft в конечном итоге построила суперкомпьютер с примерно 20 000 графическими процессорами Nvidia A100, предшественником H100. Amazon, Google, Alphabet, Oracle и Meta Platforms вскоре разместили такие же крупные заказы на H100 для создания своей облачной инфраструктуры и центров обработки данных, которые Хуан теперь называет «фабрикой искусственного интеллекта». Китайские компании даже поспешили накопить более слабые версии графических процессоров Nvidia, производительность которых была ограничена из-за контроля США за экспортом полупроводников.
В гонке за чипами такого уровня сроки их поставки могут растянуться более чем на шесть месяцев. «На данный момент графические процессоры получить значительно труднее, чем наркотики», — пошутил прошлой весной Илон Маск.
Линейка продуктов с микросхемами привела к резкому росту доходов Nvidia. В последнем квартале продажи подразделения центров обработки данных достигли $14,5 млрд, что почти в четыре раза больше, чем за тот же период годом ранее.
Но узкое место в графических процессорах также заставило отрасль осознать риски, связанные с зависимостью от одного предприятия в столь важном компоненте своих портфелей ИИ. Чтобы снизить затраты и добиться повышения производительности, Google вложила значительные средства в свои собственные чипы TPU, а Amazon и Microsoft недавно продемонстрировали свои собственные ускорители искусственного интеллекта. Между тем, Intel рекламирует свой процессор Gaudi 2 как альтернативу H100, а AMD заявила, что ее новый MI300 откроет ей доступ к рынку чипов искусственного интеллекта стоимостью 400 миллиардов долларов в ближайшие годы.
Для некоторых технологических гигантов переход только на свои чипы может испортить отношения с Nvidia. С одной стороны Amazon и Google не хотят чрезмерно зависеть от Nvidia, с другой стороны они не хотят портить свои отношения с самым ценным в мире производителем чипов и потенциально ставить под угрозу будущий доступ к новейшим и лучшим графическим процессорам. Хотя в этом году директор Nvidia сказал, что он не возражает, если его крупнейшие клиенты также станут его конкурентами, и что он не будет относиться к ним по-другому.
В любом случае, пока неясно, сможет ли какой-либо из этих новых чипов искусственного интеллекта существенно повлиять на лидерство Nvidia в 2024 году. В прошлом месяце Nvidia объявила об обновлении своего процессора искусственного интеллекта под названием H200, который, по ее словам, будет поставляться во втором квартале следующего года. Amazon и Google уже стали первыми клиентами.

