Microsoft анонсировала собственные чипы AI - Azure Maia 100 и Cobalt 100
Слухи оказались правдой. Microsoft создала собственный чип для искусственного интеллекта, который можно использовать для обучения больших языковых моделей и потенциально избежать дорогостоящей зависимости от Nvidia. Microsoft также создала собственный процессор на базе Arm для облачных рабочих нагрузок. Оба собственных кремниевых чипа предназначены для питания центров обработки данных Azure и подготовки компании и ее корпоративных клиентов к будущему, наполненному искусственным интеллектом.
реклама
AI-чип Azure Maia от Microsoft и процессор Azure Cobalt на базе Arm появятся в 2024 году на фоне резкого роста спроса в этом году на графические процессоры H100 от Nvidia, которые широко используются для обучения и работы генеративных инструментов обработки изображений и больших языковых моделей. Спрос на эти GPU настолько высок, что стоимость некоторых из них на eBay превысила 40 тыс. долларов.
"На самом деле Microsoft имеет долгую историю разработки кремния, более 20 лет назад сотрудничала в разработке кремния для Xbox и даже совместно разрабатывала микросхемы для своих устройств Surface", - пояснил Рани Боркар, руководитель направления аппаратных систем и инфраструктуры Azure в Microsoft. В 2017 году компания приступила к разработке архитектуры облачного аппаратного стека, что позволило перейти к созданию собственных чипов.
реклама
Новый чип Azure Maia AI и процессор Azure Cobalt создаются собственными силами Microsoft в сочетании с глубокой переработкой всего стека облачных серверов для оптимизации производительности, мощности и стоимости. Идет переосмысление облачной инфраструктуры для эпохи ИИ с буквальной оптимизацией каждого ее слоя.
Процессор Azure Cobalt, названный в честь голубого пигмента, представляет собой 128-ядерный чип, построенный на базе дизайна Arm Neoverse CSS и адаптированный для Microsoft. Он предназначен для работы с общими облачными сервисами Azure. "Мы много думали не только о том, чтобы обеспечить высокую производительность, но и о том, чтобы не забывать об управлении питанием", - поясняет Боркар. "Мы сделали несколько очень продуманных конструктивных решений, включая возможность контроля производительности и энергопотребления для каждого ядра и для каждой отдельной виртуальной машины", - добавил он.
В настоящее время Microsoft тестирует процессор Cobalt на таких рабочих нагрузках, как Microsoft Teams и SQL-сервер, а в следующем году планирует предоставить клиентам виртуальные машины для различных рабочих нагрузок. Боркар не стал проводить прямых сравнений с серверами Amazon Graviton 3, доступными в AWS, однако прирост производительности по сравнению с серверами на базе Arm, которые Microsoft в настоящее время использует в Azure, должен быть заметным. "Наши первые испытания показывают, что производительность на 40% выше, чем в наших дата-центрах, где используются коммерческие серверы на базе Arm", - говорит Боркар. Компания Microsoft пока не раскрывает полные технические характеристики системы и контрольные показатели.
реклама
AI-ускоритель Microsoft Maia 100, названный в честь ярко-голубой звезды, предназначен для выполнения облачных нагрузок, таких как обучение и вывод больших языковых моделей. Он будет использоваться для обеспечения работы некоторых крупнейших AI-нагрузок компании в Azure, в том числе в рамках многомиллиардного партнерства с OpenAI, в котором Microsoft обеспечивает работу всех рабочих нагрузок OpenAI.
"Мы были очень рады, когда Microsoft впервые рассказала о своих разработках чипа Maia, и мы вместе работали над его доработкой и тестированием на наших моделях", - говорит Сэм Альтман, генеральный директор OpenAI. Комплексная архитектура AI Azure, оптимизированная до кремния с помощью Maia, открывает путь к обучению более способных моделей и удешевлению этих моделей для клиентов.
Произведенный по 5-нанометровому техпроцессу TSMC, Maia содержит 105 млрд. транзисторов - примерно на 30% меньше, чем 153 млрд. транзисторов в конкурирующем с Nvidia графическом процессоре MI300X AI компании AMD. "Maia поддерживает нашу первую реализацию восьмибитных типов данных (типов данных MX) для совместного проектирования аппаратного и программного обеспечения, что помогает нам ускорить обучение и вывод моделей", - говорит Боркар.
Microsoft является частью группы, в которую входят AMD, Arm, Intel, Meta, Nvidia и Qualcomm, которые занимаются стандартизацией следующего поколения форматов данных для моделей ИИ. Microsoft опирается на совместную и открытую работу Open Compute Project (OCP) для адаптации целых систем к потребностям ИИ.
реклама
"Maia - это первый серверный процессор с жидкостным охлаждением, созданный компанией Microsoft", - говорит Боркар. Его цель заключается в обеспечении более высокой плотности серверов при более высокой эффективности. Переосмысливается весь стек, продумывается каждый слой, поэтому эти системы, как уточняет Боркар, действительно впишутся в существующие площади центров обработки данных.
Это позволяет Microsoft быстрее развернуть серверы искусственного интеллекта без необходимости освобождать для них место в центрах обработки данных по всему миру. Для размещения серверных плат Maia компания Microsoft создала уникальную стойку, укомплектованную вспомогательным охладителем жидкости, который работает как радиатор в автомобиле или игровом ПК для охлаждения поверхности чипов Maia.
Наряду с обменом типами данных MX, Microsoft также делится дизайном своих стоек с партнерами, чтобы они могли использовать их в системах с другим кремнием внутри. А вот дизайн микросхем Maia не будет раскрываться - Microsoft оставляет его у себя.
В настоящее время Maia 100 тестируется на GPT 3.5 Turbo - той же модели, на которой работают ChatGPT, рабочие нагрузки Bing AI и GitHub Copilot. Microsoft находится на ранних стадиях развертывания и, как и в случае с Cobalt, пока не хочет раскрывать точные спецификации Maia и контрольные показатели производительности.
Это затрудняет точное определение того, как Maia будет сопоставляться с популярным GPU H100 от Nvidia, недавно анонсированным H200 или даже новейшим MI300X от AMD. Боркар не захотел обсуждать сравнения, а вместо этого повторил, что партнерство с Nvidia и AMD по-прежнему является ключевым для будущего облака ИИ Azure. "При тех масштабах, в которых работает облачная система, очень важно оптимизировать и интегрировать каждый уровень стека, максимизировать производительность, диверсифицировать цепочки поставок и, откровенно говоря, предоставить нашим клиентам возможность выбора инфраструктуры", - говорит Боркар.
Вы, возможно, обратили внимание на названия Maia 100 и Cobalt 100, что говорит о том, что Microsoft уже разрабатывает версии второго поколения этих чипов. "Это целая серия, это не просто 100 и готово... но мы не собираемся делиться нашими дорожными картами", - говорит Боркар. Пока неясно, как часто Microsoft будет выпускать новые версии Maia и Cobalt, но, учитывая скорость развития искусственного интеллекта, не удивительно, если преемник Maia 100 появится примерно в те же сроки, что и анонс H200 от Nvidia (около 20 месяцев).
Ключевым моментом теперь будет то, насколько быстро Microsoft запустит Maia в работу, чтобы ускорить развертывание своих широких амбиций в области ИИ, и как эти чипы повлияют на ценообразование при использовании облачных сервисов AI. Microsoft пока не готова говорить о новых ценах на серверы, но мы уже видели, как компания спокойно запустила Copilot для Microsoft 365 с ежемесячной платой 30 долларов.
В настоящее время Copilot для Microsoft 365 доступен только крупнейшим клиентам Microsoft, причем корпоративные пользователи должны иметь не менее 300 пользователей, чтобы попасть в список пользователей нового ассистента Office на базе искусственного интеллекта.
Лента материалов
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила