Microsoft работает над преодолением монополии Nvidia на рынке искусственного интеллекта. Как сообщают источники, технологический гигант разрабатывает специальные наборы инструментов, позволяющие преобразовывать код, написанный для платформы Nvidia CUDA, в версию, совместимую с открытой платформой AMD ROCm. Этот шаг может кардинально изменить расстановку сил на рынке ИИ-ускорителей.
Nvidia CUDA
Доминирование Nvidia в сфере машинного обучения и искусственного интеллекта во многом обеспечено не столько аппаратным превосходством, сколько её программной экосистемой CUDA. Этот механизм десятилетиями вынуждал разработчиков и облачных провайдеров использовать именно графические процессоры Nvidia для достижения максимальной производительности. Многочисленные прошлые попытки разрушить эту зависимость и создать кроссплатформенное решение не увенчались успехом.
Однако теперь, по словам представителей Microsoft, компания добилась значительного прогресса в решении этой задачи. Разработанные инструменты, по всей видимости, используют метод преобразования вызовов API CUDA в ROCm во время выполнения, без необходимости полного переписывания исходного кода. Подобный подход, аналогичный работе инструмента ZLUDA, позволяет ускорить и упростить миграцию существующих ИИ-моделей с чипов Nvidia на альтернативные решения от AMD.
Ключевой причиной такого хода со стороны Microsoft является растущий спрос на вычислительные мощности для логического вывода (inference) — этапа использования уже обученных нейросетей, который начинает преобладать над этапом обучения. Это делает более доступные по цене чипы AMD гораздо привлекательнее дорогостоящих графических процессоров Nvidia для развертывания масштабных ИИ-сервисов.
«Мы создали несколько наборов инструментов для конвертации моделей CUDA в ROCm... Мы работаем над этим с AMD, чтобы понять, как можно максимально эффективно использовать этот подход», — отметили в Microsoft.
Несмотря на масштабные перспективы, проект сталкивается с серьёзными проблемами. Программный стек ROCm всё ещё считается относительно незрелым по сравнению с CUDA. Наличие несовместимых вызовов API может в некоторых сценариях приводить к снижению производительности, что является критически важным фактором для крупных дата-центров.

