Китайская компания DeepSeek сообщила, что затратила всего лишь $294 тысячи на финальное обучение своей ИИ-модели R1, предназначенной для решения сложных логико-аналитических задач, включая программирование и математический анализ. Эта сумма является рекордно низкой среди крупных разработок подобного класса и существенно ниже аналогичных показателей американских компаний, пишет журнал Nature.
Модель R1 стала самой популярной на крупнейшей международной платформе Hugging Face, собрав 10,9 миллиона загрузок. Несмотря на свою открытость и доступность, она обладает высоким качеством, сравнимым с лучшими аналогами на рынке.
Согласно данным журнала Nature, большая часть разработки ИИ прошла на графических процессорах NVIDIA H800, поставки которых были ограничены в Китае начиная с 2023 года. Однако даже несмотря на ограничения, разработчикам удалось эффективно провести процедуру обучения, используя 512 GPU.
По словам разработчиков, затраты на создание базовой версии LLM составили около $6 миллионов, тогда как дополнительное дообучение потребовало лишь незначительных инвестиций. Для сравнения, американский конкурент OpenAI сообщил ранее, что затраты на базовую версию ChatGPT превышают $100 миллионов. В итоге китайская разработка оказывается более чем в 340 раз дешевле американского аналога.