DeepSeek потратила на обучение ИИ-модели R1 $294 000 — на обучение ChatGPT ушло более $100 млн

Некоторые эксперты и представители отрасли сомневаются в достоверности данных компании DeepSeek. В расчёте может учитываться только финальный этап обучения, тогда как реальная стоимость разработки значительно выше.
20 сентября 2025, суббота 14:02
link1pc_bl0g для раздела Блоги

Китайская компания DeepSeek сообщила, что затратила всего лишь $294 тысячи на финальное обучение своей ИИ-модели R1, предназначенной для решения сложных логико-аналитических задач, включая программирование и математический анализ. Эта сумма является рекордно низкой среди крупных разработок подобного класса и существенно ниже аналогичных показателей американских компаний, пишет журнал Nature.

Модель R1 стала самой популярной на крупнейшей международной платформе Hugging Face, собрав 10,9 миллиона загрузок. Несмотря на свою открытость и доступность, она обладает высоким качеством, сравнимым с лучшими аналогами на рынке.

Согласно данным журнала Nature, большая часть разработки ИИ прошла на графических процессорах NVIDIA H800, поставки которых были ограничены в Китае начиная с 2023 года. Однако даже несмотря на ограничения, разработчикам удалось эффективно провести процедуру обучения, используя 512 GPU.

По словам разработчиков, затраты на создание базовой версии LLM составили около $6 миллионов, тогда как дополнительное дообучение потребовало лишь незначительных инвестиций. Для сравнения, американский конкурент OpenAI сообщил ранее, что затраты на базовую версию ChatGPT превышают $100 миллионов. В итоге китайская разработка оказывается более чем в 340 раз дешевле американского аналога.