Платим блогерам
Блоги
link1pc
Некоторые эксперты и представители отрасли сомневаются в достоверности данных компании DeepSeek. В расчёте может учитываться только финальный этап обучения, тогда как реальная стоимость разработки значительно выше.

Китайская компания DeepSeek сообщила, что затратила всего лишь $294 тысячи на финальное обучение своей ИИ-модели R1, предназначенной для решения сложных логико-аналитических задач, включая программирование и математический анализ. Эта сумма является рекордно низкой среди крупных разработок подобного класса и существенно ниже аналогичных показателей американских компаний, пишет журнал Nature.

Модель R1 стала самой популярной на крупнейшей международной платформе Hugging Face, собрав 10,9 миллиона загрузок. Несмотря на свою открытость и доступность, она обладает высоким качеством, сравнимым с лучшими аналогами на рынке.

Согласно данным журнала Nature, большая часть разработки ИИ прошла на графических процессорах NVIDIA H800, поставки которых были ограничены в Китае начиная с 2023 года. Однако даже несмотря на ограничения, разработчикам удалось эффективно провести процедуру обучения, используя 512 GPU.

По словам разработчиков, затраты на создание базовой версии LLM составили около $6 миллионов, тогда как дополнительное дообучение потребовало лишь незначительных инвестиций. Для сравнения, американский конкурент OpenAI сообщил ранее, что затраты на базовую версию ChatGPT превышают $100 миллионов. В итоге китайская разработка оказывается более чем в 340 раз дешевле американского аналога.

Источник: nature.com
2
Показать комментарии (2)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают