Платим блогерам
Блоги
link1pc_bl0g
Некоторые эксперты и представители отрасли сомневаются в достоверности данных компании DeepSeek. В расчёте может учитываться только финальный этап обучения, тогда как реальная стоимость разработки значительно выше.

Китайская компания DeepSeek сообщила, что затратила всего лишь $294 тысячи на финальное обучение своей ИИ-модели R1, предназначенной для решения сложных логико-аналитических задач, включая программирование и математический анализ. Эта сумма является рекордно низкой среди крупных разработок подобного класса и существенно ниже аналогичных показателей американских компаний, пишет журнал Nature.

Может быть интересно

Модель R1 стала самой популярной на крупнейшей международной платформе Hugging Face, собрав 10,9 миллиона загрузок. Несмотря на свою открытость и доступность, она обладает высоким качеством, сравнимым с лучшими аналогами на рынке.

Согласно данным журнала Nature, большая часть разработки ИИ прошла на графических процессорах NVIDIA H800, поставки которых были ограничены в Китае начиная с 2023 года. Однако даже несмотря на ограничения, разработчикам удалось эффективно провести процедуру обучения, используя 512 GPU.

По словам разработчиков, затраты на создание базовой версии LLM составили около $6 миллионов, тогда как дополнительное дообучение потребовало лишь незначительных инвестиций. Для сравнения, американский конкурент OpenAI сообщил ранее, что затраты на базовую версию ChatGPT превышают $100 миллионов. В итоге китайская разработка оказывается более чем в 340 раз дешевле американского аналога.

Источник: nature.com
2
Показать комментарии (2)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают