Платим блогерам
Блоги
Global_Chronicles
В сети появились данные о новой модели DeepSeek R2, которая может быть на 97% дешевле GPT-4. Модель полностью обучали на китайских чипах Huawei Ascend.

Согласно данным из китайских отраслевых источников и технических публикаций, активно обсуждается возможный выход DeepSeek R2. Система может предложить существенно более низкую стоимость работы по сравнению с западными аналогами.  

Может быть интересно

Инсайдеры утверждают, что DeepSeek R2 построена на гибридной архитектуре MoE (Mixture of Experts) с 1,2 триллиона параметров — вдвое больше, чем у предыдущей версии R1. Если верить утечкам, стоимость обработки токенов у новой модели окажется на 97,4% ниже, чем у GPT-4. Для бизнесов, активно использующих ИИ, это может означать существенную экономию.  

Особый интерес вызывает аппаратная часть проекта. Модель полностью обучали на китайских чипах Huawei Ascend 910B, достигнув 82% загрузки кластера. Это демонстрирует растущую независимость китайского ИИ-сектора от западных технологий. Вычислительная мощность системы во время обучения составила 512 PFLOPS при точности FP16.  

Первая версия DeepSeek R1 уже показала, что китайские разработчики могут создавать конкурентоспособные ИИ-продукты. Выпуск R2, если слухи подтвердятся, способен изменить расстановку сил на рынке — особенно учитывая обещанную экономическую эффективность.  

Пока компания не комментирует информацию о новой модели. Ожидается, что официальные данные появятся в ближайшие месяцы. Если характеристики R2 соответствуют утечкам, это может дать новый импульс развитию ИИ-индустрии в Китае и за его пределами.  

Эксперты отмечают, что переход на отечественные чипы и снижение стоимости обработки — два ключевых тренда, которые могут сделать DeepSeek серьезным игроком на глобальном ИИ-рынке. Однако до официального анонса делать окончательные выводы преждевременно.

Важно понимать, что все обсуждения DeepSeek R2 носят спекулятивный характер и что окончательная модель может быть чем-то иным.

Источник: x.com
+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают