Платим блогерам
Блоги
goldas
Судя по утечке новая видеокарта получит 10240 ядер CUDA и 12 Гб памяти

реклама

 Судя по нескольким источникам, после многочисленных задержек NVIDIA наконец решила выпустить в мае свою новую видеокарту для энтузиастов. По мере приближения к выпуску GeForce RTX 3080 Ti начался обычный цикл слухов о спецификациях и ценах, периодически появляющихся в сети. Это означает, что запуск действительно не за горами.

 Источник предоставил первую фотографию нового графического процессора Ampere. Как сообщалось ранее, NVIDIA GeForce RTX 3080 Ti основана на GPU GA102-225. Этот вариант будет иметь 10240 ядер CUDA и будет работать в паре с 12 ГБ памяти GDDR6X.

реклама

 Похоже, видеокарта не распознается драйвером. Вполне возможно, что тестируемый образец был выпущен до того, как NVIDIA представила свой предполагаемый ограничитель крипто-майнинга. Ходит слух, что NVIDIA выпустит новые варианты видеокарт всей серии RTX 30, которые будут включать как ограничитель майнинга, так и поддержку технологии ResizableBAR. До того, как об этом сообщили партнеры компании, квалификационные образцы GeForce RTX 3080 Ti не имели ограничителя. Об этом сообщает Igor’sLAB. Неизвестно какой квалификационный образец был протестирован инсайдером, и соответствует ли полученный результат реальной производительности.

 Согласно снимку экрана, этот конкретный образец GeForce RTX 3080 Ti будет предлагать хешрейт при майнинге ETH 118,9 Mh/s. Это хороший показатель. Но похоже, что этот результат после оптимизации, так как TDP снижен до 278 Вт, а скорость памяти до 21,4 Гбит/с. Такая производительность майнинга наверняка не останется незамеченной майнерами, особенно учитывая, что первая же утечка производительности RTX 3080 Ti связана с производительностью в майнинге.

 Утечка также раскрывает тактовые частоты RTX 3080 Ti: базовая частота составляет 1365 МГц, а в режиме разгона - 1665 МГц. Это ниже, чем у GeForce RTX 3080 и RTX 3090. Однако снижения тактовой частоты следовало ожидать, так как модель представляла бы угрозу для флагмана NVIDIA, чего NVIDIA не может допустить.

Источник: videocardz.com
4
Показать комментарии (4)

Популярные новости

Сейчас обсуждают