В данной статье речь пойдет об использовании в современных реалиях видеокарты, выпущенной семь лет назад. Как вы уже могли догадаться, героем станет модель Nvidia, основанная на микроархитектуре Fermi. В данном случае это будет лучший ее представитель – GeForce GTX 580.
Семь лет достаточно большой срок для графического ускорителя, поэтому для большей уверенности в победе возьмем три видеокарты MSI GeForce GTX 580 Lightning Xtreme Edition с тремя гигабайтами видеопамяти на борту, в сумме (пусть это и неправильно) будет как раз девять гигабайт. Посмотрим, как наше трио покажет себя в новых играх.
С поколения видеокарт, предшествующего Fermi, компания Nvidia начала давать новым микроархитектурам имена собственные. Думаю, у всех на слуху Tesla, обеспечившая качественно новый скачок в развитии GPU, сменившая давно используемую конвейерную архитектуру Pipeline и привнесшая универсальные Stream процессоры. Fermi подарила геймерам API DirectX 11-й версии, который благополучно используется и по сей день, и еще больше универсальных процессоров и CUDA ядер. А в Kepler улучшили характеристики видеокарт и обозначили энергоэффективность одной из главных характеристик GPU.
В следующих поколениях, «Maxwell» и «Pascal», инженеры улучшают качественные и количественные характеристики универсальных процессоров GPU и наделяют новые модели еще большим объемом видеопамяти. Одним словом, прогресс не останавливается, с каждым годом появляются новые технологии и возможности. Не за горами и выход видеокарт на новом GPU, созданном на базе микроархитектуры Volta, и видеопамять стандарта HBM второй версии, и прочие плюшки, но это в будущем…
Каждой новой графической архитектуре Nvidia давала имена собственные, в честь выдающихся ученых в области точных наук, оставивших величайший след в их развитии. До этого момента предыдущие поколения GeForce довольствовались лишь цифровым индексом.
В конце марта 2010 года Nvidia представила новые видеокарты, основанные на микроархитектуре Fermi. Флагманом линейки стала GeForce GTX 480, которая базировалась на ядре с кодовым именем GF100. Все помнят поистине горячий нрав этой модели, настоящая «ПЕЧь», температуры во время работы достигали 90°C и выше.
Графический процессор GF100 содержал 15 блоков потоковых мультипроцессоров, 480 ядер CUDA, 60 текстурных блоков и 48 блоков растеризации.
Народной видеокартой, без всякого сомнения, в то время была GeForce GTX 460. Помню, на одном местном форуме MouseGR создал созвучную тему: «Купил GTX460 это круто!», которая собрала не одну тысячу постов. В нашей конференции есть схожая тема, посвященная этому представителю Fermi.
Имя «Fermi» произошло от фамилии известного итальянского физика, который первым в мире собрал ядерный реактор и внес неоценимый вклад в развитие в области ядерной физики и физики элементарных частиц. Стало быть, нам как бы намекали, что видеокарта должна была быть бомбой
По-настоящему же полноценным GPU Fermi можно считать GF110, который стал результатом кропотливой переработки GF100. Горячий нрав предшественника удалось укротить за счет использования новых энергоэффективных транзисторов, теперь новый GPU содержал четное и симметричное количество блоков потоковых мультипроцессоров, их насчитывалось 16, а также 512 ядер CUDA, 64 текстурных блока, и 48 блоков растеризации.
В GF100 были внесены и качественные улучшения, которые давали прирост производительности вплоть до 30% по отношению к GF100. В итоге это и обусловило получение нового индекса серии.
Официально GF110 был представлен в ноябре 2010 года, новым флагманом Nvidia тогда стала GeForce GTX 580. Различные производители выпустили свои версии топовой модели.
Здесь уместно напомнить, что частоты версии эталонного дизайна составляли 775/1550/4000 МГц. Но мы остановимся на наиболее «заряженных» моделях, отдав тем самым им дань памяти.
После такого перечисления необходимо упомянуть об одном прототипе GeForce GTX 480, основанном на GF100 и получившем полный набор из 512 CUDA ядер и 16 блоков потоковых мультипроцессоров – G-Empire GTX 480 Core 512. Частота его GPU составляла 800 МГц, шейдерный домен работал на 1600 МГц, видеопамять – на 3800 МГц (по другим данным, частота GPU равнялась 700 МГц).
Но в серийное производство данная видеокарта не пошла. Видимо, слишком уж низким был процент выхода годных чипов, содержащих работающие 16 блоков потоковых мультипроцессоров; возможно, и сама Nvidia не дала на это добро, оставив запас для будущей GeForce GTX 580.
В те времена производители нечасто баловали пользователей, оснащая топовые видеокарты вдвое большим объемом видеопамяти. Если мне не изменяет память, первым таким продуктом стала GeForce 6800 Ultra 512Mb, стоимость которой на момент выпуска подбиралась к отметке $899.
В случае с MSI Lightning Xtreme Edition 3Gb ситуация не такая плачевная, скорее наоборот: стоимость обыкновенной «Молнии» была установлена в $524, аналогичная версия с 3 Гбайт видеопамяти была всего лишь на $70 дороже – $594.
Рассмотрим виновников данного обзора, выпущенных под именем MSI N580GTX Lightning Xtreme Edition, поближе.
Модель MSI оснащена оригинальной системой охлаждения Twin Frozr III, состоящей из медного никелированного основания и пяти медных тепловых трубок диаметром 8 и 6 мм.
Под алюминиевым кожухом размещены два 86 мм вентилятора с одиннадцатью лопастями, которые позволяют создавать на 20% более высокий воздушный поток по сравнению с обычными вертушками. Каждый вентилятор оснащен двойным подшипником качения для обеспечения максимального срока службы. Скорость вращения лопастей при 100% оборотах достигает 3500 об/мин.
Торцевая часть видеокарты снабжена полным набором видеовыходов: парой DVI-I с поддержкой высоких разрешений (Dual Link), HDMI (v1.4a), и Display Port (v1.2). В верхней части печатной платы расположены два разъема MIO для создания конфигураций 2-Way, 3-Way и 4-Way SLI. Внешнее питание поступает через два восьмиконтактных разъема.
В основе дизайна печатной платы, насчитывающей десять слоев, лежит собственная разработка MSI. Элементарную базу составляют передовые и сверхнадежные комплектующие.
В их числе качественные мосфеты DirectFET со сверхнизким электрическим сопротивлением, индуктивностью и с повышенной эффективностью отвода тепла, конденсаторы повышенной емкости NEC/Tokin, расположенные на обратной стороне печатной платы, конденсаторы Hi-c CAP с танталовым ядром и другие компоненты, отнесенные MSI к стандарту «Military Class II».
Они характеризуются увеличенным в несколько раз сроком службы по отношению к обычным компонентам для референсных видеокарт.
Общее количество фаз питания насчитывает 16 штук:12 отведено для питания GPU, 4 – для видеопамяти. Масса видеокарты достигает почти 1.2 кг.
Модели MSI серии Lightning были созданы для энтузиастов и любителей разгона, в том числе экстремального, и ассоциируются с передовыми технологиями, надежностью и увеличенным сроком службы. Несмотря на свой почтенный возраст, они и по сей день работают как часы.
Основные компоненты системы
Приведу ссылку на валидацию тестового стенда.
Программное обеспечение
Тестирование проводилось в разрешении 1920 х 1080 в Windows7 SP1 с помощью следующего ПО:
Тестовый стенд вышел идеальным на момент 2011 года. Его основой стал процессор Core i7-2600К – лучший процессор на планете. Технология Nvidia SLI вкупе с Intel Sandy Bridge обеспечивает лучшие игровые впечатления, и эта ссылка тому подтверждение.
Индекс модели GeForce GTX 580 на данный момент двукратно или на пять поколений отстает от современного топового решения Nvidia – GeForce GTX 1080 Ti, или на 406% медленнее по относительной производительности по данным Techpowerup.com.
Посмотрим на характеристики обоих флагманов – бывшего и нынешнего:
Настало время посмотреть, как лучший из Fermi справится с современными играми и синтетическими тестами.
Но сначала расскажу о проблемах, с которыми мне довелось столкнуться. С учетом того, что в тестах принимали участие сразу три MSI GeForce GTX 580 Lightning Xtreme Edition, все было не так гладко, как хотелось бы. Причем заморочки возникали только при использовании всех трех моделей, с двумя никаких сложностей не было.
Начну с проблем, связанных с «железом». Первое, что нам потребуется – внимательность, перед началом установки следует заглянуть в руководство, чтобы правильно расположить видеокарты в разъемах PCI-Express.
Второе. Я недооценил габариты видеокарт и (из-за их нестандартных размеров и защитной металлической усиливающей рамки) идущий в комплекте мостик 3-Way SLI попросту не влез.
Пришлось искать схему соединения, состоящую из одиночных гибких мостиков. Найти ее не проблема, а вот подобрать гибкий SLI мостик, который протянется наискосок через пять разъемов, уже не так легко, но он был найден, и в результате видеокарты были соединены по нужной схеме. Первая со второй, вторая с третьей и третья с первой.
Для питания трех моделей GeForce GTX 580 нужен мощный блок питания, стоит позаботиться о нем заранее, как и о наличии не меньше шести коннекторов PCI-E 8 pin. С этим у меня проблем не было, благо мой Zalman ZM1000-EBT мощностью 1000 Вт обладает восьмеркой таких разъемов, так что можно и 4-Way SLI собирать.
Но после подключения питания видеокарт выяснилось, что места между ними нет, ведь ширина виновников обзора нестандартна и превышает два слота расширения. К тому же их системы охлаждения по высоте выходят за пределы плоскости кожуха кулеров, из-за чего вентиляторы не могут нормально вращаться. Решение при помощи подручных материалов нашлось и в этот раз. Пришлось использовать резиновые ластики, из которых я сделал своеобразные распорки. Смотрится это, конечно, не столь эстетично, но другого выхода не нашел. Да и для тестов данный вариант вполне применим, хотя для повседневного использования не особо.
Из предыдущей проблемы с «распорками» нарисовалась следующая – нагрев видеокарт, особенно досталось средней. Греется этот «бутерброд» не хуже, чем ветеран I-й Ядерной войны, удержать палец на тепловой трубке среднего экземпляра при штатных напряжениях весьма проблематично.
Естественно, сверху был поставлен вентилятор 120 мм, а позже дополнительный 80 мм. Стало немного прохладнее, но проблемы с нагревом это не решило. Поэтому на разгоне конфигурации из трех ускорителей в таком виде был поставлен крест. Сюда бы идеально вписались три EVGA GTX 580 Classified Ultra 3GB, либо другие с турбинной системой охлаждения. Другой вариант – использование фулкаверов с СЖО, масса проблем решится одним махом.
Остальные «хардварные» проблемы, такие как хорошо продуваемый корпус, не требуют специфичных путей их решения. Поэтому перехожу к заморочкам «софтварного» плана. Она была по сути одна и наблюдалась опять-таки в конфигурации 3-Way SLI.
Дело в том, что драйвер не всегда корректно определял SLI профиль игры и в некоторых случаях над отрисовкой полигонов трудились только две из трех видеокарт.
Хочу выразить благодарность Olegdjus, который в своем видеоролике наглядно показывает, как решить данную проблему. Если кто-то озадачился сборкой системы из нескольких ускорителей, рекомендую почитать специализированную ветку нашего форума «Все о технологии SLI». С проблемами покончено переходим к тестам.
В бенчмарке 3DMark использовались настройки по умолчанию, для игр настройки графики приведены на соответствующих скриншотах. Замер кадров в секунду проводился утилитой Fraps, за исключением игр со встроенными тестами производительности.
Тест 3DMark версии 2005 года взят для примера, режим SLI в нем не работает, как и в 3DMark 2001 SE и 3DMark 2003.
Вот тут все в порядке, результат растет в зависимости от количества видеокарт и их частот.
С Fallout 4 не заладилось, мне так и не удалось добиться корректной работы трех видеокарт.
В Doom образца 2016 года все три видеокарты работали как нужно, но их загрузка не превышала 68%. Видимо, сказалась нехватка мощности CPU, либо дело в движке игры, использующем API OpenGL 4.5.
Поддержка видеокартами, основанными на микроархитектуре Fermi, API DirectX 12 появилась совсем недавно, новостные ленты интернет-изданий начали писать о данном событии с июля 2017 года. Вот что доносил до общественности уважаемый мною Lexagon:
По факту компания Nvidia без шума и пыли внесла в последние версии драйверов поддержку API DirectX 12 для моделей Fermi. Вдобавок игровые видеокарты семейств GeForce GTX 400 и 500 стали соответствовать стандарту модели драйверов дисплеев Microsoft WDDM 2.2 Решение это, конечно, запоздалое, но сам факт все же не может не радовать.
Формально видеокарты поколения Fermi слабоваты для DirectX 12, но лучше, как говорится, пусть будет. Возможно, найдется игра, которая откажется запускаться на них не по техническим причинам, хотя в состоянии будет это сделать. Я решил проверить на практике, работает ли данная функция в Windows 10, установив драйвер Forceware версии 384.76.
3D тест DirectX 12 – Time Spy из пакета 3DMark 2013 – подойдет как нельзя лучше, посмотрим на его результат в зависимости от настроек системы.
Дополнительно выбранные DirectX 12 совместимые игры Rise of the Tomb Raider и Deus Ex: Mankind Divided в Windows 10 позволили выбрать в настройках игры нужный режим отображения (DX12) и благополучно запустились, но разницы в картинке на глаз я не заметил. Как следствие, констатируем, что работу видеокарт Fermi в 3D приложениях, поддерживающих API DirectX 12, можно считать свершившимся фактом.
При подведении итогов данного исследования стоит отметить, что для разрешения 1920 x 1080 вполне возможно использование GeForce GTX 580 c 3 Гбайт видеопамяти в современных играх при установке средних настроек качества графики. А пара таких моделей подымет планку производительности еще выше. Если не включать высокие настройки сглаживания, то трех гигабайт видеопамяти достаточно для комфортной игры.
Применение конфигурации 3-Way Sli обеспечивает в ряде случаев дополнительный прирост производительности, но для некоторых игр уже не хватает мощности процессора, чтобы раскрыть весь потенциал тройки. К тому же материнская плата должна поддерживать режим 3-Way Sli, а это под силу далеко не всем, а только в основном топовым решениям, несущим на борту дополнительный мост PLX PCI-E. К блоку питания предъявляются особые требования: меньше 1000 Вт лучше не использовать, тогда как для двух видеокарт можно обойтись БП с мощностью 650 Вт.
Кроме того, из-за больших габаритов и рассеиваемой мощности при использовании конфигурации 3-Way Sli между видеокартами не остается свободного места, поэтому при сборке данных систем стоит подумать о СВО.
Это касается любых мощных видеокарт. Такое решение сразу снимет массу возникающих проблем и обеспечит комфортную температуру внутри корпуса, благополучно отразившись на издаваемых системным блоком шумовых характеристиках. Bitspower как раз выпустила эксклюзивный фулкавер для модели VG-NGTX580MLT, так что я побежал их искать
Если рассматривать видеокарту MSI GeForce GTX 580 Lightning Xtreme Edition абстрагируясь от всех проблем, возникших во время проведения тестов, то это лучшая, на мой взгляд, модель среди всех графических ускорителей GeForce GTX 580.
Автор выражает благодарность Александру (aka J-34) за огромную помощь в подготовке материала и предоставленные видеокарты.