GeForce GTX 580: в одиночку и вдвоем

23 ноября 2010, вторник 17:58

Оглавление

Вступление

Каждый новый виток противостояния ATI и nVidia порождает в компьютерной прессе и на «железных» форумах такой всплеск эмоций, что страсти не утихают еще как минимум несколько месяцев. Поэтапный выход новых видеокарт (появление топовых ускорителей, освоение среднего класса, приход новой архитектуры в массовый сегмент) вызывает бесчисленные споры среди любителей компьютерных игр и оверклокеров. Все это сопровождается многочисленными обзорами под заголовками вроде «Новый король», «ATI/nVidia наносит ответный удар», «Крепкие середняки» и, наконец, «На что способен новый ускоритель начального уровня?».

Это всегда очень увлекательный процесс (ну-ну – прим. Ред.). Тем более приятно осознавать, что сейчас мы как раз находимся внутри такого витка: AMD начала борьбу, выпустив на рынок Radeon HD 6850/6870 – новые ускорители среднего класса. В следующем месяце должны появиться и более мощные видеокарты шеститысячной серии: Radeon HD 6950/6970 на основе процессора Cayman. На данный момент ATI уже располагает самой мощной видеокартой на рынке – двухпроцессорным гигантом Radeon HD 5970; с выходом новинок компания стремится завоевать не менее престижный титул самого мощного однопроцессорного ускорителя.

Инженеры nVidia тоже не сидят сложа руки. Выпуск обновленного флагмана компании - GeForce GTX 580 удалось удачно вписать как раз между этапами релиза Radeon HD 6ххх. Схватка топовых решений - GeForce GTX 580 и Radeon HD 6970 обещает быть чрезвычайно интересной. Сейчас самое время исследовать потребительские качества первого из «дуэлянтов» и оценить проделанную конструкторами nVidia работу.

Графический процессор GF110

Видеопроцессор, ставший «мозгом» нового флагманского ускорителя, называется GF110. Логика такого наименования понятна: на рынок уже были последовательно выведены GPU GF100, GF104 (GeForce GTX 460), GF106 (GeForce GTS 450), GF108 (GeForce GT 430), относящиеся к четырехсотой серии видеокарт GeForce. Новый GPU стал первым в пятисотой линейке, можно предположить, что при дальнейшем расширении этого семейства младшие процессоры будут называться GF114, GF116 и так далее.

Читателям, которые отслеживают ситуацию на рынке видеокарт, должно быть известно, что GF110 представляет собой модифицированную версию предыдущего топового GPU компании nVidia – GF100. Этот процессор используется на видеокартах GeForce GTX 480, GTX 470, GTX 465 и, соответственно, представлен в трех вариантах, отличающихся количеством активных блоков ядра.

Модель видеокарты GeForce GTX 465 GeForce GTX 470 GeForce GTX 480 GeForce GTX 580
Графический процессор GF100 GF100 GF100 GF110
Технологический процесс, нм 40 40 40 40
Количество транзисторов, млн штук ~3000 ~3000 ~3000 ~3000
Площадь кристалла, мм2 529 529 529 520
Количество кластеров обработки графики 3 4 4 4
Количество потоковых мультипроцессоров 11 14 15 16
Количество скалярных процессоров 352 448 480 512
Количество блоков адресации текстур 44 56 60 64
Количество блоков фильтрации текстур 44 56 60 64
Количество блоков растеризации 32 40 48 48
Число накладываемых текстур за проход 44 56 60 64
Объём cache L1, Кб 176 224 240 256
Объём cache L2, Кб 512 640 768 768
Разрядность шины видеопамяти, бит 256 320 384 384
Тип используемой памяти GDDR5 GDDR5 GDDR5 GDDR5

Для того чтобы объяснить значение некоторых из приведенных параметров и природу произошедших изменений, я приведу иллюстрацию, на которой схематически изображено устройство графического процессора GF100. Архитектурно GF110 практически не отличается от предшественника, следовательно, к нему эта схема также применима.

Видеопроцессор GF100/110 содержит четыре однотипных кластера обработки графики (GPC). Каждый из этих кластеров конструктивно напоминает отдельный GPU и содержит все необходимые элементы для обработки графики кроме собственных блоков ROP и контроллера памяти.

В свою очередь, отдельный кластер разделен на четыре потоковых мультипроцессора (SM), объединенных общим растерным движком (Raster Engine). Единичный мультипроцессор содержит массив ядер CUDA (скалярных потоковых процессоров) – всего 32 штуки, блок обработки геометрии (PolyMorph Engine), четыре текстурных блока и собственный cache первого уровня (16 Кбайт в случае обработки графики, 48 Кбайт для вычислительных операций). Эта схема немного упрощена для удобства изложения, но количество и способ организации основных блоков она отражает.

Помимо собственных cache L1 каждого мультипроцессора, у GF100/110 есть и более медленный общий cache L2 объемом 768 Кбайт. Сообщение cache L2 и видеопамяти обеспечивают шесть 64-битных контроллеров. Каждый из них связан с восемью блоками растровых операций – ROP (всего 48 штук).

В итоге схему графического процессора можно в общем виде представить следующим образом. Четыре кластера по четыре мультипроцессора, содержащих 32 ядра CUDA – всего 512 штук. Шесть групп по 8 блоков ROP – всего 48 штук, каждая группа связана с собственным 64-битным контроллером памяти (суммарная разрядность шины - 384 бита). Объем cache-памяти первого уровня составляет 256 Кбайт (по 16 Кбайт на каждый из 16 мультипроцессоров), объем общей cache-памяти второго уровня – 768 Кбайт.

Описанная схема – это «идеал», - GF100 со всеми активными блоками, в том виде, каким он проектировался изначально. К сожалению, в момент выпуска видеокарт на основе архитектуры Fermi графический процессор был «сырым». У компании-производителя (TSMC) возникли проблемы с выходом годных кристаллов, и для скорейшей организации массового производства часть блоков ядра пришлось отключить (это общепринятая версия

). Также на этот счет есть разные догадки: «nVidia приберегла часть потенциала GF100 на будущее» или «в полном виде GF100 оказался слишком горячим и прожорливым». Возможно, они недалеки от истины…

Очевидно, что первые экземпляры процессора аналогичного GF110 были у nVidia почти год назад (удачные образцы GF100), но в продажу видеокарты на их основе не поступили. Даже в «старшем» варианте, применяемом на GeForce GTX 480, у GF100 был отключен один из шестнадцати мультипроцессоров. Потеря не так велика: 480 ядер CUDA вместо 512 (плюс отсутствие одного блока PolyMorpf Engine). Все остальные возможности видеоядра были использованы в полном объеме.

GeForce GTX 470 урезана сильнее: мультипроцессоров осталось только 14, ядер CUDA, соответственно – 448. Помимо этого были отключены один из 64-битных контроллеров памяти и 8 блоков ROP, работающих с ним.

На GeForce GTX 465 деактивирован целый графический кластер. Результат – минус четыре мультипроцессора и один из четырех растерных движков. Контроллеров памяти стало меньше на два – разрядность шины снизилась до 256 бит, а количество блоков ROP c 48 до 32.

Таким образом, даже самые неудачные экземпляры GF100, с большим количеством отключенных блоков могли в итоге дойти до прилавка на одной из младших карт.

GF110 можно назвать «полноценным GF100», который наконец-то получил все активные блоки ядра, в отличие от вариантов, применяемых на ускорителях семейства GeForce GTX 4xx. Конструкция процессора, несмотря на новый цифровой индекс, осталась практически неизменной.

Выпуск полноценного GPU стал возможен благодаря совместным усилиям инженеров nVidia и TSMC. Существенные улучшения в технологии производства позволили сократить площадь ядра на 9 мм2 (с 529 до 520) при практически равном количестве транзисторов. Повысился выход работоспособных кристаллов GPU (40 нм техпроцесс уже хорошо «обкатан»). Тщательная проработка конструкции, по словам представителей nVidia, позволила сделать GPU более энергоэффективным. В переводе на русский это означает «менее прожорливым и горячим» даже с учетом увеличенного количества активных блоков. Для топовой видеокарты семейства GeForce это важно, ведь GTX 480 подверглась критике именно за высокий нагрев и уровень шума при работе.

В таком случае, быть может правильнее называть GF110 обновленной ревизией GF100? Это не совсем так, из-за того, что новый процессор обладает и архитектурными отличиями от предшественника.

Производительность GPU должна возрасти за счет оптимизаций архитектуры текстурных блоков (TMU). Теперь они способны производить обработку и билинейную фильтрацию текстур всех 64-битных форматов на полной скорости без пропуска тактов. Впервые этот механизм был реализован при создании процессора GF104 и теперь перекочевал на флагманский GF110.

Также модификации подвергся Raster Engine (растеризационный движок каждого из графических кластеров GPC), получивший улучшенный блок отбраковки поверхностей, невидимых в кадре (Z-cull). Теперь блоком поддерживаются новые форматы представления тайла, что позволяет более эффективно реализовывать алгоритмы ранней отбраковки.

В итоге производительность нового GPU должна немного возрасти, даже без учета большего количества активных блоков ядра и повышенной тактовой частоты. В официальном пресс-релизе приводится специальная таблица, согласно которой «чистое» преимущество новой архитектуры в некоторых играх может составлять от 3 до 12%.

Итак, новый процессор, несмотря на отсутствие революционных архитектурных изменений, должен обеспечить преимущество в производительности над GF100 уже в силу возросшего количества блоков ядра и общей оптимизации. Теперь самое время оценить рабочие частоты и другие характеристики ускорителя, созданного на основе этого GPU – GeForce GTX 580.

Видеокарта GeForce GTX 580

Наименование видеокарты GeForce GTX 480 GeForce GTX 580
Дата релиза 26 марта 2010 9 ноября 2010
Графический процессор GF100 GF110
Тактовая частота ядра, МГц 700 772
Тактовая частота шейдерного домена, МГц 1401 1544
Тип графической памяти GDDR5 GDDR5
Объем видеопамяти, Мбайт 1536 1536
Разрядность шины памяти, бит 384 384
Реальная/эффективная частота графической памяти, МГц 924/3696 1002/4008
Полоса пропускания памяти, Гбайт/c 177,4 192,4
Заполнение сцены, млрд пикс/с 33,6 37,0
Заполнение сцены, млрд текс/с 42,0 49,4
Производительность FP32, Гфлопс 1344,9 1581
Производительность FP64, Гфлопс 168,1 197,6
TDP, Вт 250 244
Рекомендованная стоимость, USD* 499 499

* На момент релиза

Частота GPU новинки составляет 772 МГц (1544 МГц для шейдерного домена, работающего на удвоенной частоте ядра). Это приблизительно на 10% выше, чем рабочая частота GF100 видеокарты GeForce GTX 480 (700/1401 МГц). С учетом архитектурных доработок GPU преимущество GTX 580 в производительности может оказаться и более весомым.

Графическая память (ее конфигурация полностью сохранена: GDDR5, 384-битная шина, объем 1536 Мбайт) также функционирует на повышенной частоте (с 3696 до 4008 МГц). Это привело к расширению полосы пропускания с 177,4 до 192,4 Гбайт/с (прирост ~8%). Все перечисленные изменения закономерно повлекли за собой увеличение скорости заполнения сцены и рост математической производительности видеокарты.

Подведу итог раздела. Производительность GeForce GTX 580 в сравнении с предыдущим флагманом компании (GeForce GTX 480) возросла по следующим причинам:

  • Активация всех блоков GPU. Дополнительный мультипроцессор - это 32 ядра CUDA (прирост их количества составляет 6,6%), работающий с ними блок PolyMorph Engine и 16 Кбайт cache L1.
  • Рост частот GPU (+10%) и видеопамяти (+8%).
  • Архитектурные улучшения в текстурных блоках и растерных движках GPU (+3-12% производительности по данным nVidia).

Внешний вид

В лабораторию Overclockers.ru поступил ускоритель, маркированный как собственное изделие nVidia. Полюбуйтесь эталонным вариантом, очень скоро компании-партнеры «разрисуют» его наклейками:

А пока внешний вид скромен – из всех дизайнерских элементов присутствуют разве что незамысловатая графика в виде полосок и маленькая зеленая планочка (фирменный цвет nVidia) возле задней панели.

Внешне видеокарта заметно отличается от GTX 480, хотя общая компоновка сохранена. В глаза бросается отсутствие выступающих сверху тепловых трубок, ставших визитной карточкой предыдущего флагмана nVidia. Пластиковый кожух теперь целиковый, раньше в его передней части был вырез для радиатора системы охлаждения.

Обратная сторона видеокарты тоже по-своему интересна. Можно отметить огромное количество крепежных винтов, соединяющих систему охлаждения и печатную плату: всего их двадцать штук. Толстая металлическая рамка системы охлаждения играет роль ребра жесткости, препятствуя прогибу платы, что важно в случае такого массивного ускорителя как GeForce GTX 580. В итоге вся конструкция получается очень жесткой, по ощущениям ускоритель монолитен как кирпич

. Обратите внимание, что конструкторы nVidia отказались от применения бэкплейта: прогнуть хорошо зафиксированную печатную плату практически невозможно.

Тщательнее осмотрев обратную сторону видеокарты, можно обнаружить контроллер преобразователя питания процессора (в «хвосте») и посадочные места для 12 дополнительных микросхем памяти. Возможно, кто-то из партнеров nVidia решится выпустить трехгигабайтную версию этого ускорителя. Сегодня такой объем памяти может понадобиться разве что при использовании нескольких мониторов с приличным разрешением, но продукт получился бы очень оригинальным.

Длина GeForce осталась такой же, как у предшественника (GTX 480). Для сравнения габаритных размеров привожу фото «бутерброда» из трех мощнейших однопроцессорных видеокарт современности: GeForce GTX 580 сверху, в середине – GeForce GTX 480, внизу – Radeon HD 5870.

Под этим углом зрения может показаться, что GTX 580 немного крупнее старого флагмана компании, но это не так: беспристрастная рулетка зафиксировала одинаковую длину в 267 мм (на официальном сайте приведен и имперский эквивалент - 10,5 дюйма). Radeon HD 5870 чуть крупнее – 279 мм (это, соответственно, ~11 дюймов).

При одинаковой длине GTX 580 оказывается ниже GTX 480, из-за отсутствия выступающих тепловых трубок, о которых я уже упоминал ранее. Высота нового ускорителя составляет 111 мм, тогда как старый выше приблизительно на 15 мм. Забавно, что сама nVidia этого факта не признает: по данным сайта компании высота обеих видеокарт одинакова.

На задней панели расположены три разъема: два двухканальных DVI и один mini-HDMI. Такой набор можно назвать достаточным для современного игрового ускорителя, хотя компания ATI в рамках развития технологии Eyefinity оснащает новейшие видеокарты большим количеством разъемов, включая сразу несколько Display Port. Разработчики из nVidia не так давно представили свой вариант технологии подключения нескольких мониторов к одиночному видеоадаптеру (NVIDIA Surround), но на количестве разъемов это пока не отразилось.

Обратите внимание на решетки, прикрывающие отверстия для выдува нагретого воздуха возле задней панели платы. Их две (по одной с каждой стороны). Я не совсем понимаю, в чем смысл этих дополнительных «ноздрей». По мнению автора, самым лучшим, наоборот, является хорошо герметизированный кожух, который направляет весь воздушный поток к задней панели, где он выдувается за пределы корпуса.

В передней грани кожуха также есть дополнительная прорезь, но она никак не сообщается с турбиной. Подобнее об организации внутреннего пространства кожуха я расскажу в соответствующем разделе.

Два разъема дополнительного питания (шести- и восьмиштырьковый) расположены на верхней грани платы, что обеспечивает удобный доступ к ним при монтаже системы в корпусе. GeForce GTX 580 – не самая длинная карта, но при подключении шнуров дополнительного питания сзади могли бы возникать неприятные «встречи» ускорителя с жесткими дисками (особенно в тесных корпусах).

Печатная плата

Перед вами фотография печатной платы GeForce GTX 580:

Вид сверху:

Даже при беглом осмотре родство новинки с предыдущим флагманом компании становится еще более очевидным. Для сравнения приведу фото эталонной печатной платы GeForce GTX 480, сделанное моим коллегой Gabe Logan более полугода назад для соответствующего обзора.

Отличия можно пересчитать по пальцам одной руки. Самое явное – у старой платы есть специальные прорези возле разъемов дополнительного питания для забора воздуха турбиной. На новой PCB их нет, но белая дуга разметки сохранилась. Второе отличие – распайка на выходах фаз преобразователей питания GPU и видеопамяти керамических конденсаторов вместо традиционных электролитических «банок». Третье и самое существенное отличие – наличие на новой плате нескольких дополнительных микросхем аппаратного мониторинга нагрузки, которые отслеживают силу тока, подаваемого через разъемы дополнительного питания и PCIe.

Это очень интересная система. Видеокарта самостоятельно отслеживает уровень нагрузки на GPU, основываясь на показателе энергопотребления, и подстраивает напряжение питания так, чтобы оставаться в рамках заявленного TDP (244 Вт). Работает вся схема в связке с драйвером видеокарты, который дополнительно оценивает тип запущенного приложения и может отдать команду на понижение частоты GPU вдвое (sic!). Пока в черный список попали два популярных стресс-теста: FurMark и OCCT GPU, которые уже много лет используются энтузиастами для прогрева видеокарты и проверки стабильности в экстремальных условиях. В случае запуска любого из них частота видеопроцессора будет снижена в два раза. Специалисты nVidia считают, что эти программы создают нетипично высокую нагрузку, что может привести к выходу ускорителя из строя из-за перегрева GPU или системы питания. Хм. То есть элементы на плате и СО рассчитаны на типичную нагрузку, а не на максимальную, и по этой причине долой стресс-тесты?

Проиллюстрирую свою мысль на примере: «Вот, машина теоретически может ехать 200 км/час, но поскольку из-за пробок большинство больше ста не ездит, то вот, при сборке мы поставили детальки, рассчитанные как раз на эту (100 км/час) скорость и заблокировали возможность её превышения». Странно конечно, ну ладно…

Что это – новое слово в проектировании «умных» видеокарт или признание специалистами nVidia неудачности процессора GF100, с энергопотреблением и тепловыделением которого они так и не смогли совладать? Возможно, все заявления компании о снижении энергопотребления и нагрева основаны именно на применении этого механизма, вовремя сбрасывающего напряжение питания? Не отразится ли это негативным образом на разгонном потенциале видеокарты? На момент написания статьи вопросов по работе микросхем мониторинга и подстройки было больше, чем ответов. О борьбе автора со «скачущим напряжением» будет рассказано в разделе «Разгон, температурный режим и уровень шума».

Графический процессор маркирован как GF110-375-A1. Он выпущен на 38 неделе нынешнего года (в конце сентября).

На GeForce GTX 580 применяются те же микросхемы памяти, что и на GeForce GTX 480. Это хорошо знакомые оверклокерам Samsung K4G10325FE-HC04, которые сегодня можно встретить на самых разных картах (к примеру, они же стоят на «референсе» Radeon HD 5870). Номинальное время доступа (0,4 нс) указывает на рабочую частоту 1250 МГц (эффективная частота 5000 МГц, с учетом «учетверения» GDDR5). На GeForce GTX 580 потенциал микросхем реализован не полностью, частота памяти составляет лишь 1002 (4008) МГц, но это все-таки лучше, чем 924 (3696) МГц GeForce GTX 480.

Система питания также позаимствована у GeForce GTX 480 в неизменном виде. Преобразователь питания GPU выполнен по шестифазной схеме и управляется контроллером CHL8266 производства CHiL Semiconductor. Питание памяти осуществляется посредством двухфазного преобразователя, управляемого контроллером APW7066 производства Anpec. При этом нужно учитывать, что две фазы отвечают за разные напряжения: VDDQ и VDD, возможно правильнее называть такую схему «1+1».

На следующей фотографии-схеме зеленым цветом выделен преобразователь питания графического процессора, синим – преобразователь питания микросхем видеопамяти, красным – новые микросхемы мониторинга и подстройки.

Видеокарта, как и прежний флагман компании, оснащена двумя разъемами SLI. Официально заявлена поддержка 2-way и 3-way SLI. Система на базе трех GeForce GTX 580 даже заочно выглядит одной из самых мощных конфигураций на сегодняшний день. Однако цена, энергопотребление и практически обязательное использование системы водяного охлаждения для повседневной эксплуатации переводят ее в разряд редкой экзотики.

О разъемах дополнительного питания я уже писал выше. С учетом практически неизменного уровня TDP в сравнении c GeForce GTX 480 требования к блоку питания также остались на прежнем уровне. Производитель рекомендует использование БП с выходной мощностью от 600 Вт для одиночной GTX 580.

Система охлаждения

В свое время система охлаждения GeForce GTX 480 произвела на обозревателей очень благоприятное впечатление. Один из моих коллег даже назвал ее «инженерным шедевром». Что и говорить, инженерам-проектировщикам пришлось потрудиться, чтобы умерить пыл горяченного GF100, сохранив габариты СО в стандартных пределах. В отличие от ATI компания nVidia ограничивает длину своих даже топовых видеокарт отметкой 10,5 дюйма (267 мм).

Для решения этой нетривиальной задачи была создана очень сложная конструкция на основе сразу пяти тепловых трубок.

Вдобавок использовалась технология прямого контакта трубок с теплораспределительной крышкой GPU, а габаритные размеры радиатора были увеличены, насколько это возможно, за счет дополнительной внешней крышки (для нее пришлось сделать специальный вырез в кожухе СО, который и придал GTX 480 узнаваемый облик).

Наверное, эта система охлаждения является одной из самых сложных и эффективных за всю историю ускорителей GeForce, но справиться с охлаждением огромного кристалла GPU GF100 она все равно смогла лишь с большой натяжкой. Видеокарта получилась шумной и горячей. Разгонный потенциал GTX 480 также оставлял желать лучшего: заложенной в конструкцию ускорителя возможностью программного повышения напряжения нужно было пользоваться с большой аккуратностью. Преодоление перечисленных недостатков было одной из приоритетных задач при проектировании GTX 580. И тут конструкторам пришлось изрядно попотеть, так как все возможности по развитию конструкции уже были использованы на предыдущем ускорителе.

Тепловые трубки уже просто негде разместить, их концы и так плотно уложены вдоль всей крышки GPU. Увеличивать размеры радиатора для повышения площади рассеивания тоже некуда. Выход был найден в технологии испарительной камеры, которая с давних пор активно продвигается на рынок компанией Sapphire, а на «референсах» до этого использовалась лишь в двух случаях.

В свое время применение испарительной камеры на Radeon HD 4850 позволило оснастить видеокарту высокого класса (по тем временам «middle-high») однослотовой системой охлаждения. Второй опыт ATI по применению этой технологии – СО нынешнего «короля 3D графики» Radeon HD 5970 – также вышел очень успешным. Двухпроцессорная видеокарта с высочайшим уровнем тепловыделения остается под нагрузкой приемлемо шумной и даже неплохо поддается разгону.

Вдобавок упомяну видеокарты Sapphire серии Vapor-X, которые считаются одними из лучших «нереференсов» на рынке. Видимо, именно эти успешные примеры подтолкнули спецов nVidia к применению испарительной камеры.

Общий вид демонтированной системы охлаждения представлен на фото ниже.

Вся конструкция легко отделяется от печатной платы «единым блоком», правда сначала необходимо вывернуть два десятка винтов. Поработав отверткой еще немного (всего семь винтиков – подумаешь), можно разделить кожух и металлическую рамку (основание) СО.

Кожух разделен на два объема дугообразной перегородкой. «Задний отсек», где расположены разъемы дополнительного питания и несколько электролитических конденсаторов не сообщается с турбиной.

Жесткая металлическая рамка, к которой крепится испарительная камера, служит базой всей конструкции. Она контактирует с микросхемами памяти, а также дросселями и силовыми ключами преобразователей питания. Контакт осуществляется посредством термопрокладок.

Когда система охлаждения демонтирована с платы, то испарительная камера просто лежит на ней – ее можно легко снять пальцами.

После монтажа крепежные винты насквозь прошивают всю конструкцию и прочно притягивают основание камеры к рамке. В результате вся система может эффективно охлаждать не только GPU, но и микросхемы памяти, и преобразователи питания.

Испарительная камера с радиатором представлена на фото:

О принципе ее работы я уже несколько раз подробно писал в своих статьях. Не буду повторяться, а лишь скажу, что по сути ИК представляет собой огромную тепловую трубку необычной формы. Принцип тот же: специальная жидкость постоянно испаряется с нагреваемого конца и конденсируется на охлаждаемом, перетекая обратно. Различие в том, что эти «концы» представляют собой не маленькие трубочки, а обширные пластины, которые могут целиком закрыть теплораспределительную крышку GPU.

Верхние концы всех ребер загнуты под углом в 90 градусов – радиатор представляет собой своеобразный тоннель для воздушного потока, идущего от турбины.

Основание, контактирующее с крышкой GPU, чуть выступает над поверхностью испарительной камеры. Уровень его обработки впечатляет, полировка очень качественная.

Турбина, применяемая на GeForce GTX 580, никак не маркирована. По количеству лопаток и габаритным размерам турбина не отличается от той, что установлена на GeForce GTX 480.

Итак, система охлаждения GTX 580 представляет собой принципиально новую конструкцию, а не развитие идеи «пятитрубного» варианта GTX 480. Инженеры компании сумели по максимуму задействовать ограниченное внутреннее пространство кожуха СО. Сложно даже придумать, как можно сделать более эффективную СО тех же габаритов: все современные технологии воздушного охлаждения уже были опробованы.

Отмечу еще один момент. Так как печатная плата флагманской видеокарты осталась практически прежней, сохранилось и расположение крепежных отверстий. Это значит, что компании-партнеры nVidia могут в кратчайшее время наладить выпуск «нереференсов» с оригинальными системами охлаждения, используя все свои наработки по GeForce GTX 480.

Пока таких видеокарт нет в продаже, но это можно исправить, заменив СО на более производительную самостоятельно. Именно этим автор и занялся после разборки карты. Так, какая модель сейчас считается самой производительной из присутствующих на рынке альтернативных кулеров для видеокарт? Исследования моих коллег подсказывают, что это Thermalright Spitfire – огромный радиатор, который на голову превосходит по эффективности все остальные системы воздушного охлаждения GPU.

Монтаж Thermalright Spitfire

Для начала несколько слов о самом радиаторе Thermalright Spitfire. Эта модель появилась на рынке не так давно и сразу же привлекла внимание оверклокеров – любителей всего самого мощного, производительного и экстремального.

Специалисты Thermalright отвергли компромиссные решения и создали радиатор огромных размеров: 130 х 165 мм при толщине около трех сантиметров. Суммарная площадь всех его ребер – более 3500 см2. Масса конструкции – 550 граммов. В комплекте поставки предусмотрена даже специальная штанга для крепления Spitfire к материнской плате или прямо к стенке корпуса. Еще бы! Печатная плата далеко не каждого ускорителя выдержит такую «гирьку» без последствий!

Основу конструкции составляют сразу шесть тепловых трубок, уложенных рядком в основании и расходящихся каждая к собственной секции радиатора.

Основание сделано двухсторонним, то есть пользователь может выбрать один из двух вариантов установки радиатора.

Так как расстояния между крепежными винтами вокруг подложки GPU у GeForce GTX 480 и GTX 580 совпадают, то проблем с установкой не возникло. Крепление подошло идеально.

Для охлаждения цепей преобразователя питания GeForce GTX 480 конструкторы Thermalright предусмотрели отдельный небольшой радиатор с двумя тепловыми трубками. Он называется VRM-G2.

Конфигурация и расположение элементов преобразователей у GTX 480 и GTX 580 одинаковы, но с монтажом радиатора все равно возникли сложности. На приведенном выше фото хорошо видны четыре крепежных отверстия. Одно из них находчивые конструкторы Thermalright расположили над прорезью для «дыхания» турбины GTX 480, предлагая использовать его для крепежа. Вот ведь незадача, на GTX 580 эта прорезь отсутствует:

На плате есть отверстие поблизости, всего в нескольких миллиметрах от нужной точки, но использовать его для закрепления VRM-G2 невозможно. Дело осложняется тем, что для радиатора предусмотрен собственный бэкплейт с четырьмя запрессованными намертво винтами:

Несложно понять, что применить его на GeForce GTX 580 не получится, по крайней мере без удаления того винта, для которого не нашлось отверстия. После небольшого «мозгового штурма» автор задействовал для монтажа VRM-G2 три обычных винта и гайки с насечкой, найденные в коробке Thermalright Spitfire.

Несимметричное крепление в трех точках трудно назвать удачным, но других вариантов (без сверления дополнительных отверстий в основании радиатора) нет. Прижим получился сносным, такую конструкцию можно использовать для проведения тестов разгонного потенциала.

Будем надеяться, что в ближайшее время конструкторы Thermalright предложат модернизированный вариант VRM-G2, совместимый с обеими вариантами платы.

Thermalright Spitfire также использовался для разгона двух других видеокарт, принимавших участие в тестировании. Прочитать об особенностях монтажа радиатора на Radeon HD 5870 и GeForce GTX 480 можно в следующих материалах:

Укрощаем GeForce GTX 480: дополнительный тест Thermalright Spitfire + VRM-G2

Обзор и тестирование радиаторов для GPU и VRM: Thermalright Spitfire и VRM-R5

GeForce GTX 580 SLI

Оттестировать SLI по полной программе за короткое время, конечно, не получилось, но многие тесты были проведены. По их результатам вполне можно судить о производительности одной из самых мощных графических связок в мире. С конкретными цифрами можно будет ознакомиться ниже, а пока я скажу несколько слов о технической стороне вопроса.

Во-первых, при установке видеокарт не возникло никаких проблем с драйверами. Конфигурация была распознана корректно, прирост производительности наблюдался во всех тестовых приложениях (пусть и не такой значительный, как хотелось бы). Это очень позитивный факт, ведь использовалась бета-версия Display Driver 262.99. Видимо, опять сказывается родство GTX 580 и хорошо проработанной GTX 480.

Во-вторых, стендового блока питания CoolerMaster M1000 (1 КВт) системе хватало с запасом, даже с учетом использования разогнанного до 4000 МГц процессора. На этот счет у автора существовали небольшие опасения, но они не оправдались. Стендовый БП чутко реагирует на повышенные нагрузки, увеличивая обороты вентилятора, в данном случае этого не происходило, при этом на ощупь БП оставался едва теплым. Вывод: «честных 1000 Вт» такой системе хватает с избытком, если не планируется серьезный разгон видеокарт, можно попробовать обойтись и меньшей мощностью.

Кстати, форма кожуха системы охлаждения GeForce GTX 580 специально «заточена» под использование ускорителей в SLI-связке. Обратите внимание, сегмент с турбиной расположен несколько ниже остальной поверхности, для того, чтобы между двумя установленными в соседние разъемы видеокартами оставался просвет для забора воздуха. Этой же цели служит характерный «срез» под углом 45 градусов на «хвосте» видеокарты.

Впрочем, автор не стал устанавливать ускорители в заведомо невыгодное положение впритык друг к другу. Такое может понадобиться разве что для системы 3-SLI, когда на материнской плате задействуются все разъемы PCIe 2.0. В остальных случаях видеокарты лучше разносить на максимально возможное расстояние. Что и было сделано, платы установлены через три разъема друг от друга и связаны гибким мостиком SLI:

Тестовый стенд

Конфигурация тестового стенда:

  • Материнская плата: eVGA Classified 760, bios 6.0 PG;
  • Процессор: Intel Core i7-930 @ 4000 МГц (200x20);
  • Система охлаждения процессора: СВО, ватерблок CPU HeatKiller 3.0;
  • Оперативная память: Corsair TR3X6G1600C7 (DDR3-1600, 8-8-8-24, 3x2 Гбайта, трехканальный режим);
  • Видеокарты: nVidia GeForce GTX 580, Leadtek GeForce GTX 480 (reference), ASUS Radeon HD 5870 (reference);
  • Жесткий диск: Western Digital WD1001FALS (1000 Гбайт);
  • Блок питания: Cooler Master Real Power M1000 (1 кВт);
  • Корпус: открытый стенд.

Программное обеспечение:

  • Windows 7 Ultimate x64;
  • nVidia display driver v. 262.99 для видеокарты GeForce GTX 580;
  • nVidia display driver v. 260.99 для видеокарты GeForce GTX 480;
  • ATI Catalyst v. 10.10 для видеокарты Radeon HD 5870.

Инструментарий и методика тестирования

Для разгона видеокарт, а также мониторинга частот, напряжений и оборотов вентилятора использовалась утилита MSI Afterburner 2.1.0 Beta 4. На момент написания статьи эта версия была самой последней.

Скриншоты, иллюстрирующие режим работы видеокарт, сняты при помощи утилиты GPU-Z v. 0.4.8.

Для прогрева и проверки стабильности работы видеокарт в процессе разгона использовались утилиты OCCT GPUw (режим Error Check, 1024 x 768) и FurMark (Stability Test, Extreme burning mode, 1920 х 1200, AA0). Полученные частоты дополнительно проверялись прогонами теста Heaven Benchmark v 2.1 c экстремальным уровнем тесселяции и графических тестов из пакетов 3DMark06 и 3DMark Vantage.

Для проверки температурного режима видеокарт в условиях, приближенных к повседневным, использовался Heaven BenchMark v. 2.1 (shader: high, tessellation: normal, AA4x, 1920 х 1200).

Производительность в игре Crysis Warhead исследовалась с помощью утилиты Framebuffer Benchmarking Tool. В играх Lost Planet 2 и Tom Clancy’s H.A.W.X. II было проведено дополнительное тестирование с помощью утилиты FRAPS v. 3.2.3 для выявления минимального FPS. Остальные игры тестировались с помощью встроенных средств оценки производительности. Во всех случаях была отключена вертикальная синхронизация.

Уровень шума измерялся при помощи цифрового шумомера Becool ВС-8922 с погрешностью измерений не более 0,5 дБ. Измерения проводились с расстояния 1 м. Уровень фонового шума в помещении – не боле 27 дБ. Температура воздуха в помещении составляла 22-23 градуса.

Разгон, температурный режим и уровень шума

Работа подсистемы питания и разгон

С самого начала работа новых микросхем мониторинга и подстройки напряжения вызывала у меня опасения. Отчасти они оправдались.

Для начала необходимо рассмотреть работу подсистемы питания GeForce GTX 480. На полученном для тестов экземпляре Leadtek GTX 480 напряжение питания ядра в 3D составляет 1,025 В, напряжение в 2D – 0,962 В (некоторые производители задают в BIOS GTX 480 другие значения, особенно на картах с «заводским разгоном»).

Далее все предельно просто – в простое всегда наблюдается 0,962 В, под нагрузкой в любом 3D-приложении - 1,025 В. Эта схема проста и понятна. Сейчас я не учитываю возможные просадки при выставлении высоких напряжений питания, а говорю именно об алгоритме работы.

Система питания GPU на GeForce GTX 580 ведет себя по-другому.

Первый момент, который усложнил разгон видеокарты – не совсем корректная работа используемой версии MSI Afterburner с новым ускорителем. После установки видеокарты в систему я несколько раз перезагружался при инсталляции драйверов и вспомогательных программ – и каждый раз, включая Afterburner, наблюдал разное напряжение «по умолчанию». Чаще всего отображалось значение 0,962 В, иногда 1,05 В и 1,025 В. Очевидно Afterburner в момент запуска считывал текущее напряжение и выдавал его за базовое. Несложно понять, что 0,962 В – это режим 2D, а в 3D оно может подниматься до 1,05 В. Отмеченное значение 1,025 В появилось из-за работы микросхем подстройки.

Проблема в том, что при разгоне приходилось отталкиваться именно от этого базового напряжения, а оно чаще всего принимало значение 0,962 В, сильно запутывая общую картину. Под нагрузкой напряжение гораздо выше. Скорее всего, это собственный глюк Afterburner и в следующих версиях программы он будет исправлен.

Казалось бы, есть простое решение. Можно подсчитать, насколько различаются напряжения 2D и 3D, и просто учитывать это значение при настройке. Очевидный вариант: (1,05 – 0,962) = 0,088 В. То есть для получения в 3D режиме, например, 1,1 В, необходимо выставить в Afterburner (1,1 – 0,088) = 1,012 В.

К сожалению, такая схема не работает. И не работает именно из-за вмешательства микросхем подстройки, самостоятельно корректирующих напряжение в 3D в зависимости от нагрузки.

Чтобы было понятнее, приведу таблицу следующего вида.

Выставленное напряжение (2D), В Прогнозируемое напряжение в 3D, В в простое (2D), В Напряжение в Furmark, В Напряжение в OCCT, В Напряжение в Heaven Benchmark, В
0,962 1,05 0,957 1,022 0,998 – 1,002 1,013 – 1,017
1 1,088 0,980 1,064 1,035 – 1,037 1,052 – 1,056
1,025 1,113 1,023 1,091 1,058 – 1,06 1,078 – 1,081

Поясню. В левом столбце значения, заданные непосредственно в AfterBurner, стартовавшим с базовым напряжением 0,962 В. Второй столбец - те значения, которые получились бы при правильности формулы V (3D) = V (2D) + 0,088 В. Эти цифры взяты не с потолка. Если Afterburner изначально стартует с базовым напряжением 1,05 В (3D режим, - это случается не часто, но бывает) – то именно такой «вольтаж» надо выставить для получения чисел, указанных в четырех правых столбцах таблицы.

В четырех этих столбцах отражены значения напряжения, полученные при тестировании в соответствующем приложении. FurMark и OCCT, как я уже писал выше, попали в «черный список» и драйвер видеокарты уменьшает частоту GPU вдвое при запуске одного из этих тестов. Напряжение тоже просаживается очень заметно. Heaven Benchmark взят в качестве эталонного 3D-приложения, не создающего экстремальной нагрузки на GPU. При тестировании в других бенчмарках и играх наблюдались схожие значения напряжения с разницей не более 0,005-0,007 В.

Следовательно, для GeForce GTX 580 вообще нет понятия «напряжение в 3D», здесь скорее можно говорить о «напряжении в определенном приложении при определенных настройках». Чем сильнее загружен графический процессор, тем выше его энергопотребление, и тем сильнее видеокарта будет пытаться снизить «вольтаж».

На основе анализа работы системы подстройки у меня появилась догадка насчет реальных причин сброса частот FurMark и OCCT. Возможно, эти приложения из-за высокой создаваемой нагрузки заставляли микросхемы «сходить с ума». Предполагаемый сценарий: нетипично высокая нагрузка -> огромная просадка «вольтажа», необходимая, чтобы видеокарта осталась в рамках заявленного TDP -> потеря стабильности. Если бы такое происходило, компанию производителя замучили бы возвратами по гарантии с формулировкой «не держит штатную частоту в тестах».

Интересно, что система подстройки каким-то чудом умудряется не создавать серьезных помех при разгоне. Например, в прогоне Heaven Benchmark с напряжением 1,081 В на значительно повышенной частоте, энергопотребление просто обязано быть значительно выше, чем у стандартной видеокарты. Если бы микросхемы подстройки среагировали, как им и положено – мы бы получили просадку до стандартного напряжения или даже ниже (из-за более высокой частоты GPU). Этого не происходит, значит система выполняет свою функцию «фиксатора TDP» только на стандартных настройках «вольтажа». При повышении напряжения вручную алгоритм снижения во всех случаях сохраняется, но прибавка, заданная пользователем, накидывается на базовое значение «сверху». Это становится очевидным, если сравнить соседние строки в таблице.

Полученные при разгоне частоты я могу «привязать» только к напряжению, выставляемому в MSI AfterBurner, а не к какой-то реальной цифре.

  • При штатном напряжении 0,962/1,05 В была достигнута частота ядра 840 МГц.
  • При напряжении 1/1,088 В была достигнута частота ядра 880 МГц.
  • При напряжении 1,025/1,113 В – 900 МГц.

Тесты проводились в автоматическом режиме работы системы охлаждения.

Во всех играх и бенчмарках тестового пакета видеокарта на этих частотах была полностью стабильна. Теоретически есть вероятность, что большая просадка напряжения под нагрузкой может привести к нестабильности системы в каком-то определенном приложении, при полной работоспособности видеокарты во всех остальных случаях. Таких случаев отмечено не было.

Разгон памяти преподнес приятный сюрприз. На GTX 580 стоят те же самые микросхемы, что и на GTX 480, их номинал составляет 1250 (5000) МГц. Видимо, в целях снижения энергопотребления и нагрева рабочее напряжение микросхем снижено, в результате на GeForce GTX 480 их редко удается разогнать выше 1025-1050 МГц (более типичным считается результат около 1000 МГц). При разгоне GeForce GTX 580 частоту этих же микросхем удалось увеличить с 1002 до 1200 МГц. Эффективная частота памяти при этом составила 4800 МГц, а полоса пропускания расширилась более чем до 220 Гбайт/c.

Стандартная система охлаждения

По традиции раздел открывает тестирование в FurMark. В этот раз оно не вышло таким «экстремальным», как обычно, из-за описанного механизма сброса частот и напряжений.

Результат на стандартных частотах:

Отмечу, что сброс частоты MSI Afterburner не фиксирует, но он определенно есть. Это подтверждают температурные показатели.

Тот же тест после разгона видеокарты до 900 МГц:

Уровень шума на стандартных частотах составил 37,6 дБ, после разгона возрос до 39,2 дБ.

Не завидую обозревателям, которые приведут эти цифры, не разобравшись в работе видеокарты. В этом случае велик соблазн назвать систему охлаждения GTX 580 революционной, особенно в сравнении с GTX 480, которая показывает в этом тесте за 90 градусов под завывания турбины.

Но бог с ним с «бубликом», в конце концов эти данные интересны только с теоритической точки зрения. Гораздо важнее тестирование температурных показателей в условиях повседневного использования. В роли «усредненной игры» как всегда выступает Heaven Benchmark. Этот тест задействует максимальное количество блоков ядра, так как использует самые современные 3D-технологии.

Температура даже на штатных частотах выше, чем в «бублике» под разгоном.

Чтобы была возможность сравнить новый топ с предшественником, приведу скриншот, снятый в том же режиме на GeForce GTX 480 (стандартные частоты).

Выигрыш нового флагмана не так велик. Три градуса по температуре и четыре процента по оборотам турбины. Разница в уровне шума – 2 дБ (42 против 44). Субъективно, гудение обеих видеокарт терпимо, но его очень отчетливо слышно. GeForce GTX 480 явно звучит погромче, но эту разницу нельзя назвать определяющей. Учитывая, что GTX 580 все-таки более мощная карта, работающая на повышенных частотах, я зачту этот тест в плюс nVidia. Температурный режим и шумовые показатели улучшены, как и было обещано.

Еще один скриншот, снятый после разгона GeForce GTX 580 до частот 900/4800 МГц (для ядра/памяти соответственно). Выставлено напряжение питания GPU 1/1,088 В.

Вот почему я остановился на отметке 900 МГц. Штатная СО еще справляется с охлаждением GPU, но уровень шума при этом составляет 49,6 дБ. Это очень громко, хотя и не «оглушающе». В принципе, можно даже поиграть в наушниках или с громким звуком из колонок. Дальнейший разгон возможен только при ручном выставлении максимальных оборотов турбины.

Я долго ломал голову, как же сравнить системы охлаждения GTX 480 и GTX 580 «лоб в лоб», то есть в максимально близких условиях. В итоге решено было подстроиться под «прыгающее» напряжение питания GTX 580. По данными из таблицы, которую приводил в предыдущем разделе, напряжение питания GTX 580 в Heaven BenchMark составляет 1,013-1,017 В (на стандартных настройках).

Для сравнительного теста я просто-напросто разогнал GTX 480 до частот GTX 580 (772/4008 МГц) и выставил «вольтаж» 1,013 В. К счастью, тестовый образец Leadtek смог работать в Heaven Benchmark на таких жестких настройках. В итоге обе видеокарты функционировали в максимально схожих условиях. Вот получившийся график для GeForce GTX 480.

Отмечу, что это все-таки не «чистый» тест, так как тепловыделение GF100 и GF110 даже при одинаковой частоте и напряжении должно отличаться. У GF110 больше активных блоков ядра, но производитель обещал улучшение «энергоэффективности» и снижение тепловыделения, так что получается «баш на баш». GeForce GTX 480 показала приблизительно те же результаты, что и на стандартных настройках, проиграв новой видеокарте 4 градуса и 4% оборотов турбины.

В простое GeForce GTX 580 практически не слышно, зафиксирован уровень шума не более 29-29,5 дБ. Температура GPU составляет порядка 36 градусов, но при активной работе с интерфейсом Windows Aero может подниматься до 38 градусов. Это неудивительно, так как в 2D режиме частота графического процессора GF110 снижается до 51 МГц.

Thermalright Spitfire

Для обдува радиатора использовался 120-мм вентилятор Scythe Slip Stream SY1225SL12SH, подключенный через регулятор оборотов. Были исследованы два режима:

  • Тихий – 1100-1150 об/мин, уровень шума 31-31,5 дБ.
  • Производительный – 1800-1850 об/мин, уровень шума 38,2-38,6 дБ.

В первом случае видеокарта получается чрезвычайно тихой. Скорее всего, ее вообще не будет слышно на фоне других компонентов системного блока. Во втором случае вентилятор все равно работает намного тише, чем турбина стандартной СО в игровых тестах.

Для начала проверка, справится ли Thermalright Spitfire с охлаждением разогнанной GeForce GTX 580 в тихом режиме. Результаты «игрового» теста:

Температура «висит» около отметки 80 градусов. Это почти на 9 градусов ниже, чем показатели стандартной СО при несопоставимом уровне шума (31,5 дБ против 49,6 дБ). Spitfire демонстрирует фантастическую производительность.

Температура в Furmark гораздо ниже:

К сожалению, сильнее разогнать видеокарту при низких оборотах вентилятора не удалось. Для преодолению отметки 900 МГц требуется значительное увеличение напряжения и температура быстро доходит до отметки 85 градусов. В таком режиме очень тяжело добиться стабильной работы видеокарты, поэтому я отказался от этих экспериментов. Результат «900 МГц при почти бесшумной работе» и так очень хорош. В дополнение отмечу, что на стандартных частотах температура GPU в «игровом» тесте снижается до 73 градусов.

Переход к производительному режиму работы вентилятора принес значительное падение температуры. Стандартные частоты, «игровой» тест:

И опять гигантский отрыв от стандартной СО. Температура ниже на 22 градуса при выигрыше в шумовых характеристиках (~3 дБ).

Увидев такие замечательные результаты, я с удвоенной энергией принялся за разгон видеокарты. Частота 900 МГц была взята повторно, но на чуть более низком напряжении 1,013/1,101 В. Температура в «игровом» тесте повысилась при этом до 68 градусов.

Следующим рубежом стала отметка 950 МГц. Так высоко по частоте видеокарта идет уже очень неохотно. В итоге напряжение пришлось последовательно увеличить до 1,056/1,144 В. В Heaven Benchmark реальное напряжение составляло 1,109-1,111 В, температура 76 градусов.

Вокруг заманчивой отметки 1 ГГц автор «танцевал» в течении нескольких часов. Напряжение поднималось очень значительно, но заставить видеокарту работать на этой частоте нормально так и не получилось. При напряжении питания 1,118/1,206 В (надеюсь, парни из nVidia меня не повесят) почти удалось добиться стабильности, но тесты «вываливались» через 1-2 минуты (перегрев). Поднимать напряжение дальше я не стал, да и температура уже выросла почти до 90 градусов. И все-таки я уверен, что получить 1000 МГц на GTX 580 абсолютно реально. Для этого хватит приличной системы водяного охлаждения. Процессор хорошо реагирует на понижение температуры, и при напряжении 1,118/1,206 В (а то и меньшем) видеокарта наверняка оказалась бы стабильна, не перейди я отметку в 80 градусов.

Тестирование производительности

Участники тестирования

  • GeForce GTX 580 – главный герой сегодняшнего обзора.
  • GeForce GTX 480 – предыдущий флагман компании nVidia.
  • ATI Radeon HD 5870 – самая мощная однопроцессорная видеокарта ATI. Очень скоро этот ускоритель уступит место новому HD 6970. Именно с этой новинкой GeForce GTX 580 будет бороться за кошельки покупателей в период новогодних распродаж. Но на момент написания статьи Radeon HD 5870 еще не сложил полномочия «топового ускорителя», так что его появление среди участников закономерно.

Видеокарты тестировались как на штатных частотах, так и в разгоне. На графиках они будут обозначены следующим образом:

  • GeForce GTX 580 OC+ - частота ядра 950 МГц (1,056/1,144 В), шейдерного домена - 1900 МГц, видеопамяти – 1200 (4800) МГц. Уровень разгона, достигнутый с использованием радиатора Thermalright Spitfire.
  • GeForce GTX 580 OC – частота ядра 900 МГц (1,025/1,113 В) шейдерного домена - 1800 МГц, видеопамяти – 1200 (4800) МГц. Эти частоты удалось получить с использованием стандартной системы охлаждения. На близкий уровень разгона может рассчитывать большинство владельцев GeForce GTX 580.
  • GeForce GTX 580 - видеокарта на штатных частотах. Ядро – 772 МГц, шейдерный домен – 1544 МГц, видеопамять 1002 (4008) МГц.
  • GeForce GTX 480 OC – частота ядра 820 МГц (1,063 В), шейдерного домена - 1640 МГц, видеопамяти – 1025 (4100) МГц. Такой уровень разгона получен с применением Thermalright Spitfire. Для данной видеокарты это значительный прирост частот, хотя бывают и более удачные экземпляры.
  • GeForce GTX480 – видеокарта на штатных частотах. Ядро – 700 МГц (1,025 В), шейдерный домен – 1401 МГц, видеопамять 949 (3796) Мгц.
  • Radeon HD 5870 OC - частота ядра 1000 МГц (1,273 В), видеопамяти – 1300 (5200) МГц. Это типичный разгон Radeon HD 5870 c повышением напряжения питания GPU.
  • Radeon HD 5870 – видеокарта на штатных частотах. Ядро – 850 МГц, видеопамять – 1200 (4800) МГц.

Результаты тестов одиночной видеокарты

На правах старожила тестирование открывает 3DMark 06.

3DMark 06


Overall Score

Сегодня этот тест на стандартных настройках подходит только для оценки мощности видеокарт нижнего ценового сегмента. Все участники тестирования показали очень близкие результаты, дружно «уперевшись» в центральный процессор.

Наследник 3DMark 06 – более современный 3DMark Vantage до сих пор является адекватным тестом производительности видеокарт.

3DMark Vantage


Performance, Overall Score

Режим Performance легковат для участников тестирования, но неплохо показывает общий расклад. Radeon HD 5870 и GeForce GTX 480 демонстрируют близкие результаты с небольшим преимуществом видеокарты nVidia. Новый флагман GeForce GTX 580 на штатных частотах значительно превосходит даже разогнанных конкурентов. А уж после разгона и вовсе уходит в отрыв, набрав почти 28 тысяч очков.

3DMark Vantage


Extreme, Overall Score

Пресет Extreme должен отображать реальный расклад сил еще более четко, здесь влияние центрального процессора на результат минимально. GeForce GTX 580 закрепляет свое преимущество, а Radeon HD 5870 чуть отстает. Вообще, результат GeForce GTX 580 после разгона просто «космический», если в играх будет наблюдаться такое же преимущество, то впору говорить о настоящем прорыве.

После откровенной синтетики настало время перейти к более реалистичному Heaven Benchmark. Сначала тест с нормальным уровнем тесселяции:

Unigine Heaven Benchmark


Dx11, AA4x Tessellation normal
Min | Avg FPS
1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • API: DirectX 11
  • Shaders: High
  • Tessellation: normal
  • Anisotropy: 16x
  • Anti-aliasing: 4x

Тут видеокарта ATI никак не может соперничать с ускорителями nVidia, разогнанный GeForce GTX 580 обходит Radeon вдвое! После хорошего разгона GeForce GTX 480 почти догоняет GTX 580 на стандартных частотах.

Дополнительный тест на тех же настройках, но с экстремальным уровнем тесселяции:

Unigine Heaven Benchmark


Dx11, AA4xTessellation extreme
Min | Avg FPS
1680 x 1050

1920 x 1200

Разрыв между GTX 480 и GTX 580 примерно тот же, а вот бедняга Radeon откровенно захлебнулся в таком количестве треугольников. Справедливости ради отмечу, что игр с таким активным использованием продвинутой тесселяции пока не существует, и этот тест не слишком близок к реальному использованию, хоть и удобен для nVidia.

На очереди первая настоящая игра – Far Cry 2. Когда-то она была крепким орешком даже для видеокарт топ класса. Современные флагманы перемалывают Far Cry 2 играючи, но качество выдаваемой картинки до сих пор производит впечатление.

Far Cry 2


Dx10, Ultra High, AA4x
Min | Avg FPS
1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • API: DirectX 10
  • Overall Quality: High
  • HDR: ON
  • Bloom: ON
  • Anti-aliasing: 4x
  • Demo: Ranch Small

Ускорители nVidia страдают от недостатка производительности CPU, но разогнанной GeForce GTX 580 все же удается оторваться от предшественницы. Это не самый сложный тест для Radeon HD 5870, но подобраться к конкурентам он не может даже после разгона.

Следующая протестированная игра – Crysis Warhead во многом похожа на FarCry 2 с поправкой на гораздо большую «прожорливость». Когда-то эту игру на максимальных настройках не могли вытянуть даже топовые ускорители, но сегодня она уже не так беспощадна.

Crysis Warhead


Dx10, Enthusiast, AA4x
Min | Avg FPS
1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • API: DirectX 10
  • Mode: Enthusiast
  • Anti-aliasing: 4x
  • Map: ambush

Radeon HD 5870 может побороться с GeForce GTX 480, особенно после разгона. Разогнанная GeForce GTX 580 опять демонстрирует уровень производительности, совершенно недостижимый для конкурентов. Это первая из игр, где от возросшей производительности новинки есть реальная польза: сравните показатели минимального фреймрейта, особенно в разрешении 1920 х 1200.

На очереди Mafia II, которая для данного теста интересна прежде всего своим проработанным физическим движком, использующим все возможности PhysX.

Для начала приведу результаты теста без использования этой технологии – надо ведь и Radeon HD 5870 дать возможность проявить себя.

Mafia II


Maximum, PhysX off
Avg FPS

1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • Overall Quality: High
  • Anti-aliasing: ON
  • PhysX: off

Без «физики» Radeon почти смог догнать GeForce GTX 480. Новинка опять показывает серьезное преимущество, которое только возрастает после разгона видеокарт.

Тот же тест, но с максимальным уровнем обработки «физики»:

Mafia II


Maximum, PhysX High
Avg FPS
1680 x 1050

1920 x 1200

Radeon от участия отказался, сославшись на усталость. Разогнанной GeForce GTX 480 наконец-то удалось «на волосок» превзойти GTX 580. В целом игра в этом режиме тяжеловата для обеих видеокарт, хотя на разогнанной GeForce GTX 580 можно поиграть без особых проблем.

Далее приводятся результаты тестирования в игре S.T.A.L.K.E.R.: Call of Pripyat. Мне давно хотелось выставить все настройки движка на абсолютный максимум. Самое время сделать это, благо мощности участникам теста не занимать.

S.T.A.L.K.E.R.: Call of Pripyat


Dx11, Ultra, AA4x
Min | Avg FPS
1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • Preset: Ultra
  • Renderer: DirectX 11
  • MSAA: 4x
  • MSAA for A-tested objects: DX 10.1 style
  • SSAO mode: HDAO
  • SSAO quality: Ultra
  • Tessellation
  • Contact hardening shadows
  • Test: Day

Обращаю ваше внимание, что использовано «неудобное» для видеокарт nVidia, но более качественное SSAO - HDAO (вместо традиционного HBAO). Сделано это не просто так.

Игра заточена под видеокарты ATI, а с учетом «удобного» режима Radeon HD 5870 и вовсе сумел обогнать GeForce GTX 480 после разгона. Но посмотрите, хороший прирост минимального FPS позволяет GeForce GTX 580 вырваться вперед и превзойти Radeon, играющий "на своем поле".

А вот и совсем новая Lost Planet 2. Разработчики, конечно, молодцы, - выпустили специальную бенчмарк-версию игры. С двумя тестами и красивыми графиками. Старались. Вот только мерить минимальный FPS (очень важный для такой графически тяжелой игры) все равно приходится FRAPS’ом.

Lost Planet 2


Dx11, Maximum, AA4x
Min|Avg FPS
1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • API: DirectX 11
  • Размытие движения: Вкл
  • Качество теней: высокое
  • Качество теней: высокое
  • Качество отрисовки: высокое
  • Качество DX11: высокое
  • Test B

Здесь тесселяция используется на полную катушку. Плюс лейбл nVidia в заставке, - короче говоря, Radeon ловить в этой игре нечего. Расклад сил между GeForce GTX 480 и GTX 580 сохраняется: при разгоне бывший флагман почти догоняет нынешнего на стандартных частотах.

Далее на очереди игра Metro 2033, которую стоит переименовать в Crysis 2010. Нагрузка на видеосистему при максимальных настройках совершенно неадекватна. Только вдумайтесь, в тесте принимают участие топовые видеокарты, да еще и прилично разогнанные, а получается вот что:

Metro 2033


Dx11, Very High, AA4x, PhysX off
Min|Avg FPS
1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • API: DirectX 11
  • Quality: Very High
  • Anti-aliasing: MSAA 4x
  • Texture Filtering: 16x
  • DOF: on
  • Advanced PhysX: off
  • Scene: Frontline

Дело даже не в показателе минимального FPS – это коротенькие «фризы», которые возникают нечасто - в момент, когда что-нибудь «бабахает» на пол-экрана. С ними вполне можно играть. Оцените средний FPS. Из всех видеокарт только GTX 580 в разгоне пытается вытащить игру в разрешении 1680 х 1050, GeForce GTX 480 показывает слайдшоу, а Radeon HD 5870 вообще – диафильм.

Такие результаты – форменное безобразие. А безобразия я люблю, так что самое время включить вдобавок PhysX.

Metro 2033


Dx11, Very High, AA4x, PhysX on
Min|Avg FPS
1680 x 1050

1920 x 1200

Производительность при этом просела незначительно, но играть теперь совершенно невозможно. Даже разогнанная GTX 580 лежит в нокауте.

Ладно, надо дать видеокартам последний шанс. Тот же тест с настройками «High», без физики и DOF:

Metro 2033


Dx11, High, AA4x, PhysX off
Min|Avg FPS
1680 x 1050

1920 x 1200

Так-то лучше. На GeForce GTX 580 можно неплохо поиграть в разрешении 1680 х 1050, а после разгона и в более высоком 1920 х 1200. Разогнанной GTX 480 также хватает для пониженного разрешения. Фризы, конечно, никуда не пропали, но они практически не мешают нормальной игре.

Неувядающий World in Conflict до сих пор способен загрузить работой даже флагманские ускорители:

World in Conflict


Dx10, Very High, AA4x
Min | Avg FPS
1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • API: DirectX 10
  • Overall Quality: Very High Preset
  • Anti-aliasing: MSAA 4x

Поиграть без проблем можно на всех тестируемых видеокартах. Общий расклад сил виден на графике.

Необычные результаты были получены в «приставочном» Resident Evil 5.

Resident Evil 5


Dx10, Maximum, AA4x
Avg FPS
1680 x 1050

1920 x 1200

Использованы следующие настройки:

  • API: DirectX 10
  • Overall Quality: High
  • Texture Detail: High
  • Shadow Detail: High
  • Motion Blur: on
  • Anti-aliasing: 4x
  • Framerate: unlocked

Очевидно, что все видеокарты «уперлись» в процессор. Интересно, что уровень среднего FPS при этом не так высок. Я несколько раз перепроверил тест с включением и отключением как вертикальной синхронизации, так и ограничителя кадров. Ошибки нет – результаты получились именно такими, как на графиках.

И напоследок еще одна новинка - Tom Clancy’s H.A.W.X 2. В этом случае разработчики по уровню «мудрости» превзошли своих коллег – создателей Lost Planet 2. Они тоже сделали специальную бенчмарк-версию игры. Очень удобную и красивую, но умеющую мерить только средний и максимальный (!) FPS. Для замеров минимального значения опять пришлось воспользоваться FRAPS.

Tom Clancy’s H.A.W.X 2


Dx11, Maximum, AA4x
Avg FPS
1680 x 1050
1920 x 1200

Использованы следующие настройки:

  • API: DirectX 11
  • Antialiasing: 4x
  • View distance: High
  • Environment: High
  • Texture Quality: High
  • Postprocessing: on
  • Depth of Field: on
  • Particles density: High
  • Shadows: on
  • Terrain tessellation: on

Radeon HD 5870 опять не повезло – в этой игре для изображения поверхности земли активно используется тесселяция. Плюс, опять же, «nVidia – mean to be played». Результаты вы видите на графике.

По общим итогам теста можно сделать вывод, что новый флагман nVidia определенно удался!

Ряд наблюдений читатели наверняка уже сделали самостоятельно, но я позволю себе дополнить их собственными замечаниями.

Типичное превосходство над GeForce GTX 480 составляет 15-17% на штатных частотах. А ведь новый флагман еще и гораздо лучше разгоняется.

Вы наверняка обратили внимание, что разогнанная до 820 МГц GTX 480 в большинстве тестов показывает результаты, очень близкие GTX 580. Еще 15-20 МГц частоты решили бы дело, уравняв производительность этих видеокарт. То есть эквивалентом GTX 580 является GTX 480 на частоте 830-850 МГц. Такой разгон для бывшего флагмана почти недостижим без применения приличного водяного охлаждения (если вы, конечно, не относитесь спокойно к шуму в 56 дБ, издаваемому штатной СО на максимальных оборотах).

Если же поднять частоту GPU GeForce GTX 580 до 870-900 МГц (это можно сделать и со стандартной системой охлаждения) – GTX 480 остается далеко позади. Результаты новой видеокарты в этом случае вообще из другой «оперы», и спорить с ней сможет разве что Radeon HD 5970.

И еще один момент. Если Radeon HD 5870 кое-где может потягаться с GeForce GTX 480, то новый флагман nVidia превосходит его очень значительно. В играх с активным использованием тесселяции (а таких становится все больше) преимущество архитектуры Fermi очевидно.

Конечно, это разные ценовые категории и даже разные поколения видеокарт. Но ATI нужно поторопиться с выводом на рынок Radeon HD 69xx. В тестовых наборах обозревателей и на жестких дисках геймеров появляется все больше новых игр, использующих тесселяцию, а в них архитектура Cypress уже выглядит устаревшей.

Тестовый пакет получился лояльным к видеокартам nVidia, если подобрать другие игры, "заточенные" под архитектурные особенности видеокарт ATI, то расклад можно было бы немного "подправить". Однако приходится мириться с фактом, что самые свежие и требовательные игры все активнее используют возможности DirectX 11, и со временем преимущество GeForce GTX 580 только возрастет.

Результаты тестов SLI-конфигурации

Как и было обещано выше, привожу результаты тестов SLI-конфигурации на основе пары GeForce GTX 580. На полноту это исследование не претендует, оно призвано дополнить основное тестирование производительности новинки.

Во всех случаях использовались настройки, указанные в комментариях к графикам результатов одиночной видеокарты.

3DMark Vantage


Performance, Overall Score

В этом тесте SLI-связка демонстрирует внушительный результат, но он все-таки не так высок из-за относительной «легкости» режима.

3DMark Vantage


Extreme, Overall Score

При переходе к более тяжелому пресету Extreme разрыв между одиночной видеокартой и SLI-системой возрастает.

Приведу результат 3DMark 06. Он совершенно не подходит для оценки производительности таких мощных систем. Зато наглядно демонстрирует, насколько недостаток производительности CPU может ограничить мощность видеосистемы в легких режимах.

3DMark 06


Overall Score

Всего тысячу очков приносит установка в систему второго ускорителя.

Unigine Heaven Benchmark


Dx11, AA4, Tessellation normal
Avg FPS
1680 x 1050

1920 x 1200

Heaven Benchmark с нормальным уровнем тесселяции не слишком тяжел для GeForce GTX 580. Прирост от установки второй видеокарты не впечатляет, причем интересно, что в меньшем разрешении он оказался даже выше.

Unigine Heaven Benchmark


Dx11, AA4, Tessellation extreme
Avg FPS
1680 x 1050

1920 x 1200

При переходе к экстремальной тесселяции расклад сил в целом сохраняется, но SLI-связка получает небольшое преимущество.

Far Cry 2


Dx10, Ultra High, AA4x
Min | Avg FPS
1680 x 1050
1920 x 1200

Результаты теста в Far Cry 2 получились очень характерными. В меньшем разрешении преимущество SLI-системы невелико, при переходе к большему - возрастает.

Все приведенные результаты не так важны – это «синтетика» и единственная игра, которая не может нормально загрузить SLI. Перехожу к тем случаям, когда вторая видеокарта на самом деле может оказаться необходимой.

Первый тест – Crysis Warhead. В разрешении 1920 х 1200 одиночной видеокарте едва-едва хватает мощности для обеспечения комфортной игры.

Crysis Warhead


Dx10, Enthusiast, AA4x
Min | Avg FPS
1680 x 1050

1920 x 1200

Добавление второго ускорителя в корне меняет ситуацию, прирост FPS выглядит внушительно.

Игра Metro 2033 на максимальных настройках оказалась слишком тяжела для любой из одиночных видеокарт, представленных в тестировании.

Metro 2033


Dx11, Very High, AA4x, PhysX off
Min|Avg FPS
1680 x 1050 1920 x 1200

И даже SLI здесь не помощник. Играть можно, но кратковременные просадки вкупе с неприятными «фризами» досаждают.

Тот же тест с включенным PhysX.

Metro 2033


Dx11, Very High, AA4x, PhysX on
Min|Avg FPS
1680 x 1050

1920 x 1200

Разница в результатах с предыдущим тестом невелика. Вердикт тот же.

Из «спортивного интереса» я провел еще одно тестирование. В этом случае под расчет физики выделялся отдельный ускоритель. Очевидно, что результаты должны быть значительно хуже.

Metro 2033


Dx11, Very High, AA4x, PhysX on
Min|Avg FPS
1680 x 1050

1920 x 1200

Так и вышло. Все-таки по сравнению с прожорливым графическим движком этой игры расчет физики отнимает очень мало аппаратных ресурсов.

Mafia II


Maximum, PhysX off
Avg FPS
1680 x 1050

1920 x 1200

«Мафия» не слишком сильно нагружает одиночную видеокарту, но прирост FPS от установки второго ускорителя все равно получился достойным.

А вот при активации PhysX FPS здорово просел:

Mafia II


Maximum, PhysX High
Avg FPS
1680 x 1050

1920 x 1200

Одиночная видеокарта в этом режиме справляется не очень уверенно, тогда как SLI-конфигурация позволяет играть без существенных проблем.

А теперь самое интересное. Тот же самый эксперимент с выделением отдельного ускорителя под просчет физики:

Mafia II


Maximum, PhysX High
Avg FPS
1680 x 1050

1920 x 1200

В отличие от теста в Metro 2033 здесь эта конфигурация демонстрирует более высокую производительность! Видимо, дело в том, что графический движок Mafia II гораздо «легче», а физический, наоборот, более требователен к ресурсам.

И в заключение тест в еще одной игре, которая может обеспечить SLI достойную нагрузку - S.T.A.L.K.E.R.: Call of Pripyat.

S.T.A.L.K.E.R.: Call of Pripyat


Dx11, Ultra, AA4x
Min | Avg FPS
1680 x 1050

1920 x 1200

И опять получен "неправильный" результат, когда в более низком разрешении наблюдается больший прирост производительности от применения второго ускорителя.

По итогам всех экспериментов я не могу назвать работу конфигурации SLI безупречной. Во многих играх прибавка FPS явно недостаточна, более того, наблюдается значительное количество аномальных результатов с "просадками" в самых неожиданных случаях. Кое-что можно списать на недостаток производительности процессора, но прибавка была не самой большой и в «тяжелых» режимах, где влияние CPU минимально. Видимо, причина в не совсем отлаженном драйвере версии 262.99, не лучшим образом работающим со SLI. Зная внимательное отношение nVidia к SLI-системам, можно ожидать улучшения ситуации со временем.

Результаты в сверхтяжелых режимах сглаживания

Очевидно, что мощность нового флагманского ускорителя избыточна для абсолютного большинства игр, кроме трех-пяти самых требовательных. Чтобы использовать ее более полно, можно использовать форсированные режимы сглаживания для улучшения качества получаемой картинки.

На графиках ниже представлены результаты эксперимента по форсированию сглаживания в двух самых современных играх из тестового набора.

Tom Clancy’s H.A.W.X 2


Dx11, Maximum
Min | Avg FPS
1920 x 1200

Lost Planet 2


Dx11, Maximum
Min|Avg FPS
1920 x 1200

Расшифровка обозначений, применяемых nVidia для разных режимов сглаживания:

  • 2x - MSAA 2x
  • 4x - MSAA 4x
  • 8x - MSAA 4x + CSAA 8x
  • 8xQ - MSAA 8x
  • 16x - MSAA 4x + CSAA 16x
  • 16xQ - MSAA 8x + CSAA 16x
  • 32x - MSAA 8x + CSAA 24x

Во многих устаревших и просто «легких» играх вполне можно использовать сглаживание вплоть до 32x. Такой режим просаживает производительность почти вдвое, но разница с привычным MSAA 4x составляет не более 40%. Если FPS зашкаливает далеко за сотню, почему бы не порадовать себя небольшим улучшением качества?

Заключение

Сегодняшний материал получился очень подробным, и читатели наверняка сами без труда отыскали ответы на интересующие их вопросы. Для тех, кто «не осилил», подведу краткие итоги статьи.

  • Производительность новой видеокарты на фоне GeForce GTX 480 возросла в среднем на 15-17 процентов.
  • GeForce GTX 580 хорошо поддается разгону, в том числе с повышением напряжения. При использовании стандартной системы охлаждения возможен подъем частоты ядра вплоть до 900 МГц. С применением более производительных систем воздушного и водяного охлаждения возможен подъем частоты до 950 МГц и более.
  • Улучшен разгонный потенциал видеопамяти. Частоту микросхем теперь можно увеличивать вплоть до 1200 (4800) МГц с расширением полосы пропускания до 220 Гбайт/c.
  • Сочетание повышенной производительности и улучшенного разгонного потенциала может обеспечить GeForce GTX 580 суммарное преимущество над GeForce GTX 480 вплоть до 30-35% при проведении неэкстремального разгона, рассчитанного на повседневное использование.
  • Немного улучшен температурный режим и шумовые характеристики видеокарты. Это стало возможным из-за применения новой системы охлаждения на основе испарительной камеры и микросхем подстройки в системе питания GPU, понижающих напряжение под нагрузкой.
  • Применение системы подстройки напряжения вызывает неудобства при разгоне, но они преодолимы. Введенный механизм сброса частоты при тестировании в приложениях FurMark и OCCT GPU является искусственным ограничением и не приветствуется автором, так как снижает возможности по проверке стабильности работы видеокарты.

В целом видеокарта произвела приятное впечатление. «Обычный» пользователь, купивший GeForce GTX 580, получит очень производительный ускоритель, более тихий при повседневном использовании, чем предыдущая модель; оверклокер будет обрадован значительным улучшением разгонного потенциала в сравнении с видеокартой-предшественницей. Производительность нового ускорителя делает его самым мощным однопроцессорным продуктом на рынке, укрепляя лидерство nVidia в этой сфере.

P.S. Уже после проведения тестов и возврата видеокарты появилась информация, что система сброса напряжений была успешно взломана создателями утилиты GPU-Z

. В этом случае разгон ускорителя может значительно упроститься.

P.P.S. Да, я знаю, что самым популярным комментарием будет «Где Radeon HD 5970?». Заполучить эту видеокарту за то короткое время, что было отведено на тестирование, не удалось. Данный материал посвящен потребительским характеристикам GTX 580 в сравнении с однопроцессорными ускорителями предыдущего поколения. Устроить настоящие «большие гонки» можно будет после выхода Cayman – реального конкурента GeForce GTX 580.

Выражаем благодарность:
  • Компании nVidia за предоставленные на тестирование видеокарты GeForce GTX 580;
  • Компании Xpert.ru за предоставленные комплектующие для тестового стенда.
Константин Назаров aka Лакс Наваху