Секреты успешного разгона NVIDIA GeForce FX 5600 Ultra


Эту видеокарту не купишь в магазине, нам её прислали из представительства компании NVIDIA, видимо прослышали про мои нелестные высказывания о видеокартах серии FX. Впрочем, разорялся я не на пустом месте, просто был очень разочарован первым знакомством с этими платами в лице Asus V9560 Video Suite и совсем немного успокоен тестами Leadtek WinFast A310 TD MyVIVO. Однако на этот раз мы получили не просто FX 5600, а FX 5600 Ultra и карточка отличается от своих предшественниц даже внешне.

Это по-прежнему чип NV31, возможно даже новая ревизия ядра, память со 128-битной шиной, но теперь на плате появился разъём для подключения дополнительного питания. Ядро работает на частоте 235 МГц в 2D-режиме и переключается на частоту 400 МГц при переходе в 3D-режим, при запуске игр или тестов. 128 МБ памяти от Hynix с временем доступа 2.2 нс всегда работают на частоте 800 МГц. Радиатор контактирует с чипом через слой толстой термопрокладки. Вентилятор шумит, но шум не напрягающий, поскольку он иного тембра, чем на обычных вентиляторах. Звук напоминает турбинку или бловер, это даже не шум, а шуршание воздуха.

Карточка удивила меня уже через несколько секунд после загрузки Windows – вентилятор остановился. Уже только этот факт навсегда покорил моё железно-хардварное сердце. Чипы оснащены системой температурного мониторинга и по всей видимости задействуют какие-то режимы энергосбережения, например, могут отключать неиспользуемые в данный момент блоки. Иначе я никак не могу объяснить тот факт, что чип в 2D-режиме на частоте 235 МГц работает с пассивным охлаждением и почти не греется. После выхода из 3D-приложения вентилятор крутится какое-то время, а потом опять останавливается – красота и тишина!

Оказалось, что гнать её проще простого: карточка может "саморазгоняться", достаточно кликнуть на кнопку "Автоопределение" и, немного подумав, карточка предлагает приемлемые по её мнению частоты. Они могут немного отличаться раз от раза, например, мне предлагались варианты 456/913 МГц и 461/922 МГц вместо номинальных 400/800 МГц в 3D-режиме. Я не воспользовался ни тем, ни другим вариантом, а сразу увеличил частоту ядра до 470 МГц, к сожалению, это максимум из того, что позволяет драйвер. После каждого изменения частот нужно нажать на кнопку "Проверить настройки" и только в том случае, если проверка пройдена, можно их применить. Частоту памяти удалось поднять до 950 МГц (здесь запас по частотам ещё оставался, но большие частоты не проходили проверку).

К сожалению, по ряду причин я не мог собственноручно протестировать плату и не мог отложить проверку – карточку я получил поздно вечером в пятницу, к проверке приступил в понедельник, а во вторник её уже нужно было отдавать. Поэтому рано утром в понедельник я только определил максимально возможные частоты для видеокарты и попросил провести тесты StRunNic'a, а систему собрать такую же, как и при наших предыдущих тестах видеокарт FX 5600:

  • Мать – Abit NF7, рев. 2.0, BIOS версии 10
  • Память –2*256 Мбайт PC3500 Kingston Hyper-X
  • Видео –NVIDIA GeForce FX 5600 Ultra
  • Хард – IBM DTLA 305020
  • Процессор – AMD Athlon XP 1700+@2900+ (200x11.5)
  • Кулер –Thermaltake Volcano 7
  • Термопаста – КПТ-8
  • Операционная система - Windows XP SP1 (Detonator 44.03)

Задача провести тесты несложная: провёл тест, перезагрузил машину, опять провёл тест. StRunNic с задачей справился и получил вот такие результаты:

Тесты

Частота ядра/памяти (МГц)
400/800 470/950
3DMark03 v.3.3.0 1024x768 2727 3182
3DMark 2001SE 1024x768 13269 13715
UT2003 flyby-inferno 1024x768 106.1 69.1
Quake 3 Arena [FOUR] 1024x768 339.6 360.2





Если сравнивать с результатами, полученными при наших предыдущих тестах видеокарт FX 5600, то скорость не ахти какая, а ведь сейчас у нас частоты выше, это же FX 5600 Ultra. А в Unreal Tournament 2003 вообще провал – не может скорость разогнанной карточки быть меньше, чем работающей на номинале! Да, отмочил StRunNic, запорол такую элементарную проверку ! Пришлось во вторник с утра срочно проводить тесты заново. Я собрал такую же систему, установил Windows, запустил UT2003 и получил... всё тот же результат – 69,1 .

Что-то здесь не то! На всякий случай я решил провести тест на частотах, предложенных карточкой при автоопределении – 461/922 МГц и получил 121,5. Вот это уже больше похоже на правду, но в чём же отличие? Почему карточка на меньших частотах работает с большей скоростью? Ответ пришёл неожиданно, когда я заметил, что соотношение частот в 3D-режиме на номинале (400/800) и при "авторазгоне" (641/922) равно 1/2. В данном случае нас лимитирует разгон по ядру, максимум 470 МГц. Этой частоте ядра соответствует удвоенная частота памяти 940 МГц. Что будет, если установить частоту памяти не предельно возможную, 950 МГц, а ровно вдвое больше частоты ядра, 940 МГц? Я установил частоты 470/940 и получил закономерный результат в UT2003 – 123.9! Точно так же заметно выросли результаты в 3DMark 2001SE – 14387 попугаев! В 3DMark03 и Q3 Arena отличий в результатах почти не было, возможно для этих приложений приоритетную роль играет что-то одно: или в основном частота ядра, или частота памяти, но главное на мой взгляд то, что мы обнаружили правило успешного разгона: для получения максимальной производительности при разгоне видеокарт FX 5600 Ultra необходимо, чтобы частота памяти была вдвое больше частоты чипа!

То же самое относится к видеокартам на чипах FX 5800 и, возможно, к более старшим. Вспомните тестирование видеокарты ASUS V9900 на чипе FX 5800, которое проводил StRunNic. Вот цитата: "Карта показала устойчивую работу при разгоне до частот 500/1000 МГц (процессор/память) и небольшой прирост производительности. При дальнейшем увеличении частоты процессора (частота памяти 1000МГц – это максимум, который могла предложить контрольная панель от NVIDIA) производительность начинала падать". Вот оно! Тот же самый результат: максимальная производительность не при максимально возможных частотах, а при оптимальном их соотношении. Там разгон лимитировала память и StRunNic экспериментально определил частоту ядра, при которой производительность оставалась на максимуме. 500 МГц – это ровно вдвое меньше, чем частота работы памяти, т.е. сохраняется изначально заданное соотношение частот. Напомню, что в номинале у ASUS V9900 частоты в 3D-режиме 400/800 МГц.

Итак, вот результаты наших стандартных тестов. Во всех тестах разрешение устанавливалось 1024х768. В 3DMark 2001SE и 3DMark03 версии 3.3.0 настройки качества оставлялись по умолчанию, в Unreal Tournament 2003 выставлялись [Normal], а в Quake 3 Arena – [High Quality]. В 3DMark'ах троекратно проходил весь цикл тестов, в UT2003 три раза прокручивалась демка flyby-inferno, а в Q3 демка four. Результаты усреднялись. Тесты проводились с разогнанной и работающей на номинальных частотах видеокартой, а в качестве эталона взяты результаты видеокарты NVIDIA GeForce 4 Ti4600.

Вот и всё, превосходство Ti4600 над FX 5600 закончилось. Во всех тестах FX 5600 Ultra быстрее, причём учтите, что мы тестировали в "лёгком режиме", без включения сглаживания и анизатропной фильтрации. Вы помните, что в "тяжёлых" режимах у Ti4600 нет никаких шансов выиграть.

Итак, видеокарта NVIDIA GeForce FX 5600 Ultra мне очень понравилась и огорчить меня может только стоимость таких карточек в магазинах. Главное же, это открытое нами правило успешного разгона для видеокарт, которое подтверждено для FX 5600 Ultra и FX 5800: соотношение частот ядра и памяти должно сохраняться. Я необычайно горд этим открытием, главное, чтобы на этой почве у меня не развилась какая-нибудь недетская мания величия .

Telegram-канал @overclockers_news - это удобный способ следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
Страницы материала
Страница 1 из 0
Оценитe материал
рейтинг: 4.0 из 5
голосов: 31


Возможно вас заинтересует

Популярные новости

Сейчас обсуждают