Секреты успешного разгона NVIDIA GeForce FX 5600 Ultra


Это по-прежнему чип NV31, возможно даже новая ревизия ядра, память со 128-битной шиной, но теперь на плате появился разъём для подключения дополнительного питания. Ядро работает на частоте 235 МГц в 2D-режиме и переключается на частоту 400 МГц при переходе в 3D-режим, при запуске игр или тестов. 128 МБ памяти от Hynix с временем доступа 2.2 нс всегда работают на частоте 800 МГц. Радиатор контактирует с чипом через слой толстой термопрокладки. Вентилятор шумит, но шум не напрягающий, поскольку он иного тембра, чем на обычных вентиляторах. Звук напоминает турбинку или бловер, это даже не шум, а шуршание воздуха.
Карточка удивила меня уже через несколько секунд после загрузки Windows – вентилятор остановился. Уже только этот факт навсегда покорил моё железно-хардварное сердце. Чипы оснащены системой температурного мониторинга и по всей видимости задействуют какие-то режимы энергосбережения, например, могут отключать неиспользуемые в данный момент блоки. Иначе я никак не могу объяснить тот факт, что чип в 2D-режиме на частоте 235 МГц работает с пассивным охлаждением и почти не греется. После выхода из 3D-приложения вентилятор крутится какое-то время, а потом опять останавливается – красота и тишина!

Оказалось, что гнать её проще простого: карточка может "саморазгоняться", достаточно кликнуть на кнопку "Автоопределение" и, немного подумав, карточка предлагает приемлемые по её мнению частоты. Они могут немного отличаться раз от раза, например, мне предлагались варианты 456/913 МГц и 461/922 МГц вместо номинальных 400/800 МГц в 3D-режиме. Я не воспользовался ни тем, ни другим вариантом, а сразу увеличил частоту ядра до 470 МГц, к сожалению, это максимум из того, что позволяет драйвер. После каждого изменения частот нужно нажать на кнопку "Проверить настройки" и только в том случае, если проверка пройдена, можно их применить. Частоту памяти удалось поднять до 950 МГц (здесь запас по частотам ещё оставался, но большие частоты не проходили проверку).
К сожалению, по ряду причин я не мог собственноручно протестировать плату и не мог отложить проверку – карточку я получил поздно вечером в пятницу, к проверке приступил в понедельник, а во вторник её уже нужно было отдавать. Поэтому рано утром в понедельник я только определил максимально возможные частоты для видеокарты и попросил провести тесты StRunNic'a, а систему собрать такую же, как и при наших предыдущих тестах видеокарт FX 5600:
реклама
- Мать – Abit NF7, рев. 2.0, BIOS версии 10
- Память –2*256 Мбайт PC3500 Kingston Hyper-X
- Видео –NVIDIA GeForce FX 5600 Ultra
- Хард – IBM DTLA 305020
- Процессор – AMD Athlon XP 1700+@2900+ (200x11.5)
- Кулер –Thermaltake Volcano 7
- Термопаста – КПТ-8
- Операционная система - Windows XP SP1 (Detonator 44.03)
Задача провести тесты несложная: провёл тест, перезагрузил машину, опять провёл тест. StRunNic с задачей справился и получил вот такие результаты:
Тесты |
Частота ядра/памяти (МГц) | |
400/800 | 470/950 | |
3DMark03 v.3.3.0 1024x768 | 2727 | 3182 |
3DMark 2001SE 1024x768 | 13269 | 13715 |
UT2003 flyby-inferno 1024x768 | 106.1 | 69.1 |
Quake 3 Arena [FOUR] 1024x768 | 339.6 | 360.2 |
Если сравнивать с результатами, полученными при наших предыдущих тестах видеокарт FX 5600, то скорость не ахти какая, а ведь сейчас у нас частоты выше, это же FX 5600 Ultra. А в Unreal Tournament 2003 вообще провал – не может скорость разогнанной карточки быть меньше, чем работающей на номинале! Да, отмочил StRunNic, запорол такую элементарную проверку ! Пришлось во вторник с утра срочно проводить тесты заново. Я собрал такую же систему, установил Windows, запустил UT2003 и получил... всё тот же результат – 69,1
.
Что-то здесь не то! На всякий случай я решил провести тест на частотах, предложенных карточкой при автоопределении – 461/922 МГц и получил 121,5. Вот это уже больше похоже на правду, но в чём же отличие? Почему карточка на меньших частотах работает с большей скоростью? Ответ пришёл неожиданно, когда я заметил, что соотношение частот в 3D-режиме на номинале (400/800) и при "авторазгоне" (641/922) равно 1/2. В данном случае нас лимитирует разгон по ядру, максимум 470 МГц. Этой частоте ядра соответствует удвоенная частота памяти 940 МГц. Что будет, если установить частоту памяти не предельно возможную, 950 МГц, а ровно вдвое больше частоты ядра, 940 МГц? Я установил частоты 470/940 и получил закономерный результат в UT2003 – 123.9! Точно так же заметно выросли результаты в 3DMark 2001SE – 14387 попугаев! В 3DMark03 и Q3 Arena отличий в результатах почти не было, возможно для этих приложений приоритетную роль играет что-то одно: или в основном частота ядра, или частота памяти, но главное на мой взгляд то, что мы обнаружили правило успешного разгона: для получения максимальной производительности при разгоне видеокарт FX 5600 Ultra необходимо, чтобы частота памяти была вдвое больше частоты чипа!
То же самое относится к видеокартам на чипах FX 5800 и, возможно, к более старшим. Вспомните тестирование видеокарты ASUS V9900 на чипе FX 5800, которое проводил StRunNic. Вот цитата: "Карта показала устойчивую работу при разгоне до частот 500/1000 МГц (процессор/память) и небольшой прирост производительности. При дальнейшем увеличении частоты процессора (частота памяти 1000МГц – это максимум, который могла предложить контрольная панель от NVIDIA) производительность начинала падать". Вот оно! Тот же самый результат: максимальная производительность не при максимально возможных частотах, а при оптимальном их соотношении. Там разгон лимитировала память и StRunNic экспериментально определил частоту ядра, при которой производительность оставалась на максимуме. 500 МГц – это ровно вдвое меньше, чем частота работы памяти, т.е. сохраняется изначально заданное соотношение частот. Напомню, что в номинале у ASUS V9900 частоты в 3D-режиме 400/800 МГц.
Итак, вот результаты наших стандартных тестов. Во всех тестах разрешение устанавливалось 1024х768. В 3DMark 2001SE и 3DMark03 версии 3.3.0 настройки качества оставлялись по умолчанию, в Unreal Tournament 2003 выставлялись [Normal], а в Quake 3 Arena – [High Quality]. В 3DMark'ах троекратно проходил весь цикл тестов, в UT2003 три раза прокручивалась демка flyby-inferno, а в Q3 демка four. Результаты усреднялись. Тесты проводились с разогнанной и работающей на номинальных частотах видеокартой, а в качестве эталона взяты результаты видеокарты NVIDIA GeForce 4 Ti4600.
реклама




Вот и всё, превосходство Ti4600 над FX 5600 закончилось. Во всех тестах FX 5600 Ultra быстрее, причём учтите, что мы тестировали в "лёгком режиме", без включения сглаживания и анизатропной фильтрации. Вы помните, что в "тяжёлых" режимах у Ti4600 нет никаких шансов выиграть.
Итак, видеокарта NVIDIA GeForce FX 5600 Ultra мне очень понравилась и огорчить меня может только стоимость таких карточек в магазинах. Главное же, это открытое нами правило успешного разгона для видеокарт, которое подтверждено для FX 5600 Ultra и FX 5800: соотношение частот ядра и памяти должно сохраняться. Я необычайно горд этим открытием, главное, чтобы на этой почве у меня не развилась какая-нибудь недетская мания величия .
Лента материалов раздела
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Сейчас обсуждают