ATI Radeon 9550 и вкус победы!

31 января 2006, вторник 18:53
для раздела Блоги
"Будем бить не числом, а умением"

Народная поговорка


Детство


Когда мой рост едва достигал полутора метров, Мэри Поппинс из одноименного фильма была наисокровеннейшей фантазией, а усы ещё даже и не думали расти, я игрался в Max Payne на своей старенькой ATI Radeon 9000, и не задумывался о будущем. Моё детство было суровым, но лишения только закалили меня. И когда я случайно наткнулся на статью "Вольтмоддинг Sapphire Radeon 9600XT", в которой ребята из команды Team MXS (ModLabs.net/XtremeSystems.org) совершенно спокойно разогнали эту карту до 710 МГц по ядру и 700МГц по памяти (далее 710/700), мне стало очевидно, что жизнь моя прожита зря. Такие числа попросту не умещались в моей голове.

Затем на одном из форумов был обнаружен лучший результат по 3DMark’03 в категории "самый быстрый Radeon 9600XT". Он принадлежал той же команде. Их результат составил 6053 попугая c частотной формулой 720/425 МГц.

"Как они умудряются такое выдумывать?" © South Park. Никак не покидало смутное подозрение, что эти люди попросту нагло взломали бенчмарк, и начали вписывать в результаты тестов значения, взятые "с потолка". Ну а окончательно меня добил результат всё той же команды в 3DMark’05, опять в категории "самый быстрый Radeon 9600XT" ...
2919 попугаев!

На этот раз по ядру они достигли внушающей уважения частоты в 734 МГЦ, хотя по памяти было достигнуто "всего лишь" 421 МГЦ. Конечно, для достижения таких вершин абсолютно необходимы вольтмод и, разумеется, хорошее охлаждение (которое в домашних условиях является довольно редким гостем). И стоит оно порой гораздо дороже самой видеокарты. Да и разгон ради разгона мне не очень интересен. Как сказал мой друг: "Мы гоняем реальные видеокарты, которые стоят в компьютерах большинства юзеров. И эти самые юзеры даже не подозревают о том, что их видео, купленное за 60$, способно на результат, достойный карточки за 100$, а то и 160$".

Отрочество


Первое упоминание об ATI RADEON 9550 я встретил 14 марта 2004. Как написал тогда Lexagon: "… в ближайшее время ATI анонсирует новое бюджетное решение под сбивающим с толку названием Radeon 9550". Тогда он достаточно точно описал характеристики будущего хита продаж: "Платы Radeon 9550 будут основаны на чипе RV350 (Radeon 9600), но иметь пониженные относительной Radeon 9600 частоты". Это не могло не радовать, поскольку на тот момент времени мировая общественность уже успела изучить разгонный потенциал чипа RV350.

Смотрим дальше: "Radeon 9550 - работая на более низких частотах, чем Radeon 9600SE, он будет обладать 128-битной шиной памяти" - отлично. "Впрочем, 64-битная модификация тоже будет встречаться, так как это неотъемлемое свойство бюджетных видеокарт" - так были подпорчены наивные мечты юных любителей разгона.

"Прискорбно, но число пиксельных конвейеров чипа RV350 изначально ограничено четырьмя" - читая эти строки, простым смертным было трудно понять, сколько же их будет на самом деле. Но можно было уверенно сказать, что точно не 8 :) . "… и от запасов RV350 нужно избавляться" - на дворе 2006 год… Какие же у них там запасы? Ну и на закуску – классика юмора от Lexagon’а: "С другой стороны, когда китайцы говорили о близости выхода Radeon 9800 SE, им тоже никто не верил :)...".

С того момента я стал приглядываться к этой карте, как к возможной замене моего RADEON 9000. И вот 27 марта я смог ознакомиться с более точными характеристиками, результатами бенчмарков и примерной ценой интересующей меня карты.

Забираемся в архив новостей и смотрим, как развивались события. "В такой ситуации решено было снизить частоты видеоплаты до 250/400 МГц (против 325/400 МГц у Radeon 9600), а шину оставить 128-битной. В итоге получился тот самый Radeon 9550, имеющий 4 пиксельных конвейера с полноценной поддержкой DirectX 9.0". Когда я прочёл эти строки, у меня стало теплее на душе :). "... новинка от ATI набрала в 3DMark 2003 (build 340) результат в 2150 "попугаев"" - вот мы и узнали, на что она способна. "Стоимость 128-битной версии будет достигать $70-85, что уже весьма привлекательно для видеокарты с поддержкой DirectX 9.0 и 128-битной шиной". Это было особенно важно в свете того, что я не покупаю видеокарты стоимостью больше "психологической" планки в 100$. "По крайней мере, выпускаемой по 0.14/0.15 мкм техпроцессу GeForce FX 5500 этот 0.13 мкм чип (RV350LX - так должен маркироваться Radeon 9550) должен показать, "где раки зимуют" :)" - снова юмор и первое упоминание о RV350LX.

Затем последовала новость, в которой мы узнали, что память, возможно, будет иметь время выборки целых 5 нс, но даже при этом "… Radeon 9550 уверенно обходит GeForce FX 5700 LE в большинстве тестов на несколько процентов". И уже тогда Lexagon предположил, что на новую карточку можно будет поставить прошивку BIOS от Radeon 9600.

Затем последовал ряд тестов и первые результаты разгона, которые показали, что можно смело обойти по производительности 9600 PRO. И вот, в начале 2005 года я купил…
…GeForce FX 5700 LE.

Странно? Карточка стоила 110$, производство – ASUS. Ну не оказалось у моего поставщика 9550, а свою старую карту на тот момент я продал. Как говорится "нет худа, без добра". И после запуска HL2, мне стало обидно за бесцельно потраченные деньги – где поддержка DX9?! Да, всем известно, что у серии GFX есть проблемы с поддержкой DX9 – эту поддержку можно назвать лишь номинальной.

Посему спустя пару месяцев было принято решения продать GeForce FX 5700 LE и все же купить RADEON 9550. Что и было сделано: опостылевший GeForce я продал за 100$ и купил Gigabyte R955128D за 60$.



Негативный опыт общения с GFX 5700 LE показал мне, что Radeon 9550 оправдывает свою стоимость, даже на номинальных частотах. Тогда я даже представить себе не мог, что с разгоном по ядру он обойдет старшую карту своей линейки более чем на четверть!


Юность


До появления в моем системном блоке 9550 основным мерилом производительности видеокарты для меня был Q3A и UT. На тесты 3DMark я особо и не смотрел. Ну, было… просто невооружённым взглядом было видно, что ATI 9800PRO набирает больше попугаев, чем GFX5900!


И что с того? Для меня эти цифры ни о чем не говорили! А все потому, что сравнивать было не с чем! Правда, имелся у меня на винчестере 3DMark’01, но и то лишь потому, что демка там эффектная.

Но однажды я все-таки установил 3DMark’03, прогнал все положенные тесты и получил результат в районе 3400 попугаев. На то время карта была слегка разогнана: 470 МГц по ядру и 270 МГц по памяти. Стало интересно, а сколько же выжмет моя карта в 3DMark’05. Результат получился довольно-таки невысокий – 1885 попугаев против примерно 1300 в неразогнанном виде. Но вместе с результатами росли и амбиции. Появились крамольные мысли – "А как бы засветиться со своими достижениями?". Все же "результат 3DMark является общепризнанным индикатором оверклокерского умения" - цитирую ALT-F13 с портала modlabs.net. В принципе, очень просто – через ORB (Online Result Browser). Теперь у меня появилась возможность просматривать базу данных ORB’a и заносить свои достижения. Ну, подумалось, сейчас я покажу им всем, почём селёдка в рыбный день!

Открываю статистику результатов по Radeon 9550 и натыкаюсь на результат в 2416 попугаев (3DMark’05 ). Честно говоря, сперва я подумал, что это всего лишь наглое читерство. Ну не может там быть так много! Затем увидел частотную формулу лидера 705/302. Куда там мне тягаться с таким монстром. Но именно так у меня появилась конкретная цель.
Что же - вперед!

Молодость


Сейчас многие могут задуматься о том, почему я хочу поставить рекорд именно в 3Dmark’05, а не более ранние или поздние версии. Что ж… Попытаюсь ответить.
Начну с самого простого – с 3DMark’06. Я "… просто замерил быстродействие существующей системы в "новых попугаях"" - как сказал Lexagon. И оказался на первом месте, с результатом 633 попугая . Что касается 3DMark’01, то тут все просто - результат этого теста очень сильно зависит от центрального процессора. Да и особого интереса у меня этот тест уже не вызывает.

А теперь, пожалуй, самая трудная для меня отмазка. Думаю, читатель уже догадался! Почему нет тестов в 3DMark’03? Если я начну говорить, что мол там первый тест под DX7 и только последний под DX9, значит уже не актуально. Кончено же это будет просто глупо. Но именно для карт класса Radeon 9550, на мой взгляд, 3Dmark'05 является наиболее актуальным среди всех 3DMark’ов.

За помощью я обращусь к ОRB’у. Давайте посмотрим на результат такого себе "лидера" – 25281.



Мягко говоря – это невозможно. Грубо говорить я лучше воздержусь.
Такого результата не достиг даже такой мастер нашего нелёгкого дела, как k|ngp|n, на ATI RADEON X850 XT PE (840 MHz / 695 MHz). Но и это не главное – пусть это будет ошибка. Самое обидное, что в борьбе за первое место принимают участие "модные" 9550 на чипах RV360 и с быстрой памятью DDR II (2,5 нс), которая без проблем разгоняется до 400 МГЦ. Но для "чистого" 9550 это нереально!

Обеспеченная старость


И всё-таки, что же необходимо сделать, чтобы получить первое место?

Настроить систему на максимальную производительность?
Да.

Разогнать видеокарту по максимуму?
Да, конечно!

Обеспечить максимальный комфорт для работы видеокарты?
Да! А как вы хотели? На мой взгляд, этому вообще стоит уделить особое внимание! А именно – вам необхоимо произвести грамотную настройку ОС и подобрать максимально "реактивное" железо.

Впрочем, если вы не очень хорошо разбираетесь в этих вопросах, вам будет достаточно прочитать статью "3DMark: выжимаем до последней капли!". Сделать то, что в ней написано, на самом деле совсем несложно, но после этого успех не заставит себя долго ждать.

Да, разумеется, при условии наличия у вас реактивного железа :)! Не стану описывать оптимизацию ОС, поскольку сделал все так, как описано в только что указанной статье. А вот с настройками своего железа я вас всё-таки ознакомлю.

Конфигурация такова:

MoBo - Abit NF7 v2.0 (BIOS - ТaiPan 0.3 [ED] Bpl 3.19 28.12.04 by-=Merlin=-);
CPU - AMD Sempron 2400+ @ 2476 МГц (247x10) - Vcore=1,825 в;
Ram - Hynix 2x256Mb PC3200 (HY5DU56822BT-D43)@247 МГц (2,5-3-4-6);
Video 1- Gigabyte R955128D @642/307 – VGPU – 1,685 в;
Video 2 - MSI NX6600 VTD128 Diamond;
HDD - Western Digital 80 GB IDE (800JB);
Power - Chieftek 360-102 DF;
Microsoft Windows 2000 Pro SP4;
DirectX 9.0c;
ATI Catalyst 5.12;
NVIDIA ForceWare 77.72 (для видеокарты на базе GeForce 6600, которую была использована в качестве "мальчика для битья");
И, конечно же, инструменты для разгона: ATI Tray Tools_1.0.5.820, RivaTuner20RC158;
Ну и грозные орудия пыток.



Наибольшую проблему вызвал синхронный разгон памяти и процессора. Разгон процессора трудностей не вызвал – 247 МГц при напряжении 1,825 В (даже 2500 МГц напряжением 1,85 В).


Ну никак не получалось, заставить заработать память выше 223 МГц, даже при увеличении напряжения, подаваемого на память до 2,9 в. Но после замены штатного термоинтерфейса на северном мосту и повышении подаваемого напряжение на него до 1,7 в, все пошло на лад. И мне удалось выжать из памяти 247 МГц.


Параметр CPU Interface в положение ENABLE на стандартном BIOS’e можно было поставить только до частоты шины 220 МГц, выше уже начинала проявляться нестабильность. Побороть эту напасть удалось лишь прошивкой модерского BIOS’a от -=Merlin=-. Итоговая синхронная частота, при которой сохранялась стабильность, составила 247 МГц.

BIOS был настроен на максимальную производительность. Впрочем, после того, как над ним поработал -=Merlin=-, изменить осталось только самую малость. Конечно, хотелось бы иметь объем ОЗУ 1024 Мб (говорят, накидывает к финальному результату ещё пару попугаев), но, как это ни печально, я не нашел ещё две планки, способные работать на частоте 247 МГц. Также была возможность установить AXP 2500+, но тот экземпляр, который я смог найти, разгонялся только до 2420 МГц, что показалось мне недостаточным (при этом частота системной шины составляла всего 220 МГц).

Бессмертие


Теперь, я знал результат лидера. И понеслось…
Обсуждение карты на форуме, знакомство с вольтмодом карты (разумеется только "устно") зависть тем, кто решился на вольтмод и демонстрировал свои результаты. Затем я прочёл известную статью "Radeon 9550 - обзор, разгон, вольтмоддинг". В которой автор описал подробный вольтмод Sapphire Radeon 9550 с результатом 533/300. Для меня такая частота была недостижима даже в самых дерзких мечтах. Но позже, на форуме, я наткнулся на ссылку по вольтмоду моей карты. И тут я потерял покой. Пусть там было все на польском, но стало ясно, что поднять напряжения получиться без пайки, самым обычным "простым" карандашом. И раз уж у меня уже имелся удачный опыт обращения с этим инструментом оверклокера (замобиливание AthlonXP), я смело приступил к делу.

Предварительно, конечно, пришлось побеспокоиться о соответствующем охлаждении. Я смело отполировал "брюшко" хиленького радиатора и заменил обычную заводскую термопасту на проверенную временем КПТ-8. На радиатор был установлен 60 мм вентилятор, а в торец видеокарты – еще один 80 мм вентилятор на обдув.



И не зря, как оказалось, MOSFET’ы после вольтмода стали очень сильно греться.

Тут нужно сказать о том, что перед тем как перейти к делу, было прочитано довольно много о вольтмоде. Благодаря этому из Астрала пришло понимание того, что с карандашом нужно быть аккуратней. Увлекся художеством, снизил сопротивление до критического минимума – и на ядро подается не совместимое с жизнью чипа напряжение!

Почему же я выбрал карандаш? Всё очень просто. Я принял решение отказаться от переменных резисторов, поскольку они могли иметь дребезг движка, и в результате этого могли появиться серьёзные проблемы (негативный опыт имеется). Как написал модератор с Radeоn2.ru U-Nick: "Есть очень умное правило - лучше делать, что задумали, чем задумываться над тем, что наделали!". Даже если графит будет осыпаться, к плачевым результатам это не приведет! Сопротивление при этом увеличится, а напряжение уменьшится. Но при этом максимум, что произойдет - это зависание. Вот и все проблемы. Чип не сгорит.

Также не делался вольтмод на память (VMEM) и на буфер ввода-вывода (VDDQ). Хотя на буфер хотелось сделать, чтобы избавиться от "качелей" ядро-память. Но при этом я, возможно, избавился бы и от видеокарты.

Ниже приводиться таблица, в которой показано сопротивление на резисторе R356 и результирующее напряжение на ядре:




(кликните по картинке для увеличения)

Измеряем сопротивление


(кликните по картинке для увеличения)

И напряжение

Необходимо на плате найти резистор R356 и аккуратно порисовать на его "спинке" карандашом.

После того как было достигнуто напряжение 1,6 В стало уже страшно за видеокарту. Ведь номинал то всего 1,2 В. Даже пусть у схожего по ядру 9600PRO в графе "номинал" значится 1,3 В, по опыту я знаю, что напряжение можно повышать не более, чем на 10% от номинала. С напряжением 1,61 В не получилось поставить рекорд. И, к сожалению, я не записывал получаемые частоты при повышении напряжения. При 1,61 В частота ядра была около 600-610 МГц.

Ну, думаю, сейчас добавлю-ка напряжения! Подаю на ядро 1,685 В (642 МГц) и иду дальше. Напряжение 1,775 В, а частота уже целых 658 МГц!

Класс!

Вот она, чемпионская частота! Запускаю 3DMark’05 все работает, но к концу 3-го теста у видеокарты приключился обморок…

Он и у меня чуть не приключился. Думаю все, доигрался! По экрану пошли жуткие коричнево-белые полосы (теперь они мне по ночам снятся). Выключаю компьютер и выхожу на балкон, подышать свежим воздухом. Вынимаю карту, стираю графит. Включаю компьютер, смотрю на темный экран монитора (это время показалось мне вечностью) и…

… Да! Да, я снова вижу привычную картину!
Все нормально, пострадавший подышал свежим воздухом и пришел в чувство.
Не нужна мне эта чёртова победа и этот буржуйский 3DMark.

Вкус победы


Думал так я в аккурат до следующего дня. Мой мозг ещё не успел толком проснуться, а руки уже "зарисовывали" сопротивление резистора R356 до 478 Ом, что позволило подать на ядро 1,685 в и получить стабильную частоту 642 МГц. В BIOS’e я поднял напряжение на AGP до 1,8 в (хотя на видеокарте устанавливается стабилизатор напряжения и, вполне возможно, что толку от этого было немного), частоту AGP выставляю на уровне 90 МГц. Делаю дефрагментацию системного диска в безопасном режиме. Тайминг TRCDRD с 4 повышаю до 6, что дает мне возможность насладиться частотой памяти равной 307 МГц. И запускаю 3DMark’05, нужно сказать, что процессор у меня работал на частоте 2450 МГц. И получаю результат 2424 попугая. Есть! Первое место!

Почувствуйте.

Далее заношу результат в ORB и радуюсь. Но и этого мне мало – я поднимаю частоту работы процессора аж до 2470 МГЦ, и получаю результат 2452 попугая, тем самым, закрепляя результат.



Пытался я и схитрить. Завышаю частоту памяти до 320 МГц, не обращая внимания на то, что ATI Tray Tools ругается. Какая разница, что вся картинка в артефактах. Зато результат высокий, все равно никто не узнает. Так я думал, пока не увидел конечный результат – 2388 попугаев. Читить – нехорошо. Запомните это так же твёрдо, как и я :).

Вкусняшка


Я давненько уже подумываю о замене своей карты, на GeForce 6600. Ведь в ней есть то, чего мне так не хватает. А именно: ShaderModel 3.0 и 8 пиксельных конвейеров! Сейчас на рынке уже присутствует более мощная версия GeForce 6600 DDR-2 которая оснащаться быстрой памятью и имеет слегка завышенную частоту работы ядра. Кончено же если покупать сейчас GeForce 6600 то стоит выбирать именно такую карту. И дабы полностью почувствовать вкус победы. Я решил посмотреть, на сколько разогнанный ATI Radeon 9550 отстает или же опережает GeForce 6600 DDR-2. Почему не GeForce 6600 – да потому что я и так знаю, сколько он набирает в 3Dmark'05, что за интерес гонять его.

Для теста была взята карта производства MSI NX6600 VTD128 Diamond.



Кто интересуюеться этой картой, даю ссылку на обзор http://people.overclockers.ru/EVO6/record10

Начнем! Я провел тесты в 3Dmark'05 и 3Dmark'06. Результаты своей карты я уже знаю. А вот MSI NX6600 VTD128 Diamond я протестировал на частотах:
300/500 (все же не удержался);
350/800 (рекомендованные частоты для GeForce 6600 DDR-2);
400/800 (встречаются и такие экземпляры, к примеру - XFX GF6600 DDR-2);
570/1050 - не смог я удержаться от соблазна и разогнал эту карту.
Посмотрим что получилось:


На частотах 300/500 МГц GF6600 прилично отстает от ATI 9550 (642/614 МГц). Но стоит накинуть GF6600 на ядро 50 МГц и 100 МГц на память, как расстановка лидеров резко меняется. Еще по "пятьдесят" на "брата" и GF6600 с результатом 2848 уходит в уверенный отрыв. Педаль газа "в пол" и GF6600 на скорости 570/1050 МГц утягивая за собой 3885 попугаев, скрывается за линией горизонта!



NO comments!
Я даже не стал тестировать GF6600 на частотах 300/500 МГц.



Я плакать! От таких результатов. Если еще в 3Dmark'05, ATI 9550 (642/614 МГц) смотрелся живчиком по сравнению с GF6600 (300/500 МГц). То 3Dmark'06, своим перстом, указал ему место. Но, все равно я люблю свою карту! Она мне очень дорога. Тем более после того, что между нами было :).

И напоследок…


Несколько слов о реальных дивидендах.

Конечно, отличиться в 3Dmark’е – это хорошо. Это просто чудесно. Но покупать видеокарту только ради того чтобы гонять ее в mark’ах?
Да что вы! Конечно нет! Мне, например, очень нравятся гоночные симуляторы, и сейчас я прохожу NFS Most Wanted.

Дабы не насиловать видеокарту, я снизил частоты до симпатичных 600/300 МГЦ, хотя сделано это было скорее для большей уверенности, чем из-за реальных опасений. Запустил NFS Most Wanted и… был приятно удивлен желтым циферкам в правом верхнем углу экрана!

Программа ATI Tray Tools позволяет выводить много полезной информация на экран монитора во время игры :).


Я же оставил только счетчик FPS. Если значение FPS опускается ниже 25, то цифры краснеют, напоминая о том, что моя видеокарта не годится для этой игры.

Да, так часто бывало до разгона при помощи вольтмода. Теперь же мне, приходится реже за нее краснеть! Как и ей за меня, впрочем :).

Удачного Вам разгона!
SArd



P.S. Хотелось бы предупредить тех, кто собирается делать вольтмод! Будьте очень аккуратны и сто раз подумайте, прежде чем что-то делать! Повышаете вы напряжение или же просто заменяется штатную систему охлаждения. Подумайте, нужно ли это. Может проще отказаться от каких-либо действий, чем потом собирать деньги на новую видоекарту.


Пожалуйста! Живой пример. Я пытался поставить медный радиатор, на кристалл. В результате чего произошел скол ядра!

Улыбочка!


Семейное фото на память

Выражаю огромную благодарность за помощь в написании статьи:
Сергей Макаренко
Дмитрий Дахно
AleхLP
Deus
Gulik


Пожалуйста, оставьте свое мнение по поводу статьи на форуме
Оценитe материал

Возможно вас заинтересует

Популярные новости

Сейчас обсуждают