Подробное руководство по разгону ATI 9550

для раздела Блоги
Привет посетителям сайта и всем оверклокерам России. Пишет вам фанат 3D и вашего сайта. Я давно читаю ваши статьи и хотел написать свое мнение по вопросам разгона, но до сих пор мне чего-то не хватало. А вот обьявили конкурс с хорошими призами и желание появилось .

Прежде всего хочу сказать, что 3D моделирования в современных 3D приложениях недостаточно. Сегодня даже у низкобюджетных видеокарткарт исчисления внутри видеопроцессора проводятся 256-битным способам, шина материнской платы вычисления уже не ограничивает, а центральные процессоры полностью перешли на 64-битный режим работы еще 3 года назад (окончателные спесификации стандарта PCI Express были завeршены и приняты в 2002 г.).

Оправданием для малой разрядности была 32-битная AGP шина, которая являлась улучшенной версией остаревшей шины PCI и ограничивала этим прирост в 3D приложениях. Вот уже пришла эра PCI-Express, а видеопроцессоры все также отправляют информацию процессору в 32-битном режиме. 3 года назад производители видеочипов могли сказать, что их ограничивает 32-битный центральной процессор, но сейчас все процессора 64-битные. Получается, что внутри видеопроцессора изчисления производятся 256-битные, потом выходят к видеопамяти в 128 и даже 256-битном режиме и потом обратно в 256-битной процессор через 128 или 256-битную шину памяти. Не слишком разумно ползоватся 128-битном режиме для доступа к видеопамяти, не правда ли? И здесь производители заявляют, что очень дорого проводить 256-битную шину памяти - в этом есть смысл, но дело в сущности другое - никто из производителей видеочипов не хочет без необходимости увеличивать производительност бюджетных видеокарт.

И вот у производителей новое оправдание - 32-битный доступ к центральным процессорам - они ждут новой стандарт Microsoft DirectX 10 (которой ожидается в начале 2006, но от Microsoft надо ждать сюрпризы всегда, так что замедление тоже возможно), которой позволит им реализировать 64-битные вычисления внутри процессора. Вот и так!

Можно пересесть на 64-битную шину к центральному процессору, что может дать прирост около 10 - 20% (ожидание всегда топлит душу). Каким будет прирост в реальных приложениях я гадать не буду, но знаю зачем он нужен - для более быстрой обработки "нормальных" карт (специальные текстуры, которые содержит информатию как будет виден каждый пиксел образа по нормалу), стандарта DirectX 10, FSAA и все другие улучшения качества, которые позволят нам "почувствовать" современных игр. Все это я написал, чтобы обяснить свое неудовлетворение от современнего уровня 3D индустрии и как причину (кроме нехватки денег) почему до сих пор не купил себе лучшую видеокарту.

Теперь несколько слов про тестовой стенд. Как известно всем, хотя видеокарта является важнейшем фактором для 3D производительности, но не надо забывать про остальные "приходящие" факторы, которые позволят нам улучшить работу компютера. В первой очереди хочу сказать, что для хорошей 3D производительности нужны актуальные прошивки BIOS материнской платы и видеокарты (если есть возможно их залить, конечно). Многие перед разгоном видюхи разгоняют процессор, не учитывая возможных помех на 3D разгон (хотя и редко это случается). Поэтому я рекомендую сперва разгонять видеокарту и уже потом разгонять процессор - результат получится лучше.

Во-вторых, нужно оптимизировать работу операционной системы. Для этого надо установить новейшие драйвера материнской платы и видеокарты, а если у вас есть желание - почистить Windows от излишных сервисов (про это писал SEKTOR в статье Подкуем Windows, или оптимизация разгона-2 http://www.overclockers.ru/lab/15581.shtml - для меня это привело к понижение swap файла от 112 на 108 - 109MB по показаниям Windows Task Manager или 3 - 4 MB, что свидетелствует о понижению требованию к системной памяти (RAM) примерно в 2MB ). После всех этих приготовлений можно смело приступить к разгону.

Итак тестовая система:

Материнская плата 1 - Gigabyte 7VRX version 1.1 (KT 333), BIOS version F7 (Опции БИОС: Top Performance: Disabled, Memory: Ultra, Тайминги памяти 2,5-3-3-6)
Материнская плата 2 - Asrock K7VT6-C (KT 600), BIOS 1.30, Тайминги памяти 3-4-4-8
Процессор - Athlon Thoroughbred 1800+ (1,53GHz, Thoroughbred B, 256 kB)
Видеокарта - AXLE ATI 9550 128MB, 128 bit, VGA,TV-Out, BIOS: BK-ATI VER008.017D.016.000
Память - 2x256 MB A-Data,
Жёсткий диск - Seagate Barracuda ST3120026A, 120 GB, 8MB Cache, (NTFS)
Кулер - Evercool ND19-715CA
Термопаста - Evercool
Блок питания - Power Man FSP250 - 60GI (номиналные 250W )
Операционная система - Windows XP SP1, VIA Hyperion 4.56, Softmoded Catalyst 5.10 (взял с www.techpowerup.com), DirectX 4.09.00.0904 (DirectX 9.0c).

Видеокарта попала к мне в oem-поставке, в простом электростатическом пакете, с кабелем TV-Out и драйверов. ATI Radeon 9550 использует тот же дизайн платы, что и старшая карточка серии 9600 и обладает полноценной 128-битной шиной к памяти, есть и поддержка DirectX 9.0. Карта предназначена для так называемого low-end сектора рынка и исполнена на характерном для AXLE черном текстолите.


AXLE ATI 9550 - вид спереди


AXLE ATI 9550 - вид сзади

Видеочип изготовлен по 0,13 мкм технологии в 12 неделю 2004 года в Тайване и имеет следующее обозначение:
RADEON 9550
215R8NCKA13F
N06825.00
0412AA
TAIWAN

Только для илюстрации представляю фотографию другого чипа 9550:



Основой видеокарты является чип RV350 (в моем случае RV350LX), который сам по себе представляет слегка модифицираную версию чипа RV360, который был предназначен для старшей карточки серии 9600ХТ. Для осталных моделей 9600 сегодня производители видеокарт исползуют чип RV350. Можно сделать вывод, что в компании ATI отбирают лучшие чипы для 9600 Pro, среднячки идут на 9600, а все остальные годятся на 9550. И так как технологический процес производства чипов RV350 компании ATI был хорошо наладен, то большинство плат основанные на чипе RV350 с референтном дизайне ATI без всяких проблем переделываются на 9600.

Вот и характеристики двух плат:



Как видно из таблицы одинственая разница между двух плат (кроме ядра) является частота ядра - у 9550 она 250 MHz, а у 9600 - 325 MHz. Можно подумать что если только повысить частоту 9550 она легко превратится в 9600. Но что не видно в таблице, так это разница в таймингах видиопамяти. У 9550 тайминги повышенные, что понижает производительность.

Т.к. AXLE известен референтными исполнениями своих продуктов и у меня нет наблюдений других моделей 9550, кроме ASUS 9550 GE 9550, я приму тайминги моего 9550 и ASUS 9550 GE 9550, которые подозрительно идентичны, как референтные, заданные ATI. С этим можно спорить, т.к. разные производители используют разные модули памяти и у них могут быть разные тайминги. Но все-таки вероятность иметь разных таймингов у памяти на одинаковой частоте невелика, а если она и есть, то не будет больше единицу.

Посмотрим на нашу видеокарту от AXLE. Все тайминги AXLE и ASUS 9550 GE 9550 равны таймингам 9600, кроме следних:



А вот и референтные тайминги для 200 MHz видео памяти Samsung:



Как видно они вполне соответсвуют таймингам 9600. Остается только практический тест - загружаем утилиту Ati Tool (скачать ее можно с www.techpowerup.com) и видим среднюю framerate 37fps при частоте ядра 249,75 MHz и памяти 195.75 MHz.


(кликните по картинке для увеличения)



Нажимаем кнопку Mem, ставим новые тайминги, нажимаем кнопку Apply и выходим из програму, потом загружаем снова, чтобы получить результат с новыми тайминги - 42fps. Удивительно, не правда ли?


(кликните по картинке для увеличения)



Как можно увидеть на скрийншот стандартная частота ядра на плате AXLE 249,75 MHz, а частота памяти 195.75 MHz. Это почти соответствует референтиям ATI, удивление будит только ненужное понижение частоты памяти на 4,25 MHz - если у AXLE имеются проблемы с действием кварца, то они могли понизить частоту на 1,5-2 MHz, чтобы быть уверенным что все будет работать в норме, а вот 4,25 MHz чуть больше чем нужно, ведь даже самые плохие видеопамяти 5 ns (200MHz) смогут работать без всяких помех на 10MHz больше, чем положено. А ну-ка, посмотрим на память видеокарты:



У видеопамяти надпись:

AGM 0414
AGD1281622BT

Это значит, что чипы сделаны фирмы AGM в 14 неделю 2004 года, память третьего поколения типа GDDR SDRAM в корпусе TSOP, обьем 128 MB, Организация x16 с двух сторон (2 Bank), интерфейс SSTL-2 (2.5v, 2.5v), Скорость 5ns = 1000/5 =200MHz.
От AGM рекордов не ждем, но все-таки надо экспериментировать (а вдруг получится!).

Лучшую програму для тестирование оверклока видеоплат ATI я считаю утилиту Ati Tool (смотри на первый скрийншот). Сделана она знатоком W1zzard из Германии и обновляется периодически. Эта утилита представляет терпеливому пользвателю оставить програму автоматически установить найвысшее стабильное значение частоты ядра или памяти. При этом можно определить влияние артефактов (никакое - менший клок, большое - лучший клок) или запустить карту на определенные вам частоты и тестировать для наличие артефактов. Еще можно ограничать оверклок до заданные вами стойности и так далее, но я оставлю пользвателей самим почувствовать удовольствие с этой прекрасной утилитой. Лишь один совет - если не чувствуете себя знатоком используйте стабильной версии, а не бету.

Перед начало тестов нужно сделать еще одну штуку, а именно позаботится о систему охлаждения. Как можно увидеть на следующей снимке AXLE поставили на видеочип достаточно большой радиотор, жаль только что чипы памяти к нему не прикасаются. На ощупь эти чипы теплые даже при работы в номинальном режиме и поэтому я установил страничный вентилятор как показано на снимке. Это разгону особо не поможет, зато будет уверенность что с тепловом режиме все будет в порядке.



Итак начнем тестирование. Так как у этой карточки ядро даже и на пониженном частоте дает достаточной пиксельной рейт, нас больше интересует разгон памяти, который даст нам болше кадров в секунду. Начнем тестирование с релаксированным таймингам (те, которые залиты в BIOS, а уж когда установим максимальное значение попробуем понизить тайминги и увидем что получится).

Запускаем утилиту Ati Tool, нажимаем кнопку Find Max Mem и оставляем програму делать свое дело. Сначала програма увеличивает частоту памяти, затем следуют тесты (Heat Up Phase). Если все прошло нормально, програма продолжает повышать частоту пока не встретит артефакт - при этом частота снижается и начинаются все более и более длительные тесты на эту частоту, пока не встетится артефакт. Если это случится частота снижается и снова следуют тесты и так далее. Надо увидеть надпись No errors for ... в левом нижнем угле и следить, чтобы програма тестировала частоту не менее 82 минут перед прекращение теста, которое будет осуществено вами нажатием кнопку Abort, котороя находится теперь на месте кнопки Find Max Mem (как только вы нажали на кнопку Find Max Mem, надпись поменялась на Abort).

После примерно 8 часов тестирования у меня получился максимальный результат памяти 210 MHz (420 эфективный) при настройки Artifact Scanning на самом левом положением Lower Overclock (то есть без допускания артефактов). Теперь я зашел в настройки таймингов и загрузил тайминги 9600 (которые между впрочим являются и настоящие настройки для частоту 200 MHz). Так как 210 не так уж далеко от 200, редаксировать тайминги не нужно, но если у вас память работает на 250 MHz вы можете установить референтные для этой частоты:



У меня после загрузки новых таймингов и нажатия кнопки Scan for Artifacts и 82 минут проката тестов артефакты не появились и я пошел на следующий шаг - тест ядра. Сперва я создал себе профиль (нажал бутон New, написал имя и потвердил) - теперь можно нажать кнопку Find Max Core (програма информирует меня что память работает вне штатных частот и это может привести к внесения несуществующих артефактов при тесте ядра, но я уже провел тесты и знаю что артефактов нет и поэтому потверждаю нажатием кнопки ОК) и оставляю програму делать свое дело (то же самое как и при тесты памяти -повышение частоты, тесты, сново повышение частоты, тесты и так далее до встречи артефактов, затем понижение частоты, тесты до встречи артефактов и так далее до тех пор пока не увидите устойчивую работу тестов не менее 82 минут).

После нескольких часов тестов выяснилась максимальная частота работы ядра при настройки Artifact Scanning на самом левом положением Lower Overclock (то есть без допускания артефактов) - 378 MHz. Гораздо лучше чем 9600 - теперь надо только сохранить результат в профиль, перезагрузить Windows, запустить утилиту Ati Tool, загрузить профил и провести еще один тест нажимая на кнопку Scan for Artifacts. Если пройдет без артефактов более 82 минут, то у вас есть вполне работоспособная карточка, работающая лучше стандартной 9600 любой фирмы. После этого не так уж и странен факт, что многие потребители ATI 9550 заливают в свою карточку BIOS 9600, но я предлагаю будущим исследователем сперва протестировать свои системы по вышеуказаной методике, чтобы избежать ненужных проблем и уверится что после заливки все будет хорошо. Залить свою карточку BIOS-ом 9600 мне не удалось – AXLE сделали необходимого для того чтобы не допустить прошивания BIOS-а – выдается надпись Can’t write to rom 0FL01 Error.

На этом месте нужно сказать несколько слов о разгоне и сравнить его с разгона других производителей. 378 MHz является увеличение номинальной частоте на 51.35%, что само по себе чудесный разгон, но... но является кроме того и второй найхудший разгон ядра на плате 9550, которого я зная, а я знаю больше пятидесети. Возможность хорошего разгона дает прежде всего качество графического процессора ATI, а не плата AXLE. Должен сказать, что почти все остальные платы 9550, кроме 64 bit-ных версии, как, например, ASUS 9550, разгоняются чуть выше (на 5-15 MHz выше), а некоторые способныe стабильно работать на 400 MHz (частота 9600 Pro), как Gigabyte 9550 256MB и больше, как GeCube 9550 Platinum. Конечно ценовая разница этих карт не менее 10 долларов США, а для GeCube 9550 Platinum Extreme - не менее 30. Так что качество имеет свою цену. И все таки AXLE ATI 9550 не так уж далеко в этим отношении от конкурентов.

Более ярко видна разница между AXLE и так называемых клокерских плат при повышения памяти. В настоящим моменте на рынке все еще имеются платы 9550 оснащеных 4 и даже 3,3ns (как GeCube 9550 Platinum Extreme) видеопамяти, которые способны работать на частотах видеопамяти 500 MHz и выше, что заметно повышает ихнию производительность и место в класациях. Вы наверное согласитесь со мной что за 40 долларов США больше для плату, работающею штатно на частотах 400 MHz (ядро) и 500 MHz (память), вы получаете гораздо большей производительности чем у AXLE, не говоря что таких карточек тоже можно еще разгонять. Но если вам нужна "хорошая карточка за свои деньги", то AXLE ATI 9550 ваша карта. А вот выбором оверклокера эту карту назвать не можно. Кроме того у меня есть подозрения, что AXLE умышлено занижили напряжение ядра, чтобы не гнать так уж много. Кстати, даже такие "любимые" производители, такие как GeCube, тоже это делают, тут даже можно подумать о соглашении производителей видеоплат с ATI об ограничении разгона 9550 (понижение напряжения, увеличение таймингов, нераспаянные елементы на плате и так далее), так что судить AXLE за это ненужно.

На большинство младших плат (дешевых вариант) 9550 чип ATI Rage Theatre отсуствует (он отсуствует даже на GeCube 9550 Platinum Extreme) и AXLE тоже не делает исключение - место на плате есть, а чип не распаян:



Не стоит обвинять AXLE и за это – такой чип стоит только на очень дорогих платах 9550, которых обычной оверклокер не берет (за эти денги он возмет 9800SE и попытается отключить пиксельные конвееры).

Хочу сказать еще пару слов про разгон: претенцию на самый высший результат принадлежит DFG из Румынии на плате Abit Ati Radeon 9550 Guru Personal Cooler 555/351х2 MHz (чип / память), AI High, Memory 4 2 5 9 3 0x28 14, найвысший результат на 9550, про которого я почти уверен, принадлежит ReconCX с Флоридой на плате Dataland ATI Radeon 9550 128MB 500/333x2 MHz (чип / память) с кулером Zalman ZM80 + OP1 ( у него видеопамять 2.8ns Hynix ), про найменьший писать не буду - кому это интересно. Обычные "клокерские" платы 9550 достигают до 400/(230-250)х2 MHz (чип / память).

После выяснения возможностей клока плату AXLE 9550 необходимо проверить производительност в синтетичных тест и настоящих игр. Как всем известно соотношение Материнская плата - Процессор - Видеокарта имеет существенное влияние на видеопроизводительност, поетому я сделал синтетичные тесты на двух системах: первая система уже упоменатая выше Gigabyte с FSB=266 MHz, RAM =333 MHz, AGPx4, а вторая состоится из те же компоненты, но мать Asrock, а процессор тот же самой Athlon Thoroughbred ХР 1800+, но FSB установлено вместо 266 MHz на 333 MHz (процессор работает на 1919, вместо на 1533 MHz), а память RAM =400 MHz, AGPx8. В обоих вариантах Fast Write и Side Band Adressing были установлены в положение Enabled, AGP Aperture size была 128 MB.

Сперва данные о прозводительности памяти:



Как видно с таблицы, у Gigabyte латентност памяти чуть лучше чем у Asrock, а в других тестов отстает немного благодаря понижения таймингов и установления параметра памяти в БИОС-е на Ultra. Посмотрим какая будет производительност в 3D Mark-е:



Как видно с диаграмой разгон видеокарты на материнской плати Gigabyte дает прирост в 702 попугая или 33% в 3D Mark 2003 и 371 попугая или 40% в 3D Mark 2005. Считаю, что нет толка предоставить только результаты и разсуждать на эту тему не учитывая влияние материнской платы и процессора на производительность. Поэтому я провел тесты разогнанной видеокарты и на материнской плате старшего чипсета Asrock (КТ 600) и сравнил их с результаты разогнанной видеокарты на материнской платы Gigabyte. Вопреки плохим настройкам таймингов у Asrock-а и улучшеным характеристикам памяти (Ultra) на Gigabyte, у Asrock-а прирост в сравнение с Gigabyte в 202 попугая или 7,2% в 3D Mark 2003 и 139 попугая или 10,75% в 3D Mark 2005.

Как видно из этих результатов, разгон видео дает больше прироста, чем разгон процессора на лучшей материнской плате (но не надо забывать, что обе материнские платы предварительно оптимизированы для постижения лучших результатов; кроме того, разгон этого процессора самым лучшим не назовешь: была бы у меня плата EPOX на том же самом чипсете КТ 600, я бы мог запустить процессор (уменьшая множитель) на шине FSB=400 MHz синхронно с памятью и результаты были бы еще лучше). И все таки прирост от смены матери есть и хоть он и не велик, пренебрегать этим не стоит.

Теперь нужно выяснить чем обусловен этот прирост - мне известно что увеличение скорости AGP от 4 на 8 хотя и полезно для игр в 3D Mark-ах особый прирост не дает. Я еще на чипсете КТ 266 делал тесты и установил что в любом случае увеличение AGP (от 1 на 2, от 2 на 4) не дает больше 20 попугаев. Допустим что от 4 на 8 дадит нам 30 - это также не тот большой фактор, которого мы ищем (и который обусловляет прираст в 202 попоугаев у Asrock-а в сравнение с Gigabyte).

Посмотрим на подробние данные, которые пишет 3D Mark:



Оказывается разогнанный процессор дает меньше попугаев в тестах, чем работающий на номинальной частоте (хотя и странно, но это можно обяснить плохими таймингами памяти и не самой удачною конструкцией платы).

Итак в круге возможных причин лучших результатов в 3D Mark-ах остаются увеличение шины FSB и памяти. Нельзя сказать, что причиной является только один из этих факторов, потому что они взаимосвязаны. Частота шины FSB определяет ее пропускательную способность и тем самым является потолком для пропускательную способности памяти (которая тоже определяется частотой памяти). В нашем случае теоретическая пропускательная способность шины FSB Asrock-а 2666 Мбайта/с (333 MHz), а тем более практическая пропускательная способность шины (измеренная Everest Home Edition 2.20.405) 2352 Мбайта/с ограничивает пропускательную способност памяти, которая теоретически способна идти на 3200 Мбайта/с (400 MHz). Поэтому нужно увеличить частоту шины, чтобы постичь лучшие результаты.

Чтобы увеличить частоту шины на этом процессоре нужно уменьшить множитель процессора (чтобы сохранить стабильную работу), а на плате Asrock этой опции нет (зато на платах EPOX есть), поэтому я ограничился только этим разгоном.

Удивление здесь возбудил Gigabyte, чья память работала на 2016 Мбайта/с, что находится почти на потолке шины 266 MHz (2133 Мбайта/с) - этим и можно обьяснить столь малое отставание от Asrock-а.

А вот более хороший результат разогнанной видеокарте на плате Gigabyte в 3D Mark 2005 (40%) по сравнении с 3D Mark 2003 (33%) можно обьяснить лишь оптимизациями Catalyst-а для 3D Mark 2005. То же положение и обьяснение и на плате Asrock. Карта 9550 сделана для игр времен 3D Mark 2003 и другого обьяснения для такого хорошего результата в 3D Mark 2005 у меня нет.

После синтетических тест нуждо увидеть как себя будет вести герой наших тестов и в реальных приложениях. Для это я выбрал игры The Lord Of The Rings - The Battle for Middle-earth, хиты лета Collin McRae Rally 2005 и Doom 3 и только-что вышедшую на рынок Need For Speed Most Wanted.

Настройки всех игр по умолчанию следующие:

The Lord Of The Rings:
Detail: Medium, Show All Health Bars: On, Show Unit Decals: On.

Collin: Refresh Rate: 85 Hz (только для 1280х1024 - 75), Z Depth: 16, Texture Quality: High, Draw Distance: 10, FSAA: Off, Anisotropic Filtering: Off, Post Processing Effects: No.

Doom 3: Medium Quality, Advanced Options: All On exept Vertical Sync and Antialiasing.

NFS: Level Of Detail: Low, Car Geometry Detail: Low, Car Reflection Detail: Low, Rain Effect: On, Visual Treatment: High, All other options: Off.

Для соответствия результатов после каждого теста я перезагружал Windows. Еще я решил для совместимости с другими результатами настройки игр не трогать, кроме разрешения (это конечно получится не совсем так - мы знаем что почти каждая современная игра перед первый запуск проводит тестирование системы и устанавливает оптимальные на взгляд своих конструкторов настройки).

Тесты проводились програмой Fraps версии 2.7.2 Build 5535, прокат - 2 минуты. Наличные представители самых популярных жанр игр: гонки (Collin, NFS), современные 3D статегии (The Lord Of The Rings) и First Person Shooter (Doom 3).

А вот и результаты в виде таблицы:



И они же в виде графика.


(кликните по картинке для увеличения)



У Collin McRae Rally 2005 framerate при разрешении 640х480 и 800х600 почти идентичен, что частично можно обьяснить недостатком оптимизации на 640х480 (а кто играет при таком разрешении сегодня?). Эта игра дает самый хороший рейтинг кадров, что можно обяснить плохим графическим движком и устаревшими методами изображения текстур (да, Collin заметно отставает от NFS, не говоря уж про шедевр польской фирмы Techland - Xpand Rally, чья графика, как говорят англичане, "радует глаза потребителя").

Приятный сюрприз принес Doom 3 - эту игру вполне спокойно можно играть на разогнанном 9550 при разрешении 800х600, выключив все чудеса, предоставленные меню Advanced Options. То же самое можно сказать и про Need For Speed Most Wanted, хотя я открою вам тайну - я играю эту игру при разрешении 1024х768 с Car Geometry Detail: High, Car Reflection Detail: High и все идет хорошо даже для моей капризной оверклокерской души.

А вот с The Lord Of The Rings дела стоят иначе. 5 лет назад, когда было время 2D, мы все говорили что слабые компютеры годятся толко на стратегии, а для гонках нужна машина покруче. И вдруг произошло чудо 3D - теперь для гонок годна почти каждая машина, а вот для хорошей стратегии нужен настоящий монстр. Причина проста - в 3D статегии видеопроцессор занят вычислениями десяток и даже стотиц единиц, в то время как в First Person Shooter единиц, редко надвишающих десять (в данный момент игры), не говоря уж про сотни, которые в 3D статегии обычно видны в большей степени (показываются большей територии), чем у First Person Shooter.

Самые плохие результаты разогнанной видеокарты 9550 мы получили на тестах The Lord Of The Rings - около 19 кадров в секунду и то на настройках по умолчанию.

Вывод: для современных 3D статегий 9550 не годится, так что если намеренны играть в них, выбирайте видеокарточку получше.

На этом я думаю поставить точку своего рассказа, но хотелось сказать еще несколько заключительных слов. AXLE ATI 9550 хорошая карточка с хорошим разгоном и для просмотр фильмов и доступ к Интернету вполне годится. Если больше денег нет и вы не максималист, то можно сжать зубы и поиграть в некоторые игры. А если вы заклятый фанат 3D и у вас есть денеги, то взгляд на карты "близкого прошлого" останавливать не надо - ведь Х 1600 уже стоит на пороге...
Telegram-канал @overclockers_news - это удобный способ следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
Оценитe материал

Возможно вас заинтересует

Популярные новости

Сейчас обсуждают