Тестирование и разгон видеокарты Albatron GeForce 7950 GT – 512 Mb – альбатрос парит над морем…
реклама
Людьми с сердцами и почками,
управлять?
Доколе мы, будем на них,
тратить наше лучшее, кровное?
Пусть лучше они, пашут на нас,
эти серые, красные, желтые,
переливающиеся и светящиеся,
быстрые и тормознутые -
Эти, настолько привычные
и необходимые нам ПК!
И пусть это длится, не тысячелетия,
или милионнолетия,
а миллиардов лет века!
Да будет ПК!
В один прекрасный весенний период, когда солнце уже начинает растапливать снег, хотя на улице еще холодно, когда в зимней куртке по улицам ходить уже жарко, а в теплом демисезонном пальто в самый раз, в марте 2007 г., ночью, во мне вдруг проснулась совесть. Она стала меня «грызть» по ночам, все сильнее и сильнее, когда-то на форуме, я обещал написать статью о своей новой видеокарте. Спорить с совестью дело неблагодарное, она все равно окажется сильнее, поэтому мне ничего не оставалось, как сдержать свое обещание и заняться тестированием и написанием статьи о видеокарте Albatron GeForce 7950 GT – 512 Mb.
История приобретения мной данной видеокарты, описана в предыдущей моей статье, поэтому повторяться не буду, и начну описывать достоинства и недостатки данного девайса.
В лучших традициях, начнем с теории:
Для начала, чтобы было понятно, кому адресована моя статья, я предлагаю классифицировать всех пользователей ПК, по уровню представлений о работе компьтера, на несколько категорий:
Категория первая:
Среднестатистический потребитель, для которого ПК – то же, что и бытовая техника. Таких пользователей в нашей стране (да и в остальном мире) большинство. Именно для этой категории людей работают дизайнеры всех мастей и уровней, делая «конфетки» из весьма сомнительных составляющих. Именно для них разрабатывается концепция «Цифровой дом». Лучший выбор для такого пользователя – приобрести ноутбук и игровую приставку, и забыть о проблемах. В любом случае, ПК, на самом деле лишь инструмент для работы, а игровая приставка инструмент для развлечения, и не более того. Эти люди совершенно не интересуются внутренностями ПК, им это просто не нужно, главное дизайн и удобство.
Категория вторая:
Пользователи ПК, которые думают, что знают, что такое ПК. Эту категорию можно условно разделить на две подкатегории:
-те, кто думает, что хорошо разбирается в ПО;
-те, кто думают, что хорошо разбираются в «железе»;
Пользователи этих двух категорий, наиболее распространенная и активная часть специализированных ресурсов, типа overclockers.ru, ixbt.com и т.п. Основная особенность этих пользователей – излишняя самоуверенность в объеме своих знаний и умений. Эти пользователи часто самостоятельны в выборе ПО и комплектующих, в состоянии самостоятельно собрать ПК, многие, читают специализированные популярные сайты в Интернете и т.п., «растут» и могут стать представителями следующих категорий:
Категория третья:
Пользователи, которые с помощью ПК зарабатывают деньги. Эта категория людей, часто очень хорошо разбирается в определенном ПО, операционных системах, «железе», они часто могут самостоятельно собрать, настроить и протестировать ПК из стандартных комплектующих, написать достаточно профессиональное ПО и т.п. Их можно назвать «продвинутыми знатоками ПО и железа».
Категория четвертая:
Профессионалы. Это люди, которые двигают вперед компьютерную индустрию. Это руководители крупнейших компаний, ученые, инженеры, ИТ маркетологи, и т.п. Как правило, это весьма заметные фигуры мирового уровня и их ближайшее окружение, например Билл Гейтс, Линус Торвальдс, Стив Джобс, руководство AMD, Intel, NVIDIA и т.п. Уровень знаний о ПК и ПО этих людей недосягаем обычным пользователям, хотя иногда можно и нужно стремиться поднять себя до их уровня.
Категория пятая:
Энтузиасты. К этой категории можно отнести всех тех, для кого компьютер превратился в главную игрушку в жизни. Тех, кто готов часами настраивать ПК под себя, тех, кто занимается экстремальными видами оверклокинга, тех, кто участвует в движении Open Sours и т.п. Некоторые из таких людей превращаются в профессионалов, другие меняют сферу своих интересов. Но большинство из этих людей имеет достаточно обширные знания о ПК.
Свою статью я изначально хотел написать для пятой категории пользователей ПК, но потом подумал и решил, что напишу ее не только для энтузиастов, но и для первой и второй категории пользователей. То есть для тех, «кто не знает», и тех, «кто думает, что знает».
Себя, кстати, я могу скорее отнести лишь ко второй категории пользователей, к тем, «кто думает, что знает», поэтому профессионалам, энтузиастам, и людям, делающим на этом деньги, статья может показаться «дилетантской и не интересной».
1. Нудные размышления автора о вреде высоких температур для ПК:
Для большинства людей, которые, напомню, относятся к первой категории пользователей и не занимаются самостоятельной сборкой и разборкой компьютеров, ПК – нечто вроде «черного ящика», обладающего определенным набором свойств. О таких людях раньше заботились производители софта и компьютеров. Однако последнее время, производители комплектующих, на мой взгляд, выпускают на рынок все более и более неприспособленные к долгой эксплуатации изделия. Особенно это касается видеоадаптеров.
Ни для кого не секрет, что современные видеокарты это сложные устройства, GPU которых часто гораздо сложнее и производительнее, чем современные CPU. Например, в графическом ядре NVIDIA G-71 (GeForce 7900 GT – 7950 GT) – 279 млн. транзисторов, в графическом ядре К580+ (ATI Radeon X1950 XTX) - 384 млн. транзисторов, а в новейшем ядре G80 (NVIDIA 8800 GTX) – 681 млн. транзисторов.
Вы немного абстрагируйтесь и вдумайтесь, насколько это огромная цифра – 681.000.000! Для сравнения: в CPU Core 2 Duo от Intel – 291 млн. транзисторов, львиная доля которых – 4-х мегабайтный кэш второго уровня (в 2-х мегабайтных CPU Core 2 Duo – «лишь» 167 млн. транзисторов).
К сожалению, с ростом сложности и производительности видеочипов, растет и их тепловыделение. А давно ли видеочипы вообще обходились, без какого либо охлаждения? Я еще помню, те времена…
Хуже всего в этой ситуации то, что и AMD и NVIDIA смирились с тем, что их видеокарты высшего звена потребляют очень много электроэнергии и выделяют гигантское количество тепла. Потребление современного «производительного» ПК в сумме все ближе и ближе стремится к «заветному» киловатту. Для сведения, простейшие бытовые нагревательные приборы потребляют 1-1,5 киловатта электроэнергии и выше, получается, что современными ПК можно обогревать помещения, (особенно если в комплекте с системным блоком используется ЭЛТ-монитор)!
Штатное охлаждение большинства видеоадаптеров, как от AMD, так и NVIDIA, без разгона позволяет им разогреваться до 90-100 градусов Цельсия (далее «Гр. Ц»). В драйвере видеокарт NVIDIA по умолчанию «предел замедления» установлен в 130 Гр. Ц. Вы представляете, насколько это горячо, при такой температуре не то, что палец обожжешь, реально можно еду готовить! Вода кипит при «всего» 100 Гр. Ц., а температура воспламенения некоторых полимеров и пластиков лишь 150 Гр. Ц.!
Естественно производители чипов придумывают различные способы защиты своих продуктов от выхода из строя, при перегревах, например, при высоких температурах в CPU Intel начинает действовать, так называемый, «тротлинг», у видеокарт NVIDIA начинаются «фризы», а видеоадаптеры от AMD-ATI (по собственному опыту) «вешают» систему.
Центральные процессоры любого производителя: и AMD, и Intel, и IBM, и VIA, и Transmeta, при перегреве начинают сбоить, могут даже сгореть. Снижается срок службы всех комплектующих, ухудшается надежность и стабильность работы операционных систем, и прочее, и прочее, и прочее. Именно по этой причине, все большее распространение получают системы водяного охлаждения, а воздушные кулеры становятся все более громоздкими и тяжелыми.
На мой (и не только) взгляд, температура чипов CPU не должна превышать 60-65 Гр.Ц., а GPU – 70-75 Гр. Ц.
А теперь представьте, что Вы обычный потребитель, купили новенький ПК и вдруг замечаете, что при обычной офисной работе он работает достаточно тихо, но стоит запустить 3D-игру и тихий гул превращается в «авиа рев». Температура воздуха под столом, где обычно стоит системный блок, становится ощутимо выше, чем в остальной части квартиры. Но это еще не все, во время игр, компьютер начинает «глючить», «тупить», выпадает в «синий экран смерти»… Вы, человек, не искушенный в компьютерах относите системный блок в сервис, а Вам отвечают: «извините, но все работает». И действительно в сервисном центре все работает, и у Вас дома тоже, пока не запустишь очередную игру. Тогда Вы начинаете искать среди своих знакомых «компьютерного гуру», который по дружбе (или за деньги), по пять раз, перепроверив все комплектующие, обжегши пальцы на руках, говорит: «Да все нормально, все работает». А все «глюки» из-за перегрева, открой крышку системного блока, и все будет О’К. И действительно, при открытой крышке системного блока «глюков» нет. Но зачем обычному человеку нужен ПК, в котором видны внутренности? Туда и ногой угодить случайно можно, все, разворотив, и маленького ребенка может убить током, если он, не дай Бог, туда залезет!
Самое худшее состоит еще и в том, что из-за высокой температуры видеоадаптера нагревается воздух внутри корпуса, а значит: жесткие диски, центральный процессор, чипсет на системной плате, модули оперативной памяти и т.п. Даже внешняя звуковая карта, от перегрева, начинает «глючить». И все это потому, что штатное охлаждение на современных, особенно топовых видеоадаптерах, не справляется с возложенной на него задачей.
Возникают резонные вопросы:
- Почему многие производители видеокарт не ставят на свои продукты тихие и эффективные системы охлаждения, а отдали это на откуп сторонним производителям?
- Почему, купив видеокарту за 350$-500$, покупатель должен потратить еще 30$-100$ на новый эффективный кулер?
Ответа у меня на них нет, ищите самостоятельно.
Вообще, мне вспоминается моя бывшая видеокарта Sapphire ATI Radeon X800XL AGP 256 Mb, память на которой стала разгоняться только после смены штатной системы охлаждения на кулер Zalman VF 700 Al-Cu.
Итак, изучив множество обзоров видеоадаптеров GeForce 7950 GT, на разных сайтах, я узнал, что штатная система охлаждения на них, не отличается от охлаждения на GeForce 7900 GT. Проблема была в том, что у 7900 GT тактовые частоты 450/1320 (ГП/память), а у 7950 GT - тактовые частоты 550/1400 (ГП/память). То есть видеочип 7950 GT относительно 7900 GT разогнан на 100 MHz! Уже только одно это вызывает сомнения в том, что кулер от 7900 GT справится с охлаждением 7950 GT. В изученных мною статьях об этом или не упоминалось, или сообщалось, что, не смотря на сильный нагрев, видеоадаптер работал стабильно. Поэтому я решил, что на «первое время» ограничусь штатным охлаждением.
Я то думал, что я что-то знаю…
Видеоадаптер Albatron GeForce 7950 GT – 512 Mb в «растерзанном» виде вместе со снятым штатным кулером.
(кликните по картинке для увеличения)
Практически во всех 3D играх, в которые я играл, проблем с видеокартой Albatron GeForce 7950 GT – 512 Mb действительно не было. Однако, когда я стал проходить игру «Вивисектор», был неприятно удивлен, что она изредка «вылетает» на рабочий стол, то же самое было и с «Инстинктом». Сначала я грешил на программистов. Действительно, отключение аппаратного звука в «Вивисекторе» решило проблему с вылетами, а «Инстинкт» - это не та игра, которую хочется проходить много раз. Но однажды, во время игры в «Вивисектора», я решил запустить мониторинг в программе Riva Tuner-2.0 господина Unwinder’a и просто «обалдел».
(кликните по картинке для увеличения)
Видеочип прогревался до 99 Гр. и выше! О какой стабильности можно говорить, при таких температурах!?
В общем, необходимость в замене штатного охлаждения, на что-то более производительное назрела.
Выбор и установка альтернативного кулера.
В той части земной коры, где живу, выбор в магазинах не богат. Абсолютно ничего, за исключением продукции Zalman. Зато продукция этой фирмы, представлена начиная от активного кулера Zalman Fatal1ty и заканчивая пассивным Zalman ZM80D.
Как когда-то было сказано в одной рекламе, «при всем богатстве выбора, другой альтернативы нет». Не скажу, что я выбирал очень долго, но в итоге, выбор мой пал на кулер Zalman VF-700Cu, который, по моему мнению, имеет максимальное соотношение цены и качества. Кулер полностью медный, достаточно эффективный и малошумный, разница в цене с Zalman VF-700 AlCu составляет меньше 200 рублей, но эффективность выше, медь, она и в Африке - медь.
После демонтажа старой системы охлаждения и установки новой, видеокарта стала выглядеть так:
(кликните по картинке для увеличения)
Температурный режим, сразу же изменился в лучшую сторону, так при прогреве видеокарты с помощью теста из 3DMark-05 Firefly Forest в режиме АА - 4, АФ – 16 максимальная температура составила 67 Гр.Ц.:
(кликните по картинке для увеличения)
Как видите, разница в температуре между штатной и новой системами охлаждения свыше 30 Гр. Ц.! Ну, теперь можно задуматься и о разгоне видеоадаптера.
Разгонял я видеокарту с помощью утилиты Riva Tuner 2.0.
Разгон ядра ГП:
Начал я с 700 MHz по ядру: получил сообщение: «драйвер не прошел внутренние тесты частот». Хорошо, думаю, разгоним до 650 MHz – результат тот же. Опускаем «планку» до 620 Mhz, потом до 600, затем до 577 MHz…
Ага, на 577 MHz тест пройден. Проводим тестирование, вроде все работает. Поднимаем тактовую частоту ГП выше: 585 MHz, далее 595 MHz все работает, все тесты проходятся, однако начинаются, так называемые, «фризы». Картинка замирает на 1-5 секунд, потом «движение» продолжается.
В общем, итоговый разгон по графическому ядру составил лишь 575 MHz и не выше. Зато ни «фризов» ни зависаний нет. А что Вы хотели? Упрощенная плата с нераспаянными элементами…
Рискну предположить, что вольтмоддинг для повышения напряжения на ядре ГП, «пляски с бубном» вокруг «дельты» в BIOS’е видеоадаптера, и другие ухищрения помогли бы выжать из видеокарты все соки. Но оставлю это для энтузиастов. Все должно иметь разумные рамки, тем более что стремление к «отстрелу максимального количества попугаев» я уже давно перерос.
Разгон чипов памяти:
Как я уже писал в предыдущей своей статье: «память на видеокарте объемом 512 Мб (8х64) производства «Qimonda». Судя по маркировке на чипах памяти, номинальная частота памяти составляет 700 (1400) Мгц (1000\1,4). Поэтому надеяться на хороший разгон памяти, в будущем, не стоит». Однако, на счет разгона памяти, я ошибался. Память разогналась гораздо лучше, чем GPU. С ходу она взяла планку в 814 (162 MHz. Однако, максимально стабильные частоты памяти, составили 801 (1602) MHz, на них я и остановился:
-CPU – AMD Athlon X2 4600+ сокет 939, кэш второго уровня по 512 Кб на каждое ядро;
-Системная плата – Asus A8N SLI SE (nforce 4 SLI) BIOS версии 0502 (последняя доступная на официальном сайте версия BIOS);
-Видеокарта – Albatron Geforce 7950 GT;
-Звуковая карта Creative SB Audigy 2ZS.
-Оперативная память – 2 Гб (4 модуля по 512 Мб DDR PC 4200 Kingston KVR – DDR-400, работающие в режиме «Dual Channel»).
- Жесткие диски: SATA WD (WDS WD800JD-00JNC0) - 80 Гб, SATA-2 WD (WDS WD1600JS-00NCB1) - 160 Гб, ОС установлена на втором разделе этого диска емкостью 10 Гб; IDE Seagate Barracuda (ST340014A) - 40 Гб.
CPU в BIOS был разогнан до тактовой частоты 2700 MHz (225х12), достаточной, для стабильного прохождения всех синтетических и игровых тестов. Память разгонялась синхронно с центральным процессором. Тайминги: 3-3-3-8, 2T.
(кликните по картинке для увеличения)
Итак, во время тестирования, видеокарта работала в трех режимах:
- В штатном: 550 MHz – графическое ядро и 700 (1400) MHz память.
- В разогнанном: 577 MHz – графическое ядро и 801 (1602) MHz память.
- В разогнанном: 577 MHz – графическое ядро и 801 (1602) MHz память с включением сглаживания уровня 4х и анизотропной фильтрации уровня 16х.
В ПК была установлена операционная система Windows XP SP-2, которая не настраивалась на максимальное быстродействие.
Драйверы к видеокарте: 93.71_forceware_winxp2k_international_whql. Режим качества и производительноти в драйвере видеоадаптера выставлен в положение «качество». Остальные драйверы из соответствующих компакт дисков идущих в комплекте с девайсами.
Итак, все комплектующие разогнаны, можно приступать к тестированию. Однако нам еще необходимы цели и задачи тестирования, иначе какой в нем смысл!? Обзорных статей в Интернете и без моего «опуса» хватает.
В уже далеком 2002 г., зимой, я приобрел себе 17 дюймовый ЭЛТ-монитор, производства Samsung – SyncMaster 753s. Это обычный, бюджетный, без всяких изысков, типа псевдоплоского экрана и т.п. «телевизор». Его я использую и сейчас, при написании данной статьи. По большому счету, он меня вполне устраивает по всем параметрам, за исключением одного: глаза от него устают гораздо больше, чем от современных ЖК мониторов. Даже при работе на моем ноутбуке LG LM-60, с диагональю монитора всего 14 дюймов, глаза устают меньше.
Короче говоря, внутренне я уже давно готов к тому, что рано или поздно, я приобрету себе новый 19 дюймовый ЖК монитор, с разрешением экрана 1280х1024 точек. 19 дюймов + разрешение экрана 1280х1024 точек – самое оптимальное для глаз сочетание. Не мелко, как на 17 дюймовых ЖК мониторах, и не слишком «зернисто», как на 18 дюймовых, с тем же разрешением экрана. Всем известно, что на ЖК мониторах рекомендуется использовать «родное разрешение экрана», это позволяет избежать «замыливания» изображения и других потенциальных проблем.
Тема выбора монитора – отдельная тема, во многих форумах есть соответствующие ветки, и с окончательным выбором нового монитора, я пока не определился. Да и финансовую сторону вопроса не стоит забывать, я не настолько богат, чтобы покупать дешевые вещи.
Из этой проблемы, которая, как мне кажется, не только моя, (о смене ЭЛТ-монитора на ЖК, задумываются многие), вытекает одна из целей тестирования:
Цели тестирования:
1. Сравнить производительность видеокарты Albatron Geforce 7950 GT при работе с разрешением экрана 1024х768 точек и 1280х1024 точек в синтетических тестах (3D Mark 2001- 3D Mark 06).
2. Выяснить производительность этой же видеокарты при работе с разрешением 1280х1024 точек в современных (и не очень) играх в режиме «чистой производительности» и в режиме «максимального качества» - то есть со сглаживанием и анизотропной фильтрацией.
3. Написать обзор видеокарты Albatron Geforce 7950 GT, который ранее, я обещал сделать.
Тестовые программы:
-3DMark 2001 – без него ни куда, показывает «тупую» мощь связки из процессора и видеокарты.
-3DMark 03 – раскрывает производительность системы в уже «старых» играх 2-х 3-х летней давности.
-3DMark 05 – отражает производительность во многих современных играх.
-3DMark 06 – задел на игры будущего и некоторые из вновь появившихся игр. В связи с тем, что видеокарты NVIDIA седьмой серии не поддерживают одновременного сглаживания и анизотропной фильтрации при включенной технологии HDR, в этом тесте в «качественном режиме» была выставлена максимально-возможная анизотропная фильтрация – 16х.
-Quake III: Движок от этой игры, до сих пор используется в некоторых, вполне современных играх, например в Call Of Duty 2. Параметры сглаживания и анизотропной фильтрации выставлялись через панель драйвера.
-Doom III: игра, демонстрирующая возможности программистов ID Software, на движке этой игры созданы Quake IV, Prey, и некоторые другие современные игры. Использовался режим «ультра качество» сглаживание – 4х.
-UT 2003 – одна из лучших сетевых игр своего времени, прекрасная физика, мощный AI ботов. Игра использует возможности DX-8,1. Параметры сглаживания и анизотропной фильтрации выставлялись через панель драйвера.
-Half Life 2 (CSS), реально я использовал встроенный бенчмарк в CS Sours на базе движка этой игры. Игра использует возможности DX - 9,0.
-F.E.A.R. – игра с огромным количеством шейдерных эффектов, ощутимо нагружает видеокарту. Игра использует почти все возможности DX - 9,0c.
-NFS Carbon – аркадная автомобильная гонка, движок которой использует множество шейдерных эффектов DX-9,0c, серьезно нагружает современные видеоадаптеры.
-TES-4 Oblivion – ролевая игра, в момент выхода «поставившая на колени» практически все видеокарты, как в свое время Doom III. Параметры анизотропной фильтрации выставлялись через панель драйвера.
Для подсчета FPS в играх, не имеющих встроенных бенчмарков, я использовал утилиту FRAPS версии 2.7.4, в этих играх в диаграммах мною указан средний FPS.
В играх, встроенные бенчмарки которых, не поддерживают разрешение экрана 1280х1024 (F.E.A.R. и UT 2003) я использовал разрешение 1280х960 точек.
Приступим к анализу полученных данных:
Из диаграммы видно, что в любом из представленных синтетических тестов при любом разрешении экрана, прирост количества «попугаев» от разгона не велик, от 2-х до 6 %; вместе с тем, снижение производительности при разрешении 1280х1024 в сравнении с разрешением 1024х768 составляет до 8%.
При использовании «качественного режима», то есть при сглаживании 4х и анизотропной фильтрации 16х снижение производительности тем меньше, чем современней синтетический тест. Так в 3DMark 2001 снижение составляет 13%, а в 3DMark 05 - лишь 9%. Это говорит о том, что в современных играх снижение производительности даже при использовании сглаживания и анизотропной фильтрации минимальное. С другой стороны, какие либо оптимизации в драйвере я не отключал.
Самое важное для меня то, что все-таки мною был преодолен психологический рубеж в 10000 попугаев в 3DMark-05. И это меня немного порадовало, так как я уже не надеялся на его преодоление с этой видеокартой.
Вывод: серия видеокарт 79хх от NVIDIA практически не снижает производительность при использовании качественного режима графики при настройках драйверов по умолчанию.
Теперь, попробуем проверить это предположение на практике, то есть в реальных играх.
Эта игра сейчас настолько не требовательна к ресурсам современных видеокарт, что в ней все упирается в производительность CPU. Более того, разница между разгоном и отсутствием такового, между максимально качественным режимом и «обычным» режимом просто ничтожна, какие-то «несчастные» 2-4 FPS!
В игре Doom III все гораздо интереснее. Разгон добавляет целых 3 FPS! Ура, Ура, Ура! А вот качественный режим «сожрал» целых 41 FPS или 30% производительности видеоадаптера. Хотя средний FPS в Doom III вполне играбелен, не за горами те дни, когда производительности этой видеокарты в новых играх на движке Doom III хватать перестанет!
Напомню, что тестирование этой игры производилось при разрешении экрана 1280х960. Результаты, весьма интересны. Так, разница между «качественным» и «обычным» режимами в тесте Botmatch отсутствует вообще. Все вновь уперлось в производительность процессора. Разгон дает прирост только в тесте Flyby – и лишь 1 FPS, снижение производительности при включении в драйвере сглаживания и анизотропной фильтрации составляет 10 FPS или чуть меньше 3-х %. По аналогии с Quake III, напрашивается вывод: геометрическая сложность поверхностей в «старых» играх для современных видеокарт настолько легка, что полноэкранное сглаживание в них практически не снижает производительности.
А ведь действительно, сравните количество деталей, мелких предметов и изогнутых поверхностей хотя бы в Quake III и в Doom III; или в UT-01 и UT-2003! Давно ли графика в игре Return to Castle Wolfenstein мне казалась кинематографичной, а от игры Max Payne «отвисала челюсть»? Так и вспомнился роман В. Пелевина Generation «П», с его идеей рендеринга руководящего персонала на компьютерах производства «Silicon Graphics».
В этой игре обнаруженная ранее тенденция продолжена. Разгон видеокарты эффекта практически не дает, все уперлось в мощность CPU, а качественный режим съедает лишь 8 FPS (4,5 %) и практически не снижает производительности видеоадаптера. С другой стороны, мой вывод не нов, касаемо игры HL-2 об этом говорили и год, и два года назад. В любом случае, производительности GeForce 7950 при разрешении экрана 1280х1024 точек для игры в HL-2 и другие игры на движке Source хватит с избытком.
Данная игра тестировалась с включенными «мягкими тенями» при разрешении экрана 1280х960 точек. Именно с включением «мягких теней», связан столь низкий минимальный FPS.
В игре F.E.A.R., как и в Doom-III включение сглаживания и анизотропной фильтрации снижает производительность видеоадаптера на 30 процентов. Как видно из диаграммы, даже разогнанная видеокарта GeForce 7950 GT не позволяет играть в F.E.A.R. при активизации «мягких теней» с максимальным качеством. При возникновении желания вновь поиграть в эту игру, мне придется снова играть с отключенными мягкими тенями, либо со снижением уровня AA и AF.
Напомню, что данная ролевая игра тестировалась без сглаживания, так как видеокарты NVIDIA седьмой серии не поддерживают одновременное сглаживание и использование HDR. При анализе результатов FRAPS мною выставлялся «усредненный» FPS. В игровом мире TES-IV Oblivion, при желании, можно найти места и ситуации, где минимальный FPS будет крайне низок даже на ATI Radeon X1950 XTX и NVIDIA 8800 GTX, чего уж говорить о моей видеокарте. Тесты я проводил сначала в лесу районе г. Брума, выбрав место с густой травой и деревьями, затем внутри замка Брума в закрытых помещениях. Результаты видны в диаграмме. Падение производительности при включении анизотропной фильтрации уровня 16х от 20% до 35%, в зависимости от ситуации. Но в этой игре даже 7900 GTX не обеспечивает минимального FPS в 24 кадра, на это способны лишь топовые видеоадаптеры AMD-ATI и новейшие GeForce 8800 GT\GTX. Так что повода для расстройства я не вижу.
Данный аркадный гоночный симулятор, в отличии от предыдущего, в серии: NFS - Most Wanted, гораздо больше насыщен шейдерными вычислениями. Если в игре NFS-MW у меня FPS ниже 30 кадров в секунду не опускается, то в NFS-Carbon FPS не слишком высок. При включении AA и AF возможны падения FPS до 19-20 кадров в секунду. Учитывая, что NFS-Carbon аркадная гонка, в игре это не мешает, но все же…
Стратегия ATI, согласно которой текстур будет все меньше, а шейдерных вычислений все больше, начинает срабатывать. Любителям этой аркадной гонки предпочтительней будет приобрести продукцию AMD, она покажет большую производительность. Кстати говоря, видеокарты с поддержкой шейдеров только второй версии в NFS Carbon не позволяют включить эффект размытия, а игровые персонажи выглядят менее естественными, чем при включении шейдеров версии №3 (это я знаю точно, так как играл в NFS-Carbon и на ATI Radeon X800XL, и на NVIDIA 7950 GT).
1. Видеокарта Albatron GeForce 7950 GT – 512 Mb сегодня показывает вполне достойную производительность практически в любых играх, за некоторыми исключениями типа TES-IV Oblivion и NFS Carbon.
2. Штатное охлаждение этой видеокарты с поставленной задачей справляется едва-едва и при первой же возможности, я рекомендую Вам его сменить на что-то более производительное, либо сразу искать видеокарту с «нормальным» кулером.
3. На моей видеокарте разгон фактически не получился, хотя возможно мне просто попался неудачный экземпляр. Так что любителям разгона, чтобы не быть разочарованными, рекомендую перед приобретением таких видеокарт решить с магазином вопрос о возможности «манибека».
4. В случае, если видеокарта GeForce 7950 GT – 512 Mb на максимальных настройках не справляется с игрой при включенной максимальной анизотропной фильтрации и сглаживании, то вероятнее всего, она не справится с игрой и с отключением этих технологий. Это наглядно демонстрируют такие игры, как TES-IV Oblivion и NFS Carbon.
5. Неэкстремальный разгон видеокарты в большинстве игр не дает ощутимой прибавки производительности и поэтому практически бесполезен.
Заключение:
Итак, моя очередная статья окончена. Поставленные передо мною самим собой задачи я решил:
-0хлаждение на видеокарте сменил,
-обзор видеокарты написал,
-пределы неэкстремального разгона для нее же, установил, но…
Как всегда остаются «но», о которых хочется поговорить еще. Я уже практически три месяца являюсь обладателем видеокарты, статью о которой Вы только что прочитали, и у меня, естественно, сложилось о ней определенное субъективное мнение.
1. Все видеокарты NVIDIA, которые у меня были, за исключением самой первой GeForce-2 MX-400 отвратительно работали с видео, и в этот раз чуда не произошло. В сравнении с ATI Radeon 9600 Pro или ATI Radeon X800XL качество картинки, выводимой на телевизор существенно хуже, переходников в комплекте для подключения обычного телевизора, с помощью аналогового кабеля нет, первый попавшийся переходник не подойдет, придется поискать, либо довольствоваться черно-белым изображением.
2. Качество картинки в любых играх у видеокарт NVIDIA, в сравнении с Radeon’ами действительно хуже. Цвета не сочные, как на Radeon’ах, а какие-то более мутные, менее живые, что ли. На Radeon’ах даже без HDR картинка более яркая и четкая. За два или три дня, использования, конечно, привыкаешь, но все же факт остается фактом. Не помогает даже включение максимального качества в драйвере NVIDIA, поэтому, когда привыкнете, рекомендую оставить все по умолчанию, производительность выше, а особой разницы в картинке между «качеством» и «максимальным качеством» нет.
3. Вместе с тем, качество картинки в 2D – просто отличное. Более того, если у новейших драйверов AMD-ATI имеются проблемы с запуском старых игр, то у NVIDIA таких проблем нет. Я умудрился запустить NFS Porsche Unleashed, чего не мог сделать на видеокартах ATI с момента перехода с Windows 98 на Windows XP. Вообще, многие старые игры на видеокартах NVIDIA работают гораздо лучше, чем на видеоадаптерах AMD-ATI. Панель драйвера, особенно в сравнении с Catalyst Control Center намного удобней, есть возможность переключения к классическому виду, чего нет у AMD-ATI. Есть и другие положительные моменты, но они общеизвестны. Вот такие дела!
Спасибо всем, кто прочитал статью до конца, надеюсь, что некоторым было даже интересно. С уважением, Freevad.
Обсудить можно здесь: https://forums.overclockers.ru/viewtopic.php?p=3669968#3669968
реклама
Лента материалов
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Сейчас обсуждают