Бюджетная затычка видео разьема. Обзор Albatron GeForce 9500GT 512Mb DDR2


1.Вступление
Вот почти подходит к концу 2008 год, год, который очень порадовал резким изменением ситуации на рынке видеоадаптеров. Очень уж снизилась планка стоимости видеокарт.
Вспомнить хотя бы предыдущие 3 года. Цены на Hi-End видеокарты зашкаливали за 600$, и это было нормой, а некоторые экземпляры стоили и побольше (тот же GeForce 8800Ultra). Middle-End тогда также не баловал ни своей доступностью, ни приемлемой производительностью: тогдашние мидл-энды в виде nVidia GeForce 8800GTS 320, которые были рассчитаны на новомодный DirectX 10, показывали в этом директе далеко не лучшую производительность. А от их извечного конкурента - ATI ответа пришлось ждать 9 месяцев, да и, положа руку на сердце, дорогущие и дико греющиеся обрезки Radeon 2900XT в виде Radeon 2900GT(PRO) таковыми изначально и не являлись. Видео нижнего ценового диапазона в виде GeForce 8600GT(GTS) и Radeon 2600Pro(XT) за цену, которую за них просили, вообще трудно было назвать адекватными товарами, да и играть в тогдашние игры на них можно было только на низких настройках.
Тогда же в этот ценовой диапазон и вписались Hi-End продукты прошлого поколения в виде Radeon 1950GT(PRO) и GeForce 7900GS(GT), которые и не поддерживали Direct10, но в DX9 играх уделывали своих новых конкурентов.
Ситуация поменялась после выхода чипов G92 от nVidia и RV670 от ATI. Они показывали уже более достойную производительность в новых играх (хотя "Кризис" на максимальных настройках ставил на колени и triple-SLI из 9800GTX). Но АТИ снова была в роли догоняющего, а единственным инструментом по борьбе с чипами конкурента стала цена. И пошло-поехало….. Видеокарты, которые стоили в момент анонса 450-500$, буквально потеряли в весе 150-200$. Все благодаря конкуренции! Помнится, XFX даже компенсировала деньги тем, кто купил их видеокарты в начале анонса, т.к. купившие их уже через месяц платили за то же на 40% меньше. А дальше, больше! Настало лето 2008 года, на свет появился новый чип от ATI - RV770. Видеокарты, построенные на его базе, - 4870 и 4850 стоили в начале анонса 249$ и 199$ соответственно, притом что они были производительней GeForce 9800GTX(+) и это при том, что последний стоил около 349$! А на подходе был уже новый чип у nVidia – GT200, который обещал на первых порах просто невиданную производительность, но т.к. он производился по устаревшему техпроцессу 65нм и был очень сложен, видеокарты на его базе стоили от 399$ до 599$. Но после анонса видеокарт на его базе GTX260 и GTX280, их цена и производительность оказалось неадекватна, ведь Radeon 4870, стоящий 299 долларов, был быстрее GTX 260 и догонял GTX280, притом, что стоил на 150 дешевле, чем первый и на 350долларов дешевле, чем второй! И тут цены на видеокарты от Нвидиа просто обвалились и в итоге мы имеем сейчас GeForce 9800GTX+ за 150-170 долларов, при том, что она вытягивает все современные игры в разрешении 1280х1024 на максимальных настройках (кроме, опять же, ненасытного "Кризиса"), а среднестатическому геймеру, имеющему 17 или 19 дюймовый дисплей, больше и не надо.


2. Обзор видеокарт, участвующих в тестировании
Ну а сегодня мы рассмотрим нижний ценовой диапазон.
Ко мне на тестирование попала видеокарта nVidia GeForce 9500GT 512Mb DD2 от Albatron. Не сказать, что сегодня часто увидишь видеокарты данного производителя, но это не столь важно.
Для начала рассмотрим сам чип 9500GT.
Это фактически реинкарнированный GeForce 8600GT(GTS) на чипе G84, только теперь он называется G96 и может производиться как по 65нм, так и по 55нм технологии. Последняя в теории должна повышать разгонный потенциал и понижать стоимость и энергопотребление чипа. Ниже в таблице я представлю технические характеристики этих двух чипов и сегодняшнего конкурента в лице Radeon 3850. Я, конечно, понимаю, что они ему не ровня, но я взял его как конкурента, чтоб показать, насколько игра на текущем Low-End возможна и сравнить результаты с видеокартой среднего ценового диапазона.
Итак, вновь вернёмся к нашей 9500GT.
Видеокарта поставляется в небольшой черной коробке с желтым логотипом nVidia. На лицевой части перечислены технологии, поддерживаемые видеокартой, наличествующие разъемы, типа и размер памяти.


(кликните по картинке для увеличения)



Рис.1
На задней части коробки кратко описаны технологии, поддерживаемые видеокартой, а также, то, что новомодная игра-симулятор эволюции Spore должна очень неплохо идти на компьютере, использующем данный чип.
Внутри этой красочной фальш-коробки содержится ещё одна, в которой, собственно, и лежит видеоадаптер. Эта коробка сделана из картона и предохраняет видеокарту от повреждения.
В комплект поставки входят:
1. Сама видеокарта в антистатическом кулёчке
2. Диск с драйверами под WinXP\Vista x86/64
3. Переходник с S-video на RGB.


(кликните по картинке для увеличения)



Рис.2
Мдя… не густо, хотя за такую цену это вполне нормальная комплектация.
Теперь перейдём к самой видеокарте.
Видеокарта основана на зелёном PCB нереферсного дизайна. На питание цепи памяти и чипа выделено по одной линии, чего вполне достаточно для столь простого чипа. В целом плата оставляет впечатление продукта очень непритязательного, но сделанного аккуратно, т.к. огрехов размещения элементов я не заметил.


(кликните по картинке для увеличения)



Рис.3
Теперь рассмотрим саму плату без СО.


(кликните по картинке для увеличения)



Рис.4
На плате распаян новейший чип из семейства G96 – G96-309-B1, основное отличие которого от своих старых собратьев заключается в новом 55нм техпроцессе. В остальном это тот же G84 с 32 потоковыми процессорами и 16 текстурными боками.


(кликните по картинке для увеличения)



Рис.5
Память распаяна чипами по формуле 512Mbx8 и шиной в 128бит. Производитель Hynix , маркировка чипов HY5PS121621B со временем доступа в 3нс и резултатирующей частотой в 333МГц(666DDR).


(кликните по картинке для увеличения)



Рис.6
Разглядим повнимательней систему охлаждения.


(кликните по картинке для увеличения)



Рис.7


(кликните по картинке для увеличения)



Рис.8
Сразу скажу: она довольно интересна, я лично первый раз вижу такую нестандартную компоновку СО. Во-первых, она выполнена по двухслотовому форм-фактору, так что соседний слот будет занят. Материал, из которого изготовлен радиатор – алюминий, покрашенный в чёрный цвет.
На радиатор установлен вентилятор типоразмера 60х60х10мм. При работе на фоне системного блока, шумом не выделяется. Вентилятор постоянно крутится на скорости 50% от максимальной и её нельзя менять программно, только перепрошиванием БИОСа.
Изначально видеокарта работает на стандартных для DDR2 версии частотах 550/1400/666 МГц (ядро/стрим-процессоры/память).




Рис.9
Прогрев карты осуществлялся с помощь Fur Mark на настройках 1280х1024 MSAA 16x. В итоге получилось:




Рис.10
Карта разогрелась до 60 градусов, при 10 минутном прогоне теста. Кулер работал на 50% от максимальной скорости и субъективо на фоне шума системного блока не выделялся.
Теперь перейдём к разгону. Наличие 55нм ядра даёт некоторые надежды на очень неплохой разгон, но так как на карте стоит память стандарта DDR2 со временем доступа в 3нс, что немного омрачает радость.
В целом разгон довольно порадовал. Сильнее всего разогнался чип(вот и отсылка к новому техпроцессу) до 800МГц! (+45% к номиналу), шейдерный домен разогнался существенно хуже - до 1750МГц (+25% к номиналу), память тоже не ударила в грязь лицом и дошла до отметки в 425МГц(+28% к номиналу), чего я, положа руку на сердце, не ожидал от такой "тормозной" памяти. Судя по информации в интернете, разгон чипа до таких частот это большая удача, в основном они гонятся до 750-770МГц, так что на сегодняшний тест к нам попал интересный экземпляр.




Рис.11
При поднятии оборотов кулера до 100%, чип прогрелся на 6 градусов больше, что в принципе не критично для этого ядра.




Рис.12

Отдуваться за средний класс сегодня будет видеокарта Power Color(TUL) Radeon 3850 PCS 512Mb DDR3. Видеокарта была выбрана из двух соображений, первое из которых: данную карту сейчас можно купить за относительно небольшие деньги и производительность у недостаточная для большинства сегодняшних игр, второе же более банально - это единственная доступная мне видеокарта для проведения тестирования^_^ (потому что моя). Вот такие вот дела.
Номинальные частоты для моей видеокарты были 720МГц/1800МГц соответственно по чипу и памяти. Разгонный потенциал давно уже известен и составляет 823МГц/2052МГц, что составляет +14,3% к чипу и +14% к памяти, что после разгона 9500GT кажется совсем немного. Ну что ж тесты покажут, насколько существенна прибавка. И в конце приведу скриншот с характеристиками Радеона.




Рис.13
Вкратце опишу свою видеокарту. Основан на реферсном дизайне платы, с замененным на ZEROtherm GX810(аналог Zalman VF-900Cu) кулером, что очень хорошо сказалось на разгонном потенциале и шумовых характеристиках. На чипах памяти установлена прямоугольная охлаждающая пластина, материал алюминий. Также радиатор установлен на подсистеме преобразования питания. Боллее подробный обзор этой карты есть у тов. Santer88 в статье http://people.overclockers.ru/santer88/record38.
Также привожу фотографию карты, взятую с его статьи:
PowerColor Radeon HD 3850 PCS 512Mb DDR3


(кликните по картинке для увеличения)



Рис.14
Таблица сравнительных характеристик сегодняшних участников

Наименование технических
характеристик
Geforce 9500GTRadeon HD3850
Графический(е) процессор(ы)G96 (TSMC)RV670
Техпроцесс, нм55 (low-k)55 (low-k)
Площадь ядра(ер), кв.мм144195
Число транзисторов, млн.314666
Частота(ы) графического(их)
процессора(ов), МГц
550
(1400 shader)
775
(297 в 2D-
режиме)
Эффективная частота работы
видеопамяти, МГц
6661800
Объем памяти, Мбайт512512
Тип поддерживаемой памятиGDDR2GDDR3
Разрядность шины обмена с памятью, Бит128256
ИнтерфейсPCI-E X16(v2.0)PCI-E X16(v2.0)
Число унифицированных шейдерных
процессоров, шт.
32320(64 PVU)
Число текстурных блоков, шт.1616
Число блоков растеризации (ROPs), шт.816
Поддержка версии Pixel Shaders / Vertex
Shaders
4.04.1
Пиковая потребляемая мощность в 3D
режиме работы, Ватт
<50<105
Выходы1 х DVI-I (Dual-Link), 1xVGA,
TV-Out, HDTV-Out,
HDCP
2 х DVI-I (Dual-
Link), TV-Out,
HDTV-Out, HDCP
Дополнительноподдержка SLIПоддержка
CrossFire(X)
Рекомендованная стоимость, долларов
США
~69~119




3.Тестовая конфигурация и методика тестирования
Тестирование всех видеокарт было проведено в закрытом корпусе системного блока следующей конфигурации:
Материнская плата: ABIT IP-35-E(P35), LGA775, BIOS 14;
Процессор: Intel Pentium Dual-Core E2160 1800МГц, 1.256 В, L2 2x1024 Kb, FSB: 200x9, (Conroe-L, M0);
Система охлаждения CPU: Termaltake MaxOrb;
Термопаста: КПТ-8;
Оперативная память: 2x1024 Mb DDR2 PC-6400 Hynix;
Дисковая подсистема: 1.SATA-II 250Gb, WD2500JS 7200 об/мин, 8 Мб, NCQ; 2.SATA-II 320Gb, WD3200KS 7200 об/мин, 16 Мб, NCQ;
Привод: SATA-II DVD RAM & DVD±R/RW & CD±RW LG GSA-H55N;
•Корпус: STORM 4428( на выдув 120-мм корпусный вентилятор ~950 об/мин);
Блок питания: SIRTEC High Power HP-600-G14C 600W;
Монитор: Samsung 740N 1280x1024 75hz





Центральный процессор во время тестирования был разогнан до частоты в 2997 МГц:




Рис.15
Предел разгона у данного процессора лежит около 3800МГц, но я не стал его разгонять до таких пределов, чтобы сымитировать бюджетную систему, в кою только и вставлять нашего сегодняшнего гостя, так как до таких частот разгонится почти любой Pentium Dual-Core E2160(2140, 2180) на практический любой материнке с боксовым кулером.
Все тесты были проведены в операционной системе Windows Vista Ultimate Edition x86 SP1.
В системе были установлены следующие драйвера:
•чипсет материнской платы Intel Chipset Drivers – 9.1.0.1007
•библиотеки DirectX 9.0с, дата релиза – август 2008 года
•драйверы видеокарт на графических процессорах ATI – Catalyst 8.11
•драйверы видеокарт на графических процессорах NVIDIA – ForceWare 177.92
•драйвер ускорения физики – PhysX 8.08.18
Настройки в драйверах выставлялись на максимальное качество. Все оптимизации были отключены.
Теперь перейдём к тестовым программам.
Синтетику сегодня представляют:
3DMark 05 (Direct3D 9), настройки по умолчанию
3DMark 06 (Direct3D 9), настройки по умолчанию
Tropics Demo v1.1 (Direct3D 10), API: DirectX 10; Resolution: 1280x1024; Mode: Full screen; Anti-Aliasing Off; Shaders: High; Anisotropy: 2; Reflection: On; Ambient occlusion: On.
World in Conflict (Direct3D 10) v1.009 , профиль качества графики:
1)“Максимальные”, разрешение 1280х1024, но UI texture quality = Compressed; Water reflection size = 512; DirectX 10 рендеринг активирован;
2)«Средние» ”, разрешение 1280х1024, DirectX 10 рендеринг активирован;
Unreal Tournament 3 (Direct3D 9), версия игры 1.2, разрешение 1280х1024 ,максимальные настройки графики в игре, сглаживание выключено, Motion Blur и Hardware Physics активированы, тестировалась “Fly By” и «BotMatch» - сцена на уровне “DM-Shangri-La” .
Crysis (Direct3D 10) – версия игры 1.2., профиль настроек “High” и “Middle”, двукратный цикл теста видеокарты из бенчмарка HardwareOC Crysis Bench v1.3.0.0, сцена Assault Harbor;
Devil May Cry 4 (Direct3D 10) – версия игры 1.0, максимальные настройки качества графики ("Super High"), за результат принималось среднее значение двойного последовательного прогона второй сцены бенчмарка (SCENE2).
S.T.A.L.K.E.R.: Clear Sky (Direct3D 10) – версия игры 1.5.05, профили настроек:
1) качество настроек «Максимально» "Улучшенное полное освещение DX10"
2) качество настроек «Среднее» "Полное динамическое освещение"
использовалась демо-запись "s04" (записана Jordan’ом, overclockers.ru);
Far Cry 2 (Direct3D 10) – версия игры 1.00, двукратный цикл теста "Ranch Small" из бенчмарка Far Cry 2 Benchmark Tool (v1.0.0.1), профили настроек:
1)«Ultra High»
2)«Very High»
3)«High»
Также, в виду слабых результатов GeForce 9500GT, были добавлены результаты тестирования ниже перечисленных игр в разрешении 1024х768:
1)World in Conflict DX10 v1.009 «Middle»(Эффекты DX10 включены) 1024x768
2)Crysis (Direct3D 10) «Middle» 1024x768
3)Crysis (Direct3D 10) «Low» 1024x768
4)FarCry2 Профиль настроек: «Very High» DX 10 1024x768
5)FarCry2 Профиль настроек: «Ultra High» DX 10 1024x768
6)FarCry2 Профиль настроек: «High» DX 10 1024x768
7)S.T.A.L.K.E.R.: Clear Sky (Direct3D 10) “Максимальные”, "Улучшенное полное освещение DX10"
8 )S.T.A.L.K.E.R.: Clear Sky (Direct3D 10) «Средние», «Полное динамическое освещение»
4. Результаты тестов производительности видеокарт их анализ


Видеокарты расположены на диаграммах в порядке возрастания их рекомендованной стоимости и возрастания производительности
Прежде чем перейти непосредственно к результатам и их анализу, нужно напомнить, что Radeon 3850 присутствует лишь для наглядности сравнения, а не как прямой конкурент. Также стоит учитывать, что средняя цена на представленные сегодня: GeForce 9500GT составляет 400 грн., а на Radeon 3850 около 700грн, что составляет почти двукратную разницу. Насколько оправдана такая переплата, мы увидим ниже.

Начнём с синтетических тестов.
•3DMark 2005




Рис.16

В первом же тесте, видеокарты становятся на ступеньки заданные ихней стоимостью. И сразу бросается в глаза, что после разгона 9500GT получила довольно солидную прибавку к «попугаям», а 3850 нет. Это, скорее всего, связанно с нехваткой мощности процессора. А в целом наблюдается картина отображенная ценой видеокарт - Радеон опережает сегодняшнего гостя в два раза.
•3DMark 06




Рис.17
В более новом синтетическом пакете наблюдается почти та же картина. GeForce 9500 GT на стандартных частотах отстаёт в 2,5 раза. Разгон немного улучшает ситуацию и сокращает отрыв – до разницы в 2 раза. А картина с разгоном Radeon HD3850 повторяет предыдущий тест, с такой частотой процессора прирост почти не заметен.
•Tropics Demo v1.1
Это довольно-таки новый бенчмарк, в котором видеокарту нагружают прорисовкой довольно таки красивого тропического «Райского Уголка». Картинка получается довольно таки красивой. Бенчмарком поддерживаются три вида рендеринга: DX9, DX10, DX 10.1. Я проводил тестирование на DX10, хотя и Radeon 3850 поддерживал 10.1 версию, т.к. GeForce 9500 поддерживал только DX10 версию. Результат выводится в виде среднего ФПС за весь тест.




Рис.18
Этот бенчмарк первым показывает, что играм сегодняшнего поколения с GeForce 9500GT не по пути. Во всяком случае, это касается разрешения 1280х1024 и высоких настроек графики. Ну а что можно сказать про Radeon 3850, просто молодец! При разнице в цене едва достигающей 100%, он показывает втрое большую производительность.
•S.T.A.L.K.E.R.: Clear Sky



Рис.19



Рис 20
Новый Сталкер на максимальных настройках положил обе видеокарты на лопатки. Низкий средний фпс, показывает, то, что ни Radeon 3850, ни GeForce 9500GT не обеспечивают приемлемой производительности. Так что об игре с такими настройками придется забыть. Ещё как человек, довольно долго проигравший в новый Сталкер, скажу, что демка довольно тяжела и нагрузку на видеокарты, которую она создаёт, можно встретить в игре далеко не везде. Фактически используя Radeon HD3850 можно играть с довольно комфортным фрейм-рейтом, конечно не используя анизотропию и сглаживание, играть в Сталкер, но с GeForce 9500GT такой номер не пройдёт(.
Дела, у наших сегодняшних гостей, изменяются в лучшую сторону. Radeon 3850 показывает нормальный фрейм-рейт, чего не скажешь о GeForce 9500GT, который даже на средних настройках показывает низкие результаты. Ближе к концу статьи, я попробую прогнать тест с разрешением 1024х768, чтобы сделать окончательный вывод.
•Unreal Tournament 3



Рис.21
А вот довольно популярный сетевой шутер преподносит подарок! Казалось бы, до мозга костей бюджетный GeForce 9500GT, в номинале показывает нормальный, играбельный фрейм-рейт, а в разгоне почти догоняет Radeon HD3850. Вот чего не ожидал, так вот этого. Опять же, виной сему становится относительно слабый разгон процессора. Детище АТИ от разгона ничего не получает…опять.
•World in Conflict


Рис.22




Рис23

Здесь ситуация становится похожей как с синтетикой. Опять же, игра расставляет карточки по ценовым признакам. Порадовала ситуация с разгоном Радеона, после прироста частот, прироста в кадрах не наблюдалось, даже наоборот. И даже в такой ситуации, разница в производительности ровно в два раза в пользу Radeon HD3850. При том что нормально поиграть с такими настройками на GeForce 9500GT вы вряд ли сможете, так такое действо скорее будет напоминать не RTS а пошаговую стратегию. Выход конечно есть - снизить качество картинки и наблюдать хоть и потерявшую часть своей красоты графику, но взамен получит играбельный режим.
•Devil May Cry 4



Рис.24
Следующим идёт новое продолжение похождений пафосно-анимешных борцов со злом. Радует в игре, то что, картинка выдающая движком получается, довольно красива, при этом не требовательна к ресурсам компьютера. Даже GeForce 9500GT в номинальном режиме показывает минимально комфортный «fps», а разгон его немного улучшает, но на фоне Radeon HD3850 все равно теряется. Канадский гость обеспечивает наиболее комфортный режим игры даже на стандартных частотах, не говоря уже про разгон. Сам бенчмарк считает наиболее комфортным фрейм-рейтом в 60 Фпс, что позволяет получить максимум удовольствия от динамического действия, но и с 32 fps’ами GeForce 9500GT играть было нормально.
•Crysis



Рис 25



Рис 26
Теперь посмотрим, что покажет нам игра, которая до сих пор ставит на колени любую, да-да любую, будь то хоть 2х4870х2+QX9770, систему на UltraHigh настройках. Ну что ж посмотрим, что выдали наши гости на просто “Middle” и ”Low” настройках. Ну, как и ожидали. При средних настройках, GeForce 9500GT можно смело выкидывать на свалку, если вы собираетесь играть в Кризис, то это не ваш выбор и разгоном здесь не поможешь – рожденный ползать летать не сможет. А вот Radeon HD3850 показал довольно играбельный фрейм-рейт. Ситуация для GeForce 9500GT, меняется при минимальных настройках. Теперь на ней можно довольно комфортно уничтожать, как армию КНДР, так и бессовестных пришельцев. Ну, а к Radeon HD3850 нет никаких вопросов. На графике последнего очень заметно, что всё уперлось в процессор.
•Far Cry 2 (Direct3D 10)
Напоследок перейдём к самому лакомому кусочку нашего тестирования - Far Cry 2! Игрушка представляет собой новейшее творение UbiSoft, в которой главный герой уничтожает бандитов в саванне. Выглядит игра крайне эффектно и красиво. Это конечно не Кризис, но и аппетиты она имеет поменьше. Что ж глянем, что у нас получилось.



Рис 27



Рис 28



Рис 29
Складывается забавная традиция. GeForce 9500GT опять не может порадовать нас нормальной производительностью. Также нужно принять к сведению, что при переходе с”Very High” на “High”, наблюдается мизерная прибавка в производительности, но довольно существенно ухудшается картинка. Так, что не стоит идти на подобные жертвы. Что касается канадского гостя, то он чувствует себя прекрасно во всех трёх режимах качества. Притом, что отрыв составляет 2,5 раза и растёт при увеличении качества.
5. Следственный эксперимент
Как и обещал, я провел ещё раз все игровые тесты, в которых GeForce 9500GT показала низкую производительность, в разрешении 1024х768.
•World in Conflict DX10 v1.009



Рис 30
Что ж, смена разрешения пошло на пользу нашей гостье. Теперь видеокарта показывает довольно приемлемую производительность, которой вполне хватит для комфортной игры.
•Crysis (Direct3D 10)



Рис 31



Рис 32
Прям какая-то «Уличная магия». Я даже не ожидал, что смена разрешения НАСТОЛЬКО подымет фрейм-рейт. Теперь можно вполне комфортно играть даже на средних настройках, о чём при разрешении 1280х1024 нельзя было и мечтать.
•FarCry2



Рис 33



Рис 34



Рис 35
И снова наблюдаем преображение. Хотя, теперь не столь явное. GeForce 9500GT вытягивает нормальный фрейм-рейт только в двух последних режимах качества, да и то с разгоном. Но даже это радует, так как даже на такой «навороченной» карточке, можно созерцать красоты игры и параллельно уничтожать вражин без тормозов. Что есть, очень и очень хорошо.
•S.T.A.L.K.E.R.: Clear Sky (Direct3D 10)



Рис 36



Рис 37
В принципе поиграв в эту игрушку, я ожидал таких результатов. Режим DX10 слишком тяжел для видеокарт такого уровня и никаким снижением разрешения этого не компенсируешь. Зато на средних настройках и при разогнанной карте, поиграть вполне удастся. Опять же хочу заметить, что демка на которой я тестировал Сталкер, очень тяжеля и в реальной игре моментов с такой нагрузкой очень мало, так, что последний режим можно считать играбельным.
6.Выводы
«Итоги падвидём…» как писал Лесь Подеревлянський. И что самое интересное, есть что подводить. На первый взгляд, представленный сегодня Albatron GeForce 9500GT не способен обеспечить достаточную производительность в наиболее популярном сегодня разрешении 1280х1024 и со средним(высокими) настройками графики. Но ему это и не надо. Покупая такую видеокарту, пользователь и не рассчитывает на высочайшую производительность. А как показали тесты в разрешении 1024х768, видеокарта может порадовать геймера достаточной производительность в большинстве современных игр на средних и низких настройках качества, не говоря уже об играх прошлого поколения. В целом карта произвела благоприятное впечатления, продукта дешевого, но адекватного своей стоимости.
С вами был Neyasit ака Галабурда Александр.



Написана на конкурс проводящийся издательством Софт-Пресс "Народное тестирование" Галабурдой Александром ака Фесс-Неясыть.
Обсуждение статьи здесь:
http://forums.overclockers.ru/viewtopic.php?p=5553653#5553653
Оценитe материал

Возможно вас заинтересует

Популярные новости

Сейчас обсуждают