Шёл к концу далёкий 2003 год, а в компании nVidia всё было неспокойно. Мистер Хуанг бегал кругами в тщетных попытках догнать убежавшего вперёд конкурента в лице компании ATI. Дело в том, что ещё год назад, осенью 2002 года, компания ATI представила миру первые DirectX 9.0 видеокарты под именем Radeon 9700/9500, а вот ответ у компании nVidia в виде видеокарт GeForce 5800/5600 появился лишь весной 2003... и это был эпический провал, ибо они не могли конкурировать с Radeon 9700/9500. Более того, той же весной 2003 вышли новые Radeon 9800/9600, которые помимо того, что ничем не уступали предшественницам в плане производительности, ещё и имели куда более привлекательные цены и широкий модельный ряд.
Мистер Хуанг, конечно, всем рассказывал, что это у него шейдеры не той системы — какие-то там 2.0а, а у Radeon, мол, обычные 2.0, и в общем вы не понимаете — это не то, это другое...
Но по итогу, видимо, от делать нечего, не иначе... Компания nVidia к концу 2003 года выпустила второе поколение видеокарт GeForce FX с индексами 5700 и 5900. Собственно, сегодня я предлагаю протестировать GeForce FX 5700 и поглядеть, смогла ли компания nVidia догнать оппонентов в лице Radeon 9600 и насколько превзошла саму себя на фоне GeForce FX 5600XT.
Итак, наш сегодняшний пациент — nVidia GeForce FX 5700 128Mb.
Собственно, как видите, наш сегодняшний пациент, nVidia GeForce FX 5700 в исполнении тайваньской фирмы Leadtek, ничем особо не выделяется — достаточно обычная для тех времён карта среднего ценового диапазона, оснащённая 128Mb видеопамяти и активным охлаждением. Судя по маркировке на плате, существовали версии данной карты на 256Mb, впрочем, по тем временам и 128Mb был вполне себе нормальный объём.
Ну да ладно, посмотрим уже, что у наших карточек внутри.
Утилита GPU-Z, к сожалению, довольно кривая и зачастую предоставляет неверную информацию, особенно касательно старых видеокарт, но, увы, заменить её нечем. Итак, наш GeForce FX 5700 обладает практически эталонными характеристиками частот чипа/памяти: 425/276 против 425/250, которые ей положены по спецификациям nVidia. Также вы можете заметить главное изменение в шейдерном блоке относительно GeForce FX 5600XT, собственно, это и были основные улучшения во втором поколении GeForce FX — высокие частоты и улучшенный шейдерный блок. Сам же GeForce FX 5600XT у нас имеет эталонные частоты 235/200 и от рекомендаций nVidia не отклоняется. Ну а у ATI Mobility FireGL T2 частоты чипа/памяти 324/223 относительно эталонных 325/200 у обычной ATI Radeon 9600. По части видеопамяти и ширины её шины у наших карт одинаковые: 128 Mb и 128 bit.
Тестировать будем на ПК с процессором Intel Pentium 4 HT 2.4 GHz, 1 GB DDR400 и под управлением Windows XP. Особенно отмечу для лучшего понимания: FX 5600XT и Radeon 9600 вышли практически одновременно, а FX 5700 поступила в продажу спустя полгода.
3DMark 2000 Pro
Солидная заявка со стороны GeForce FX 5700, он не только опередил своего предшественника FX 5600XT, но и обошёл прямого конкурента в лице Radeon 9600.
3DMark 2001 SE
GeForce FX 5700 уверенно опережает FX 5600XT, но уступает Radeon 9600, хоть и не существенно.
3DMark'03
У GeForce FX 5600XT полнейший провал, а GeForce FX 5700 и Radeon 9600 идут практически вровень.
3DMark'05
А вот с переходом на DirectX 9.0 GeForce FX 5700, хоть и опережая своего предшественника, FX 5600XT, в 2,5 раза, при этом более чем в два раза уступает Radeon 9600.
3DMark'06
В данном бенчмарке все видеокарты проходят только 2 теста из 4-х, и в целом ситуация для GeForce FX 5700 вновь неутешительная: опережая FX 5600XT в 2 раза, он при этом уступает в 2 раза своему главному сопернику Radeon 9600.
Ну то всё синтетика, которая, по уверению многих, «не отражает» реальную производительность видеокарт, так что посмотрим, а что у нас в реальных приложениях.
Quake III Arena
GeForce FX 5700 идёт вровень с Radeon 9600, а GeForce FX 5600XT остаётся позади.
Unreal Tournament 2004
И в данной игре в целом ситуация не особо меняется, разве что GeForce FX 5600XT отстаёт от соперников ещё сильнее.
Doom 3
Данная игра использует OpenGL для рендеринга и традиционно хорошо работает на видеокартах nVidia. Однако, как вы уже знаете из моей статьи со скромным названием "Первое научное исследование методики тестирования видеокарт в Doom 3" - всё не так однозначно. Пересказывать статью ещё раз я не вижу особого смысла, укажу лишь на особенности приведённого ниже тестирования, а именно — видеокарты тестировались в двух рендерах ARB и ARB2, первый — это «чистый» OpenGL без использования шейдеров, а второй — с шейдерами, написанными лично Джоном Кармаком на ассемблере, и, по его заявлениям, этот рендер максимально приближен к стандарту OpenGL 2.0, спецификации которого на тот момент ещё не были официально приняты.
По умолчанию игра сама определяет, какой рендер использовать, и для тестируемых сегодня видеокарт это ARB2, который, естественно, даёт куда более красивую картинку, нежели ARB.
При использовании ARB-рендера GeForce FX 5600 XT наравне с Radeon 9600 FX 5700 опережает их обоих.
Использование же ARB2 рендера приводит к провалу по производительности у FX 5600XT, но дают существенный прирост FX 5700 и Radeon 9600, причём первый всё ещё существенно опережает конкурента. Данные результаты в те года стали основой мифа о том, что видеокарты nVidia лучше работают с OpenGL, что достаточно смелое заявление, учитывая, что помимо Doom 3 2004 года, игр на его движке было всего две: Quake 4 в 2005 и Prey в 2006 году.
А вот как дело обстояло в других, в те времена не особо, кстати, многочисленных играх под OpenGL, мы поглядим на примере ещё одной игры, вышедшей в том же 2004 году.
The Chronicles of Riddick: Escape from Butcher Bay
В особенности тестирования в данной игре я углубляться не буду, так как сам ещё не в полной мере разобрался, там также, как и в Doom 3, есть несколько рендеров, между которыми можно переключаться. Функционально и технически они во многом повторяют таковые в Doom 3, так что я назвал те, что использовал в данном тестировании, ARB и ARB2, по аналогии с названиями рендеров в Doom 3. Сама игра визуально очень напоминает Doom 3, но имеет свой собственный движок, хотя в целом выглядит попроще и побюджетней в плане разнообразия геометрии уровней. Впрочем, компенсируется это иным подходом к геймплею, благодаря чему игра обрела определённую популярность и известность.
И вот тут у нас очень интересные результаты — если в ARB-рендере наш GeForce FX 5700 практически вдвое быстрее GeForce FX 5600XT и заметно опережает Radeon 9600.
То при переходе к ARB2 у обоих GeForce FX наблюдается колоссальный провал по производительности, а Radeon 9600, наоборот, получает прирост и вырывается вперёд с приличным отрывом. В игре также доступен ARB2+ рендер, но он предназначен исключительно для видеокарт GeForce 6000-й серии (на GTS250 под Windows 7 мне данный рендер запустить не удалось, но я пока ещё глубоко не копал), а для тех же Radeon X700/800 никаких плюшек в игре нет, так что сложно заподозрить разработчиков игры в особом отношении к компании ATI.
Как видим, слухи о лучшей работе карт nVidia в OpenGL весьма преувеличены, чем это объяснить разницу в показаниях между Doom 3 и The Chronicles of Riddick — прямыми руками или руками с чемоданами, я сказать затрудняюсь, но посмотрим, что у нас там в DirectX.
Halo: Combat Evolved
В данной игре есть несколько режимов работы, переключать которые в самой игре нельзя, но можно сделать это руками в конфиге, так что карты были протестированы отдельно под DirectX 7.0, DirectX 8.0 и DirectX 9.0.
И тут нашему GeForce FX 5700 особо похвастаться нечем, но он уверенно цепляется за лидера в лице Radeon 9600 и на фоне провальных результатов FX 5600XT выглядит вполне неплохо.
Но то древняя игра, которую начали разрабатывать ещё под GeForce 256 и уже в последствии обвесили свистелками, посмотрим, что у нас в игре, изначально работающей только на «шейдерных» видеокартах.
F.E.A.R.
В игре два рендера — под DirectX 8.0 и 9.0, так что протестируем наши видеокарты в обоих режимах.
Ну что тут сказать, если под DirectX 8.0 наш GeForce FX 5700 ещё хоть как-то прилично выглядит на фоне Radeon 9600 и особенно на фоне GeForce FX 5600XT.
То с переходом на DirectX 9.0 у него более чем двукратная просадка по производительности, на фоне роста таковой у Radeon 9600, ну а FX 5600XT выглядит просто смешно...
Итоги
Вот такой вот получился 2003 год для компании nVidia и мистера Хуанга, да, к концу года они смогли приблизиться к своему конкуренту по производительности в старых играх, что позволило поддерживать уровень продаж и сохранить свою долю рынка. Однако для потребителей это ничего хорошего не принесло, мало того, что два ожидаемых игровых хита в лице Doom 3 и Half-Life 2 были перенесены на 2004 год, так ещё и впоследствии оказалось, что GeForce FX фактически неработоспособны в DirectX 9.0. И в той же Half-Life 2 он на данных видеокартах был недоступен. Это была уже вторая «подстава» со стороны nVidia за два года, первая — перевыпуск GeForce 2MX под именем GeForce 4MX, но, как это ни странно, компания nVidia смогла выйти сухой из воды, а нынче является лидером рынка.
А на этом у меня на сегодня всё — всем пока.