GeForce 8800GTX - потерявший трон, но сохранивший корону

15 января 2010, пятница 01:29
Zik для раздела Лаборатория

Оглавление

Вступление

Не так давно (в ноябре месяце) видеочипу G80 исполнилось ровно три года. Это огромный срок для графического чипа и для видеокарты в целом. Обычно хватает одного года для того, чтобы некогда мощный и производительный видеочип переместился из "высшего общества", в лучшем случае, в низы среднего класса. За три года производитель успевает обновить модельный ряд своих видеокарт как минимум два или три раза, вполне может появиться новый API, новые поколения CPU, не говоря уже о выходе целой кучи игр нового поколения. Если за год видеокарта так быстро устаревает, о чём вообще говорить, когда проходит целых три?! Зачастую она превращается в малополезный кусок текстолита, и демонстрирует лишь тень своей былой славы – ни новые игры, ни высокие разрешения ей уже будут не под силу. Вспомнить хотя бы Geforce 3Ti, вышедший в 2001-м году. Разве такие тяжеловесы как Doom 3, Half-Life 2 или FarCry были ему под силу? Ну, они конечно запускались, если говорить о факте работы, но вряд ли пользователи с Geforce 3Ti/Radeon 8500 могли позволить себе высокие настройки графики, сглаживание или анизотропную фильтрацию.

Однако у нас другая ситуация. Несмотря на то, что Geforce 8800GTX исполняется 3 года, он не только способен демонстрировать высокий FPS в самых современных играх, но и позволяет выставлять высокие разрешения, включать сглаживание и довольствоваться бесплатной анизотропной фильтрацией.

Более того, примерно 10% всех пользователей онлайн сервиса Steam “вооружены” видеокартами на базе Geforce 8800 – уже это говорит о многом.

Впрочем, обо всём по порядку…

Дабы помочь читателю вспомнить рассвет 8800GTX, мы предлагаем кое-что вспомнить из наших предыдущих материалов:

Как это было

История легендарного G80 берёт своё начало ещё в 2004-м году, когда Nvidia только-только начала проектировку новейшего GPU, который бы отходил от привычной “пиксельно - вертексной” архитектуры и представил реализацию новой, более гибкой, более совершенной и продвинутой архитектуры – унифицированной.

Следует заметить, что реализация новой архитектуры в лице G80 (или NV50), началась практически сразу после выхода NV40, который дал в своё время жизнь производительной линейке GeForce 6800. В те времена NV40 казался действительно инновационным чипом, который помимо 16-ти пиксельных конвейеров и GDDR3 памяти принёс и поддержку DirectX 9с и Shader Model 3.0

Потенциал у NV40 был достаточно большой. Его архитектуру удалось развить несколько раз – сначала с выпуском G70, который по сути являлся тем же NV40, но “на стероидах”, с увеличенным кол-вом пиксельных и вершинных конвейеров, а потом и G71 с уменьшенным техпроцессом и возросшими частотами.

После продолжительного обмена ударами между ATI и Nvidia, когда их видеокарты по мере наращивания мощи отнимали друг у друга чемпионский пояс, у калифорнийцев наконец-то получилось совершить революцию. Настоящую, которой не было со времён GeForce 3Ti или Radeon 9700. Nvidia анонсировала самый мощный, самый горячий, самый огромный и дорогой настольный GPU в истории – G80, который так же стал первым DX10 совместимым видеочипом и первым настольным GPU с потоковой архитектурой. (До этого в 2005-м году был выпущен чип ATI Xenos R500 для Xbox 360 имеющий 48 суперскалярных процессоров (48х5 = 240 скалярных) и вобравший лучшее от R580 и R600).

Что же революционного было в этом огромном, горячем и жадном до энергопотребления чипе? Во-первых, аппаратная часть – 128 программируемых потоковых процессора исполняющих роль как пиксельных, так и вершинных конвейеров; 32 текстурных блока, 24(!!!) блока ROP’s. Добавьте к этому 384-х битную шину и 768 мегабайт видеопамяти – рекордный объём для одного настольного GPU в то время.

Во-вторых, G80, как уже говорилось, стал первым DX10 совместимым видеочипом, обеспечив аппаратную поддержку Shader Model 4.0

Унифицированная шейдерная архитектура превзошла даже самые смелые ожидания - 8800GTX оказывался производительнее бывших топов в два-три раза! Это был феноменальный успех, ведь по всем параметрам новое поколение видеокарт от Nvidia обогнало своё время как минимум на год. Пусть конструкция 8800GTX была не совершенна - длина PCB имела внушительные размеры – 27см, чип изготавливался по 90нм техпроцессу, видеокарте требовалось целых два 6-ти пиновых разъёма питания, а огромная система охлаждения, закрывавшая не только сам чип, но и подсистему питания с микросхемами памяти, делала 8800GTX крайне тяжёлой. Чего уж говорить и об отдельном чипе NVIO, который из-за громадных размеров G80 пришлось вынести за пределы основного кристалла. Да и весь потенциал 8800GTX можно было раскрыть только на суперсовременных процессорах Core 2 Duo, функционирующих на частоте в >3ГГц.

Но на все эти недостатки закрывали глаза – великолепная производительность волшебным образом превращала минусы 8800GTX в её особенности

Спустя год Nvidia анонсировала новый чип – G92, который, по-сути являлся тем же G80, но с косметическими изменениями. Вместо 24-х блоков ROP’s было решено оставить лишь 16, 256-ти битная шина и более высокочастотная GDDR3 память сменили собой нестандартную 384-х битную. Количество видеопамяти было уменьшено c 768-ми мегабайт до 512-ти, а более тонкий 65нм техпроцесс позволил не только уменьшить тепловыделение и размеры GPU, но увеличить тактовые частоты, и интегрировать NVIO в основной кристалл. Выход 8800GTS 512 Мб омрачило разве что сомнительное название, а вот во всём остальном это был превосходный продукт – PCB изящно укоротилась, цена особо не кусалась, а производительность была очень близка к 8800GTX. Но вот ребрендинга и появления 9800GTX не ожидал никто. Это была всё та же 8800GTS 512 mb, но на более длинной PCB, с усиленной подсистемой питания, новой системой охлаждения и повышенными тактовыми частотами. На какое-то время именно она стала флагманом всей линейки GeForce, хотя на самом деле, оказалась урезанной по сравнению с 8800GTX\Ultra и, зачастую, не могла обойти их в производительности.

Программисты из Nvidia даже прибегали к “затормаживанию” 8800GTX на уровне драйверов, тем самым искусственно увеличивая производительность 9800GTX.

Radeon HD 2900 XT – “подавленная революция”

Абсолютному успеху 8800GTX помешали две вещи. Первая, это, конечно же, достаточно высокая цена. А вот вторая оказалась более прозаична. Всё дело в том, что у компании ATI, уже поглощенной к тому времени AMD, готовилось суперсекретное и, по слухам, супермощное оружие под кодовым названием R600. Это был первенец скалярной архитектуры, который так же как и G80 в течение долгого времени находился в разработке. Его альтернативная, чуть более облегчённая и изменённая версия R500 Xenos, к ноябрю 2006-го года уже повсеместно использовалась в новеньких Xbox 360, демонстрируя великолепные возможности и потрясающую производительность. Таким образом, достаточно большая фанатская аудитория AMD ждала ответный удар, который должен был последовать сразу же за выпуском 8800GTX\GTS. В пользу R600 говорило много факторов. Во-первых, цена – она была на порядок меньше 8800GTX и составляла порядка 399$. Во-вторых, аппаратная составляющая – 512-ти битная шина памяти и 320 скалярных процессоров. Казалось бы, по всем параметрам новинка должна была обойти флагман Nvidia, тем более, что она запаздывала аж на пол года – достаточное время для того, что бы “подкрутить гайки”, и выпустить продукт намного опережающий в производительности конкурента. Nvidia даже пошла в контрнаступление, выпустив 8800ULTRA – разогнанную версию 8800GTX. Однако время шло, R600 запаздывал, а когда наконец-то пришло его время, он оказался совсем не тем продуктом, который ждали поклонники продукции ATI. Кроме преданных фанатов так же оставались независимые граждане, желающие получить максимальную производительность и ждали ответного хода ATI, дабы выбрать “лучшего из лучших”. Но чуда не произошло – видеокарта 2900XT, ставшая воплощением архитектуры R600, оказалась не такой уж и мощной. Да, её чип был выпущен по 80нм техпроцессу. Длина PCB была куда меньше чем у соперника, 512-ти битная шина обеспечивала пропускную способность в 100Гб\с, а 320 скалярных процессоров в синтетике демонстрировали чудеса. Но если бы всё было так здорово, наверное, вы, дорогие читатели, эти строки бы не читали.

Как оказалось, единственным настоящим козырем 2900XT была лишь шину памяти. 512 бит – это много, и даже с достаточно низкочастотной GDDR3 памятью обеспечивалась великолепная пропускная способность, и видеокарта вообще не испытывала в ней недостатка. Однако всего 16 блоков растровых операций и самое главное, всего 16 текстурных блока (у 8800GTX\ULTRA их было в два раза больше), делали 2900XT крайне уязвимой в сценах с использованием массивных текстур, в результате чего наблюдалось серьезное падение FPS. Кроме того, из-за особенностей архитектуры R600, видеокарты на базе HD 2900XT с громким треском проваливались в режимах с использованием сглаживания. Падение доходило до 40-45%, в то время как у конкурента оно не превышало 25%. Скалярные процессоры (коих на самом деле было 64(х5)) хотя и показывали неплохую скорость, особенно в сценах насыщенных спецэффектами (работа с шейдерами), не могли перевесить два основных недостатка видеокарты и обеспечить ощутимое преимущество. Всё на что годилась 2900XT – это роль соперника 8800GTS 640mb. Пусть конкуренция с точки зрения производительности и была весьма успешной, своевременный выход 8800GTS 320, обладающей практически идентичной с 8800GTS 640mb производительностью и крайне заманчивой ценой, свёл немногочисленные шансы 2900XT на успех практически к нулю.

Долгожданная революция провалилась, 8800GTX\Ultra так и осталась самой мощной видеокартой.

Чуть позже, аккурат за два месяца до анонса RV670 (слегка облегчённого R600 выполненного по 55нм техпроцессу) ATI пустила все чипы R600 под нож, выпустив два достаточно мощных и совсем недорогих продукта – HD 2900PRO и HD 2900GT. Первый отличался от оригинальной XT только 256-ти битной шиной и немного пониженными частотами (хотя первые версии 2900PRO имели 512-ти битную шину), а второй, более слабый продукт 2900GT, уже потерял на аппаратном уровне 80 скалярных процессоров и 4 текстурных блока, получив ещё более низкие тактовые частоты. Итог – привлекательная цена (249$ и 199$ соответственно) и уровень производительности, превосходивший весь Middle-End включая 8800GTS 320/8600GTS.

Стоит заметить, что несмотря на провал R600 и сомнительный успех RV670, скалярную архитектуру не стоит считать неудачной и менее совершенной чем потоковую (или шейдерную, как хотите) от Nvidia. Выход RV770 показал, что устранение слабых мест – медленной работы AA (путём переработки алгоритма) и малого количества текстурных блоков, способно раскрыть весь потенциал данной архитектуры с положительной стороны. А постепенное “наращивание” исполнительных блоков (скалярных, текстурных и растровых) позволяет достичь практически линейного роста производительности (обратим внимание на HD 5870). Кроме того, дизайн архитектуры позволяет чипу работать на более высоких тактовых частотах нежели у конкурента (сравнить хотя бы RV790 и G200b). Хотя у чипов Nvidia шейдерный блок работает на удвоенной частоте по сравнению с GPU.

8800 GTX три года спустя

Рассматриваемая сегодня WinFast 8800GTX была возвращена с того света. Как уже многие догадались, речь идёт об известной проблеме – отпайки некоторых контактов огромного чипа от платы PCB, что приводит к появлению артефактов, некорректной работе видеокарты или даже её “смерти” – отсутствия сигнала на мониторе. Хотя, стоит сделать небольшую поправку – это приводит скорее не к “смерти”, а к “коме”. Вернуть 8800GTX с того света можно несколькими способами, однако все они сводятся к “прогреванию” чипа, тем самым позволяя отошедшим контактам вновь “припаяться”:

  • “Прогреть” чип под специальной ИК лампой. Её высокая температура позволит оловянным BGA-шарам принять пластичную форму и вновь сцепиться с PCB.
  • Более домашний способ, которым пользуется большинство – “прогреть” видеокарту в обычной духовке. Получаем то же самый эффект - контакты припаиваются на место.

Но у этих способов есть два больших недостатка. Во-первых, используя мощную ИК Лампу, можно спалить текстолит. Во-вторых, прогрев в духовке может оплавить пластиковые части видеокарты – DVI и TV-Out разъёмы, не говоря о том, что из-за высокой температуры могут запросто “поплыть” элементы PCB – пайка расплавится, и отдельный транзистор или чип памяти сползёт со своего законного места. Да и не факт, что при таком “прогреве” не отпаяется ещё большее кол-во контактов на чипе или элементах платы.

Так что же делать? Ответ достаточно прост и элементарен – отпаявшиеся контакты нужно не припаивать, а просто “прижать”. Сделать это не сложно – сменить систему охлаждения на что-нибудь не очень дорогое и эффективное (Zalman VF1000, например), прикрутить её к плате и посильнее затянуть винты. В итоге – радиатор системы охлаждения прижмёт огромный чип к плате, и контакты естественным образом встанут на место. Гарантировать 100% данного метода можно лишь в том случае, если вы точно уверены что дело именно в отпаявшихся контактах чипа, а не в вышедшей из строя микросхеме памяти или перегоревшего NVIO. Что бы это проверить, достаточно разжиться простенькой СО на подобии Zalman VF700. Естественно, для полноценного охлаждения чипа его точно не хватит, но для загрузки Windows и прохождения короткого 3D теста – будет вполне достаточно.


Оттерев толстый слой пыли, и устроив плате настоящую спиртовую ванну с дальнейшей просушкой, ей возвращается былой лоск 2006-го года. Родная система охлаждения уже не нужна – эффективности в работе она не прибавит, нужно искать замену.

Она нашлась достаточно быстро – это комплект фирменных радиаторов Zalman, специально для 8800GTX\8800GTS - ZALMAN ZM-RHS88 и великолепный кулер Z-machine GV1000. Отличный выбор для 8800GTX. Не самый дешёвый конечно, но зато один из самых эффективных.

Враги седого короля

Впрочем, давайте перейдём от теории к долгожданной практике. Прошло три года, давайте же посмотрим на что способна 8800GTX сегодня – перед ней самые современные игры и два разрешения 1280x1024 и 1680x1050, включая режимы с AA и AF. В качестве соперников будут выдвинуты следующие видеокарты:

Radeon HD 2900XT – “подавленная революция”, с рождения уступающая 8800GTX. Давайте же посмотрим, как проявит себя “неудачный ответ на G80” сегодня, и на сколько сильно он уступит нашему герою в современных играх.

Radeon HD 2900Pro – почти та же карта но с 256-ти битной шиной. Её мы вводим для чистого интереса – посмотрим, на сколько были дальновидны инженеры ATI, наделив 2900XT 512-ти битной шиной. Обеспечит ли более высокая ПСП преимущество? Попробуем разобраться.

GeForce 9800GTX\GTX+ - прямой соперник 8800GTX. Вышел почти на полтора года позже и оказался урезанным в плане ПСП, объёма памяти и растровых блоков. Зато имеет более высокие тактовые частоты. Так что же важнее - аппаратная начинка или частотное преимущество?

HD 4850 – ещё один прямой конкурент для сегодняшнего героя. Таким должен был стать R600, но, увы, им не стал.

HD 4870 – данную видеокарту мы добавляем как эталонную, обеспечивающую максимальную производительность среди сегодняшних участников. К ней будет стремиться 8800GTX.

8800GTX – он выступит в двух амплуа. В первом, это будет стандартная 8800GTX. Во втором, 8800GTX разогнанная до тактовых частот 8800ULTRA. Ну, по крайней мере, попытаемся её так разогнать…

Тестовые приложения, конфигурация тестового стенда

  • 3DMark 2005, 3DMark 2006, 3DMark Vantage. Ничем не примечательная синтетика. Из года в год её используют для приблизительной оценки мощности видеокарты. Почему приблизительной? Потому что результаты синтетики далеко не всегда совпадают с результатами игровых приложений. Тем не менее, кое-какие выводы сделать будет можно.
  • Crysis – самая требовательная игра на сегодняшний день. У неё нет конкурентов, это минимальный эталон производительности, к которому должна стремиться любая видеокарта. Чем выше FPS, тем больше запас мощности у той или иной видеокарты.
  • FarCry 2 – красивая и наполненная спецэффектами игра, выжимающая из видеокарт все соки. Не Crysis конечно, но всё равно, одна из самых требовательных игр на сегодняшний день.
  • Batman: Arkham Asylum – без сомнения, выдающаяся игра завоевавшая сердца многих игроков. Обладает шикарной графикой, демонстрирующей всю красоту Unreal Engine 3. Поскольку огромное количество игр сейчас выпускается именно на этом “моторчике”, мы решили включить её в тестирование. Одна из самых требовательных игр на этом движке.
  • Risen – не самая совершенная с точки зрения графики, игра, но всё же обладающая некоторыми симпатичными "фишками" вроде неплохих теней и хорошего освещения.
  • Resident Evil 5 – пусть и платформер, зато с потрясающей графикой. На сегодняшний день – одна из красивейших игр.
  • GTA 4 – тот самый Grand Theft Auto 4. Последние патчи сгладили некоторые недостатки и заметно повысили FPS, однако игра в большей части всё так же осталась довольно ресурсоёмкой. Многие пользователи, делая апгрейд, стремятся получить наиболее высокую частоту кадров именно в этой игре.

Все бенчмарки (3DMark) тестировались на стандартных настройках, в играх использовалось для всех настроек графики значение High или Ultra High (т.е. максимально возможное). Опционально для некоторых игр было проведено тестирование в режиме AAx4 AFx16.

Конфигурация тестового стенда:

  • Процессор - Core i7 920 3400 МГц
  • Материнская плата - Asus P6T
  • Оперативная память - 3 x 1 Гбайт DDR3 RAM 1333 МГц
  • Жесткий диск - WD 500 Гбайт HDD
  • Блок питания - Thermaltake 650 Ватт

Операционная система - Windows Vista Ultimate SP2 32 bit

Разгон 8800GTX

Разгонять 8800GTX было решено аккурат до тактовых частот 8800 ULTRA. Почему не больше? Ответ прост – потому что, во-первых, не все 8800GTX могут разгоняться до частот ULTRA версии, и покорение её частот – уже “подвиг”, а, во-вторых, этого вполне будет достаточно, мы получим значительный прирост скорости обусловленный, в основном, повышенными частотами шейдерного блока.

Итак, наш герой без всяких проблем достиг частот ULTRA версии (612/1512/1080МГц), что очень и очень неплохо.

Карта 2900 Pro 2900 XT HD 4850 HD 4870 9800 GTX 9800 GTX+ 8800GTX 8800 ULTRA
Видеочип R600 R600 RV670 RV670 G92 G92 G80 G80
Техпроцесс 80нм 80нм 55нм 55нм 65нм 65нм 90нм 90нм
Кол-во транзисторов, млн. 700 700 956 956 754 754 681 681
Площадь кристалла (мм2) 420 420 256 256 330 330 484 484
Кол-во унифицированных процессоров, шт. 320 (64x5) 320 (64x5) 800 (160x5) 800 (160x5) 128 128 128 128
ROP’s, шт. 16 16 16 16 16 16 24 24
Блоки текстурирования 16 16 40 40 32 (64) 32 (64) 32 32
Частота GPU 601 750 625 750 675 765 576 612
Частота шейдерного блока 601 750 625 750 1688 1898 1350 1512
Частота видеопамяти 1600 1660 2000 3600 2200 2200 1800 2160
Тип памяти GDDR3 GDDR3 GDDR3 GDDR5 GDDR3 GDDR3 GDDR3 GDDR3
Объём памяти 512 512 512 512 512 512 768 768
Шина памяти, бит 256 512 256 256 256 256 384 384

Тестирование

3D Mark 05

Total Score

В данном бенчмарке перевес практически всегда на стороне видеокарт ATi. HD 2900XT вырывается вперёд и обгоняет не только 8800GTX но и ULTRA версию, практически на равных соревнуясь с HD 4850.

3D Mark 06

Total Score

Тут ситуация меняется – не только 8800GTX уверенно обходит HD 4850, но и 9800GTX, из-за оптимизации 3DMark 2006 под видеокарты Nvidia, идёт с HD 4870 на равных…

3D Mark Vantage

Total Score

Данный тест демонстрирует “аппаратное” превосходство 8800GTX над 9800GTX. Видно, что раскрывается весь потенциал видеокарты, и она достаточно сильно вырывается вперёд. Ultra версия без особого труда обгоняет HD 4850 и занимает почётное второе место.

А вот недостатки HD 2900XT и Pro становятся видны как на ладони – своим соперникам они уступают примерно в два раза.

Crysis 1.2

1280 x 1024 1280 x 1024, 4xAA, 16xAF

Crysis оказывается не по зубам 2900XT\Pro. Играть даже в разрешении 1280x1024 и без сглаживания становится просто невозможно. А вот 8800GTX показывает себя только с положительной стороны – если без AA/AF сегодняшний герой идёт на равных с 4850/9800GTX, то в более тяжёлом режиме он их и вовсе обходит.

Crysis 1.2

1680 x 1050 1680 x 1050, 4xAA, 16xAF

Та же самая ситуация. Вот она – 384-х битная шина и 24 блока растровых операций в действии! Полная победа над HD 4850 и 9800GTX/9800GTX+

GTA4

1280 x 1024 1680 x 1050

В данном тесте ситуация меняется не в пользу 8800GTX. Ultra версия ещё идёт на равных с 9800GTX, но полностью уступает 9800GTX+ и 4850. Впрочем, фреймрейт достаточно высокий – разницу между 50 и 55-ю FPS вы вряд-ли почувствуете.

Batman: Arkham Asylum

1280 x 1024 1680 x 1050

Первый сюрприз – линейка HD 2900 обошла не только 8800GTX, но и 9800GTX, показав очень близкие с HD 4850 результаты. Очевидно, игре более по душе видеоускорители AMD. Впрочем, в тяжёлом режиме 8800GTX\Ultra всё равно обходит конкурентов и уступает только более производительной HD 4870.

Resident Evil 5

1280 x 1024 1680 x 1050

Ситуация с HD 2900 повторяется – играть на данных видеокартах конечно можно, но это будет проблемно – средний FPS даже у 2900XT в разрешении 1680x1050 чуть ниже минимально доступного для более-менее комфортной игры.

8800GTX\Ultra немного уступают 9800GTX в низком разрешении, но достаточно сильно вырываются при его увеличении. Хороший результат и почётное “серебро”.

FarCry 2

1280 x 1024 1280 x 1024, 4xAA, 16xAF

Ситуация с Crysis’ом повторяется - игра выжимает все соки из видеокарт, и 8800GTX\Ultra демонстрирует преимущество над 4850 немного уступая 9800GTX/9800GTX+

Что касается HD 2900, то они хоть и справляются с игрой, видно, как тяжело им это даётся.

FarCry 2

1680 x 1050 1680 x 1050, 4xAA, 16xAF

Тяжёлый режим графики расставляет всё по своим местам – в разрешении 1280x1024, Geforce 8800GTX всё-таки уступил 9800GTX, однако в более высоком разрешении значительно вырвался вперёд, продемонстрировав значительный отрыв. Нашему герою вновь достаётся “серебро”.

Risen

1280 x 1024 1680 x 1050

Глядя на FPS можно понять – Risen, далеко не самая требовательная игра. Даже HD 2900 позволяет насладиться максимальным качеством графики и играбельным фреймрейтом. Пусть 9800GTX/9800GTX+ вновь вырвалась вперёд, здесь её преимущество особой роли не играет – кол-во кадров в секунду и так достаточно велико, комфортно будет играть и на 60 и на 70 FPS. Зато, 8800GTX\Ultra одерживает победу над 4850.

Подведение итогов

И так, тесты мы провели, результаты перед вами. Что ещё можно сказать?

9800GTX – отличная карта, и благодаря повышенным тактовым частотам иногда серьёзно вырывается вперёд. Другое дело, что ни в коем случае её нельзя называть наследником 8800GTX. Это её “модернизированная и облегчённая” версия, которая хорошо разгоняется на трассе, но буксует при подъёме в гору.

Что касается HD 2900XT – то тут не всё так радужно. Да, для большинства игр её в принципе достаточно, и если разрешение не превышает 1280x1024, на ней вполне можно наслаждаться современными играми. Только вот включение сглаживания и увеличение разрешения крайне пагубно сказываются на её производительности. Не спасает и 512-ти битная шина памяти. Она, конечно, даёт некоторое преимущество по сравнению с 2900Pro, но в большинстве своём выигрыш достигается за счёт более высоких тактовых частот.

Говоря о Radeon HD 4850 можно повторить сказанное про 9800GTX/GTX+ - это хорошая карта, которую сегодня можно купить за очень небольшие деньги. В тяжёлых режимах она обходит 9800GTX но всё-таки уступает 8800GTX. Очень жаль, что у разработчиков ушло столько времени на разработку RV770. Если бы его подобие (по крайней мере, с вдвое большим кол-вом текстурных блоков и переработанным алгоритмом АА) вышло вместо R600, получился бы очень хороший и адекватный продукт, способный идти на равных с 8800GTX.

А вот Geforce 8800GTX – потрясающая видеокарта. Даже через 3 года после своего выхода ей доступны абсолютно любые игры на максимальных настройках с включённым 4-х кратным сглаживанием. Пусть ей оказался не по зубам Crysis с AA/AF, в нём видеокарта всё равно показала более высокую скорость, чем HD 4850 и GeForce 9800GTX/GTX+, уступив разве что HD 4870.

Тоже самое касается и требовательного FarCry 2 – тяжёлые настройки графики выводят 8800GTX в чемпионы, позволяя уверенно обходить “псевдофлагман” GeForce 9800GTX. Там где наш герой уступает, FPS и так достаточно высок для обеспечения абсолютно комфортной игры. Опять же, как упоминалось ранее, разницу между 60-ю и 70-ю FPS заметит далеко не каждый. А вот лишние 3-6 FPS в Crysis’e способны сделать процесс игры куда более приятным.

Разгон до частот ULTRA версии и вовсе даёт карте второе дыхание. Перед ней склоняется даже Crysis в 1680x1050. Правда, опять же, без AA/AF.

С ростом разрешения и утяжелением режима графики, G80 демонстрирует куда меньшее падение FPS нежели G92. Всё-таки 24 блока растровых операций, 384-х битная шина и 768 мегабайт видеопамяти делают своё дело.

Так что же важнее? Частотное или аппаратное преимущество? Ответ был известен заранее. Чем сложнее сцена, тем сильнее раскрывает свой потенциал чип с большим кол-вом растровых операций и более широкой шиной памяти. Увеличение тактовых частот более слабого G92 даёт преимущество там, где оно не так важно – например, в сценах, где FPS и так очень высок (~50FPS и более).

Тестирование закончилось, 8800GTX принял участие в своей финальной битве, которая расставила все точки над i. Глядя на результаты можно смело кричать: “Король НЕ умер. Да здравствует Король!” :)

Во многом “живучесть” 8800GTX объясняется достаточно просто – большинство разработчиков делает именно мультиплатформенные игры, что несколько тормозит развитие игр для ПК. Графика в играх упирается в возможности приставок, и пусть под ПК делают более чёткие текстуры и более качественное освещение, всё равно – сути это не меняет. Выходит, что планку уровня графики для игр задают не мощные видеокарты типа GTX 285 или HD 5870, а достаточно старые видеочипы, установленные в игровых приставках. Вот и получается, что возможности видеокарт уже давным-давно обогнали требования игр, и даже на таких старичках как GeForce 8800GTX вполне можно “летать” по сей день.

Zik