GeForce 8800GTX - потерявший трон, но сохранивший корону
реклама
Оглавление
- Вступление
- Как это было
- Radeon HD 2900 XT – “подавленная революция”
- 8800 GTX три года спустя
- Враги седого короля
- Тестовые приложения, конфигурация тестового стенда
- Разгон 8800GTX
- Тестирование
- Подведение итогов
Вступление
Не так давно (в ноябре месяце) видеочипу G80 исполнилось ровно три года. Это огромный срок для графического чипа и для видеокарты в целом. Обычно хватает одного года для того, чтобы некогда мощный и производительный видеочип переместился из "высшего общества", в лучшем случае, в низы среднего класса. За три года производитель успевает обновить модельный ряд своих видеокарт как минимум два или три раза, вполне может появиться новый API, новые поколения CPU, не говоря уже о выходе целой кучи игр нового поколения. Если за год видеокарта так быстро устаревает, о чём вообще говорить, когда проходит целых три?! Зачастую она превращается в малополезный кусок текстолита, и демонстрирует лишь тень своей былой славы – ни новые игры, ни высокие разрешения ей уже будут не под силу. Вспомнить хотя бы Geforce 3Ti, вышедший в 2001-м году. Разве такие тяжеловесы как Doom 3, Half-Life 2 или FarCry были ему под силу? Ну, они конечно запускались, если говорить о факте работы, но вряд ли пользователи с Geforce 3Ti/Radeon 8500 могли позволить себе высокие настройки графики, сглаживание или анизотропную фильтрацию.
Однако у нас другая ситуация. Несмотря на то, что Geforce 8800GTX исполняется 3 года, он не только способен демонстрировать высокий FPS в самых современных играх, но и позволяет выставлять высокие разрешения, включать сглаживание и довольствоваться бесплатной анизотропной фильтрацией.
Более того, примерно 10% всех пользователей онлайн сервиса Steam “вооружены” видеокартами на базе Geforce 8800 – уже это говорит о многом.
реклама
Впрочем, обо всём по порядку…
Дабы помочь читателю вспомнить рассвет 8800GTX, мы предлагаем кое-что вспомнить из наших предыдущих материалов:
- 13.11.2006 Обзор графической архитектуры G80
- 04.12.2006 Сравнительное тестирование 8800GTX и X1950XTX
- 08.02.2007 Обзор нескольких моделей Geforce 8800GTX
- 27.04.2007 FAQ по 8800GTX
- 09.07.2007 Обзор архитектур G80 и R600
- 01.08.2007 Разгон, наблюдения и хитрости 8800GTX
- 26.08.2009 HD 4870 1Гб против 8800GTX
Как это было
История легендарного G80 берёт своё начало ещё в 2004-м году, когда Nvidia только-только начала проектировку новейшего GPU, который бы отходил от привычной “пиксельно - вертексной” архитектуры и представил реализацию новой, более гибкой, более совершенной и продвинутой архитектуры – унифицированной.
реклама
Следует заметить, что реализация новой архитектуры в лице G80 (или NV50), началась практически сразу после выхода NV40, который дал в своё время жизнь производительной линейке GeForce 6800. В те времена NV40 казался действительно инновационным чипом, который помимо 16-ти пиксельных конвейеров и GDDR3 памяти принёс и поддержку DirectX 9с и Shader Model 3.0
Потенциал у NV40 был достаточно большой. Его архитектуру удалось развить несколько раз – сначала с выпуском G70, который по сути являлся тем же NV40, но “на стероидах”, с увеличенным кол-вом пиксельных и вершинных конвейеров, а потом и G71 с уменьшенным техпроцессом и возросшими частотами.
После продолжительного обмена ударами между ATI и Nvidia, когда их видеокарты по мере наращивания мощи отнимали друг у друга чемпионский пояс, у калифорнийцев наконец-то получилось совершить революцию. Настоящую, которой не было со времён GeForce 3Ti или Radeon 9700. Nvidia анонсировала самый мощный, самый горячий, самый огромный и дорогой настольный GPU в истории – G80, который так же стал первым DX10 совместимым видеочипом и первым настольным GPU с потоковой архитектурой. (До этого в 2005-м году был выпущен чип ATI Xenos R500 для Xbox 360 имеющий 48 суперскалярных процессоров (48х5 = 240 скалярных) и вобравший лучшее от R580 и R600).
Что же революционного было в этом огромном, горячем и жадном до энергопотребления чипе? Во-первых, аппаратная часть – 128 программируемых потоковых процессора исполняющих роль как пиксельных, так и вершинных конвейеров; 32 текстурных блока, 24(!!!) блока ROP’s. Добавьте к этому 384-х битную шину и 768 мегабайт видеопамяти – рекордный объём для одного настольного GPU в то время.
Во-вторых, G80, как уже говорилось, стал первым DX10 совместимым видеочипом, обеспечив аппаратную поддержку Shader Model 4.0
Унифицированная шейдерная архитектура превзошла даже самые смелые ожидания - 8800GTX оказывался производительнее бывших топов в два-три раза! Это был феноменальный успех, ведь по всем параметрам новое поколение видеокарт от Nvidia обогнало своё время как минимум на год. Пусть конструкция 8800GTX была не совершенна - длина PCB имела внушительные размеры – 27см, чип изготавливался по 90нм техпроцессу, видеокарте требовалось целых два 6-ти пиновых разъёма питания, а огромная система охлаждения, закрывавшая не только сам чип, но и подсистему питания с микросхемами памяти, делала 8800GTX крайне тяжёлой. Чего уж говорить и об отдельном чипе NVIO, который из-за громадных размеров G80 пришлось вынести за пределы основного кристалла. Да и весь потенциал 8800GTX можно было раскрыть только на суперсовременных процессорах Core 2 Duo, функционирующих на частоте в >3ГГц.
Но на все эти недостатки закрывали глаза – великолепная производительность волшебным образом превращала минусы 8800GTX в её особенности
Спустя год Nvidia анонсировала новый чип – G92, который, по-сути являлся тем же G80, но с косметическими изменениями. Вместо 24-х блоков ROP’s было решено оставить лишь 16, 256-ти битная шина и более высокочастотная GDDR3 память сменили собой нестандартную 384-х битную. Количество видеопамяти было уменьшено c 768-ми мегабайт до 512-ти, а более тонкий 65нм техпроцесс позволил не только уменьшить тепловыделение и размеры GPU, но увеличить тактовые частоты, и интегрировать NVIO в основной кристалл. Выход 8800GTS 512 Мб омрачило разве что сомнительное название, а вот во всём остальном это был превосходный продукт – PCB изящно укоротилась, цена особо не кусалась, а производительность была очень близка к 8800GTX. Но вот ребрендинга и появления 9800GTX не ожидал никто. Это была всё та же 8800GTS 512 mb, но на более длинной PCB, с усиленной подсистемой питания, новой системой охлаждения и повышенными тактовыми частотами. На какое-то время именно она стала флагманом всей линейки GeForce, хотя на самом деле, оказалась урезанной по сравнению с 8800GTX\Ultra и, зачастую, не могла обойти их в производительности.
Программисты из Nvidia даже прибегали к “затормаживанию” 8800GTX на уровне драйверов, тем самым искусственно увеличивая производительность 9800GTX.
Radeon HD 2900 XT – “подавленная революция”
Абсолютному успеху 8800GTX помешали две вещи. Первая, это, конечно же, достаточно высокая цена. А вот вторая оказалась более прозаична. Всё дело в том, что у компании ATI, уже поглощенной к тому времени AMD, готовилось суперсекретное и, по слухам, супермощное оружие под кодовым названием R600. Это был первенец скалярной архитектуры, который так же как и G80 в течение долгого времени находился в разработке. Его альтернативная, чуть более облегчённая и изменённая версия R500 Xenos, к ноябрю 2006-го года уже повсеместно использовалась в новеньких Xbox 360, демонстрируя великолепные возможности и потрясающую производительность. Таким образом, достаточно большая фанатская аудитория AMD ждала ответный удар, который должен был последовать сразу же за выпуском 8800GTX\GTS. В пользу R600 говорило много факторов. Во-первых, цена – она была на порядок меньше 8800GTX и составляла порядка 399$. Во-вторых, аппаратная составляющая – 512-ти битная шина памяти и 320 скалярных процессоров. Казалось бы, по всем параметрам новинка должна была обойти флагман Nvidia, тем более, что она запаздывала аж на пол года – достаточное время для того, что бы “подкрутить гайки”, и выпустить продукт намного опережающий в производительности конкурента. Nvidia даже пошла в контрнаступление, выпустив 8800ULTRA – разогнанную версию 8800GTX. Однако время шло, R600 запаздывал, а когда наконец-то пришло его время, он оказался совсем не тем продуктом, который ждали поклонники продукции ATI. Кроме преданных фанатов так же оставались независимые граждане, желающие получить максимальную производительность и ждали ответного хода ATI, дабы выбрать “лучшего из лучших”. Но чуда не произошло – видеокарта 2900XT, ставшая воплощением архитектуры R600, оказалась не такой уж и мощной. Да, её чип был выпущен по 80нм техпроцессу. Длина PCB была куда меньше чем у соперника, 512-ти битная шина обеспечивала пропускную способность в 100Гб\с, а 320 скалярных процессоров в синтетике демонстрировали чудеса. Но если бы всё было так здорово, наверное, вы, дорогие читатели, эти строки бы не читали.
Как оказалось, единственным настоящим козырем 2900XT была лишь шину памяти. 512 бит – это много, и даже с достаточно низкочастотной GDDR3 памятью обеспечивалась великолепная пропускная способность, и видеокарта вообще не испытывала в ней недостатка. Однако всего 16 блоков растровых операций и самое главное, всего 16 текстурных блока (у 8800GTX\ULTRA их было в два раза больше), делали 2900XT крайне уязвимой в сценах с использованием массивных текстур, в результате чего наблюдалось серьезное падение FPS. Кроме того, из-за особенностей архитектуры R600, видеокарты на базе HD 2900XT с громким треском проваливались в режимах с использованием сглаживания. Падение доходило до 40-45%, в то время как у конкурента оно не превышало 25%. Скалярные процессоры (коих на самом деле было 64(х5)) хотя и показывали неплохую скорость, особенно в сценах насыщенных спецэффектами (работа с шейдерами), не могли перевесить два основных недостатка видеокарты и обеспечить ощутимое преимущество. Всё на что годилась 2900XT – это роль соперника 8800GTS 640mb. Пусть конкуренция с точки зрения производительности и была весьма успешной, своевременный выход 8800GTS 320, обладающей практически идентичной с 8800GTS 640mb производительностью и крайне заманчивой ценой, свёл немногочисленные шансы 2900XT на успех практически к нулю.
Долгожданная революция провалилась, 8800GTX\Ultra так и осталась самой мощной видеокартой.
Чуть позже, аккурат за два месяца до анонса RV670 (слегка облегчённого R600 выполненного по 55нм техпроцессу) ATI пустила все чипы R600 под нож, выпустив два достаточно мощных и совсем недорогих продукта – HD 2900PRO и HD 2900GT. Первый отличался от оригинальной XT только 256-ти битной шиной и немного пониженными частотами (хотя первые версии 2900PRO имели 512-ти битную шину), а второй, более слабый продукт 2900GT, уже потерял на аппаратном уровне 80 скалярных процессоров и 4 текстурных блока, получив ещё более низкие тактовые частоты. Итог – привлекательная цена (249$ и 199$ соответственно) и уровень производительности, превосходивший весь Middle-End включая 8800GTS 320/8600GTS.
реклама
Стоит заметить, что несмотря на провал R600 и сомнительный успех RV670, скалярную архитектуру не стоит считать неудачной и менее совершенной чем потоковую (или шейдерную, как хотите) от Nvidia. Выход RV770 показал, что устранение слабых мест – медленной работы AA (путём переработки алгоритма) и малого количества текстурных блоков, способно раскрыть весь потенциал данной архитектуры с положительной стороны. А постепенное “наращивание” исполнительных блоков (скалярных, текстурных и растровых) позволяет достичь практически линейного роста производительности (обратим внимание на HD 5870). Кроме того, дизайн архитектуры позволяет чипу работать на более высоких тактовых частотах нежели у конкурента (сравнить хотя бы RV790 и G200b). Хотя у чипов Nvidia шейдерный блок работает на удвоенной частоте по сравнению с GPU.
8800 GTX три года спустя
Рассматриваемая сегодня WinFast 8800GTX была возвращена с того света. Как уже многие догадались, речь идёт об известной проблеме – отпайки некоторых контактов огромного чипа от платы PCB, что приводит к появлению артефактов, некорректной работе видеокарты или даже её “смерти” – отсутствия сигнала на мониторе. Хотя, стоит сделать небольшую поправку – это приводит скорее не к “смерти”, а к “коме”. Вернуть 8800GTX с того света можно несколькими способами, однако все они сводятся к “прогреванию” чипа, тем самым позволяя отошедшим контактам вновь “припаяться”:
- “Прогреть” чип под специальной ИК лампой. Её высокая температура позволит оловянным BGA-шарам принять пластичную форму и вновь сцепиться с PCB.
- Более домашний способ, которым пользуется большинство – “прогреть” видеокарту в обычной духовке. Получаем то же самый эффект - контакты припаиваются на место.
Но у этих способов есть два больших недостатка. Во-первых, используя мощную ИК Лампу, можно спалить текстолит. Во-вторых, прогрев в духовке может оплавить пластиковые части видеокарты – DVI и TV-Out разъёмы, не говоря о том, что из-за высокой температуры могут запросто “поплыть” элементы PCB – пайка расплавится, и отдельный транзистор или чип памяти сползёт со своего законного места. Да и не факт, что при таком “прогреве” не отпаяется ещё большее кол-во контактов на чипе или элементах платы.
Так что же делать? Ответ достаточно прост и элементарен – отпаявшиеся контакты нужно не припаивать, а просто “прижать”. Сделать это не сложно – сменить систему охлаждения на что-нибудь не очень дорогое и эффективное (Zalman VF1000, например), прикрутить её к плате и посильнее затянуть винты. В итоге – радиатор системы охлаждения прижмёт огромный чип к плате, и контакты естественным образом встанут на место. Гарантировать 100% данного метода можно лишь в том случае, если вы точно уверены что дело именно в отпаявшихся контактах чипа, а не в вышедшей из строя микросхеме памяти или перегоревшего NVIO. Что бы это проверить, достаточно разжиться простенькой СО на подобии Zalman VF700. Естественно, для полноценного охлаждения чипа его точно не хватит, но для загрузки Windows и прохождения короткого 3D теста – будет вполне достаточно.
Оттерев толстый слой пыли, и устроив плате настоящую спиртовую ванну с дальнейшей просушкой, ей возвращается былой лоск 2006-го года. Родная система охлаждения уже не нужна – эффективности в работе она не прибавит, нужно искать замену.
Она нашлась достаточно быстро – это комплект фирменных радиаторов Zalman, специально для 8800GTX\8800GTS - ZALMAN ZM-RHS88 и великолепный кулер Z-machine GV1000. Отличный выбор для 8800GTX. Не самый дешёвый конечно, но зато один из самых эффективных.
Враги седого короля
Впрочем, давайте перейдём от теории к долгожданной практике. Прошло три года, давайте же посмотрим на что способна 8800GTX сегодня – перед ней самые современные игры и два разрешения 1280x1024 и 1680x1050, включая режимы с AA и AF. В качестве соперников будут выдвинуты следующие видеокарты:
Radeon HD 2900XT – “подавленная революция”, с рождения уступающая 8800GTX. Давайте же посмотрим, как проявит себя “неудачный ответ на G80” сегодня, и на сколько сильно он уступит нашему герою в современных играх.
Radeon HD 2900Pro – почти та же карта но с 256-ти битной шиной. Её мы вводим для чистого интереса – посмотрим, на сколько были дальновидны инженеры ATI, наделив 2900XT 512-ти битной шиной. Обеспечит ли более высокая ПСП преимущество? Попробуем разобраться.
GeForce 9800GTX\GTX+ - прямой соперник 8800GTX. Вышел почти на полтора года позже и оказался урезанным в плане ПСП, объёма памяти и растровых блоков. Зато имеет более высокие тактовые частоты. Так что же важнее - аппаратная начинка или частотное преимущество?
HD 4850 – ещё один прямой конкурент для сегодняшнего героя. Таким должен был стать R600, но, увы, им не стал.
HD 4870 – данную видеокарту мы добавляем как эталонную, обеспечивающую максимальную производительность среди сегодняшних участников. К ней будет стремиться 8800GTX.
8800GTX – он выступит в двух амплуа. В первом, это будет стандартная 8800GTX. Во втором, 8800GTX разогнанная до тактовых частот 8800ULTRA. Ну, по крайней мере, попытаемся её так разогнать…
Тестовые приложения, конфигурация тестового стенда
- 3DMark 2005, 3DMark 2006, 3DMark Vantage. Ничем не примечательная синтетика. Из года в год её используют для приблизительной оценки мощности видеокарты. Почему приблизительной? Потому что результаты синтетики далеко не всегда совпадают с результатами игровых приложений. Тем не менее, кое-какие выводы сделать будет можно.
- Crysis – самая требовательная игра на сегодняшний день. У неё нет конкурентов, это минимальный эталон производительности, к которому должна стремиться любая видеокарта. Чем выше FPS, тем больше запас мощности у той или иной видеокарты.
- FarCry 2 – красивая и наполненная спецэффектами игра, выжимающая из видеокарт все соки. Не Crysis конечно, но всё равно, одна из самых требовательных игр на сегодняшний день.
- Batman: Arkham Asylum – без сомнения, выдающаяся игра завоевавшая сердца многих игроков. Обладает шикарной графикой, демонстрирующей всю красоту Unreal Engine 3. Поскольку огромное количество игр сейчас выпускается именно на этом “моторчике”, мы решили включить её в тестирование. Одна из самых требовательных игр на этом движке.
- Risen – не самая совершенная с точки зрения графики, игра, но всё же обладающая некоторыми симпатичными "фишками" вроде неплохих теней и хорошего освещения.
- Resident Evil 5 – пусть и платформер, зато с потрясающей графикой. На сегодняшний день – одна из красивейших игр.
- GTA 4 – тот самый Grand Theft Auto 4. Последние патчи сгладили некоторые недостатки и заметно повысили FPS, однако игра в большей части всё так же осталась довольно ресурсоёмкой. Многие пользователи, делая апгрейд, стремятся получить наиболее высокую частоту кадров именно в этой игре.
Все бенчмарки (3DMark) тестировались на стандартных настройках, в играх использовалось для всех настроек графики значение High или Ultra High (т.е. максимально возможное). Опционально для некоторых игр было проведено тестирование в режиме AAx4 AFx16.
Конфигурация тестового стенда:
- Процессор - Core i7 920 3400 МГц
- Материнская плата - Asus P6T
- Оперативная память - 3 x 1 Гбайт DDR3 RAM 1333 МГц
- Жесткий диск - WD 500 Гбайт HDD
- Блок питания - Thermaltake 650 Ватт
Операционная система - Windows Vista Ultimate SP2 32 bit
Разгон 8800GTX
Разгонять 8800GTX было решено аккурат до тактовых частот 8800 ULTRA. Почему не больше? Ответ прост – потому что, во-первых, не все 8800GTX могут разгоняться до частот ULTRA версии, и покорение её частот – уже “подвиг”, а, во-вторых, этого вполне будет достаточно, мы получим значительный прирост скорости обусловленный, в основном, повышенными частотами шейдерного блока.
Итак, наш герой без всяких проблем достиг частот ULTRA версии (612/1512/1080МГц), что очень и очень неплохо.
|
|
|
|
|
|
|
|
|
Видеочип |
|
|
|
|
|
|
|
|
Техпроцесс |
|
|
|
|
|
|
|
|
Кол-во транзисторов, млн. |
|
|
|
|
|
|
|
|
Площадь кристалла (мм2) |
|
|
|
|
|
|
|
|
Кол-во унифицированных процессоров, шт. |
|
|
|
|
|
|
|
|
ROP’s, шт. |
|
|
|
|
|
|
|
|
Блоки текстурирования |
|
|
|
|
|
|
|
|
Частота GPU |
|
|
|
|
|
|
|
|
Частота шейдерного блока |
|
|
|
|
|
|
|
|
Частота видеопамяти |
|
|
|
|
|
|
|
|
Тип памяти |
|
|
|
|
|
|
|
|
Объём памяти |
|
|
|
|
|
|
|
|
Шина памяти, бит |
|
|
|
|
|
|
|
|
реклама
Страницы материала
Лента материалов раздела
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила