Говорят, в Германии «олдтаймером» может считаться автомобиль, выпущенный тридцать и более лет назад. Почему именно такой срок выбран критерием, история умалчивает, но думаю, немцам можно доверять в этом вопросе, ведь именно Карл Бенц в 1886 году получил патент на первый в истории автомобиль с двигателем внутреннего сгорания.
Что такое тридцать лет для компьютерной индустрии? Определенно – целая вечность: тридцать лет назад, в 1986 году, появился на свет первый ноутбук – IBM PC Convertible, а всего пятью годами ранее произошло событие, о котором знает наверно каждый человек, хоть сколько-нибудь интересующийся историей развития персональных компьютеров. В 1981 году на рынок вышла первая модель персонального компьютера – IBM PC 5150.
И если тридцатилетняя Ferrari F40 по времени прохождения северной петли Нюрбургринга даст прикурить многим современным спорткарам, то можно не сомневаться, что тридцатилетний персональный компьютер уступит по вычислительной мощности даже каким-нибудь модным в определенных кругах публики «умным часам».
Очевидно, что компьютерная отрасль развивается быстрее автомобильной, а значит и компьютеры устаревают быстрее, чем автомобили. А теперь вопрос – какой срок для компьютеров и комплектующих может являться критерием, позволяющим отнести их к категории «ретро» или «олдтайм»? Все исходные данные для ответа на вопрос у нас есть: 130 лет – история развития автомобилей с двигателем внутреннего сгорания, 35 лет – история развития персональных компьютеров, 30 лет – критерий принадлежности к категории «олдтайм» для автомобилей.
Вычислив нехитрую пропорцию, находим, что критерием принадлежности компьютерной техники к категории «олдтайм» может являться срок восемь лет. Разумеется, расчет скорее шуточный, но тем не менее…
Восемь лет назад на рынок вышел первый процессор Intel Core i7 с архитектурой Nehalem. Он пришел на смену процессорам Intel Core 2, появившимся на рынке летом 2006 года и сместившим процессоры AMD с лидирующих позиций практически во всех тестах производительности.
8 ноября 2006 года запомнилось выходом видеокарты GeForce 8800 GTX с новой унифицированной шейдерной архитектурой. Производительность нового продукта Nvidia существенно превзошла уровень, который могли предложить предыдущие флагманы – GeForce 7900 GTX, Radeon X1950 XTX и даже оснащенная двумя графическими процессорами видеокарта GeForce 7950 GX2. Спустя полгода была представлена последняя на данный момент модель Nvidia серии «Ultra» – GeForce 8800 Ultra, получившая новую ревизию GPU G80, что позволило заметно повысить тактовые частоты и упрочить и без того незыблемое лидерство калифорнийской компании.
Десятилетие выхода, не побоюсь этого слова, легендарной видеокарты GeForce 8800 GTX почему-то оказалось практически незамеченным в Рунете, что побудило меня протестировать часть своей небольшой коллекции графических ускорителей и написать об этом статью.
Шейдер – это программа, визуально определяющая поверхность объекта. В свою очередь, шейдерный блок – это часть графического процессора, предназначенная для выполнения подобных программ.
Первым графическим процессором с аппаратной поддержкой шейдеров DirectX 8 стал NV20, лежащий в основе видеокарты GeForce3. Шейдеры первой версии (SM1) были довольно простыми – небольшая программа могла выполнять ограниченный набор команд. Более длинные и сложные шейдеры SM2 с расширенным набором команд появились с выходом GPU R300 и видеокарт Radeon 9500/9700, поддерживающих DirectX 9. Очередное увеличение возможностей принесли модели GeForce шестой серии, поддерживающие DirectX 9.0c и SM3.
В чем же тогда заключалась шейдерная революция, если и до этого практически с каждым новым поколением повышалась производительность видеокарт и расширялись их возможности?
До появления GeForce 8800 GTX дискретные видеокарты использовали раздельные блоки исполнения пиксельных и вершинных шейдеров в составе графического процессора: блоки вершинных шейдеров (vertex) производили математические операции с вершинами, из которых состоят 3D-объекты, тогда как блоки пиксельных шейдеров (pixel) выполняли инструкции растеризации пикселей, из которых состоит изображение. Помимо унифицированных блоков исполнения шейдеров, новая архитектура получила целый ряд иных качественных и количественных улучшений, наделив видеоядро новыми возможностями. Подробно со всеми особенностями архитектуры G80 можно ознакомиться, например, в этом материале.
Важным является то, что раньше для выполнения одного типа шейдеров можно было задействовать только определенные блоки графического процессора, тогда как блоки, предназначенные для выполнения иных шейдеров, могли оказаться ничем не задействованы, то есть графический процессор далеко не всегда использовал 100% своих возможностей.
Грядущие в DirectX 10 изменения существенно расширяли возможности шейдеров, что неизменно должно было повысить нагрузку на графический процессор. Логично, что инженеры Nvidia сочли неоптимальным вариантом сценарий, при котором часть дорогостоящих транзисторов нового GPU будет простаивать без дела, тогда как другие будут нагружены работой, и заложили в основу новой архитектуры универсальные вычислительные блоки, которые могут выполнять шейдеры любого типа.
Таким образом, резкое повышение производительности в сравнении с DX9-флагманами Nvidia и ATI было достигнуто не только за счет увеличения абсолютного количества транзисторов графического процессора, но и за счет качественных изменений архитектуры, в чем можно усмотреть некие аналогии со вторым законом диалектики.
По любым меркам видеокарты, ограниченные поддержкой DirectX 10, и, тем более, DirectX 9, давно устарели и монстров своего времени можно смело отнести к категории «ретро». Посмотрим, на что они были способны?
Я постарался собрать флагманские видеокарты Nvidia, оснащенные интерфейсом PCI-Express и поддерживающие DirectX 9/10, но с некоторыми оговорками. Во-первых – предпочтение было отдано видеокартам с одним GPU. Этого достаточно для того, чтобы сравнить производительность архитектуры каждого поколения, кроме того ни одной мультипроцессорной модели у меня, к сожалению, нет. Во-вторых – в пределах одного поколения предпочтение отдавалось «финальной» версии флагмана, если так можно выразиться. Единственное исключение было сделано для GeForce 7 series – присутствуют как 7800 GTX, так и 7900 GTX.
Более новые флагманы своего поколения путем понижения частот позволяют эмулировать ранних лидеров. Пусть это и не совсем корректно из-за вероятных различий в таймингах видеопамяти или при некотором изменении архитектуры ядра, но позволяет примерно представить уровень производительности соответствующих продуктов.
Итак, представляю участников.
Достаточно редкая модификация 6800 Ultra, оснащенная 512 Мбайт видеопамяти. Можете себе представить, что в 2005 году за такую видеокарту просили фантастические $849 или даже больше? И это несмотря на то, что в скором времени должен был появиться новый флагман!
Шестая серия видеокарт GeForce впервые была анонсирована в апреле 2004 года. Флагманом была 6800 Ultra с интерфейсом AGP 8X и частотами 400/1100 МГц. Графический процессор NV40, произведенный по технологии 130 нм, получил 16 пиксельных и 6 вершинных конвейеров, видеокарта оснащалась 256 Мбайт видеопамяти с шиной 256 бит. Позднее некоторые вендоры повысили частоту графического процессора до 425 МГц. Таким был последний флагман Nvidia, изначально разработанный для интерфейса AGP.
Версия 6800 Ultra для интерфейса PCI-Express получила тот же графический процессор NV40, на одной подложке с которым расположился переходной мост HSI. Расположение последнего непосредственно рядом с графическим процессором, а не на печатной плате, как в случае младших решений, было обусловлено большей скоростью работы такой конструкции, получившей собственное обозначение – NV45.
Частоты 6800 Ultra в версии для PCI-Express обычно составляли те же 425/1100 МГц, но лишь в версии с 256 Мбайт видеопамяти. Эталонными частотами для варианта с 512 Мбайт вроде бы являлись 400/1050 МГц, но некоторые вендоры по-своему решили этот вопрос, выпустив варианты 425/1050 МГц и 425/1100 МГц. И мой экземпляр из таких – с повышенными частотами графического процессора и памяти.
Существует мнение, что понижение частоты памяти в случае видеокарты с 512 Мбайт обусловливалось повышенной нагрузкой на контроллер памяти. Возможно, отчасти это так, но, на мой взгляд, все банальнее – если в варианте с 256 Мбайт тепло от всех восьми микросхем памяти отводилось через радиаторы, то в случае варианта с 512 Мбайт памяти радиаторы были установлены лишь на половине из шестнадцати микросхем.
При этом дополнительная память не только не давала никакого прироста производительности, но и зачастую модель с объемом памяти 512 Мбайт из-за более низких частот оказывалась медленнее варианта с 256 Мбайт, цена на который в момент анонса была установлена в $499.
Доподлинно неизвестно, какие моральные травмы получили владельцы 6800 Ultra 512 MB, когда в июне 2005 года, спустя буквально пару месяцев после её реального появления в продаже, была анонсирована видеокарта 7800 GTX, получившая новый графический процессор с 24 пиксельными и 8 вершинными конвейерами по рекомендованной цене $549.
Частоты новинки были незначительно выше, чем у 6800 Ultra – 430/470/1200 МГц, однако техпроцесс 110 нм обуславливал лучший разгонный потенциал графических процессоров G70.
Обратите внимание, что утилита GPU-Z неверно отображает количество текстурных блоков (TMU) – на самом деле их 24, а не 16.
Аббревиатура GTX кажется вполне привычной для современных ускорителей GeForce, а ведь впервые она появилась именно вместе с видеокартой серии 7800 еще в 2005 году. Пара любопытных фактов – модель 7800 GTX стала последним флагманом Nvidia с однослотовым дизайном референсной системы охлаждения и первым флагманом Nvidia, изначально разработанным для интерфейса PCI-Express.
Добавлю, что когда я проводил сравнение 7800 GTX и 8600 GT, бывший флагман не ударил в грязь лицом и выглядел на фоне конкурента с унифицированной шейдерной архитектурой вполне достойно. Если и проигрывал, то в основном там, где производительности было недостаточно у обеих видеокарт.
Конкуренция со стороны ATI привела к тому, что Nvidia пришлось дважды обновлять флагман седьмой серии.
В ноябре 2005 года вышла видеокарта 7800 GTX 512, в основе которой лежал все тот же графический процессор G70. Рекомендованная цена новинки – $649. Считается, что для производства обновленного флагмана использовались отобранные кристаллы, кроме того новая модель получила более быструю память. Частоты составили 550/550/1700 МГц, что дало ощутимый прирост производительности в сравнении с 7800 GTX 256 MB. Однако данный продукт не стал массовым. Можно предположить, что выход GPU, способных работать на частоте 550 МГц даже при повышении напряжения питания ядра с 1.40 В (7800 GTX 256 MB) до 1.45 В (7800 GTX 512 MB) оказался низким.
Вскоре производительности 7800 GTX 512 MB стало недостаточно для конкуренции с новыми видеокартами ATI и в марте 2006 года Nvidia выпускает 7900 GTX, в основе которого лежит модернизированный GPU G71. Новый графический процессор лишился части транзисторов, но содержал такое же количество функциональных блоков, что и G70. Более тонкий техпроцесс 90 нм позволил заметно повысить частоту ядра, в то время как частота памяти была снижена на 100 МГц, несмотря на то, что микросхемы памяти остались прежние – со временем выборки 1.1 нс.
Частоты нового флагмана составили в итоге 650/700/1600 МГц, а рекомендованная цена – «всего» $499. Высокая конкурентоспособность видеокарт ATI заставила Nvidia снизить цены.
Когда и этого оказалось мало, свет увидели видеокарты 7900 GX2 и 7950 GX2 с двумя графическими процессорами G71 на борту. Первая из них попадала на рынок лишь в виде готовых систем, тогда как вторая была доступна для розничной продажи по цене $649. Но век их был недолог, ибо на горизонте уже маячил будущий новый король 3D-графики…
Если 7 ноября было красным днем календаря, то 8 ноября 2006 года стало зеленым. Характеристики 8800 GTX впечатляли – 128 универсальных шейдерных процессоров, 384-битная шина и 768 Мбайт памяти, частоты 576/1350/1800 МГц, поддержка DirectX 10. На фоне очень высокой производительности в сравнении с DX9-флагманами как Nvidia, так и ATI, рекомендованная цена $599 не казалась чем-то из ряда вон выходящим, особенно если вспомнить что официальный курс доллара тогда составлял 26 рублей 72 копейки.
Седьмая серия GeForce была впервые со времен GeForce4 лишена модификации Ultra. Графический процессор 7800 GTX 512 MB получал маркировку первых образцов «7800–U», поэтому считается, что данная видеокарта должна была получить название 7800 Ultra, но в последний момент в Nvidia передумали, что могло быть связано с принятием решения о выпуске линейки видеокарт с 90 нм чипом G71. Видимо, после неудачной линейки GeForce FX калифорнийская компания решила использовать термин «Ultra» только для самых быстрых своих продуктов в пределах одного поколения архитектуры.
Ultra вернулась на рынок в мае 2007 года, когда Nvidia решила обновить и без того удачный флагман. Версия 8800 Ultra отличалась от 8800 GTX улучшенным частотным потенциалом графического процессора новой ревизии A3, более быстрой памятью и измененной системой охлаждения. Частоты видеокарты возросли до 612/1500/2160 МГц, а рекомендованная розничная цена – до $829. Что поделать, достойных конкурентов у нового короля 3D-графики все еще не было.
Некоторые вендоры выпустили разогнанные версии видеокарт, часто называемые 8800 Ultra Extreme. В частности, видеокарта XFX, принимающая участие в данном тестировании, работает на частотах 648/1620/2214 МГц.
Нельзя не упомянуть, что с восьмой серии видеокарты GeForce стали производиться по технологии с бессвинцовым припоем. Со временем это приводило к так называемому «отвалу» графического процессора, который заключался в потере надежного электрического контакта между BGA-шарами, подложкой кристалла и кристаллом графического процессора, либо подложкой кристалла и печатной платой, что вызывало появление артефактов изображения или даже полную потерю работоспособности видеокарты.
Наиболее подвержены такому явлению были решения с высоким тепловыделением, к коим несомненно можно отнести видеокарты 8800 GTX и Ultra. По данной причине далеко не все подобные модели дожили до наших дней полностью исправными.
Пройти мимо сравнения возможностей G80 и G92 было решительно невозможно. Видеокарту 9800 GTX+ на 55 нм GPU G92b нельзя назвать флагманом на каком-либо временном отрезке, поскольку она увидела свет уже после анонса GeForce GTX 280, но по своим характеристикам (за исключением частот) она аналогична предыдущему флагману GeForce 9800 GTX на 65 нм G92. Но вот можно ли назвать 9800 GTX настоящим флагманом?
Изначально графический процессор G92 был предназначен для оказавшихся весьма удачными по соотношению производительность/цена видеокарт 8800 GT и 8800 GTS 512MB. В сравнении с 90 нм GPU G80, 65 нм чип G92 характеризовался лучшим частотным потенциалом, меньшим энергопотреблением и тепловыделением. Количество универсальных шейдерных процессоров осталось прежним – 128, но была уменьшена разрядность шины памяти – с 384 до 256 бит, количество блоков растеризации – с 24 до 16, а также объем видеопамяти – с 768 до 512 Мбайт.
Видеокарта 9800 GTX была анонсирована 1 апреля 2008 года, что как бы намекает на комичность ситуации, при которой со многими задачами новый однопроцессорный флагман справлялся хуже старого, поскольку повышение частот до 675/1688/2200 МГц далеко не всегда компенсировало снижение упомянутых выше характеристик. В защиту G92 следует сказать, что рекомендованная цена 9800 GTX составляла всего $299, что позволяло простить ей все недостатки.
Безоговорочным флагманом девятого поколения GeForce можно смело назвать анонсированную в марте 2008 года модель 9800 GX2, c которой Nvidia вернулась к производству решений с двумя графическими процессорами на борту. Получившая два GPU G92 и частоты 600/1500/2000 МГц видеокарта предлагалась по рекомендованной розничной цене $599.
После выхода следующего поколения видеокарт Nvidia удачный графический процессор G92 отнюдь не отправился на свалку истории. Получив новый техпроцесс 55 нм и повышенные до 738/1836/2200 МГц частоты, анонсированная в июле 2008 года версия 9800 GTX+ с графическим процессором G92b предлагалась по рекомендованной розничной цене $229. В марте 2009 года видеокарту 9800 GTX+ переименовали в 250 GTS, упростив при этом дизайн печатной платы и системы охлаждения.
Для тестирования была взята слегка разогнанная производителем версия 9800 GTX+ (реальные частоты работы – 771/1890/2204 МГц).
Анонсированная в июне 2008 года модель GTX 280 формально может быть отнесена к третьему поколению DX10-видеокарт Nvidia, но в отличие от упрощенных относительно 8800 GTX и Ultra решений на основе G92, новый флагман получил не только новый 65 нм графический процессор GT200 с 240 универсальными шейдерными процессорами, но и шину памяти разрядностью 512 бит. Видеокарта располагала 1024 Мбайт видеопамяти, а частоты составляли 602/1296/2214 МГц. За все это великолепие просили $649.
Переведенный на 55 нм техпроцесс графический процессор GT200b позволил в январе 2009 года предложить всем желающим улучшенный флагман GTX 285 с частотами 648/1476/2484 МГц по сниженной до $359 рекомендованной цене.
Одновременно с GTX 285 была представлена видеокарта GTX 295, получившая тот же графический процессор GT200b, но уменьшенную до 2 x 448 бит разрядность шины памяти и более низкие частоты работы – 576/1242/1998 МГц. Количество памяти составило 1792 Мбайт, а рекомендованная цена новинки – $499.
При этом известная своими оригинальными разработками тайваньская компания ASUS порадовала энтузиастов видеокартой Mars, получившей два полноценных графических процессора GT200b, шину памяти 2 x 512 бит, количество памяти 4096 Мбайт и частоты, полностью идентичные GTX 285 – 648/1476/2214 МГц. Именно эта модель является самым быстрым решением DX10 из когда-либо выпущенных на рынок. Была произведена всего одна тысяча таких видеокарт, за каждую из которых просили не менее $1200.
Что касается данного тестирования, то в нем приняла участие полностью референсная видеокарта GTX 285 производства Gainward.
Примечание
Первой флагманской видеокартой Nvidia с интерфейсом PCI-Express с большой натяжкой можно назвать GeForce PCX 5900. Она была основана на полноценном графическом процессоре NV35, аналогичном GeForce FX 5900 Ultra, однако не только работала на более низких частотах, но и оснащалась вдвое меньшим объемом видеопамяти.
Видеокарта GeForce PCX 5900 теоретически могла бы принять участие в тестировании, но выяснилось, что она несовместима с тестовой системой: после установки драйвера операционная система не загружалась (не только Windows 7, но и Windows XP), хотя на другой, более старой платформе все функционировало должным образом.
GeForce DirectX 9
| Видеокарта | 6800 Ultra | 6800 Ultra 512MB |
7800 GTX | 7800 GTX 512MB |
7900 GTX |
| Графический процессор | NV45 | NV45 | G70 | G70 | G71 |
| Дата анонса | 26.07.2004 | 25.03.2005 | 22.06.2005 | 14.11.2005 | 09.03.2006 |
| MSRP | $499 | $849 | $549 | $649 | $499 |
| Производство | IBM, TSMC | IBM, TSMC | TSMC | TSMC | TSMC |
| Техпроцесс, нм | 130 | 130 | 110 | 110 | 90 |
| Площадь ядра, кв. мм | 287 | 287 | 334 | 334 | 196 |
| Число транзисторов, млн | 222 | 222 | 302 | 302 | 278 |
| Частота блоков графического процессора (3D), МГц: ROP, TMU, Pixel shader / Vertex shader | 400 / 400 | 400 / 400 | 432 / 468 | 550 / 550 | 650 / 700 |
| Эффективная частота работы видеопамяти, МГц | 1100 | 1050 | 1200 | 1700 | 1600 |
| Объем памяти, Мбайт | 256 | 512 | 256 | 512 | 512 |
| Тип поддерживаемой памяти | GDDR3 | GDDR3 | GDDR3 | GDDR3 | GDDR3 |
| Разрядность шины обмена с памятью, бит | 256 | 256 | 256 | 256 | 256 |
| Интерфейс PCI-Express | 1.0 x16 | 1.0 x16 | 1.0 x16 | 1.0 x16 | 1.0 x16 |
| Число пиксельных процессоров (Pixel shader), шт. | 16 | 16 | 24 | 24 | 24 |
| Число вершинных процессоров (Vertex shader), шт. | 6 | 6 | 8 | 8 | 8 |
| Число текстурных блоков (TMU), шт. | 16 | 16 | 24 | 24 | 24 |
| Число блоков растеризации (ROP), шт. | 16 | 16 | 16 | 16 | 16 |
| Поддержка версии Pixel Shaders / Vertex Shaders | 3.0 | 3.0 | 3.0 | 3.0 | 3.0 |
| Поддержка Direct X | 9.0c | 9.0c | 9.0c | 9.0c | 9.0c |
| Полоса пропускания видеопамяти, Гбайт/с | 35.2 | 33.6 | 38.4 | 54.4 | 51.2 |
| Теоретическая максимальная скорость закраски, Гпикс/с | 6.4 | 6.4 | 6.9 | 8.8 | 10.4 |
| Теоретическая максимальная скорость выборки текстур, Гтекс/с | 6.4 | 6.4 | 10.3 | 13.2 | 15.6 |
| TDP, Ватт | 81 | N/A | 86 | 108 | 84 |
GeForce DirectX 10
| Видеокарта | 8800 GTX | 8800 Ultra | 9800 GTX | 9800 GTX+ | GTX 280 | GTX 285 |
| Графический процессор | G80 | G80 | G92 | G92b | GT200 | GT200b |
| Дата анонса | 08.11.06 | 02.05.07 | 01.04.08 | 16.07.08 | 17.06.08 | 16.01.09 |
| MSRP | $599 | $829 | $299 | $229 | $649 | $359 |
| Производство | TSMC | TSMC | TSMC | TSMC | TSMC | TSMC |
| Техпроцесс, нм | 90 | 90 | 65 | 55 | 65 | 55 |
| Площадь ядра, кв. мм | 484 | 484 | 324 | 260 | 576 | 470 |
| Число транзисторов, млн. | 681 | 681 | 754 | 754 | 1400 | 1400 |
| Частота блоков графического процессора (3D), МГц: ROP, TMU / Unified shader | 576 / 1350 | 612 / 1512 | 675 / 1688 | 738 / 1836 | 602 / 1296 | 648 / 1476 |
| Эффективная частота работы видеопамяти, МГц | 1800 | 2160 | 2200 | 2200 | 2214 | 2484 |
| Объем памяти, Мбайт | 768 | 768 | 512 | 512 | 1024 | 1024 |
| Тип поддерживаемой памяти | GDDR3 | GDDR3 | GDDR3 | GDDR3 | GDDR3 | GDDR3 |
| Разрядность шины обмена с памятью, бит | 384 | 384 | 256 | 256 | 512 | 512 |
| Интерфейс PCI-Express | 1.0 x16 | 1.0 x16 | 2.0 x16 | 2.0 x16 | 2.0 x16 | 2.0 x16 |
| Число унифицированных шейдерных процессоров, шт. | 128 | 128 | 128 | 128 | 240 | 240 |
| Число текстурных блоков (TMU), шт. | 32 | 32 | 64 | 64 | 80 | 80 |
| Число блоков растеризации (ROP), шт. | 24 | 24 | 16 | 16 | 32 | 32 |
| Поддержка версии Pixel Shaders / Vertex Shaders | 4.0 | 4.0 | 4.0 | 4.0 | 4.0 | 4.0 |
| Поддержка Direct X | 10 | 10 | 10 | 10 | 10 | 10 |
| Полоса пропускания видеопамяти, Гбайт/с | 86.4 | 103.7 | 70.4 | 70.4 | 141.7 | 159 |
| Теоретическая максимальная скорость закраски, Гпикс/с | 13.82 | 14.69 | 10.8 | 11.81 | 19.26 | 20.74 |
| Теоретическая максимальная скорость выборки текстур, Гтекс/с | 18.43 | 19.58 | 43.2 | 47.2 | 48.2 | 51.8 |
| Количество операций с плавающей запятой, Гфлопс/с | 345.6 | 387.1 | 432.1 | 470 | 622.1 | 708.5 |
| TDP, Ватт | 155 | 171 | 140 | 141 | 236 | 204 |
Поскольку статья посвящена первому поколению графических процессоров Nvidia с унифицированной шейдерной архитектурой, рассмотрим подробнее самую быструю видеокарту на основе GPU G80.
Начнем с самого графического процессора. Как следует из надписей на теплораспределительной крышке, GPU данной видеокарты имеет безальтернативную для 8800 Ultra ревизию A3 и произведен на 13-й неделе 2007 года. В сравнении с применявшимся на большинстве видеокарт GeForce 8800 GTX, 8800 GTS 640MB и 8800 GTS 320MB графическим процессором G80 ревизии A2 новинка обладала улучшенным частотным потенциалом.
Это было связано не только с совершенствованием технологии производства 90 нм кристаллов, но и с увеличением напряжения питания ядра – 1.35 В для 8800 Ultra против 1.30 В для 8800 GTX. Под нагрузкой напряжение питания ядра на обеих моделях проседало на 0.06-0.08 В, что негативно сказывалось на разгоне, поэтому некоторые владельцы прибегали к вольтмоду своих видеокарт.
Повышение напряжения питания и рабочих частот графического процессора привело к увеличению энергопотребления и тепловыделения в сравнении с 8800 GTX, поэтому 8800 Ultra получила более эффективную систему охлаждения.
Так, в одном из обзоров, видеокарта 8800 Ultra с системой охлаждения 8800 GTX смогла разогнаться всего до 675/2150 МГц, тогда как с родной системой охлаждения частоты при оверклокинге достигали 705/2450 МГц.
Медное основание радиатора СО 8800 Ultra связано с алюминиевыми радиаторами парой тепловых трубок, а для передачи тепла от микросхем памяти, стабилизаторов напряжения и чипа NVIO служат толстые термопрокладки из армированного сеткой густого термоинтерфейса.
Об эффективности такого решения по сравнению с обычной термопастой или распространенными сейчас термопрокладками на основе силикона можно лишь догадываться.
Особенностью 8800 Ultra стало то, что система охлаждения выступала за пределы печатной платы примерно на два сантиметра. Смещение турбины от центра к краю позволило захватывать ей холодный воздух над видеокартой, что способствовало улучшению воздухообмена.
С лицевой стороны печатной платы расположены двенадцать микросхем памяти GDDR3 производства Samsung с маркировкой K4J52324QE–BJ08, время выборки для которых составляет 0.8 нс. По спецификации, номинальная эффективная частота такой памяти составляет 2500 МГц при напряжении предположительно 1.9 В (спецификацию на память со временем доступа именно 0.8 нс найти не удалось), однако в целях снижения энергопотребления и температуры память на 8800 Ultra работает на пониженном до 1.8 В напряжении.
GeForce 8800 GTX с уровнем TDP 155 Вт стала первой видеокартой, требующей подключения двух разъемов дополнительного питания 6 pin. В случае 8800 Ultra величина TDP возросла до 171 Вт, и вопрос качественного питания для новой видеокарты стал еще актуальнее. Причем, как можно заметить, печатная плата предусматривает даже установку комбинации разъемов дополнительного питания 6 + 8 pin. Система питания – четырехфазная, контроллер Primarion PX3540 расположен с обратной стороны печатной платы.
Графический процессор G80 оказался столь большим и мощным, что в нем не нашлось места для RAMDAC – за вывод изображения на все интерфейсы отвечает дополнительный чип NVIO, расположенный возле разъемов DVI. Благо длинная печатная плата (целых 270 мм) легко позволила его туда поместить.
Обратная сторона печатной платы плотно усеяна мелкими SMD-элементами, которые каждый раз, делая какие-то манипуляции с видеокартой, я опасался повредить. В то время еще не догадались защищать печатную плату дорогих видеокарт от повреждений при помощи специальной пластины.
Единственное, что говорит нам о том, что данная видеокарта не является обычной 8800 Ultra – это наклейка с лаконичной маркировкой «GF 8800Ultra 650M 768MB DDR3», во всем остальном Extreme версия, выпущенная XFX, ничем не отличается от своих полностью референсных собратьев. Видеокарта содержит специальную маркировку XFX: PV-T80U-SHE9 V1.1, согласно которой частоты работы составляют 648/1620/2214 МГц, как ранее уже было отмечено. И ведь нельзя сказать, что это самая быстрая 8800 Ultra, у той же XFX существовал еще вариант 8800 Ultra XXX (код PV-T80U-SHD9) с частотами работы 675/1667/2300 МГц!
Источником многих бед, о которых ранее уже упоминалось, является другая любопытная наклейка – «RoHS Compliant», означающая, что для производства видеокарты использовался тот самый бессвинцовый припой.
Перед тем как перейти к следующему разделу, предлагаю вашему вниманию еще несколько фотографий GeForce 8800 Ultra, не нуждающихся в комментариях.
А теперь займемся практикой.
Тестовая конфигурация:
Помимо вышеперечисленного в корпус установлены две платы расширения, дополнительные пять жестких дисков, оптический привод и контроллер скорости вентиляторов.
Центральный процессор пусть и довольно немолод, но может обеспечить адекватный уровень производительности в рамках данного тестирования.
Эмуляция видеокарт:
Наверняка многим покажется некорректным эмулировать графические ускорители. Отчасти это вынужденная мера. Например, ту же GeForce 7800 GTX 512 MB практически невозможно достать из-за малого тиража таких моделей. Что касается трех остальных участников – приобрести их возможно, но от их поиска и приобретения я решил отказался из-за архитектурной схожести с уже бывшими в наличии видеокартами.
Групповой портрет участников тестирования:
Опуская возможные теории заговора, было принято решение использовать для каждой видеокарты последний доступный драйвер. А именно:
Тестирование проводилось в OC Windows 7 SP1 максимальная 64 bit.
Настройки по умолчанию, дополнительно использовалось разрешение 1920 x 1200 с активацией AF16+AA4.
Настройки по умолчанию, профили Performance и Extreme.
Настройки по умолчанию, профиль Базовый.
Far Cry (version 1.4) – 23.03.2004 (DirectX 9)
Демо-запись Research (3DNews), выбирался лучший результат из четырех проходов.
Doom 3 (version 1.2.1287) – 03.08.2004 (DirectX 9)
Дополнительно в autoexec.cfg применялись следующие настройки:
Делалось по четыре прохода встроенной записи «demo1», после чего для тестирования в следующем режиме игра перезапускалась. Выбирался лучший результат.
F.E.A.R. (version 1.08) – 17.10.2005 (DirectX 9)
Делалось по три прохода встроенного бенчмарка, после чего для тестирования в следующем режиме игра перезапускалась. Результаты усреднялись.
Half-Life 2 Episode 2 – 10.10.2007 (DirectX 9)
Делалось по четыре прохода записи «gravity_gun», после чего для тестирования в следующем разрешении игра перезапускалась. Выбирался лучший результат.
Call of Duty 4 – Modern Warfare (version 1.7.568) – 05.11.2007 (DirectX 9)
Для отключения ограничения FPS задан параметр seta com_maxfps "1000".
Делалось по три прохода записи «nystrom___Bog_TDM_Pub.zip», выбирался лучший результат.
World in Conflict (version 1.0.0.9 b89) – 18.09.2007 (DirectX 10)
По три прохода встроенного бенчмарка, выбирался лучший результат среднего и минимального значения FPS.
Crysis (version 1.1.1.6156 GOG) – 13.11.2007 (DirectX 10)
Делалось по четыре прохода демо-записи «assault harbor». Выбирался лучший результат для среднего и минимального значения FPS.
S.T.A.L.K.E.R.: Clear Sky – 22.08.2008 (DirectX 10)
Clear Sky Benchmark
Один прогон бенчмарка.
Resident Evil 5 – 05.03.2009 (DirectX 10)
По три прохода бенчмарка, выбирался лучший результат среднего значения FPS.
Metro 2033 (version 1.0.0.1) – 16.03.2010 (DirectX 10)
По три прохода бенчмарка, выбирался лучший результат среднего значения FPS.
Mafia 2 – 24.08.2010 (DirectX 10)
По три прохода встроенного бенчмарка, выбирался лучший результат среднего значения FPS.
F1 2012 (version 1.0.0.0) – 18.09.2012 (DirectX 10)
По три прохода встроенного бенчмарка, выбирался лучший результат среднего и минимального значения FPS.
Главной проблемой, на преодоление которой ушла уйма времени, являлась несовместимость GeForce 6800 Ultra 512 MB с указанной тестовой системой. Заключалось это в том, что после установки драйвера все 3D-приложения безбожно тормозили, долго запускались, наблюдалось что-то вроде постоянного троттлинга, хотя частоты не сбрасывались.
Было установлено, что добиться корректной работы можно лишь в том случае, если установить в тестовую систему не более 4 Гбайт оперативной памяти и дополнительно отключить в BIOS опцию Memory Remap above 4G. По данной причине для тестирования GeForce 6800 Ultra 512 MB использовалась память Kingston 2 x 2 Гбайт DDR3-1333 @1637 МГц 9-9-9-24 1T.
Второй проблемой стало то, что при использовании GeForce 6800 Ultra 512 MB отказались запускаться и работать HOC Far Cry Benchmark 1.8 и Call of Duty 4 – Modern Warfare, в то время как F.E.A.R. запускалась, но выдавала некорректные результаты при тестировании. Поскольку на примере 7900 GTX было установлено, что в F.E.A.R. не наблюдается разницы получаемых значений FPS при тестировании в Windows 7 и Windows XP (в среднем для двух ОС получилось менее одного FPS разницы для средних значений трех прогонов бенчмарка), результаты для 6800 Ultra 512 MB в данной игре были получены в Windows XP SP 32 bit с драйвером 307.83. При сопоставлении результатов Far Cry в Windows 7 и Windows XP выяснилось, что в более ранней ОС производительность той же 7900 GTX значительно выше. В свою очередь, Call of Duty 4 – Modern Warfare запускаться с 6800 Ultra отказалась даже в Windows XP. По указанным причинам результаты GeForce 6800 Ultra 512 MB в Far Cry и Call of Duty 4 не представлены.
Третьей проблемой, вновь связанной с видеокартой GeForce 6800 Ultra 512 MB, стало то, что в 3DMark 06 наблюдалась аномально низкая производительность в тесте Canyon Flight, что приводило к занижению итогового результата: в Windows 7 SP1 64 bit количество FPS составило 4.032, тогда как в Windows XP SP2 32 bit – 9.834, притом что остальные тесты столь вопиющей разницы не демонстрировали. Поэтому для 6800 Ultra 512 MB в общий зачет 3DMark 06 пошел результат, показанный в Windows XP с драйвером 307.83.
Четвертой проблемой оказалась некорректная работа видеокарт 6800 Ultra, 7800 GTX и 7900 GTX с тенями в Half-Life 2 Episode 2 при использовании драйвера 309.08. По данной причине для тестирования в данной игре для указанных видеокарт использовался драйвер 296.10. Описание проблемы можно посмотреть здесь.
Наконец, пятой проблемой стало то, что бенчмарк Unigine Heaven 4.0 даже с базовым DX9 профилем отказался работать с видеокартами 6800 Ultra, 7800 GTX и 7900 GTX. Это мой просчет, ибо я не учел то, что даже базовый профиль задействует одновременно HDR и антиалиасинг, чего данные графические решения из-за своей архитектуры делать попросту не умеют.
Можно предположить, что описанные проблемы, присущие только 6800 Ultra 512 MB, как-то связаны с применением переходного моста HSI. Во всяком случае, известно, что HSI включал несколько ревизий, различающихся влиянием на стабильность работы системы.
Если считать от даты выхода первой ревизии данного бенчмарка (без SE), то ему уже более пятнадцати лет и реальной производительности видеокарт он, разумеется, давно не отражает. Например, может создаться ложное впечатление, что 6800 Ultra всего лишь в 1.8 раз медленнее, чем GTX 285, что в действительности далеко не так.
Тем не менее, можно отметить, что 8800 GTX и 9800 GTX идут практически вровень, а 8800 Ultra Extreme несколько опережает 9800 GTX+ 765M.
Первый DirectX 9-бенчмарк Futuremark демонстрирует большее различие в производительности рассматриваемых видеокарт, что особенно заметно в высоком разрешении при активации сглаживания и анизотропной фильтрации. Если при стандартных настройках GTX 285 набирает лишь в четыре раза больше баллов, чем 6800 Ultra, то в наиболее качественном режиме она быстрее уже почти в семь раз.
Любопытно, что в стандартном режиме 8800 GTX и 8800 Ultra Extreme несколько уступают 9800 GTX и 9800 GTX+, но заметно опережают своих оппонентов при увеличении разрешения в режиме с максимальным качеством изображения. Очевидной причиной подобного поведения является большая пропускная способность шины памяти видеокарт с графическим процессором G80.
В более новой версии бенчмарка решения на основе G92 и G92b смотрятся выгоднее своих оппонентов с графическим процессором G80 и даже в наиболее тяжелом режиме 8800 GTX не удается догнать 9800 GTX. В свою очередь, 8800 Ultra Extreme спасает быстрая память – пусть и незначительно, но она все же опережает 9800 GTX+ 765M, хотя при стандартных настройках разница между данными видеокартами составляла внушительные 15.7% в пользу последней.
В финальном бенчмарке серии 3DMark, не требующем поддержки DirectX 10, количество баллов 6800 Ultra и GTX 285 в стандартном режиме различается в 6.7 раз. Однако следует учитывать, что на итоговый результат в 3DMark 06 влияние оказывают и результаты процессорных тестов, поэтому наиболее корректным в этом случае будет сравнение результатов графических подтестов.
3DMark 06В графических подтестах 3DMark 06 видеокарта GTX 285 оказывается быстрее, чем 6800 Ultra уже в 7.15-8.37 раз, а 8800 Ultra Extreme немного отстает от 9800 GTX.
Диаграммы, отражающие количество набранных видеокартами баллов SM2.0 и HDR/SM3.0, очень хорошо позволяют увидеть, насколько большой скачок в производительности произошел с появлением 8800 GTX. Даже в разрешении 1280 x 1024, без активации сглаживания и фильтрации, новинка опередила предыдущий однопроцессорный флагман 7900 GTX более чем в два раза. Правда справедливости ради стоит отметить, что в свое время разница между 6800 Ultra и FX 5950 Ultra в 3DMark 05 была более впечатляющей.
Поскольку из-за архитектурных ограничений одновременное использование сглаживания и HDR на видеокартах GeForce 6 и GeForce 7 невозможно, наиболее тяжелым режимом, позволяющим сравнить видеокарты Nvidia поколений DirectX 9 и DirectX 10 во всех подтестах 3DMark 06, является режим с анизотропной фильтрацией.
3DMark 06При разрешении 1920 x 1200 и анизотропной фильтрации 16X разница между 6800 Ultra 512MB и GTX 285 достигает 11 раз, а между выходом данных видеокарт прошло, напомню, менее пяти лет. Интересно, какова будет разница в актуальных бенчмарках между GTX 1080 и GTX 680?
Что касается сравнения 8800 Ultra Extreme и 9800 GTX, то в общем зачете 3DMark 06 видеокарты идут вровень, тогда как 9800 GTX+ остается недосягаемой.
3DMark 06В DirectX 10-бенчмарке 8800 Ultra Extreme оказывается заметно быстрее, чем 9800 GTX+ 765M, а частот 8800 GTX уже достаточно, чтобы слегка опередить 9800 GTX. И даже GTX 285 по показателю GPU score быстрее, чем 8800 Ultra Extreme, лишь на 60-68%.
Результаты в данном тесте выглядят немного странными. Если превосходство 8800 Ultra Extreme над моделями серии 9800 не кажется чем-то удивительным, то скромное преимущество GTX 280 и GTX 285 над своими предшественниками вызывает некоторое сомнение в адекватности результатов.
Результаты во всех играх достаточно похожи и нет смысла комментировать каждую игру в отдельности. Графики говорят сами за себя.
Поскольку в случае Far Cry и Call of Duty 4 при использовании видеокарты 6800 Ultra 512MB не удалось получить каких-либо результатов, для DirectX 9 игр за 100% были приняты результаты модели 7800 GTX 256MB. Для расчета всех сводных графиков во внимание принимался только средний показатель FPS.
Наиболее лояльной игрой к видеокартам GeForce шестой и седьмой серий оказывается Doom 3, но даже в ней наблюдается более чем двукратное преимущество 8800 GTX над 7800 GTX. А вот в Call of Duty 4 – Modern Warfare 8800 GTX оказывается быстрее уже в пять раз.
Расчет производительности относительно 6800 Ultra проводился в три этапа. На первом этапе для пяти игр DirectX 9 рассчитывалась производительность всех видеокарт (кроме 6800 Ultra) относительно 7800 GTX. На втором этапе для трех игр (Doom 3, Half-Life 2 Episode 2 и F.E.A.R.) рассчитывалась производительность 6800 Ultra относительно 7800 GTX. После этого все значения, полученные при сравнении видеокарт с 7800 GTX, пересчитывались уже относительно 6800 Ultra. Полученные таким образом коэффициенты отражены ниже.
DirectX 9 GamesПри разрешении 1280 x 1024 видеокарта 7800 GTX оказывается быстрее, чем 6800 Ultra, примерно на 42%, тогда как в более высоком разрешении 1920 x 1200 ее преимущество увеличивается до 53%. Даже не принимая во внимание другие характеристики, достаточно сказать, что количество пиксельных процессоров у 7800 GTX больше, чем у 6800 Ultra, ровно в полтора раза, так что столь большая разница в производительности вполне объяснима.
Уровень производительности 8800 GTX в среднем оказывается выше, чем у анонсированной лишь на восемь месяцев раньше 7900 GTX, в 2.4-2.6 раз. Если сравнить с темпами роста скорости от флагмана к флагману в шестом и седьмом поколении, становится понятно, насколько быстрой в свое время получилась видеокарта 8800 GTX. К слову, столь высокой разницы в производительности нет даже между 6800 Ultra и 7900 GTX, а ведь на временной шкале данные видеокарты разделяют целых 23 месяца.
В мини-соревновании видеокарт 8800 и 9800 результаты следующие. Если 8800 GTX уступает 9800 GTX независимо от разрешения, то 8800 Ultra Extreme в обоих случаях уверенно опережает конкурента с графическим процессором G92. До результатов 9800 GTX+ 765M в разрешении 1280 x 1024 видеокарта 8800 Ultra Extreme немного не дотягивается, зато при разрешении 1920 x 1200 захватывает лидерство.
При анализе производительности в играх, работающих с API DirectX 10, за 100% принимались средние значения FPS, показанные видеокартой 8800 GTX.
Расклад, наблюдаемый в играх DirectX 9, в точности повторяется и в играх DirectX 10. 8800 Ultra Extreme опережает 9800 GTX+ 765M в разрешении 1920 x 1200, но уступает в разрешении 1280 x 1024. В свою очередь, видеокарта 9800 GTX без особых проблем опережает 8800 GTX.
Что характерно, даже GTX 285 оказывается быстрее, чем 8800 GTX в среднем лишь в 1.8 раза, а ведь между анонсом этих видеокарт прошло более двух лет. Учитывая то, что GTX 285 оставалась однопроцессорным флагманом Nvidia вплоть до анонса в марте 2010 года GeForce GTX 480, можно сказать, что модель 8800 GTX была актуальной длительное время – около трех с половиной лет. Конечно, она не была столь быстра как 9800 GX2 или разнообразные GTX 200 серии, но вполне позволяла играть в актуальные для тех лет игры, пусть и не всегда с максимальными настройками качества.
Сделать обзор экстремальной версии GeForce 8800 Ultra и не проверить ее разгонный потенциал было бы нелепо. Для поиска максимально стабильных частот работы видеокарты использовался Unigine Heaven Benchmark 4.0 со следующими установками:
При такой конфигурации бенчмарка пиковая загрузка видеопамяти по показаниям MSI Afterburner 4.3.0 достигала 700 Мбайт, а средняя частота кадров составляла 14-15 FPS. После нахождения предельно стабильной частоты ядра повышалась частота шейдерного блока. Далее с полностью разогнанным графическим процессором определялась максимальная частота работы памяти.
Наиболее чувствительна видеокарта оказалась к переразгону ядра – при частоте 720 МГц система практически сразу после начала тестирования перезагружалась, чему предшествовал черный экран и зависание. Понижение частоты GPU до 702 МГц позволило проработать тесту около минуты или чуть больше, затем все в точности повторилось. Визуально никаких артефактов при этом заметно не было и можно предположить, что виной всему те самые просадки напряжения питания графического процессора под нагрузкой.
Переразгон шейдерного блока и памяти проявлялся иначе. Появлялись артефакты, мигающий черный экран и фризы, но тест продолжался. Мониторинг показывал, что рабочие частоты не сбрасывались, но нагрузка на графический процессор падала до нуля.
Итоговыми максимальными частотами, при которых система смогла успешно пройти испытание, стали 684/1782/2322 МГц, что является заурядным разгоном для видеокарт серии 8800 Ultra.
Хорошее охлаждение – непременный атрибут правильного разгона. Без нагрузки с указанными выше частотами температура ядра составляла 58 градусов Цельсия при 100% оборотах турбины.
При прогоне бенчмарка температура достигала максимум 90 градусов Цельсия, причем все тесты проводились уже после замены высохшего оригинального термоинтерфейса на Arctic Cooling MX-2. Все штатные вентиляторы в корпусе работали при максимальных оборотах, дополнительно видеокарта ничем не обдувалась.
Ради интереса тест был повторен при номинальных для референсной 8800 Ultra частотах – 612/1500/2160 МГц. Результат – 87 градусов Цельсия при 100% оборотах турбины. Не зря 8800 GTX прозвали «ПЕЧкой».
Учитывая высокую, на мой взгляд, температуру в простое, можно предположить, что возможно за десять лет термоинтерфейс между ядром и теплораспределительной крышкой попросту пришел в негодность, да и изначально, вероятно, он был не очень хорош. Остается лишь порадоваться тому, что сочетание бессвинцового припоя и высоких температур не помешало видеокарте сохраниться до наших дней.
Разгон ядра, шейдерного блока и памяти на 5.56%, 10% и 4.88% соответственно относительно изначальных частот работы 8800 Ultra Extreme позволил повысить популяцию попугаев в тестах серии 3DMark, но не слишком сильно:
| Бенчмарк | 8800 Ultra Extreme 648/1620/2214 МГц |
8800 Ultra Extreme OC 684/1782/2322 МГц |
Разница |
| 3DMark 2001 SE | 68 167 | 69 196 | +1.51% |
| 3DMark 03 | 48 719 | 51 692 | +6.10% |
| 3DMark 05 | 26 812 | 28 416 | +5.98% |
| 3DMark 06 | 16 338 | 17 164 | +5.06% |
| 3DMark Vantage (Performance) | 9 461 | 10 159 | +7.38% |
| 3DMark Vantage (Extreme) | 3 645 | 3 936 | +7.98% |
Наибольший прирост поголовья пернатых от разгона можно наблюдать в тестах 3DMark Vantage, а вот в 3DMark 2001 SE эффект от разгона видеокарты оказался, напротив, минимален. Замечу при этом, что пробный запуск 3DMark 2001 SE в среде Windows XP 32 bit позволил получить более 82 000 баллов даже с неразогнанной 8800 Ultra Extreme.
Ниже представлены скриншоты результатов 3DMark после разгона видеокарты:
Пожалуй, перейдем к финальному разделу.
Почти всё, что можно было сказать – уже сказано, поэтому просто предлагаю взглянуть на дополнительную инфографику, отражающую изменения, произошедшие с 2004 по 2009 год с флагманскими однопроцессорными видеокартами Nvidia.
Итак, за пять лет, с 2004 по 2009 год, в играх с поддержкой API DirectX 9 однопроцессорные модели Nvidia стали быстрее в 8.5-10 раз в зависимости от разрешения. Разница между GeForce 6800 Ultra и GeForce GTX 285 примерно в три раза меньше, чем разница между GeForce256 SDR и GeForce 6800 Ultra, представляющими предыдущую пятилетку. Конечно, можно было бы взять для сравнения GeForce256 DDR, но кардинально это ничего не изменило бы – налицо уменьшение темпа роста производительности видеокарт от поколения к поколению.
Посмотрите, например, на пару GeForce GTX 285 и GeForce 8800 GTX – первая видеокарта быстрее лишь в 1.8 раза, хотя между анонсом данных решений прошло более двух лет. Скачок при переходе от G71 к G80 был выдающимся, но, увы, остался единичным явлением.
В заключение рассмотрим изменение некоторых количественных характеристик однопроцессорных флагманских видеокарт Nvidia за пять лет.
На этом всё, благодарю за внимание!
P.S. Как и многим, мне хотелось бы, чтобы в тестировании приняли участие флагманы ATI/AMD (X850 XT PE, X1800 XT, X1950 XTX, HD 2900 XT, HD 3870) или двухпроцессорные видеокарты, но ничем подобным я не располагаю. Если у кого-нибудь есть желание поделиться вышеперечисленными видеокартами или более ранними флагманами ATI для сводного тестирования – можете написать мне ЛС на форуме.
Выражаю благодарность: