Лаборатория продолжает цикл статей о ретроклокинге, на этот раз речь пойдет о топовых видеокартах Nvidia, но с небольшим лирическим отступлением.
Пока все заняты сравнением производительности GeForce GTX 1080 относительно прошлых поколений моделей Nvidia и их конкурентов, а также выяснением того, хватит ли 3 Гбайт видеопамяти GTX 1060 для Doom (2016), Deus Ex: Mankind Divided и других игровых новинок середины года, я подумал… А не сравнить ли все топовые модели GeForce? Заодно и посмотрим, как шагал прогресс от поколения к поколению.
Сопоставить все версии было бы интересно, но такой возможности у меня, к сожалению, нет, зато есть все представители топ-класса Nvidia с интерфейсом AGP. Из темного шкафа была извлечена коробка с видеокартами №28, внутри которой скрываются семь графических решений, которых в свое время ждали не меньше, чем сейчас новых флагманов.
Многим они тогда были не по карману, да и сегодня тоже, а с появлением очередного обзора топовой модели количество сообщений на форуме в обсуждении новинки росло в геометрической прогрессии. С тех пор ничего не изменилось, и это радует
Cвой рассказ я начну с версии GeForce256 c 32 Мбайт SD-RAM видеопамяти на борту. Возможно, кто-то не в курсе, что это за видеокарта, ведь по названию понять сложно, но так называлась самая первая модель GeForce, которую компания Nvidia представила 17 лет назад, 31 августа 1999 года. Тогда это был прорыв, революция, все новостные ленты пестрели названием «GeForce256» и сообщениями о том, что с выходом GeForce мир изменился.
Новый графический процессор значительно отличался от предыдущих поколений и заложил основу тех технологий, которые использовались и развивались в дальнейшем в будущих поколениях видеокарт семейства GeForce, вплоть до прихода кластерных программируемых технологий и унифицированных архитектур.
Производительность Nvidia GeForce256 c SD-RAM памятью в дальнейших тестах примем за 100%, этакая точка отсчета производительности. А пока пора взглянуть на саму видеокарту производства ELSA Technology – модель Synergy Force.
Перед нами видеокарта скромных по нынешним меркам размеров, оснащенная простой системой охлаждения и снабженная четверкой микросхем видеопамяти, расположенных вокруг GPU. Видеовыход DVI реализован с помощью дочерней платы, в те годы наличие DVI было роскошью.
Рассмотрим ее технические характеристики, в этом нам поможет утилита GPU-Z.
Видеокарта несет на борту 32 Мбайт SD-RAM видеопамяти, которая работает на частоте 166 МГц, частота GPU равна 120 МГц. Именно с этого момента начала употребляться аббревиатура GPU (Graphics Processing Unit), поскольку GeForce256 первой получила интегрированный геометрический процессор преобразования координат и установки освещения (T&L), 256-разрядный процессор рендеринга, четыре конвейера рендеринга (вывод четырех пикселей за такт) и множество других технологий.
Скорость закраски была на уровне 480 млн пикселей в секунду, заявлена поддержка интерфейса AGP 4X и API DirectX 7. 23 млн транзисторов обеспечивали уровень TDP, равный 20 Вт. В то время нам обещали «фотореалистичную» графику по цене в пределах $250 и массу игр с поддержкой T&L. Вот таким, если вкратце, была самая первая GeForce.
Несколько месяцев спустя, в декабре 1999 года, состоялся анонс GeForce256 со скоростной DDR-SDRAM памятью. Такие видеокарты появились в продаже в начале 2000-го года, частота видеопамяти выросла до результирующих 300 МГц, стоимость приблизилась к $300.
GeForce2 Ultra – представитель второго поколения GeForce. Данная модель была представлена публике 14 августа 2000-го года, ее можно назвать дальнейшим развитием и усовершенствованием архитектуры GeForce256. Частоты были значительно повышены, чему способствовал новый более тонкий 180 нм техпроцесс производства GPU.
Графический процессор GeForce2 Ultra работал на частоте 250 МГц; теперь уже целых 64 Мбайт скоростной DDR-SDRAM памяти трудились на внушительных 460 МГц. Число транзисторов увеличилось не сильно и составляло 25 млн. Поддержка AGP 4X и API DirectX 7 сохранилась, единственное значимое количественное отличие от GeForce256 состояло в увеличении в два раза TMU или текстурных блоков на конвейер.
Остальные дивиденды производительности пришлись на чисто мускульную силу – за счет роста мегагерц. При этом TDP видеокарты подрос до 41 Вт, а рекомендованная стоимость «Ультры» рванула вверх и приблизилась к $499.
На снимке представлена версия Nvidia эталонного дизайна. Можно заметить, что радиатор кулера подрос в размерах, а на микросхемах памяти появились теплорассеиватели. Размеры видеокарты слегка увеличились.
Теперь посмотрим на GeForce2 Ultra глазами GPU-Z.
На скриншоте утилиты сразу бросается в глаза скорость закраски (Fillrate), которая увеличилась более чем в два раза, составив соответственно 1 Гпикс/с и 1 Гтекс/с. Видимо, маркетологи с инженерами поработали на славу, поскольку частоты специально подбирались к этому круглому значению.
Представитель новой шейдерной архитектуры – GeForce3 Ti 500 (Titanium!) – был анонсирован 31 октября 2001 года. Эта видеокарта ознаменовала пришествие эры шейдеров и новой версии API DirectX 8. GeForce3 Ti 500 я бы назвал революционным решением, тогда как GeForce2 Ultra было эволюционным.
Что же нового принесла третья GeForce? Сразу отметим увеличение числа транзисторов GPU, теперь их насчитывалось 57 млн – более чем двукратное увеличение по сравнению с предыдущим поколением. Техпроцесс изготовления уменьшился с 180 нм до 150 нм. GPU содержит два текстурных блока на каждом из четырех пиксельных конвейеров так же, как и GeForce2 Ultra, здесь ничего не изменилось. Количество видеопамяти возросло и может варьироваться от 64 до 128 Мбайт. Частота работы GPU составила 240 МГц, то есть чуть ниже, чем у предшественницы, а вот память DDR-SDRAM функционировала на внушительных 500 МГц. Уровень TDP видеокарты составил 35 Вт.
Главным отличием стало наличие одного вершинного конвейера и поддержка движка nFinite FX Engine, который отвечал за поддержку пиксельных и вершинных шейдеров, а также новой технологии работы памяти, получившей название LMA (Lightspeed Memory Architecture). Рекомендованная цена версии Titanium составила $349. С выходом 3DMark 2001 геймеры делились на тех, кто видел вживую четвертый тест «Nature» (или «Природа»), и тех, у кого он не запускался из-за отсутствия поддержки шейдеров у видеокарты. И даже купившие урезанную «MX» версию следующего, четвертого поколения GeForce были лишены возможности увидеть журчащий ручей и бабочек, летающих среди гущи колышущейся ветром травы над водоемом. Так и хочется сказать: «Вся сила в шейдерах – Брат, у кого они есть, тот и прав!».
В моем распоряжении оказалась версия Leadtek GeForce3 Ti 500.
На фотографии видно, что этот участник обзора практически в «броне», радиатор закрывает собою всю рабочую поверхность. А вот вентилятор уменьшился в размерах по отношению к GeForce2 Ultra. В остальном габариты видеокарты не изменились.
Теперь приведем скриншот GPU-Z данной модели.
Помимо объема видеопамяти в 64 Мбайт, отметим оставшееся прежним значение скорости закраски (1 Гпикс/с и 1 Гтекс/с). Зато в графе DirectX теперь гордо красуется индекс 8.1 и поддержка шейдеров версии 1.1. Переходим к следующему экспонату.
GeForce4 Ti 4600 по меркам развития главного чипмейкера процессорных технологий представляла собой очередной «Тик», то есть кардинально ничего нового в GPU не появилось. Прежний техпроцесс производства, равный 150 нм, вторые версии уже известных технологий LMA и nFinite FX Engine, все те же 128 Мбайт видеопамяти.
Видеокарта GeForce4 Ti 4600 была представлена в начале февраля 2002 года, количество транзисторов GPU незначительно увеличилось – до 63 млн. Частота графического процессора подросла до 300 МГц, видеопамяти – до 650 МГц. Из изменений в GPU добавился второй вершинный конвейер, стали поддерживаться шейдеры версии 1.4. Благодаря технологии TwinView пара RAMDAC была размещена в ядре GPU, что дало возможность использовать два монитора на одной видеокарте. Появился новый метод сглаживания – 4xS AA, который по сути являлся улучшенной версией 4XAA и позволял получить более качественную картинку при минимальных затратах ресурсов GPU.
Уровень TDP возрос до 45 Вт, в остальном перед нами третья версия GeForce по прежней рекомендованной цене $349.
На снимке приведена GeForce4 Ti 4600 производства PNY, штатный кулер которой был заменен на изделие Zalman. В обоих случаях DDR-SDRAM память в BGA исполнении остается без каких-либо радиаторов. А вот размеры видеокарты изменились в большую сторону.
Скорость закраски подросла на 20%, и это со времен GeForce2 Ultra, но не одним «филрейтом» славна видеокарта, в следующем поколении эту характеристику обязательно подтянут.
Версия «Ультра» снова вернулась в пятом поколении GeForce. Хотя если точнее, то это поколение насчитывало много таких моделей – FX 5200 Ultra, 5600 Ultra, 5700 Ultra, 5800 Ultra, 5900 Ultra и 5950 Ultra. В моем случае было решено остановиться на последней, поскольку маркетологи явно перестарались, раздавая направо и налево имя «Ультры». Впрочем, пятая серия началась с провальной линейки 5800, но это отдельная история, а пока к названию GeForce прибавилась интересная приставка «FX», намекающая на что-то революционное, и новый слоган «The Way It's Meant to be Played».
Итак, последняя «Ультра» пятого поколения была анонсирована 23 октября 2003 года. Новый GPU «NV38» содержал 135 млн транзисторов и выпускался по 130 нм технологии. Видеокарта поддерживала стандарт AGP 3.0 и могла работать в режиме AGP 8X. 256 Мбайт скоростной DDR-SDRAM видеопамяти сообщались с GPU посредством 256-битной шины, что положительным образом сказывалось на пропускной способности памяти и производительности видеокарты в целом. Частота видеопамяти вплотную приблизилась к 1 ГГц и была равна 950 МГц. Сам же GPU работал на 475 МГц.
GeForce FX стала представителем гибко программируемой графической архитектуры, и ключевым моментом была поддержка API DirectX 9. Это смело можно назвать революционным решением. Помимо прочего, новый GPU был снабжен тремя независимыми вершинными процессорами и поддерживал работу с пиксельными шейдерами версии 2.0. Новые алгоритмы компрессии текстур обеспечивали до 50% прироста производительности в «тяжелых» режимах при использовании полноэкранного сглаживания и анизотропной фильтрации.
Рекомендованная стоимость новинки составила $499, а TDP подобрался к значению 86 Вт. Благодаря такому TDP видеокарта обзавелась внешним питанием в виде разъема Molex. Пора взглянуть на саму GeForce FX 5950 Ultra, в качестве образца будет выступать модель, выпущенная Leadtek.
Размеры PCB остались неизменными по сравнению с четвертым поколением GeForce. Зато система охлаждения приобрела солидные габариты и массу, поскольку медь все чаще используется в кулеростроении за счет лучшего теплообмена. Возросшие аппетиты потребовали дополнительного питания, разъем для которого установлен на самом краю печатной платы.
Посмотрим на характеристики видеокарты с помощью GPU-Z.
Скорость закраски c 1.2 Гпикс/с возросла до 1.9 Гпикс/с. Пропускная способность памяти увеличилась в три (!) раза и составила 30.4 Гбайт/с (вот бы современным графическим ускорителям такой прирост).
Последней «Ультрой» с интерфейсом AGP стала GeForce 6800 Ultra. Маркетологи ушли на покой, от приставки «FX» решено было избавиться. На мой взгляд, шестое поколение GeForce получилось самым удачным, быстрым и сбалансированным. Чего только стоила народная GeForce 6600 GT. Но вернемся к «Ультре».
Новый графический процессор увидел свет 14 апреля 2004 года, он состоял из 222 млн транзисторов и изготавливался по тому же, что и предшественник, 130 нм техпроцессу. GeForce 6800 Ultra получила новый тип памяти DDR3, которая сообщалась с GPU посредством 256-битной шины. Был существенно расширен пиксельный конвейер, он оказался в четыре раза быстрее такового у предшествующего, пятого поколения. Кроме того, GPU получил поддержку API DirectX 9.0C и пиксельных шейдеров версии 3.0, а также массу других улучшений.
Рост количества транзисторов при использовании старого техпроцесса отрицательно сказался на тепловых и энергопотребительских характеристиках. Видеокарта обзавелась вторым дополнительным разъемом Molex, а ее уровень TDP перевалил за отметку в 100 Вт. Система охлаждения не обошлась без набиравших популярность тепловых трубок, а сама видеокарта стала занимать два слота расширения.
Перед нами Gainward GeForce 6800 Ultra. Размеры PCB не изменились, зато видеокарта подросла в высоту, а зона VRM обзавелась собственным радиатором. Внешний вид модели все больше приближается к современным графическим ускорителям.
Скорость закраски просто взлетела, 6.4 Гпикс/с это серьезное значение, а вот пропускная способность памяти заметно не возросла, несмотря на новую видеопамять DDR3, составив 35.2 Гбайт/с. Частота GPU опустилась до 400 МГц, сказались старый техпроцесс производства и 200 млн транзисторов на борту. Частота памяти перевалила за отметку 1 ГГц и дошла до 1100 МГц.
Итак, все герои представлены, пора засветиться на коллективном фото,…
… что даст возможность соотнести размеры всех участников тестирования.
С целью обеспечить равные условия для всех участников обзора и более полно раскрыть их потенциал, в качестве системной платы использовалась универсальная плата с AGP разъемом ASRock AM2NF3-VSTA. Данная модель основана на чипсете Nvidia nForce3 250 и поддерживает процессоры с разъемом Socket AM2+, а также оперативную память стандарта DDR2.
Конфигурация тестового стенда:
Тестирование проводилось в Windows XP SP3 с помощью следующего ПО:
Для моделей c GeForce256 до GeForce3 Ti500 использовался драйвер ForceWare 44.03, для GeForce4 Ti 4600 до GeForce 6800 Ultra – ForceWare 81.85.
Чтобы производительность графических ускорителей ни во что не упиралась, стендовый процессор Phenom II X4 965 Black Edition был разогнан с 3.4 ГГц до 3.9 ГГц, оперативная память при этом работала на частоте 920 МГц с таймингами 4-4-4-12 2Т. Видеокарты работали на своих номинальных частотах.
По полученным результатам видно, что в приложениях 3DMark 2001 SE, Quake III Arena и Max Payne производительность растет практически одинаково – линейно с небольшой погрешностью, и лишь в 3DMark 2003 разбежка в итоговых баллах существенно различается. Оно и понятно, все благодаря тестам с разными версиями шейдеров, которые доступны не для всех видеокарт.
Попробуем получить некое среднее значение по всем тестам, за основу производительности возьмем GeForce256. На графике ниже продемонстрирован результат роста производительности всех видеокарт по отношению к GeForce256.
Кроме того, представим в виде диаграмм две основные величины всех вышеперечисленных GPU: рост количества транзисторов по годам и рост скорости закраски (Fillrat).
Благодаря проведенному тестированию мы получили наглядное представление о том, как росла производительность топовых видеокарт производства Nvidia, как изменялся техпроцесс от поколения к поколению, а также как увеличивалось количество транзисторов GPU.
Если вы были внимательны, то могли заметить, что в начале статьи речь шла о семи тестируемых моделях, но в итоге участие приняли лишь шесть экземпляров. Изначально все должно было выглядеть вот так:
На снимке видно, что между PNY GeForce4 Ti 4600 и Leadtek GeForce FX 5950 Ultra расположилась еще одна модель – представитель пятого поколения GeForce, знаменитая и одновременно ужасная GeForce FX 5800 Ultra. Эта видеокарта один из моих любимых экземпляров коллекции, и я считаю своим первостепенным долгом хотя бы кратко рассказать о ней.
GeForce FX 5800 Ultra могла бы принять в обязательном порядке участие в ретро-соревновании, но оказалась нерабочей, хотя в описании значилось, что модель полностью работоспособна. Всего у меня уже скопилось три таких нерабочих образца, у всех наблюдается отвал GPU, и все же есть надежда, что удача мне улыбнется.
Версия GeForce FX 5800 Ultra была с большим трудом выстрадана Nvidia в гонке вооружений с ATI. Оппонент успел первым представить рынку Radeon 9700 Pro – поистине мощное и революционное решение, а инженеры Nvidia все колдовали над ответом.
Основой видеокарты стал GPU с кодовым именем «NV30», он должен был превзойти по характеристикам соперника, но разработчикам, видимо, поставили слишком высокую планку, которую не удалось преодолеть к намеченному сроку. «NV30» был первым GPU компании Nvidia, который соответствовал спецификации DirectX 9.0 и вторым после Radeon 9700 Pro. Он производился по более тонкому 130 нм техпроцессу по сравнению с конкурирующим решением, который довольствовался старым 150 нм техпроцессом. Число транзисторов насчитывало 125 млн штук; у Radeon 9700 Pro было на 20 млн меньше. Частота ядра GPU была поднята до 500 МГц (против 325 МГц).
На GeForce FX 5800 Ultra впервые применили новый тип видеопамяти DDR2-SDRAM с частотой 1 ГГц, против DDR первого поколения у оппонента со скромной частотой 620 МГц, и двенадцатислойную PCB. Но доступ к памяти у «NV30» был 128-битным (против 256-тибитного). По количеству технологических решений GeForce FX 5800 Ultra должна была стать бомбой, но, несмотря на все изыски, этого не случилось. Видеокарта была горяча и шумна. Количество годных GPU было очень низким, что создавало острый дефицит даже для производителей графических ускорителей, хотя цена за новинку, способную выдавать «кинематографическую графику», была установлена в $499, а в рознице стоимость порою доходила до $600-650.
По отдельным сведениям, количество произведенных кристаллов «NV30» составило около 100 тысяч штук, половина из них ушла на производство линейки Quadro FX. Ахиллесовой пятой GeForce FX 5800 Ultra стала слабая вычислительная мощность арифметических процессоров, отвечающих за исполнение пиксельных шейдеров, что особенно чувствовалось в играх и приложениях DirectX 9, а также низкая пропускная способность подсистемы памяти и излишне гибкая программируемая архитектура GPU, которая часто давала просадку производительности по отношению к конкуренту.
В конечном итоге «NV30» был предан забвению, а всяческие упоминания о нем были «запрещены» на официальных мероприятиях, и так «NV30» стал одним из основных провалов Nvidia с момента появления первого GeForce. Через пять месяцев на смену ему вышел «NV35», который исправлял большинство ошибок, допущенных в случае «NV30»…
P.S. Я все же надеюсь однажды запустить все топовые видеокарты Nvidia, включая версии PCI-Express на одной платформе, которая практически готова. Единственное – не хватает моделей графических ускорителей, буду рад любой помощи в их поиске, приобретении или принятии в дар.