Ретроклокинг: битва топовых видеокарт Nvidia

8 сентября 2016, четверг 09:00

Оглавление

Вступление

Лаборатория продолжает цикл статей о ретроклокинге, на этот раз речь пойдет о топовых видеокартах Nvidia, но с небольшим лирическим отступлением.

Пока все заняты сравнением производительности GeForce GTX 1080 относительно прошлых поколений моделей Nvidia и их конкурентов, а также выяснением того, хватит ли 3 Гбайт видеопамяти GTX 1060 для Doom (2016), Deus Ex: Mankind Divided и других игровых новинок середины года, я подумал… А не сравнить ли все топовые модели GeForce? Заодно и посмотрим, как шагал прогресс от поколения к поколению.

Сопоставить все версии было бы интересно, но такой возможности у меня, к сожалению, нет, зато есть все представители топ-класса Nvidia с интерфейсом AGP. Из темного шкафа была извлечена коробка с видеокартами №28, внутри которой скрываются семь графических решений, которых в свое время ждали не меньше, чем сейчас новых флагманов.

Многим они тогда были не по карману, да и сегодня тоже, а с появлением очередного обзора топовой модели количество сообщений на форуме в обсуждении новинки росло в геометрической прогрессии. С тех пор ничего не изменилось, и это радует .





Обзор участников


GeForce256

Cвой рассказ я начну с версии GeForce256 c 32 Мбайт SD-RAM видеопамяти на борту. Возможно, кто-то не в курсе, что это за видеокарта, ведь по названию понять сложно, но так называлась самая первая модель GeForce, которую компания Nvidia представила 17 лет назад, 31 августа 1999 года. Тогда это был прорыв, революция, все новостные ленты пестрели названием «GeForce256» и сообщениями о том, что с выходом GeForce мир изменился.

Новый графический процессор значительно отличался от предыдущих поколений и заложил основу тех технологий, которые использовались и развивались в дальнейшем в будущих поколениях видеокарт семейства GeForce, вплоть до прихода кластерных программируемых технологий и унифицированных архитектур.

Производительность Nvidia GeForce256 c SD-RAM памятью в дальнейших тестах примем за 100%, этакая точка отсчета производительности. А пока пора взглянуть на саму видеокарту производства ELSA Technology – модель Synergy Force.

450x327  48 KB. Big one: 1200x865  342 KB

Перед нами видеокарта скромных по нынешним меркам размеров, оснащенная простой системой охлаждения и снабженная четверкой микросхем видеопамяти, расположенных вокруг GPU. Видеовыход DVI реализован с помощью дочерней платы, в те годы наличие DVI было роскошью.

Рассмотрим ее технические характеристики, в этом нам поможет утилита GPU-Z.

393x482  11 KB

Видеокарта несет на борту 32 Мбайт SD-RAM видеопамяти, которая работает на частоте 166 МГц, частота GPU равна 120 МГц. Именно с этого момента начала употребляться аббревиатура GPU (Graphics Processing Unit), поскольку GeForce256 первой получила интегрированный геометрический процессор преобразования координат и установки освещения (T&L), 256-разрядный процессор рендеринга, четыре конвейера рендеринга (вывод четырех пикселей за такт) и множество других технологий.

Скорость закраски была на уровне 480 млн пикселей в секунду, заявлена поддержка интерфейса AGP 4X и API DirectX 7. 23 млн транзисторов обеспечивали уровень TDP, равный 20 Вт. В то время нам обещали «фотореалистичную» графику по цене в пределах $250 и массу игр с поддержкой T&L. Вот таким, если вкратце, была самая первая GeForce.

Несколько месяцев спустя, в декабре 1999 года, состоялся анонс GeForce256 со скоростной DDR-SDRAM памятью. Такие видеокарты появились в продаже в начале 2000-го года, частота видеопамяти выросла до результирующих 300 МГц, стоимость приблизилась к $300.





GeForce2 Ultra

GeForce2 Ultra – представитель второго поколения GeForce. Данная модель была представлена публике 14 августа 2000-го года, ее можно назвать дальнейшим развитием и усовершенствованием архитектуры GeForce256. Частоты были значительно повышены, чему способствовал новый более тонкий 180 нм техпроцесс производства GPU.

Графический процессор GeForce2 Ultra работал на частоте 250 МГц; теперь уже целых 64 Мбайт скоростной DDR-SDRAM памяти трудились на внушительных 460 МГц. Число транзисторов увеличилось не сильно и составляло 25 млн. Поддержка AGP 4X и API DirectX 7 сохранилась, единственное значимое количественное отличие от GeForce256 состояло в увеличении в два раза TMU или текстурных блоков на конвейер.

Остальные дивиденды производительности пришлись на чисто мускульную силу – за счет роста мегагерц. При этом TDP видеокарты подрос до 41 Вт, а рекомендованная стоимость «Ультры» рванула вверх и приблизилась к $499.

450x276  48 KB. Big one: 1200x737  397 KB

На снимке представлена версия Nvidia эталонного дизайна. Можно заметить, что радиатор кулера подрос в размерах, а на микросхемах памяти появились теплорассеиватели. Размеры видеокарты слегка увеличились.

Теперь посмотрим на GeForce2 Ultra глазами GPU-Z.

393x482  11 KB

На скриншоте утилиты сразу бросается в глаза скорость закраски (Fillrate), которая увеличилась более чем в два раза, составив соответственно 1 Гпикс/с и 1 Гтекс/с. Видимо, маркетологи с инженерами поработали на славу, поскольку частоты специально подбирались к этому круглому значению.

GeForce3 Ti 500

Представитель новой шейдерной архитектуры – GeForce3 Ti 500 (Titanium!) – был анонсирован 31 октября 2001 года. Эта видеокарта ознаменовала пришествие эры шейдеров и новой версии API DirectX 8. GeForce3 Ti 500 я бы назвал революционным решением, тогда как GeForce2 Ultra было эволюционным.





Что же нового принесла третья GeForce? Сразу отметим увеличение числа транзисторов GPU, теперь их насчитывалось 57 млн – более чем двукратное увеличение по сравнению с предыдущим поколением. Техпроцесс изготовления уменьшился с 180 нм до 150 нм. GPU содержит два текстурных блока на каждом из четырех пиксельных конвейеров так же, как и GeForce2 Ultra, здесь ничего не изменилось. Количество видеопамяти возросло и может варьироваться от 64 до 128 Мбайт. Частота работы GPU составила 240 МГц, то есть чуть ниже, чем у предшественницы, а вот память DDR-SDRAM функционировала на внушительных 500 МГц. Уровень TDP видеокарты составил 35 Вт.

Главным отличием стало наличие одного вершинного конвейера и поддержка движка nFinite FX Engine, который отвечал за поддержку пиксельных и вершинных шейдеров, а также новой технологии работы памяти, получившей название LMA (Lightspeed Memory Architecture). Рекомендованная цена версии Titanium составила $349. С выходом 3DMark 2001 геймеры делились на тех, кто видел вживую четвертый тест «Nature» (или «Природа»), и тех, у кого он не запускался из-за отсутствия поддержки шейдеров у видеокарты. И даже купившие урезанную «MX» версию следующего, четвертого поколения GeForce были лишены возможности увидеть журчащий ручей и бабочек, летающих среди гущи колышущейся ветром травы над водоемом. Так и хочется сказать: «Вся сила в шейдерах – Брат, у кого они есть, тот и прав!».

В моем распоряжении оказалась версия Leadtek GeForce3 Ti 500.

450x286  47 KB. Big one: 1200x762  399 KB

На фотографии видно, что этот участник обзора практически в «броне», радиатор закрывает собою всю рабочую поверхность. А вот вентилятор уменьшился в размерах по отношению к GeForce2 Ultra. В остальном габариты видеокарты не изменились.

Теперь приведем скриншот GPU-Z данной модели.

393x482  11 KB

Помимо объема видеопамяти в 64 Мбайт, отметим оставшееся прежним значение скорости закраски (1 Гпикс/с и 1 Гтекс/с). Зато в графе DirectX теперь гордо красуется индекс 8.1 и поддержка шейдеров версии 1.1. Переходим к следующему экспонату.

Страницы материала
Страница 1 из 3
Оценитe материал

Комментарии 160 Правила

Возможно вас заинтересует

Популярные новости

Сейчас обсуждают