Ретро-обзор 2.0: видеокарта nVidia GeForce3 "La Révolution trahie"

Обзор видеокарты nVidia Quadro DCC 64Mb DDR, более известной в массах как GeForce3. Преданная "шейдерная" революция мистера Хуанга, а также истории байки и воспоминания о давно ушедших днях.
10 апреля 2025, четверг 12:27
PanzerK для раздела Блоги

В начале 21 века человечество было охвачено ликованием - свершилась давняя мечта, мы гомо-сапиенс отмечали великий прорыв - выход первого графического чипа с программируемым конвейером рендеринга. Попытки были и раньше, однако в официальную спецификацию нового API DirectX 8.0 от компании Microsoft они не вписывались. Первым чипом для данного API с поддержкой Pixel Shader 1.0 должен был стать чип компании 3Dfx под кодовым именем Rampage, однако ему не суждено увидеть свет ввиду банкротства компании 3Dfx в конце 2000 года. Так что первым чипом с Pixel Shader 1.1, под обновлённый API DirectX 8.0a, стал вышедший 27 февраля 2001 года чип компании nVidia под именем GeForce3

В те времена мистер Хуанг ещё был молод и полон энергии, так что занимался делом, а для презентации своего нового чипа подрядил парочку ноунеймов - некого Стива Джобса из никому не нужной тогда компании Apple и какого-то заурядного разработчика игровых движков Джона Кармака из id Software.

<span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span><span class="fr-mk" style="display: none;">&nbsp;</span>

Презентация прошла с оглушительным успехом, ну а сами видеокарты на новом чипе вскоре поступили в продажу по цене 499$ за штуку. И такое благорастворение продолжалось целых полгода, до выхода прямого конкурента от компании ATi в лице Radeon 8500, который помимо демократичной цены в 299$, ещё и был местами шустрее и имел ряд дополнительных возможностей, которые были реализованы в API DirectX 8.1. Так что мистеру Хуангу спешно пришлось выпускать 2х приемников GeForce3 с индексами Ti 200 и Ti 500, за 199 и 349$ соответственно. На что компания ATi ответила выходом Radeon 8500LE за 199$. Так что делать было нечего и ещё через полгодика компания nVidia выпустила улучшенный и слегка доработанный чип под именем GeForce4 Ti, с ценниками от 199 до 399$. 

В общем битва разгорелась нешуточная, но тут вмешался очередной дряхлеющий ноунейм из компании Microsoft - Бил Гейтс. И задумал наш Билли выйти на рынок игровых приставок, собственно планировал он это давно, и по старой схеме - втёрся в доверие к компании Sega имевшей большой опыт в этих вопросах, да так им "напомогал" с их новой приставкой Sega Dreamcast, что в итоге купил за бесценок приставочное подразделение оной фирмы в 2001 году, и уже через полгодика внезапно вышел на рынок со своей игровой приставкой Microsoft Xbox. 

И всё бы ничего, но в основе данной приставки лежал графический чип nVidia, из того же самого семейства, что GeForce3 и GeForce4 Ti. И чипов этих было предоплачено компанией Microsoft, аж целых 24 миллиона штук, что вызвало серьёзный их дефицит на ПК рынке, и как следствие невозможность выпуска их упрощённых версий или снижения цен на существующие версии - их тупо было негде производить.

Так что у компании nVidia не было доступных чипов для простых пролетариев, на вроде вашего покорного слуги, с ценниками в районе 100$, хотя в этом сегменте был стабильный спрос. 

И данный спрос мистер Хуанг удовлетворил путём выхода в 2002 году чипа GeForce4 MX для видеокарт ценою в 100$, который не имел никакого отношений ни к GeForce4 Ti, ни к GeForce3, а являлся разогнанным и переименованным чипом GeForce 2MX... 2000 года рождения. Ну и ко всему прочему, мистер Хуанг напряг все свои связи и занёс куда можно чемоданы, дабы этот чип поддерживался всеми выходящими играми вплоть до конца 2004 года. 

Да, именно мистеру Хуангу мы обязаны эпохе известной как "Эпоха "всратых" игр первой половины 00х".  

Ну а к тому моменту, когда без GeForce3 игры начали отказываться запускаться, оный уже порядком устарел, и мог обеспечить приемлемую производительность лишь на средне-низкий настройках графики. И чип, который должен был стать предвестником революции, остался во многом позабытым и недооценённым.   

Картина маслом "Мистер Хуанг отправляет свои флагманы на игровое дно"

Собственно, сегодня мы с вами и поглядим на что был способен данный чип на примере очень интересной видеокарты nVidia Quadro DCC, оснащённой 64Mb памяти DDR на шине 128bit.

Данную карту мне около года назад подарил один из читателей, за что ему огромнейшее спасибо, и я уже как-то делал на неё беглый обзор. И я только сейчас заметил, что я там накосячил с GeForce4 MX, ибо там указана версия 64Mb 128bit, а результаты тестов в графиках от версии 128Mb 64bit - видать старею. 

Сегодня же я предлагаю протестировать её более вдумчиво, а также посмотреть, что она могла на фоне вышедших в 2002-2003 годах бюджетных видеокарт ценою в районе 100$.

Собственно, так наши соперники выглядят в GPU-Z:

И GPU-Z нам опять показывает какую-то фигню... ибо у GeForce3 память типа DDR, а количество текстурных блоков не 4, а 8 штук. Ну и DirectX 8.1 наш GeForce3 не поддерживает, он умеет только в DirectX 8.0a. Господи... что за болваны делают эту утилиту... увы скриншоты делались давно и половины карт у меня уже нет в наличии. Что касается частот чипа/памяти, то Quadro DCC идентична оригинальному GeForce3, а её "профессиональность" ограничивается драйверами с поддержкой 3D Studio MAX 6, впрочем, в чём эта поддержка заключается - я не интересовался. Если кто в курсе - просветите в комментариях. 

Тестировать будем на Intel Pentium 4HT 2.4Ghz, 1Gb DDR400, и под управлением Windows XP SP3.

3DMark 2000 Pro

Вполне неплохо, учитывая достаточно скромные частоты чипа GeForce3. 

3DMark 2001 SE

В тестах DirectX 7.0, наш GeForce3 выступает прекрасно, опережая соперников на 20-25%.

При использовании DirectX 8, преимущество несколько падает, однако сохраняется.

3DMark 2003

Результаты GeForce4 MX в расчёт принимать не надо, ибо он прошёл только 1 тест, а вот оставшаяся пара проходит равное количество тестов, и преимущество GeForce3 составляет порядка 15%.

Quake III Arena

Под OpenGL продукция nVidia всегда традиционно сильна, и отрыв GeForce3 у нас порядка 25%.

Unreal Tournament 2004

А вот под явно устаревший к 2004 году DirectX 7.0 карты выступают практически на равных, но увы разработчикам игр всё ещё приходилось его использовать, в виду наличия у пользователей огромной массы видеокарт, которые умели работать только с ним.  

Halo: Combat Evolved

Несмотря на использование DirectX 7.0, видеокарта GeForce3 вырывается далеко вперёд, что, впрочем, неудивительно, ибо данная игра оптимизировалась для работы именно на данном чипе, а точнее на той версии что стояла в игровой приставке Xbox.  

При задействовании DirectX 8.0, производительность заметно падает, впрочем, для одиночной игры её более чем достаточно. Ну а преимущество в 10% на стороне GeForce3 не особо заметно, но всё-таки приятно.

Doom 3

Ну и в Doom 3, презентация которого собственно и состоялась в ходе презентации GeForce3, оный увы особо ничего выдающегося показать не может, впрочем, играть на нём вполне комфортно, и качество картинки куда лучше, чем на GeForce4 MX. Однако, как вы уже знаете из моей гениальной статьи о Doom 3, данная игра имеет несколько рендеров, и по умолчанию у нас тут задействуется для каждой из видеокарт свой. Так что предлагаю провести тестирование в стандартном ARB рендере, с которым умеют работать все эти видеокарты, а также добавить ниже вендорозависимые рендеры R200, NV10 и NV20.

Вот тут уже веселее, при использовании ARB рендера, т.е. стандартного OpenGL без вендорных расширений, наш GeForce3 уверенно обходит своих конкурентов на 25%. Правда картинка при этом становиться такой же скверной, как и на GeForce4 MX. Так что лучше оставить дефолтный NV20 и играть со всеми доступными для данной карты "красивостями". 

F.E.A.R.

Ну под занавес, великий и ужасный F.E.A.R., который наконец-то позволяет раскрыться GeForce3 во всей своей красе, и обеспечить аж целых 40% превосходства над заведомо более слабым Radeon 9200.

Итоги

Вот такое у нас сегодня получилось занимательное тестирование, и в принципе добавить мне тут особо и нечего. Отличная видеокарта - загублена жадностью корпораций. Начальнички получили - прибыль, а пользователи - барахло в виде GeForce4 MX и паршивых игр, которые разработчикам пришлось под него оптимизировать. Ну а владельцам GeForce3, купившим их в 2001-2003 годах, можно только позавидовать, ну или посочувствовать - если они купили его на старте за 499$. 

А на этом у меня на сегодня всё - всем пока.