Одна – хорошо, а две? Тестирование GeForce 6600 в режиме SLI
Однако ничего удивительного в текущей ситуации нет. Производителю выгодно анонсировать новые перспективные технологии именно на топовых решениях, тем самым подогревая к ним интерес. К тому же mainstream-видеокарты от nVidia продавались хорошо и без дополнительного "разогрева" – ведь у них фактически не было реального конкурента из стана ATI. Сейчас, когда канадская фирма начинает отвоевывать проигранные без боя позиции в среднем сегменте рынка, был дан "зеленый свет" для запуска технологии SLI в массы. Произошло это во время анонса видеокарт GeForce 7800 GTX, потому поначалу на эту возможность мало кто обратил внимание. Сейчас мы попытаемся исправить ситуацию и показать, что же собой представляет связка двух GF6600 в SLI.
Сначала хотелось бы отметить, что nVidia удалось то, чего не смогла в свое время 3Dfx, – сделать технологию SLI доступной для массового потребителя. Уже известно, что осенью произойдет значительное снижение цен на чипсеты серии nForce 4 SLI, а цены на видеокарты GF6600 и GF6200 и сейчас довольно привлекательные. Например, участвующие в обзоре Gigabyte GeForce 6600 сегодня можно купить по цене менее 100 долларов. Но к самим видеокартам мы вернемся чуть позже – сначала разберемся, каким образом технология SLI стала доступна для карт, лишенных разъема MIO.
В первой версии SLI мост являлся необходимым атрибутом, без которого драйвера не позволяли включить режим SLI, и для быстрых решений, которые чаще всего и объединяли, это было оправдано. Объемы данных, которыми они обменивались, были достаточно велики, и загружать ими шину PCI-E инженерам показалось неразумным. То, что мы видим сейчас, можно назвать второй версией технологии SLI: с выходом ForceWare 77.72 пользоваться мостом для объединения карт стало не обязательно, благодаря чему появилась возможность объединять в SLI даже бюджетные видеокарты. Разумеется, обмен данными по шине PCI-E – это "бутылочное горлышко", которое неминуемо ударит по производительности, и чем мощнее используемая карта, тем заметнее будет падение. Однако теоретически для бюджетных карт снижение производительности не будет столь существенным, ведь "общаться" между собой им предстоит гораздо реже. Проверить на практике это предположение нам сегодня и предстоит, однако к тестам мы перейдем чуть позже, сейчас же рассмотрим наших подопытных.
Для проверки были выбраны две видеокарты GeForce 6600 производства Gigabyte серии Turbo Force, оборудованные пассивными системами охлаждения.


реклама
Карты по умолчанию работают на частоте 450/500 МГц, что несколько выше рекомендованных nVidia 300/550 МГц для 128-Мб версий. Сниженная частота памяти также обусловлена применением чипов Hynix со временем выборки 4 нс.

Подробнее об этой и других GeForce 6600 можно прочесть в статье "Семь видеокарт NVIDIA GeForce 6600 PCI-E". В качестве конкурента для связки из двух 6600 была выбрана наиболее близкая по цене ATI Radeon X800 128 Mb производства Sapphire с частотами 390/700 МГц. Безусловно, интересно было бы взять для сравнения еще и GeForce 6800, но в последнее время они пропали из продажи и в магазинах практически не встречаются.
Для тестирования был собран следующий стенд:
- Материнская плата – ASUS A8N-SLI, BIOS 1010.002.
- Процессор – AMD Athlon 64 3000+ (Venice) 1.8 GHz, 1.4 V, S939.
- Память – 2 x 512 MB Hynix PC3200.
- Блок питания – Macropower MP-360AR.
- Кулер – Zalman CNPS7000A-Cu.
Процессор был разогнан до 2600 МГц, напряжение питания было увеличено до 1.68 В, память работала на частоте 236 МГц с таймингами 2.5-3-3-6-2Т. Для видеокарт nVidia использовались ForceWare 77.72, а X800 тестировался с использованием Catalyst 5.7.



реклама








Больше всего удивили результаты в Doom3 и 3DMark2001SE, где установка второй видеокарты заметно снижала количество кадров в секунду. Скорее всего, причина этого в "сырости" драйверов, ибо 77.72 – первая версия, позволившая использовать режим SLI без специального моста.
Словом, на сегодняшний день использование двух GeForce 6600 в SLI не представляется разумным, ибо прирост не велик, да и заметен он не во всех приложениях. Безусловно, со временем ситуация улучшится: программисты оптимизируют игры, исправят ошибки в драйверах, в результате чего пользователь будет видеть прирост везде и всегда. Тогда мы протестируем карты и скажем: "SLI – наш выбор". Но это будет потом, а на сегодняшний день разумнее взять одну мощную карту, нежели две слабых.
P.S. Помимо тестирования карт от Gigabyte была проведена экспресс-проверка карт от Sparkle, разогнавшихся до частот 500/700 МГц. В таком режиме они оказались ощутимо быстрее, чем Gigabyte, разогнанные до 535/645 МГц. К сожалению, полномасштабного тестирования провести не удалось, но более 11000 очков в 3DMark03 и 5300 в 3DMark05 говорят сами за себя.
Благодарим компанию SonetNN за предоставленные на тестирование видеокарты.
Лента материалов раздела
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила