Gigabyte 3D1-XL в подробном обзоре: тандем на базе двух GeForce 6600

5 апреля 2005, вторник 12:18
Примечательно, что информация о видеокарте Gigabyte GV-3D1-XL на базе двух видеочипов GeForce 6600 появилась как раз в те дни, когда по Сети начали курсировать слухи о том, что Nvidia собирается легализовать поддержку SLI для видеокарт серии GeForce 6600. Ранее такими полномочиями были наделены только видеокарты серии GeForce 6600 GT, а все промежуточные варианты вынуждены были прибегать к помощи аппаратных модификаций, чтобы сделать поддержку SLI для GeForce 6600 реальностью.

Судя по всему, Gigabyte произвела такую модификацию в промышленных масштабах. Пока о сроках начала поставок и цене GV-3D1-XL ничего не сообщается, однако коллеги с тайваньского сайта OC.com.tw уже успели протестировать образец этой видеокарты. Нам удалось обнаружить изложение результатов этого обзора на китайском сайте PC Pop.

Как и обещалось, дизайн платы во многом напоминает предшествующую модель - GV-3D1. Собственно говоря, и частоты новой версии не так сильно отличаются от "тандема" на базе двух GeForce 6600 GT. Если 3D1 работала на частотах 500/1200 МГц, то 3D1-XL работает на частотах 450/1000 МГц. Можно сказать, что Gigabyte объединила на одной плате пару разогнанных видеокарт типа так называемых GeForce 6600 Ultra. Стоит ли удивляться, что комбинацию из двух отдельных GeForce 6600 в режиме SLI новинка обходит с отрывом, а от GeForce 6600 GT в аналогичной связке отстаёт совсем незначительно.

Видеокарта по-прежнему предназначена только для работы совместно с материнской платой GA-K8NUltra-SLI, каждый из видеочипов изначально использует интерфейс PCI Express x8. По имеющейся информации, эта видеокарта не сможет работать в материнских платах на базе чипсета nForce 4 SLI Intel Edition.

Заметим, что несмотря на появляющиеся упоминания о сдвоенных видеокартах от Asus, окончательное решение о целесообразности их серийного производства ещё не принято. Даже Gigabyte будет выпускать такие видеокарты в ограниченных количествах. Для производителей и самой Nvidia они могут стать неплохим полигоном для отработки будущих серийных решений.

Оценитe материал

Возможно вас заинтересует

Сейчас обсуждают