NVIDIA GeForce 6600 GT глазами оверклокера: энергопотребление, температурный режим, модификация и экстремальный разгон
NVIDIA GeForce 6600/6600 GT – новая серия графических процессоров среднего класса, предназначенных для замены морально устаревших чипов предыдущего поколения, серии NVIDIA GeForce FX 5700. В этом обзоре я попробую взглянуть на новинку, NVIDIA GeForce 6600 GT, глазами оверклокера: оценить, насколько «прожорливой» и «горячей» оказалась новинка, измерить ее энергопотребление, выяснить разгонный потенциал того экземпляра, что попал в тестовую лабораторию, и попытаться увеличить его с помощью вольтмода – увеличения напряжения питания.
NVIDIA GeForce 6600 GT
NVIDIA GeForce 6600 GT наследует архитектуру графических процессоров серии NVIDIA GeForce 6800, но, в отличие от них, имеет вдвое меньше вершинных и пиксельных конвейеров и производится по более тонкому техпроцессу - 0.11 мкм. Ширина шины памяти на NVIDIA GeForce 6600/6600 GT также урезана – она составляет не 256 бит, как у серии GeForce 6800, а всего 128 бит. На старшую модель, GeForce 6600 GT, устанавливаются высокоскоростные чипы GDDR3, а на младшую, GeForce 6600 – обычные чипы DDR SDRAM в TSOP-корпусах. В нашу лабораторию попала референс-плата на чипе NVIDIA GeForce 6600 GT:

По обзорам GeForce 6600 GT уже известно, что новые платы по скорости и функциональности оставляют далеко позади видеокарты на чипах предыдущего поколения – серии NVIDIA GeForce FX 5700. Примечательно, что вместе с тем новинки выглядят проще по дизайну и компактнее, чем старые платы – благодаря использованию микросхем памяти GDDR3 удалось избавиться от цепей терминации, они размещены внутри чипов, а применение современных компонентов в стабилизаторах питания позволило сделать соответствующие схемы намного компактнее.

реклама
Большая часть поверхности обратной стороны платы покрыта экраном. На обратной стороне можно заметить детали стабилизаторов питания графического процессора и видеопамяти и россыпи мелких SMD-компонентов, большую часть которых составляют керамические конденсаторы. Самая большая микросхема, расположенная на обратной стороне платы – чип Philips SAA7115HL , осуществляющий оцифровку видеосигнала с видеовхода платы.
На верхнем краю платы расположен разъем для подключения модуля, позволяющего строить SLI-конфигурации из двух видеокарт. Пока, при отсутствии материнских плат с поддержкой двух разъемов PCI Express x16, это не столь актуально, но наличие потенциальной возможности построения SLI-конфигурации у видеокарты среднего класса можно оценить только положительно.
Но вернемся к описанию платы. Основа видеокарты – графический процессор NVIDIA GeForce 6600 GT, работающий на частоте 500 МГц:

По фотографии прекрасно видно, что на плате или на подложке чипа отсутствуют какие-либо мосты AGP-PCIE – поддержка PCI Express является «врожденным» качеством NVIDIA GeForce 6600 GT.
На референс-плате установлено 128 МБ видеопамяти в чипах GDDR3 от Samsung с временем цикла 2.0 нс:

Номинальная частота видеопамяти на плате составляет 1000 (500 DDR) МГц. Микросхемы памяти не имеют собственной системы охлаждения – они обдуваются воздухом, выбрасываемым кулером на графическом процессоре:
реклама

Зона контакта с кристаллом графического процессора выглядит так же, как и вся остальная поверхность – никаких медных вставок или хотя бы полировки поверхности:

Кулер всем своим видом показывает, что графический процессор имеет сравнительно невысокое тепловыделение. Во всяком случае, система охлаждения не выглядит столь же мощной, как на референс-платах NVIDIA GeForce 5900 Ultra/5950 Ultra. Что примечательно, при этом NVIDIA GeForce 6600 GT легко обходит этих монстров по производительности. Впрочем, о производительности NVIDIA GeForce 6600 GT мы уже узнали, а вот об уровне энергопотребления и тепловыделения – еще нет. Попробую восполнить этот пробел.
PCI Express: измерение энергопотребления
При разработке PCI Express проблемы энергопотребления рассматривались более чем серьезно. В результате с этой точки зрения PCI Express значительно превосходит AGP – как ответ на рост энергопотребления современных компонентов системы, в списке возможностей PCIE появились продвинутые функции энергосбережения, а значение, ограничивающее уровень потребления видеокарт, использующих для питания разъем PCI Express x16, было значительно увеличено по сравнению c AGP. Разработчики вполне справедливо рассчитывали на то, что со временем энергопотребление видеокарт будет только возрастать, и того питания, что обеспечивает разъем AGP, максимум 42 Вт, может оказаться уже недостаточно.
Максимальный уровень потребления видеокарт, использующих разъем PCI Express x16, установлен на уровне около 75 Вт, но изначально это значение было меньше, примерно 60 Вт – на начальном этапе разработчики, похоже, просчитались с прогнозами роста уровня энергопотребления видеокарт, в результате чего пришлось вносить изменения в спецификации, отводить для подачи питания большее количество контактов и поднимать планку потребления до 75 Вт.
Питание видеокарт в «настольном» варианте PCI Express обеспечивается по двум линиям: 3.3 В и 12 В. Максимальные допустимые токи по этим линиям, согласно спецификациям, для разъема PCIE Express x16 установлены на уровне, соответственно, 3 А и 5.5 А. Суммарное энергопотребление по этим линиям, то есть, максимальное потребление видеокарты, не использующей дополнительное питание, подсчитать нетрудно – оно составляет 75.9 Вт. Референс-плата на основе NVIDIA не имеет разъема дополнительного питания – на печатной плате есть место для его установки, но он не впаян:

Соответственно, энергопотребление NVIDIA GeForce 6600 GT не может превосходить 75.9 Вт. А как его всё-таки измерить? Очень просто: точно так же, как в первой и второй части обзора, посвященного измерению энергопотребления AGP-видеокарт. Для этого необходимо изолировать контакты разъема PCI Express x16 и подать питание на видеокарту в обход разъема.
Разъем PCI Express x16 разделен на две части: большая часть содержит сигнальные пары PCI Express, а питание подается через контакты, расположенные на меньшей части разъема. С лицевой стороны эта часть содержит 3 контакта в линии 12 В и один контакт 3.3 В:

С обратной стороны разъем имеет 2 контакта в линии 12 В и 2 контакта в линии 3.3 В:

Суммарно – 5 контактов в линии 12В, имеющей большую величину максимального тока, 5.5 А, и всего 3 контакта в линии 3.3В – ток этой линии может достигать 3А.
реклама
Энергопотребление NVIDIA GeForce 6600 GT измерялось в двух режимах: в режиме «простоя», и в режиме «загрузки». В первом случае никакие приложения не запущены, на экране находится Рабочий Стол Windows XP, видеорежим – 1280х1024х32бита, частота кадровой развертки – 75Гц. В режиме «загрузки» запущен Doom 3 в разрешении 1600х1200 с форсированием полноэкранного сглаживания 4х и анизотропной фильтрации 8х. Настройки качества графики в игре – максимальные.
Видеокарта была протестирована как на номинальных частотах, так и при разгоне до 615/1100 МГц – такими оказались максимальные частоты, при которых плата заработала устойчиво без модификации системы охлаждения и вмешательства в схемы питания ядра и видеопамяти. Итак, результаты:

Что ж, NVIDIA GeForce 6600 GT имеет сравнительно невысокое энергопотребление, а, значит, и тепловыделение: около 18.5 Вт в режиме простоя и 48 Вт в режиме загрузки. Это неудивительно: во–первых, GeForce 6600 GT - первый графический процессор от NVIDIA, произведенный по наиболее «тонкому» техпроцессу, 0.11 мкм, а во-вторых, кристалл имеет меньшее число транзисторов по сравнению с NVIDIA GeForce 6800/GT/Ultra.
Разгон незначительно увеличивает уровень энергопотребления платы: оно поднимается примерно до 19 Вт в режиме простоя и около 51 Вт под нагрузкой. Примечательно, что относительно невысокий уровень энергопотребления в режиме простоя достигнут без применения таких приемов, как понижение частот и снижение напряжения питания графического процессора в 2D-режиме: новинка поддерживает раздельные частоты в 2D/3D, но, как и старшие чипы новой серии от NVIDIA, GeForce 6800/GT/Ultra, имеет одинаковые частоты в этих режимах – 500/1000 МГц. Напряжение питания графического процессора в 2D- и 3D-режимах, согласно измерениям, практически одинаково и составляет 1.431/1.477 В.
Впрочем, подробнее схема питания графического процессора будет рассмотрена чуть позже по ходу обзора, а сейчас, для сравнения, можно привести диаграмму, на которой сведены уровни энергопотребления других видеокарт:

Итак, новинка имеет более низкое энергопотребление по сравнению с NVIDIA GeForce FX 5900 Ultra/5950 Ultra, GeForce 6800 Ultra/6800 GT, ATI RADEON X800 XT PE, RADEON 9800 XT, но более высокое, чем у NVIDIA GeForce FX 5700 Ultra или, например, GeForce 6800. Примерный уровень производительности GeForce 6600 GT в сравнении с этими видеокартами вы уже знаете, поэтому выводы сможете сделать сами.
Посмотрим более внимательно на характер потребления GeForce 6600 GT:

По линии 3.3В видеокарта забирает через разъем PCI Express всего лишь 0.15 Вт, причем, это значение не зависит от тактовых частот или нагрузки на видеокарту. Таким образом, практически вся потребляемая платой энергия приходится на линию 12 В, при этом в загрузке ток потребления по этой линии составляет 4.07 А, а при разгоне доходит до 4.35 А.
По величине потребляемого тока в линии 12В NVIDIA GeForce 6600 GT лишь немногим уступает NVIDIA GeForce 6800 Ultra, поэтому рекомендации по поводу блока питания для GeForce 6800 Ultra - хороший запас по току в линии 12 В – справедливы, по всей видимости, и для GeForce 6600 Ultra.
Экстремальный разгон и тестирование
Обычные средства повышения разгонного потенциала видеокарт – замена стандартной системы охлаждения на что-нибудь более эффективное, например, систему водяного охлаждения, и повышение напряжения питания компонентов. На плане установлены микросхемы памяти GDDR3 от Samsung, известные невысоким разгонным потенциалом, который не сильно увеличивается даже при повышении напряжения питания, поэтому повышать напряжения питания микросхем видеопамяти на референс-плате я не стал – в данном случае результат не стоит усилий. Зато вопрос выяснения разгонного потенциала графического процессора очень интересен, ведь это первый графический чип от NVIDIA, произведенный по техпроцессу 0.11 мкм. Будучи изготовлен по более «тонкому» техпроцессу, чем серия GeForce 6800, и имея меньшее число транзисторов, он должен работать на более высоких тактовых частотах.
Проверим. Стабилизатор питания графического процессора основан на микросхеме ISL6534 от Intersil. Этот чип представляет собой двухканальный широтно-импульсный контроллер с возможностью, вдобавок, управления линейным стабилизатором. Один из двух каналов как раз и обеспечивает питание графического процессора. В отличие от стабилизаторов, применяющихся на платах с NVIDIA GeForce FX5950 Ultra или FX 5900 Ultra, имеющих цифровые входы для задания величины выходного напряжения и умеющих изменять выходное напряжение «на лету», эта микросхема использует для задания выходного напряжения резисторный делитель.
Но, что интересно, инженеры NVIDIA и этот стабилизатор заставили менять выходное напряжение «на лету» - получая управление от регистров графического процессора, два транзистора подключают в делитель резисторы с заранее подобранным сопротивлением, меняя таким образом напряжение питания «на лету». Эту же идею, кстати, используют стабилизаторы питания на платах с NVIDIA GeForce 5900 XT.
Для того чтобы повысить напряжение питания графического процессора, достаточно лишь уменьшить сопротивление одного из резисторов, включающихся в делитель. Сказано – сделано:

На фотографии в верхней левой части видна микросхема-контроллер стабилизатора, а в центре – схема управления выходным напряжением и два резистора, включаемые в делитель. Стрелками показаны места, к которым подсоединен дополнительный переменный резистор.
Изменяя сопротивление переменного резистора и оценивая разгонный потенциал платы при различном напряжении питания графического процессора, я нашел максимальную частоту графического процессора, при которой плата работала устойчиво. Она составила 640 МГц, то есть, частоты видеокарты при экстремальном разгоне составили 640/1100 МГц.
Напряжение питания графическом процессоре при этом составило 1.233 В на этапе загрузки Windows XP, 1.562 В после загрузки драйвера видеокарты, в 2D-режиме, и 1.629 В – в 3D-режиме. До модификации эти напряжения составляли, соответственно, 1.233, 1.431 и 1.477В:

Итак, при увеличении напряжения питания в 3D-режиме на 10% частоту графического процессора удалось поднять относительно номинала на 28%. Не так уж плохо, не правда ли? Такого результата, конечно, не удалось бы достичь без замены стандартной системы охлаждения. При экстремальном разгоне я использовал, как обычно, систему водяного охлаждения Aquarius II от Thermaltake:

Видеокарта была протестирована на системе со следующей конфигурацией:
- Процессор: Intel Pentium 4 Extreme Edition 3400 МГц (FSB 800 МГц);
- Материнская плата: Intel D925XCV;
- Оперативная память: 2x512 МБ Micron DDR II 533;
- Программное обеспечение: Windows XP Pro, DirectX 9.0c, NVIDIA ForceWare 65.76.
Видеокарта была протестирована в режиме 1600х1200 при максимальных настройках качества графики в играх. Настройки драйвера, касающиеся оптимизаций анизотропной фильтрации, были оставлены по умолчанию. То есть, эти оптимизации были включены. Вдобавок было проведено тестирование в режиме 1600х1200 при форсировании полноэкранного сглаживания 4х и анизотропной фильтрации степени 8х. Итак, результаты в Doom3 на стандартной демо-записи demo1:


По результатам тестирования видно, что разгон графического процессора в более простом режиме, без включения полноэкранного сглаживания и анизотропной фильтрации, оказывается более результативным, чем разгон памяти. Это и не удивительно: частоту памяти при разгоне удалось поднять всего на 10%, в то время как частота ядра увеличилась на 28%.
При форсировании полноэкранного сглаживания и анизотропной фильтрации требования к подсистеме памяти возрастают, и разгон видеопамяти приносит уже больший прирост результатов, нежели в первом случае. Но и здесь разгон ядра оказывается результативнее – процентный прирост частоты ядра при разгоне оказался почти в 3 раза выше.
В Far Cry использовалась собственная запись на уровне Training:


В Far Cry ситуация повторяется: разгон графического процессора в обоих случаях обеспечивает больший эффект, нежели разгон памяти. Возможно, ситуация сложилась бы иначе, если бы частоту видеопамяти при разгоне удалось поднять настолько же высоко, как частоту ядра, но 10-процентное увеличение частоты - это всё, что удалось получить от чипов памяти на этой видеокарте.
Ниже на графиках показан процентный прирост производительности NVIDIA GeForce 6600 GT в Doom3 и Far Cry при разгоне графического процессора, видеопамяти, и при совместном разгоне ядра и памяти:


Итак, несмотря на то, что GeForce 6600 GT, судя по характеристикам, имеет явно «несбалансированный» характер, то есть, его производительность в ряде случаев может ограничиваться скоростью памяти, при разгоне больший прирост скорости обеспечивает именно разгон графического ядра, а не видеопамяти. Причина проста: частоту графического процессора при экстремальном разгоне удалось поднять на 28%, то есть, почти на треть, в то время как частота памяти выросла всего на 10%.
Тепловой режим
Посмотрим, как стандартная система охлаждения NVIDIA GeForce 6600 GT справляется с отводом тепла от графического процессора и с обдувом чипов памяти. Температуру графического процессора я отслеживал с помощью RivaTuner, а температуру чипов памяти – термометром Fluke 54-II. Результаты заносились в диаграмму после получасового тестирования в двух режимах: режиме простоя и режиме загрузки.
В режиме простоя никакие приложения не были запущены, на экране находился лишь рабочий стол Windows XP в режиме 1280х1024х32@75Гц, а в режиме загрузки был запущен Doom 3 в разрешении 1600х1200 при форсировании полноэкранного сглаживания 4х и анизотропной фильтрации 8х. Вместе с результатами измерения температур видеокарты со стандартной системой охлаждения и на номинальных частотах приведены результаты при экстремальном разгоне:

В режиме простоя температуры ядра и видеопамяти на NVIDIA GeForce 6600 GT не вызывают никаких опасений. Под нагрузкой температуры значительно повышаются – до 70-72 градусов. Это достаточно высокие температуры, но они находятся в допустимых рамках. Особого беспокойства такой уровень температур вызывать не должен, но если рассчитывать на разгон, то лучше выбирать видеокарты с хорошей системой охлаждения, отводящей тепло как от графического процессора, так и видеопамяти. Множество различных вариантов таких видеокарт обязательно появится: GeForce 6600 GT – массовый продукт. При установке системы водяного охлаждения температура графического ядра даже при поднятии напряжения питания не превышает 45 градусов – замечательно! Зато температура видеопамяти заметно увеличилась – сказалось повышение частоты и отсутствие хотя бы того минимального обдува, который обеспечивал стандартный кулер.
Заключение
Сектор видеокарт среднего ценового диапазона получил достойнейшего преемника серии NVIDIA GeForce FX 5700/5700 Ultra. Новинка от NVIDIA, GeForce 6600 GT, как мы уже знаем, по производительности значительно превосходит видеокарты среднего класса предыдущего поколения и вместе с тем имеет лишь немногим более высокий уровень энергопотребления. Практически всю потребляемую мощность NVIDIA GeForce 6600 GT забирает из линии 12В, в результате ток потребления по этой линии лишь немногим уступает потреблению NVIDIA GeForce 6800 Ultra. Поэтому рекомендации по поводу выбора БП, сказанные мною применительно к GeForce 6800 Ultra (см. обзор энергопотребления NV против ATI), справедливы и для GeForce 6600 Ultra – блок питания должен иметь хороший запас по току в линии 12В.
Разгонный потенциал нового графического процессора, изготовленного по наиболее прогрессивному для видеочипов технологическому процессу, 0.11мкм, не поразил, но и не разочаровал. Прирост частоты на уровне 23% при обычном разгоне и 28% при повышении напряжения питания – неплохой результат для ранней референс-платы. Есть все основания предполагать, что разгонный потенциал таких графических процессоров на серийных платах будет как минимум не хуже – производство чипов будет постепенно совершенствоваться, а серийные платы получат хорошие системы охлаждения. Невысокий разгонный потенциал видеопамяти уже не удивляет – чипы памяти GDDR3 от Samsing, как показал опыт, на повышенных частотах работают крайне неохотно.
Температурный режим графического процессора и видеопамяти на референс-плате в режиме простоя находится в норме, а при работе в самом «тяжелом» режиме вызывает некоторые опасения. Но это – референс-плата от NVIDIA с непривычно маломощным на фоне остальных новинок кулером. Серийные же карты наверняка будут иметь более эффективные системы охлаждения.
Итак, ждем появления серийных видеокарт!
Ждём Ваших комментариев в специально созданной ветке конференции.
Лента материалов раздела
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Сейчас обсуждают