Время титанов возвращается! Знакомимся с видеокартой NVIDIA GeForce GTX Titan

Первое знакомство с графическим ускорителем GeForce GTX Titan, основанным на GK110. Архитектура, новые возможности, разгон и потребительские характеристики.
20 февраля 2013, среда 18:00

Оглавление

Вступление

Задолго до появления всей архитектуры Kepler никому из пользователей и в голову не могло прийти, что в основу массовой видеокарты NVIDIA верхнего ценового сегмента будет положено графическое ядро площадью менее 300 мм2. Им стало GK104, не в последнюю очередь из-за желания компании убрать из своего списка очень дорогое графическое ядро площадью более 400 мм2. Дальнейшие модели ускорителей создавались под лозунгом «Цель оправдывает средства».

И пока преданные поклонники NVIDIA ждали выхода настоящего флагмана из серии «А посмотрите, какого я размера», видеокарты обоих вендоров приобрели очень странные по сравнению с предыдущими поколениями ценники. То, что еще пару лет назад оценивалось суммой до 400 долларов, стало предлагаться за 400-500 долларов. Свою роль здесь сыграло множество факторов.

Первый, самый критичный – переход на техпроцесс 28 нм и существенное удорожание производства. При этом пользователи не остались внакладе, получив действительно производительные решения, которые пусть и стоили дороже, чем прошлое поколение, но зато обладали куда большей скоростью. А за тот период времени, пока GeForce GTX 680 и Radeon HD 7970 соперничали, NVIDIA в кулуарах разработала эксклюзивного тихого убийцу. GK110 – это и есть молчаливый монстр, площадью 521 мм2. Ему совсем чуть-чуть не хватило до рекорда, который числится за GT200/300 первой ревизии. Вы только вдумайтесь, если GT200/300 производился по 65 нм технологии, обладал площадью 576 мм2 и 1400 млн транзисторов в 2008 году, то спустя пять лет технологии позволили уместить 7100 млн транзисторов в куске кремния площадью 521 мм2.

Первые предпосылки о существовании GK110 появились в середине 2012 года, именно тогда всплыли некоторые данные, говорящие о скором выходе старшего решения. Вот только суждено ему было стартовать совсем в другом амплуа, не в игровом, а в сфере математических вычислений, в кругу моделей, именуемых как Tesla. На базе большого Kepler возникла целая серия профессиональных карт K20. Характеристики, интересующие большую часть пользователей, пусть и выглядели устрашающе для конкурента, но игрового применения не получили.

Что ж, тем проще было выбирать среди присутствующих на рынке видеокарт, разница в производительности которых зачастую ограничивалась значением в 10-15%. Примерно такой вот цифрой и можно охарактеризовать средний разброс между Radeon HD 7970 и GeForce GTX 680. Одна была чуть шумнее и прожорливее, но при этом быстрее, а вторая дороже и немного медленнее. Обе они хорошо подходили как для разгона, так и для современных игр, которые в последнее время не старались соответствовать духу времени. Отсюда и несерьезные на сегодняшний день технические требования. Особенно если учесть, что львиная доля пользователей как раз перешла с мониторов с разрешением меньше 1300 пикселей по ширине на модели с 1920.

Впрочем вернемся к Titan. Да, это новое название видеокарты для игроманов на GK110. Я продолжу с немного пугающей цифры – 35 000 рублей. Именно столько просит компания за свою разработку. Стоит отметить, что это рекомендованный производителем ценник, с которого, скорее всего, первые «сливки» захотят снять розничные продавцы. Думаю, к лету стоимость GeForce GTX 690 и GeForce GTX Titan сравняется.

Технические характеристики

Наименование HD 7970 HD 7970 GHz GTX 680 GTX Titan GTX 690
Кодовое имя Tahiti XT Tahiti XT GK104 GK110 GK104
Техпроцесс, нм 28 28 28 28 28
Размер ядра/ядер, мм2 365 365 294 521 294x2
Количество транзисторов, млн 4300 4300 3540 7100 3540x2
Частота ядра, МГц 925 1050 1006 (1084) 840 (880) 915 (1020)
Число шейдеров (PS), шт. 2048 2048 1536 2688 3072
Число блоков растеризации (ROP), шт. 32 32 32 48 64
Число текстурных блоков (TMU), шт. 128 128 128 224 256
Максимальная скорость закраски, Гпикс/с 30.2 33.6 32 40.2 58.6
Максимальная скорость выборки текстур, Гтекс/с 118.5 134.4 128 187.5 234.2
Версия пиксельных/ вертексных шейдеров 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0
Тип памяти GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Эффективная частота памяти, МГц 5500 6000 6000 6000 6000
Объем памяти, Мбайт 3072 3072 2048 6144 2048x2
Шина памяти, бит 384 384 256 384 256x2
Пропускная способность памяти, Гбайт/с 264 288 192 288.4 192x2
Потребляемая мощность (2D / 3D), Вт 3 / 250 3 / 290 нд / 195 нд / 250 нд / 300
CrossFire/Sli да да да да да
Рекомендованная цена, $ 410 430 500 999 999

Архитектура GK110

Ядро GK110 состоит из 15 SMX движков, каждый из которых наполнен вычислительными устройствами – Cuda-ядрами.

Если подробнее, то графический процессор GK110 содержит 192 FP32 CUDA-ядра и 64 FP64, 64 килобайта L1 кэша, 65 тысяч 32-битных регистров и 16 текстурных блоков. SMX движки состыкованы с 6 блоками, состоящими из 8 ROP каждый, 256 килобайтами L2 кэша и подсоединены к 64-битным контроллерам памяти. Число «15» не окончательное, в розничный сектор попали видеокарты с активированными 14 SMX. Как ни печально, но желание удержать энергопотребление на определенном уровне вносит свои коррективы в финальный продукт. Всего же в GK110 насчитывается 2688 CUDA-ядер, способных производить вычисления с одинарной точностью.

На тот случай, если вам захочется исполнить команды с двойной точностью, новый продукт NVIDIA располагает 896 FP64 ядрами. В дополнение к мощной вычислительной части у видеокарты присутствует 224 текстурных блока и 48 блоков ROP. В сущности, никаких изменений по сравнению с Tesla K20X. Желающие получить Hyper-Q и Dynamic Parallelism за 35 000 рублей могут не задерживаться, а проходить прямо к Tesla.

За теоретической частью прячется суровая реальность. Частоты в угоду повсеместно внедряемой схеме снижения энергопотребления пришлось ограничить на уровне 8хх МГц. Что, с одной стороны, несколько меньше 1000 МГц у GTX 680, а с другой – не настолько мало, чтобы сильно выделяться среди семейства GeForce GTX. Что касается памяти, то золотой стандарт NVIDIA в 6 ГГц полностью соблюден. И приведу еще один интересный факт. На самом деле сейчас вполне можно было бы обойтись и объемом видеопамяти в 3 Гбайта, но новому флагману это просто не к лицу. Поэтому видеокарта получила 6 Гбайт, набранных двадцатью четырьмя микросхемами общей пропускной способностью в 288 Гбит/с.

На закуску осталось поговорить об энергопотреблении. Будь на дворе 2006-2008 год, то и 450 Вт мало кого удивило бы. Но в NVIDIA выбирали из двух вариантов. Приемлемый уровень – GeForce GTX 690 и 300 Вт, идеальный уровень – GeForce GTX 680 и 195 Вт. Здесь стоило бы сделать остановку и рассказать подробнее о 195 Вт у GeForce GTX 680. Это практически потолок энергопотребления на эталонной карте со 132% запасом Power Target. В жизни не все производители соблюдают энергетическую диету и часто превышают рекомендованный лимит. А GeForce GTX Titan умещается в 250 Вт, что очень скромно. И даже такой искусственный барьер позволяет разгонять видеокарту, впрочем, об этом речь пойдет чуть позже.

Итак, GeForce GTX Titan это в первую очередь игровая карта для настоящих энтузиастов, готовых выложить 35 000 рублей. Она едва ли не единственная, кто может не только быстро воспроизводить игровые картинки, но и считать. Напомню, что GK104 это игровое ядро с формальной поддержкой FP64. Скорость выполнения команд с двойной точностью у него ограничена 1/64 от полного такта, а у GK110 – 1/3, что дает ей 1.3 Тфлопса. Фактически, Titan претендует на роль младшей карты для вычислений. Ее нельзя расценивать с точки зрения «производительность/цена». Такой подход в корне убьет всю оставшуюся привлекательность, а она, поверьте мне, в ней есть.

Только сегодня и сейчас NVIDIA вправе говорить о выпуске самой быстрой однопроцессорной видеокарты, но лишь до тех пор, пока у конкурента нет аналога. Правда, я сильно сомневаюсь, что многим она окажется по карману, и еще меньшее число людей будет использовать ее возможности в полной мере. Вот и AMD не считает GeForce GTX Titan конкурентом.

Естественно, сегмент ультра дорогих моделей в разы меньше массового сектора, а идентичной производительности в играх проще достичь покупкой GeForce GTX 690 или сооружением связки SLI/Crossfire. С другой стороны, NVIDIA позволила себе подогреть интерес рынка к своим продуктам, так что можно считать Titan аналогом Veyron в мире видеокарт. Вы подумали о цене и ограниченности тиража? Неправильно, производитель уверяет, что не пройдет и двух недель с момента анонса, как Titan появится в магазинах и любой желающий сможет его приобрести.

Новые возможности

С анонсом архитектуры Kepler компания NVIDIA внедрила ряд дополнительных возможностей. В частности теперь можно задействовать адаптивный VSync. Суть его работы заключается в том, чтобы обеспечить максимально комфортное воспроизведение картинки в играх.

После активации адаптивного VSync максимальное число кадров в секунду не превышает частоту развертки монитора, но здесь важнее второй момент. Цикл падения производительности становится плавным, что приводит к отсутствию дерганой картинки. Усовершенствование заключается в том, что теперь доступна функция настройки ограничения кадров до любого значения, вплоть до 120.

Технология 3Way SLI позволяет подключить до трех GeForce GTX Titan в одной системе. На сегодня такой вариант наиболее производительный среди всего ассортимента предложений NVIDIA.

Разгон

Здесь наибольший интерес у пользователей вызовет новая технология GPU Boost 2.0. Пока она будет доступна только обладателям видеокарты GeForce GTX Titan, но я почти уверен, что позже следует ожидать ее появления и в будущих новинках NVIDIA. Стоит кратко напомнить, как пользоваться GPU Boost 1.0.

Встроенный алгоритм управления частотой и напряжением графического процессора работает по своим стандартам, и разгон видеокарт NVIDIA GeForce осуществляется несколько в ином формате. Обращаю ваше внимание, что сейчас в руки пользователей попадает несколько переменных.

Первая – предельное энергопотребление, стандартная формулировка которого обозначается цифрой 100% или ~xxx Вт для ускорителя целиком (может варьироваться в зависимости от экземпляра, в основном завышенное базовое значение используется в разогнанных с завода моделях). Отныне заявленная номинальная частота – это базовая частота, ниже которой графическое ядро не опускается ни при каких нагрузках в типичных игровых приложениях. Значение «Турбо» (GPU Boost) обозначает усредненную частоту GPU по результатам большинства игровых сцен.

Новая технология, ориентируясь на максимально допустимую нагрузку и достигнутую температуру, автоматически подстраивает частоту и задает напряжение. В теории максимальная температура равна 82-85°C, вентилятор системы охлаждения постоянно подстраивается под изменяющиеся условия тестирования, не позволяя GPU разогреться выше приведенных чисел. Естественно, что GPU Boost учитывает и температуру. И если видеокарта по каким-то причинам превысит эту цифру, в дело вступят функции защиты. Практический максимум, по заявлениям NVIDIA, равен 98°C – это критическая температура, после которой система может полностью выключиться, предварительно применив все доступные методы защиты.

Вторая – это желаемая частота. Я не пишу «базовая», поскольку при установке этой частоты можно поймать себя в ловушку. Все дело в том, что при значительном нагреве или в случае аномальной загрузки видеокарта может понижать данную частоту и ниже ваших установок.

Разгон стоит начинать со статичного предельного энергопотребления, например, 100%. Затем понемногу увеличиваете желаемую частоту – до тех пор, пока не увидите один из признаков достижения лимита. Видеокарта либо начнет сбрасывать частоты на начальные значения, либо зависать. Любой из этих признаков означает, что придется увеличивать предел. Не советую сразу выставлять максимально допустимое энергопотребление. Данное действие мгновенно приведет к перегреву и зависанию карты. Зато набравшись терпения, чутья и времени, вы гарантированно мелкими шажками разгоните карту до 1.2-1.3 ГГц.

В свою очередь GPU Boost автоматически добавляет напряжение в зависимости от выставленного предела энергопотребления, следом растет и частота. В конечном итоге видеокарта постепенно разгоняется. В чем же суть обоих инструментов управления? Не в том ли, что отныне нет смысла задавать базовую частоту и напряжение? Фактически, испробовав различные комбинации и варианты, мне удалось сбалансировать на грани фола и удержать хороший разгон во время проверки программой Furmark. Делается это двумя переменными. Необходимо тонко чувствовать работу GPU Boost и подстраиваться под нее, устанавливая правильную базовую частоту и предел энергопотребления.

К счастью, видеокарты оригинального дизайна получили расширенный диапазон регулировки Power Target – до 150 и более процентов. Но это применимо не всегда, часть ускорителей (особенно тех, что заранее разогнаны), наоборот, ограничена до 120%. Тут логичнее говорить об общем максимуме мощности системы питания, когда каждый производитель выставляет свой предел.

Говоря проще, Power Target указывает на максимальное энергопотребление видеокарты, под которое подстраиваются GPU Boost и ваши настройки разгона. Чем выше значение Power Target, тем больше шансов разогнать GPU, при условии нормальных температур графического ядра и силовой части. Как только вы упираетесь в верхнюю грань и параллельно пытаетесь задать большую частоту (нежели ту, на которой может работать видеокарта), алгоритм, заложенный в драйвер, сбрасывает частоту. После этого достаточно убрать с десяток мегагерц и повторить тест. И так до тех пор, пока не найдете максимально стабильную частоту ядра. А далее – новый маневр с Power Target. Совет здесь один: поднимать на одно-два деления и не забывать при этом о проверке работоспособности видеокарты на заданных параметрах.

Для тех, кто умудрился запутаться в разгоне новых GPU NVIDIA, я приготовил иллюстрации.

Общий план работы карты.

Полное TDP видеокарты, именно максимально допустимое, изначально задано производителем. Складывается оно из штатных рабочих частот в рамках функции GPU Boost и максимального значения Power Target. GPU Boost управляет не только частотой, но и напряжением, а Power Target – это стратегический запас для разгона. Допустим, мы, не трогая Power Target, увеличим GPU Clock Offset.

Запрашиваемая частота – это GPU Clock Offset. Было задано слишком высокое значение, которое превышает заложенное производителем начальное энергопотребление (TDP). В результате частота вырастет на меньшую величину. Для того чтобы действительно достичь требуемой частоты, придется сдвинуть Power Target.

Вот так выглядят идеально подобранные настройки. Запрашиваемая частота подкреплена сдвигом ползунка Power Target. Максимальное TDP не превышено.

К сожалению, иногда приходится встречаться со сложным алгоритмом разгона. С тех пор как NVIDIA задала определенный уровень TDP для каждого класса видеокарт, а компании применяют собственный разгон, вы вполне можете столкнуться с полным отсутствием частотного потенциала. Очень сложно определить стабильную частоту, поскольку, даже увеличив Power Target, GPU Boost работает непредсказуемо. В одной игре вы получите 1130 МГц, а в более требовательной – 1100 МГц. После запуска Furmark на экране и вовсе будет фигурировать 1050 МГц.

Новая технология в виде GPU Boost 2.0 расширила свое влияние на частотный диапазон. Даже первая ее версия отличалась быстрой работой, постоянно стараясь увеличить частоту при любой возможности. Вторая версия работает по более агрессивному сценарию. Если заявленная частота GPU Boost равна 870 МГц, то в реальности можно встретить как 915 МГц, так и 990 МГц. Причины столь сильного повышения частоты кроются в настройках.

Во-первых, пользователям теперь доступна не одна базовая настройка (Power target), а две – Power Target и «Температура». По умолчанию приоритет остается за первой. Максимальное значение для Titan – всего 110%, начальная температура 80°C, а максимальная температура равна 95°C. Оба параметра могут задаваться как раздельно, так и совместно, причем приоритет можно изменять от одного к другому. Как результат, средняя частота увеличивается.

Готовы перейти к более интересной части? Тогда вперед. NVIDIA позволила при условии соглашения с риском повредить видеокарту задействовать небольшой вольтмод (OverVoltage) до 1.187 В. Соглашаясь с правилами, вы дополнительно увеличиваете напряжение и повышаете среднюю частоту GPU. Вроде бы появляется ощущение снисходительности по отношению к энтузиастам, но ранее объявленное общее ограничение максимального энергопотребления никуда не делось. Допустим, будем считать, что 250 Вт это среднее энергопотребление, тогда максимальное по моим тестам получилось «плюс 45 Вт». Не дотягивает даже до GeForce GTX 690.

Что же получают пользователи? Жесткую привязку к 295 Вт, все остальное предоставлено на ваше усмотрение, хотя напряжение при этом нельзя поднять выше 1.187 В. Налицо желание компании максимально огородить видеокарту от любых повреждений и запутать дополнительно пользователя различными настройками. Но не все так печально. Изначальный смысл появления температурной настройки позволяет существенно снизить уровень шума без риска перегреть карту. Говоря проще, в рамках определенного диапазона можно делать все, что вашей душе угодно, варьировать уровень шума, нагрева, разгон по своему усмотрению, но под контролем NVIDIA

.

Дополнительно обнаружился еще один интересный момент. Ранее я не встречался с проблемой разгона памяти на видеокартах NVIDIA GeForce GTX 6xx, но теперь максимальный TDP распространяется и на память. Чем это чревато для энтузиастов? Приведу простой пример. Путем некоторых манипуляций вокруг цифры 295 Вт можно получить разгон 1100-1170 МГц, настало время разгонять память. Но каждые дополнительные 100 МГц памяти отнимут 25-50 МГц от разгона ядра. Неудобно и непривычно… К тому же, ускоритель GeForce GTX Titan не приспособлен для стресс-тестов типа Furmark. Он быстро распознает нетипичную нагрузку и снижает частоту вместе с напряжением до минимального значения. Для проверки разгона мне пришлось воспользоваться программой тестирования Unigine Heaven в максимально тяжелых для видеокарты условиях.

Частота GPU, ГГц 0.950 0.975 1 1.015 1.030 1.045 1.060 1.075 1.100 1.125
Power Target 100 102 106 106 106 106 106 106 106 106
Temp Target 80 85 95 95 95 95 95 95 95 95
GPU Clock offset 0 25 30 35 25 35 50 65 90 115
Напряжение, мультиметр, В 1.112 1.115 1.115 1.115 1.187 1.187 1.187 1.187 1.187 1.187
Температура GPU, °C 80 81 81 81 82 82 82 82 82 82
Температура VRM, °C 70 71 72 72 73 73 73 73 73 73
Обороты вентилятора (max), об/мин 2250 2350 2400 2400 2500 2500 2500 2500 2500 2500
Энергопотребление, Heaven, Вт 315 332 334 335 351 354 354 354 355 359

В итоге была достигнута стабильная частота графического процессора в 1125 МГц, а в играх и того больше – 1150 МГц. Не забыта и память, она разогналась совместно с GPU до 1650 МГц.

Пришло время рассмотреть видеокарту GeForce GTX Titan подробнее.

Внешний вид и размеры

Модель A, мм B, мм C, мм D, мм A1, мм B1, мм C1, мм
AMD HD 7970/ HD 7950 266 98 34 71 277 98 39
NVIDIA GTX 670 172 98 33 62 241 98 38
NVIDIA GTX 680 254 98 34 63 254 98 38
NVIDIA GTX 690 280 98 34 84 281 99 40
NVIDIA GTX Titan 267 98 36 64 267 98 40

А - длина печатной платы, без учета системы охлаждения и планки портов видеовыходов.
В - ширина печатной платы, без учета контактов PCI-E и системы охлаждения.
С - высота от горизонтальной плоскости печатной платы до уровня верхней поверхности системы охлаждения.
D - диаметр вентилятора/ов по внешнему радиусу.

А1 - длина печатной платы, с учетом системы охлаждения (если выходит за пределы печатной платы) до планки портов видеовыходов.
В1 - ширина печатной платы, без учета контактов PCI-E, но с замером системы охлаждения (если выходит за пределы печатной платы).
С1 - высота, с учетом задней пластины (если есть)/винтов крепления радиатора до уровня верхней поверхности системы охлаждения. Если она ниже высоты задней планки портов видеовыходов, то измеряется высота до верхней точки планки.

В своем новом премиум-продукте NVIDIA решила продолжить стиль видеокарты GeForce GTX 690. Элегантный корпус системы охлаждения из магниевого сплава, вставка из оргстекла и прочее в том же духе. Легко угадывается сопоставление дизайна графических ускорителей с их стоимостью под 1000 долларов.

На задней панели расположены стандартные видеовыходы: пара DVI, HDMI и DisplayPort. Общая длина GeForce GTX Titan составляет 267 мм, что всего на несколько миллиметров больше соответствующего габарита GTX 680.

Печатная плата

Для GeForce GTX Titan компания подготовила свой персональный дизайн. Оно и понятно, до сих пор в ассортименте NVIDIA были видеокарты с шиной обмена данными 256 бит и 512 бит, а Titan оборудован 384-битным интерфейсом. Первая партия, состоящая из двенадцати микросхем, расположена вокруг GPU, оставшиеся двенадцать штук размещены сзади в зеркальном отражении.

Если вы помните, NVIDIA принципиально ограничивает максимальное энергопотребление своих моделей, поэтому расчетное тепловыделение легко сопоставить с наличием шести фаз питания. Нет больше необходимости гадать, какие частоты, какое напряжение задаст энтузиаст, разгоняя видеокарту. Не надо задаваться вопросами, не выйдет ли из строя система питания, хватит ли ее на разгон. С этой точки зрения, руководствуясь принципами достаточности, шесть фаз в формате Dr.MOS – вполне хороший задел на любые жизненные ситуации. Пара фаз предусмотрена для памяти. Стоит отметить, что вся схема питания симметрично отражена относительно середины, что это, не проявление ли эстетического духа разработчиков даже в мелочах?

ШИМ-контроллер питания GPU – ON Semiconductor NCP 4206. К сожалению, мне не удалось найти по нему каких-либо данных. Аналогичный контроллер установлен и на GeForce GTX 690. Можно лишь предположить, что максимальное количество поддерживаемых фаз равно шести. И судя по всему, а другое здесь было бы странно, контроллер оснащен современными технологиями энергосбережения (отключение фаз питания во время простоя) и протоколом связи между программой и VID-значениями напряжений. Последнее открывает пользователю доступ к изменению напряжений видеоядра и памяти.

Графический процессор GK110 площадью ~521 мм2 размещен на текстолитовой подложке на 31-й неделе 2012 года. Вместо привычной цельной пластины кремниевый кристалл защищен металлической рамкой по периметру. Финальная формулировка фаз питания звучит так: 6+2+1 (GPU/MEM/PLL).

Двадцать четыре микросхемы памяти с шиной обмена данных 384 бита и плотностью 2 Гбита распаяны по сторонам от GPU. Это продукция производства Samsung, она рассчитана на частоту до 1500 МГц (эффективная частота 6000 МГц).

Штатные частоты NVIDIA GeForce GTX Titan составляют 837 МГц (Turbo Boost до 876 МГц) и 1500 МГц соответственно для графического процессора и памяти.

Система охлаждения

Система охлаждения нового однопроцессорного флагмана состоит из нескольких частей, но после снятия кожуха львиная доля внимания достается основному радиатору. Во-первых, в его основании лежит большая испарительная камера. Во-вторых, использована практически вся доступная под его размещение длина. В-третьих, чтобы добраться до него, придется воспользоваться целым набором инструментов. Как вы думаете, сколько типов винтов вам придется открутить? Два-три? Пять! Пара крестовых соединений, Torx и шестигранники.

Инженеры в угоду красивому виду создали ребус для потребителей. Мало того, все шестигранники настолько малы, что риск сорвать их чрезвычайно велик. Осложняет процесс разборки и нанесенный на них фиксатор резьбы. Кто-то действительно думает, что GeForce GTX Titan это вибростенд и винты будут выкручиваться в процессе эксплуатации?

Возможно, никто просто не подумал о том, что рано или поздно наступит момент, когда под прозрачной крышкой скопится пыль. И как ее тогда очистить? На видеокарте не предусмотрен режим принудительной продувки системы, остается только полная разборка системы охлаждения.

Под радиатором уместилась массивная пластина, охлаждающая в первую очередь систему питания. А для повышения эффективности в конце карты сделаны дополнительные ребра. В целом конструкция очень надежная и производительная.

Тестовый стенд

  • Материнская плата: MSI Z77A-GD65 (Intel Z77, LGA 1155);
  • Процессор: Intel Core i7-3770К 4700 МГц (100 МГц х 47, 1.35 В) или 1600 МГц во время замера шумности системы охлаждения;
  • Система охлаждения: система водяного охлаждения;
  • Термоинтерфейс: Arctic Cooling МХ-2;
  • Оперативная память: Corsair DDR3 1600 МГц, 4 модуля x 4 Гбайта, (7-8-7-20-1T, 1.65 В);
  • Жесткий диск: Crucial M4 (CT128M4SSD2), 128 Гбайт;
  • Блок питания: Enermax REVOMAX 1250 Ватт;
  • Аудиокарта: ASUS Xonar HDAV 1.3;
  • Операционная система: Microsoft Windows 7 x64 SP1.

Перечень используемых контрольно-измерительных приборов и инструментов

  • Шумомер: Center 320;
  • Мультиметр: Fluke 289;
  • Тарификатор электроэнергии: E305EMG;
  • Микрофон: Philips SBC ME570.

Инструментарий и методика тестирования

Для корректного замера температуры и шума использовались приведенные ниже условия. Помещение, внутри которого располагается система автоматической поддержки климатических условий. В данном случае уровень температуры был установлен на отметке 24°C +/-1°C. За точностью соблюдения заданных параметров наблюдало четыре датчика, один из которых находился в 5 см от вентилятора системы охлаждения видеокарты и был ведущим. По нему происходила основная коррекция температуры в помещении.

Шум измерялся на расстоянии 50 см до видеокарты. Фоновый уровень составлял <20 дБА. В качестве жесткого диска использовался SSD, а блок питания, помпа, радиатор с вентиляторами во время замера находились за пределами комнаты. На стенде отсутствовали иные комплектующие, издающие какие-либо шумы.

Звуко- и видеозапись системы охлаждения производилась на расстоянии ~10 см от вентилятора. Первые 5-10 секунд без нагрузки в режиме простоя, далее включалась 100% нагрузка с помощью программы Furmark. Наибольший уровень шума достигается в конце аудиозаписи. Заранее определялся температурный режим и шум, чтобы в процессе записи аудиодорожки вы смогли услышать именно максимальный шум. В процессе просмотра видеороликов можно выделить тембр и характер звуков, издаваемых системой охлаждения. Предупреждаю вас, что звук на них сильно приукрашен, то есть ощущается сильнее, чем есть на самом деле.

Уровень потребления электричества в простое оценивался по показаниям тарификатора E305EMG сразу после загрузки операционной системы. Значения, отображаемые на графике, соответствуют минимально достигнутым цифрам с прибора. Под нагрузкой видеокарты тестировались программой Furmark. После 10-15 минут температура и обороты вентилятора достигали своего теоретического максимума, после чего данные заносились в таблицу.

Температура силовых цепей измерялась путем установки термодатчика в пространство между радиатором и термопрокладкой в самое нагруженное место.

Исследование потенциала системы охлаждения

Пояснения к графикам:

  • Красная линия – максимальная температура.
  • Синяя - в режиме простоя.
  • Черная линия показывает уровень издаваемого шума, при определенных оборотах вентилятора.
  • Пунктирная линия указывает на диапазон регулировки в автоматическом режиме вентилятора.

В процентах указана скорость вентилятора/ов, выставленная в MSI Afterburner, начиная от 20% (для видеокарт NVIDIA от 35%) до 100%, с шагом 5%. Таким образом, чтобы понять, насколько нагреется видеокарта, и как сильно она будет шуметь, скажем, при 50% скорости вентилятора, достаточно провести вертикальную линию через отметку 50%. В местах пересечения получаем три значения: с красной линией – максимальную температуру в нагрузке, с синей линией – температуру в простое, с черной линией – уровень шума.

Все видеокарты тестировались с заводскими частотами. Учтите, что звукозапись в видеоматериалах приукрашает уровень шума.

Температура графического ядра и обороты вентилятора/ов.

NVIDIA не зря делает акцент на улучшение акустических характеристик системы охлаждения GeForce GTX Titan. По сравнению с GeForce GTX 680 шума действительно стало меньше. Разное количество выделяемого графическими процессорами тепла не столь сильно повлияло на эффективность охлаждения. Вернее, инженерам удалось сдержать пыл GK110 на уровне GK104 с меньшим уровнем шума. Превосходный результат.

Температура системы питания и обороты вентилятора/ов.

А продвинутый радиатор системы питания не позволил подняться температуре VRM выше 80°C. Опять же по аналогии с GeForce GTX 680 явных ухудшений не замечено.

NVIDIA GeForce GTX Titan

NVIDIA GeForce GTX 690

NVIDIA GeForce GTX 680

AMD Radeon HD 7970

Для корректного сравнения необходимо прослушивать все видеозаписи на одном уровне громкости. Сравнение относительное, а не абсолютное.

NVIDIA GeForce GTX Titan 30% 35% 40% 45% 50% 55% 60% 65% 70% 75% 80% 85%
дБА 24.0 26.8 29.7 32.8 36.5 40.2 43.5 46.7 49.8 53.0 56.2 58.6
t°C минимальная 29 28 27 26 25 25 25 25 25 25 25 25
t°C максимальная 98 91 84 77 72 67 63 59
t°C VRM мин 31 30 30 30 29 29 29 28 28 28 28 28
t°C VRM макс 90 84 79 74 70 67 63 60
t°C окружающей среды 24 24 24 24 24 24 24 24 24 24 24 24
Обороты вентилятора, об/мин 1150 1350 1500 1750 2000 2200 2400 2700 3000 3400 3750 4100

NVIDIA GeForce GTX 680 30% 35% 40% 45% 50% 55% 60% 65% 70% 75% 80% 85%
дБА 31.1 32.0 35.6 38.0 41.1 44.0 46.2 50.0 52.0 55.2 58.0 60.8
t°C минимальная 32 32 31 31 29 29 28 28 27 27 27 26
t°C максимальная 98 89 81 74 70 66 64 62
t°C VRM мин 35 35 35 34 34 34 33 33 33 32 31 30
t°C VRM макс 84 80 75 69 65 63 61 60
t°C окружающей среды 24 24 24 24 24 24 24 24 24 24 24 24
Обороты вентилятора, об/мин 1125 1300 1500 1725 1950 2200 2475 2775 3100 3450 3850 4250

Сводный анализ производительности систем охлаждения

Для корректного сравнения возьмем несколько конкурентов, в том числе с нереференсными системами охлаждения.

Без нагрузки.

  • NVIDIA GeForce GTX Titan – 30%, 1150 об/мин, 29°C, 24.0 дБА, VRM 31°C.
  • NVIDIA GeForce GTX 680 – 30%, 1125 об/мин, 32°C, 31.1 дБА, VRM 35°C.
  • Gainward GTX 680 - 25%, 1150 об/мин, 33°C, 24.8 дБА, VRM 38°C.
  • KFA2 GTX 680 EX OC - 30%, 1150 об/мин, 30°C, 26.2 дБА, VRM 41°C.
  • KFA2 GTX 680 LTD OC - 30%, 1000 об/мин, 28°C, 31.4 дБА, VRM 37°C.
  • Gigabyte GV-N680OC-2GD – 40%, 1850 об/мин, 27°C, 33 дБА, VRM 34°C.
  • MSI N680GTX Lightning – 30%, 1050 об/мин, 25°C, 29.5 дБА, VRM 29°C.
  • Zotac GTX 680 AMP! – 30%, 1400 об/мин, 27°C, 33.0 дБА, VRM 35°C.

Под нагрузкой.

  • NVIDIA GeForce GTX Titan – 62%, 2450 об/мин, 82°C, 43.5 дБА, VRM 78°C.
  • NVIDIA GeForce GTX 680 – 60%, 2475 об/мин, 81°C, 46.2 дБА, VRM 75°C.
  • Gainward GTX 680 - 60%, 2250 об/мин, 78°C, 44.2 дБА, VRM 79°C.
  • KFA2 GTX 680 EX OC - 47%, 1800 об/мин, 74°C, 38.6 дБА, VRM 89°C.
  • KFA2 GTX 680 LTD OC - 45%, 1200 об/мин, 93°C, 34.3 дБА, VRM 73°C.
  • Gigabyte GV-N680OC-2GD – 45%, 2250 об/мин, 70°C, 39 дБА, VRM 83°C.
  • MSI N680GTX Lightning – 45%, 1600 об/мин, 68°C, 38.7 дБА, VRM 72°C.
  • Zotac GTX 680 AMP! – 42%, 1950 об/мин, 70°C, 41.3 дБА, VRM 80°C.

Для полного восприятия информации необходимо учитывать напряжение и частоту видеокарт под нагрузкой. Для наглядности добавим недостающие для анализа данные из теста Furmark.

  • NVIDIA GeForce GTX Titan – заявленная частота 837-876 МГц, реальная 780 МГц, напряжение 1.075 В.
  • NVIDIA GeForce GTX 680 – заявленная частота 1006-1058 МГц, реальная 1006 МГц, напряжение 1.157 В.
  • Gainward GTX 680 - заявленная частота 1084-1150 МГц, реальная 1080 МГц, напряжение 1.175 В.
  • KFA2 GTX 680 EX OC - заявленная частота 1110-1176 МГц, реальная 1100 МГц, напряжение 1.141 В.
  • KFA2 GTX 680 LTD OC - заявленная частота 1150-1176 МГц, реальная 1250 МГц, напряжение 1.203 В.
  • Gigabyte GV-N680OC-2GD - заявленная частота 1071-1137 МГц, реальная 1125 МГц, напряжение 1.197 В.
  • MSI N680GTX Lightning - заявленная частота 1110-1176 МГц, реальная 1150 МГц, напряжение 1.213 В.
  • Zotac GTX 680 AMP! - заявленная частота 1110-1176 МГц, реальная 1111 МГц, напряжение 1.167 В.

Исходя из результатов, нельзя не отметить существенное снижение частоты GeForce GTX Titan под нетипичной нагрузкой Furmark. Единственная причина, почему видеокарта так поступает, это попытка вывести ее из расчетного равновесия, когда общая нагрузка не превышает 105-107%.

Соотношение температуры GPU в 2D и уровня шума.

В простое по сравнению с видеокартами GeForce GTX 680, GeForce GTX Titan стал самым тихим ускорителем. Не зря инженеры потратили столько сил на доводку и модернизацию системы охлаждения. Вы думаете, я шучу? Взгляните, номинальные обороты вентилятора GeForce GTX 680 и GeForce GTX Titan одинаковые, а уровень шума различается на 7 дБА!

Соотношение температуры GPU в 3D и уровня шума.

Но под нагрузкой все становится на свои места. Охлаждать 7.1 млрд транзисторов нелегко, а делать это лучше GeForce GTX 680 вдвойне тяжело. И все-таки и с этой задачей инженеры справились.

Предлагаю вам ознакомиться с приведенными ниже данными по результатам тестирования. Для начала – зависимость температуры графического ядра от оборотов вентилятора/ов.

Зависимость температуры силовой части видеокарты от оборотов вентилятора/ов.

Уровень шума

Послушать систему охлаждения и сравнить различные СО между собой можно, воспользовавшись приведенными в таблице ссылками.

Стоит отметить, что для сравнения величин шума уместнее обращать внимание на численные значения в дБА. Данное тестирование подразумевает относительное сравнение характера шума. Для правильного сопоставления выставите громкость вашей акустики на один уровень, на котором и следует слушать все аудиозаписи.

Референсные СО AMD Референсные СО NVIDIA
Radeon HD 5970 [2900 Кб] GTX 470 [2500 Кб]
Radeon HD 6790 [2500 Кб] GTX 570 [2500 Кб]
Radeon HD 6850 [1700 Кб] GTX 580 [1500 Кб]
Radeon HD 6870 [2150 Кб] GTX 590 [2700 Кб]
Radeon HD 6950 [3200 Кб] GTX 670 [1800 Кб]
Radeon HD 6970 [2600 Кб] GTX 680 [2300 Кб]
Radeon HD 6990 [2150 Кб] GTX 690 [2550 Кб]
Radeon HD 6990 880 МГц [2300 Кб] GTX Titan [1400 Кб]
Radeon HD 7750 [2050 Кб]
Radeon HD 7770 [3040 Кб]
Radeon HD 7870 Rev 1 [2100 Кб]
Radeon HD 7870 Rev 2 [2650 Кб]
Radeon HD 7950 [3200 Кб]
Radeon HD 7970 [3100 Кб]
Radeon HD 7850 Rev 1 [2250 Кб]
Radeon HD 7850 Rev 2 [1550 Кб]
Оригинальные СО AMD Оригинальные СО NVIDIA
AC Accelero HD 7970 [1600 Кб] Palit GTX 660 Ti JETSTREAM [1050 Кб]
ASUS HD7870-DC2T-2GD5 [1470 Кб] MSI N660Ti PE 2GD5/OC [1550 Кб]
HIS 7870 IceQ Turbo [2000 Кб] Zotac GTX 660Ti AMP! [1970 Кб]
HIS IceQ Turbo HD 6790 DD [2100 Кб] ASUS GTX 670 DirectCU II [2650 Кб]
MSI HD 6870 Hawk P[1700 Кб] Gainward GTX 680 Phantom [2630 Кб]
MSI HD 6870 Hawk S[2300 Кб] Gigabyte GTX 560 Ti 448 [2300 Кб]
MSI HD 6970 Lightning P[1700 Кб] Inno3D iChill GTX670 OC [2350 Кб]
MSI HD 6970 Lightning S[1850 Кб] KFA2 GTX 670 EX OC [2550 Кб]
MSI HD 7770 [2200 Кб] KFA2 GTX 680 LTD OC [1715 Кб]
MSI HD 7950 Twin Frozr III [2500 Кб] MSI GTX 460 Cyclone II [2300 Кб]
MSI R7870 HAWK [2080 Кб] MSI GTX 460 Hawk [2150 Кб]
MSI R7870 Twin Frozr 2GD5/OC [1300 Кб] MSI GTX 480 Lightning [2300 Кб]
Sapphire HD 6790 [2700 Кб] MSI GTX 550Ti Cyclone II [3600 Кб]
Sapphire HD 7870 GHz Edition OC [1600 Кб] MSI GTX 560 Twin Frozr II [1500 Кб]
XFX HD 7770 DD [3500 Кб] MSI GTX 560Ti 448 Twin Frozr III P[2000 Кб]
XFX HD 7950 DD [2600 Кб] MSI GTX 560Ti 448 Twin Frozr III S[1700 Кб]
XFX HD 7970 DD [2600 Кб] MSI GTX 560Ti Twin Frozr II [2150 Кб]
MSI HD 7970 Lightning [1470 Кб] MSI GTX 580 Lightning [1300 Кб]
HIS HD 7970 X Turbo [1000 Кб] ZOTAC GTX 560Ti 448 [2600 Кб]
Sapphire HD 7850 OC [1850 Кб] Zotac GTX 660 AMP! [860 Кб]
HIS 7850 IceQ X Turbo X [920 Кб] Inno3D iChill GTX 660Ti [1000 Кб]
MSI R7850 Power Edition OC [1000 Кб] KFA2 GTX 680 LTD OC [620 Кб]
MSI R7770 Power Edition 1GD5/OC (1 вентилятор) [2030 Кб] Gigabyte GV-N680OC-2GD [500 Кб]
MSI R7770 Power Edition 1GD5/OC (2 вентилятора) [1500 Кб] MSI GTX 680 Lightning [530 Кб]
XFX R7750 DD BE [1480 Кб] KFA2 GeForce GTX 660 Ti 3GB EX OC [860 Кб]
Gigabyte GV-R785OC-1GD [1240 Кб] KFA2 GeForce GTX 660 EX OC [1840 Кб]
XFX R7850 Core Edition [1150 Кб] MSI N660 TF 2GD5/OC [1340 Кб]
PowerColor AX7850 2GBD5-DHV2 [1550 Кб] MSI N650Ti PE 1GD5/OC [2560 Кб]
ASUS HD7850-DC-1GD5 [1300 Кб] MSI N650 PE 1GD5/OC (1 вентилятор) [1700 Кб]
ASUS HD7850-DC2-2GD5 [2150 Кб] MSI N650 PE 1GD5/OC (2 вентилятора) [2250 Кб]
ASUS HD7850-DC2T-2GD5-V2 [850 Кб] Zotac GTX 680 AMP! [1200 Кб]
PowerColor HD7990 [2200 Кб]
Sapphire HD 7870 XT [1850 Кб]

Предварительные выводы

Если подойти к делу с технической стороны, то видеокарта NVIDIA GeForce GTX Titan получила большое количество интересных функций и возможностей. В их числе: адаптированная под разгон и тишину система охлаждения, возможность создания конфигурации из трех ускорителей, высокая производительность в GPGPU-вычислениях с двойной точностью, качественная система питания без посторонних звуков в любых режимах работы.

Осталось проверить игровую производительность и окончательно расставить все точки над «i».

Дмитрий Владимирович

Выражаем благодарность за помощь в подготовке материала:

  • Компании NVIDIA за предоставленную на тестирование видеокарту GeForce GTX Titan.

За кадром

Продолжение следует…