Задолго до появления всей архитектуры Kepler никому из пользователей и в голову не могло прийти, что в основу массовой видеокарты NVIDIA верхнего ценового сегмента будет положено графическое ядро площадью менее 300 мм2. Им стало GK104, не в последнюю очередь из-за желания компании убрать из своего списка очень дорогое графическое ядро площадью более 400 мм2. Дальнейшие модели ускорителей создавались под лозунгом «Цель оправдывает средства».
И пока преданные поклонники NVIDIA ждали выхода настоящего флагмана из серии «А посмотрите, какого я размера», видеокарты обоих вендоров приобрели очень странные по сравнению с предыдущими поколениями ценники. То, что еще пару лет назад оценивалось суммой до 400 долларов, стало предлагаться за 400-500 долларов. Свою роль здесь сыграло множество факторов.
Первый, самый критичный – переход на техпроцесс 28 нм и существенное удорожание производства. При этом пользователи не остались внакладе, получив действительно производительные решения, которые пусть и стоили дороже, чем прошлое поколение, но зато обладали куда большей скоростью. А за тот период времени, пока GeForce GTX 680 и Radeon HD 7970 соперничали, NVIDIA в кулуарах разработала эксклюзивного тихого убийцу. GK110 – это и есть молчаливый монстр, площадью 521 мм2. Ему совсем чуть-чуть не хватило до рекорда, который числится за GT200/300 первой ревизии. Вы только вдумайтесь, если GT200/300 производился по 65 нм технологии, обладал площадью 576 мм2 и 1400 млн транзисторов в 2008 году, то спустя пять лет технологии позволили уместить 7100 млн транзисторов в куске кремния площадью 521 мм2.
Первые предпосылки о существовании GK110 появились в середине 2012 года, именно тогда всплыли некоторые данные, говорящие о скором выходе старшего решения. Вот только суждено ему было стартовать совсем в другом амплуа, не в игровом, а в сфере математических вычислений, в кругу моделей, именуемых как Tesla. На базе большого Kepler возникла целая серия профессиональных карт K20. Характеристики, интересующие большую часть пользователей, пусть и выглядели устрашающе для конкурента, но игрового применения не получили.
Что ж, тем проще было выбирать среди присутствующих на рынке видеокарт, разница в производительности которых зачастую ограничивалась значением в 10-15%. Примерно такой вот цифрой и можно охарактеризовать средний разброс между Radeon HD 7970 и GeForce GTX 680. Одна была чуть шумнее и прожорливее, но при этом быстрее, а вторая дороже и немного медленнее. Обе они хорошо подходили как для разгона, так и для современных игр, которые в последнее время не старались соответствовать духу времени. Отсюда и несерьезные на сегодняшний день технические требования. Особенно если учесть, что львиная доля пользователей как раз перешла с мониторов с разрешением меньше 1300 пикселей по ширине на модели с 1920.
Впрочем вернемся к Titan. Да, это новое название видеокарты для игроманов на GK110. Я продолжу с немного пугающей цифры – 35 000 рублей. Именно столько просит компания за свою разработку. Стоит отметить, что это рекомендованный производителем ценник, с которого, скорее всего, первые «сливки» захотят снять розничные продавцы. Думаю, к лету стоимость GeForce GTX 690 и GeForce GTX Titan сравняется.
| Наименование | HD 7970 | HD 7970 GHz | GTX 680 | GTX Titan | GTX 690 |
| Кодовое имя | Tahiti XT | Tahiti XT | GK104 | GK110 | GK104 |
| Техпроцесс, нм | 28 | 28 | 28 | 28 | 28 |
| Размер ядра/ядер, мм2 | 365 | 365 | 294 | 521 | 294x2 |
| Количество транзисторов, млн | 4300 | 4300 | 3540 | 7100 | 3540x2 |
| Частота ядра, МГц | 925 | 1050 | 1006 (1084) | 840 (880) | 915 (1020) |
| Число шейдеров (PS), шт. | 2048 | 2048 | 1536 | 2688 | 3072 |
| Число блоков растеризации (ROP), шт. | 32 | 32 | 32 | 48 | 64 |
| Число текстурных блоков (TMU), шт. | 128 | 128 | 128 | 224 | 256 |
| Максимальная скорость закраски, Гпикс/с | 30.2 | 33.6 | 32 | 40.2 | 58.6 |
| Максимальная скорость выборки текстур, Гтекс/с | 118.5 | 134.4 | 128 | 187.5 | 234.2 |
| Версия пиксельных/ вертексных шейдеров | 5.0 / 5.0 | 5.0 / 5.0 | 5.0 / 5.0 | 5.0 / 5.0 | 5.0 / 5.0 |
| Тип памяти | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 |
| Эффективная частота памяти, МГц | 5500 | 6000 | 6000 | 6000 | 6000 |
| Объем памяти, Мбайт | 3072 | 3072 | 2048 | 6144 | 2048x2 |
| Шина памяти, бит | 384 | 384 | 256 | 384 | 256x2 |
| Пропускная способность памяти, Гбайт/с | 264 | 288 | 192 | 288.4 | 192x2 |
| Потребляемая мощность (2D / 3D), Вт | 3 / 250 | 3 / 290 | нд / 195 | нд / 250 | нд / 300 |
| CrossFire/Sli | да | да | да | да | да |
| Рекомендованная цена, $ | 410 | 430 | 500 | 999 | 999 |
Ядро GK110 состоит из 15 SMX движков, каждый из которых наполнен вычислительными устройствами – Cuda-ядрами.
Если подробнее, то графический процессор GK110 содержит 192 FP32 CUDA-ядра и 64 FP64, 64 килобайта L1 кэша, 65 тысяч 32-битных регистров и 16 текстурных блоков. SMX движки состыкованы с 6 блоками, состоящими из 8 ROP каждый, 256 килобайтами L2 кэша и подсоединены к 64-битным контроллерам памяти. Число «15» не окончательное, в розничный сектор попали видеокарты с активированными 14 SMX. Как ни печально, но желание удержать энергопотребление на определенном уровне вносит свои коррективы в финальный продукт. Всего же в GK110 насчитывается 2688 CUDA-ядер, способных производить вычисления с одинарной точностью.
На тот случай, если вам захочется исполнить команды с двойной точностью, новый продукт NVIDIA располагает 896 FP64 ядрами. В дополнение к мощной вычислительной части у видеокарты присутствует 224 текстурных блока и 48 блоков ROP. В сущности, никаких изменений по сравнению с Tesla K20X. Желающие получить Hyper-Q и Dynamic Parallelism за 35 000 рублей могут не задерживаться, а проходить прямо к Tesla.
За теоретической частью прячется суровая реальность. Частоты в угоду повсеместно внедряемой схеме снижения энергопотребления пришлось ограничить на уровне 8хх МГц. Что, с одной стороны, несколько меньше 1000 МГц у GTX 680, а с другой – не настолько мало, чтобы сильно выделяться среди семейства GeForce GTX. Что касается памяти, то золотой стандарт NVIDIA в 6 ГГц полностью соблюден. И приведу еще один интересный факт. На самом деле сейчас вполне можно было бы обойтись и объемом видеопамяти в 3 Гбайта, но новому флагману это просто не к лицу. Поэтому видеокарта получила 6 Гбайт, набранных двадцатью четырьмя микросхемами общей пропускной способностью в 288 Гбит/с.
На закуску осталось поговорить об энергопотреблении. Будь на дворе 2006-2008 год, то и 450 Вт мало кого удивило бы. Но в NVIDIA выбирали из двух вариантов. Приемлемый уровень – GeForce GTX 690 и 300 Вт, идеальный уровень – GeForce GTX 680 и 195 Вт. Здесь стоило бы сделать остановку и рассказать подробнее о 195 Вт у GeForce GTX 680. Это практически потолок энергопотребления на эталонной карте со 132% запасом Power Target. В жизни не все производители соблюдают энергетическую диету и часто превышают рекомендованный лимит. А GeForce GTX Titan умещается в 250 Вт, что очень скромно. И даже такой искусственный барьер позволяет разгонять видеокарту, впрочем, об этом речь пойдет чуть позже.
Итак, GeForce GTX Titan это в первую очередь игровая карта для настоящих энтузиастов, готовых выложить 35 000 рублей. Она едва ли не единственная, кто может не только быстро воспроизводить игровые картинки, но и считать. Напомню, что GK104 это игровое ядро с формальной поддержкой FP64. Скорость выполнения команд с двойной точностью у него ограничена 1/64 от полного такта, а у GK110 – 1/3, что дает ей 1.3 Тфлопса. Фактически, Titan претендует на роль младшей карты для вычислений. Ее нельзя расценивать с точки зрения «производительность/цена». Такой подход в корне убьет всю оставшуюся привлекательность, а она, поверьте мне, в ней есть.
Только сегодня и сейчас NVIDIA вправе говорить о выпуске самой быстрой однопроцессорной видеокарты, но лишь до тех пор, пока у конкурента нет аналога. Правда, я сильно сомневаюсь, что многим она окажется по карману, и еще меньшее число людей будет использовать ее возможности в полной мере. Вот и AMD не считает GeForce GTX Titan конкурентом.
Естественно, сегмент ультра дорогих моделей в разы меньше массового сектора, а идентичной производительности в играх проще достичь покупкой GeForce GTX 690 или сооружением связки SLI/Crossfire. С другой стороны, NVIDIA позволила себе подогреть интерес рынка к своим продуктам, так что можно считать Titan аналогом Veyron в мире видеокарт. Вы подумали о цене и ограниченности тиража? Неправильно, производитель уверяет, что не пройдет и двух недель с момента анонса, как Titan появится в магазинах и любой желающий сможет его приобрести.
С анонсом архитектуры Kepler компания NVIDIA внедрила ряд дополнительных возможностей. В частности теперь можно задействовать адаптивный VSync. Суть его работы заключается в том, чтобы обеспечить максимально комфортное воспроизведение картинки в играх.
После активации адаптивного VSync максимальное число кадров в секунду не превышает частоту развертки монитора, но здесь важнее второй момент. Цикл падения производительности становится плавным, что приводит к отсутствию дерганой картинки. Усовершенствование заключается в том, что теперь доступна функция настройки ограничения кадров до любого значения, вплоть до 120.
Технология 3Way SLI позволяет подключить до трех GeForce GTX Titan в одной системе. На сегодня такой вариант наиболее производительный среди всего ассортимента предложений NVIDIA.
Здесь наибольший интерес у пользователей вызовет новая технология GPU Boost 2.0. Пока она будет доступна только обладателям видеокарты GeForce GTX Titan, но я почти уверен, что позже следует ожидать ее появления и в будущих новинках NVIDIA. Стоит кратко напомнить, как пользоваться GPU Boost 1.0.
Встроенный алгоритм управления частотой и напряжением графического процессора работает по своим стандартам, и разгон видеокарт NVIDIA GeForce осуществляется несколько в ином формате. Обращаю ваше внимание, что сейчас в руки пользователей попадает несколько переменных.
Первая – предельное энергопотребление, стандартная формулировка которого обозначается цифрой 100% или ~xxx Вт для ускорителя целиком (может варьироваться в зависимости от экземпляра, в основном завышенное базовое значение используется в разогнанных с завода моделях). Отныне заявленная номинальная частота – это базовая частота, ниже которой графическое ядро не опускается ни при каких нагрузках в типичных игровых приложениях. Значение «Турбо» (GPU Boost) обозначает усредненную частоту GPU по результатам большинства игровых сцен.
Новая технология, ориентируясь на максимально допустимую нагрузку и достигнутую температуру, автоматически подстраивает частоту и задает напряжение. В теории максимальная температура равна 82-85°C, вентилятор системы охлаждения постоянно подстраивается под изменяющиеся условия тестирования, не позволяя GPU разогреться выше приведенных чисел. Естественно, что GPU Boost учитывает и температуру. И если видеокарта по каким-то причинам превысит эту цифру, в дело вступят функции защиты. Практический максимум, по заявлениям NVIDIA, равен 98°C – это критическая температура, после которой система может полностью выключиться, предварительно применив все доступные методы защиты.
Вторая – это желаемая частота. Я не пишу «базовая», поскольку при установке этой частоты можно поймать себя в ловушку. Все дело в том, что при значительном нагреве или в случае аномальной загрузки видеокарта может понижать данную частоту и ниже ваших установок.
Разгон стоит начинать со статичного предельного энергопотребления, например, 100%. Затем понемногу увеличиваете желаемую частоту – до тех пор, пока не увидите один из признаков достижения лимита. Видеокарта либо начнет сбрасывать частоты на начальные значения, либо зависать. Любой из этих признаков означает, что придется увеличивать предел. Не советую сразу выставлять максимально допустимое энергопотребление. Данное действие мгновенно приведет к перегреву и зависанию карты. Зато набравшись терпения, чутья и времени, вы гарантированно мелкими шажками разгоните карту до 1.2-1.3 ГГц.
В свою очередь GPU Boost автоматически добавляет напряжение в зависимости от выставленного предела энергопотребления, следом растет и частота. В конечном итоге видеокарта постепенно разгоняется. В чем же суть обоих инструментов управления? Не в том ли, что отныне нет смысла задавать базовую частоту и напряжение? Фактически, испробовав различные комбинации и варианты, мне удалось сбалансировать на грани фола и удержать хороший разгон во время проверки программой Furmark. Делается это двумя переменными. Необходимо тонко чувствовать работу GPU Boost и подстраиваться под нее, устанавливая правильную базовую частоту и предел энергопотребления.
К счастью, видеокарты оригинального дизайна получили расширенный диапазон регулировки Power Target – до 150 и более процентов. Но это применимо не всегда, часть ускорителей (особенно тех, что заранее разогнаны), наоборот, ограничена до 120%. Тут логичнее говорить об общем максимуме мощности системы питания, когда каждый производитель выставляет свой предел.
Говоря проще, Power Target указывает на максимальное энергопотребление видеокарты, под которое подстраиваются GPU Boost и ваши настройки разгона. Чем выше значение Power Target, тем больше шансов разогнать GPU, при условии нормальных температур графического ядра и силовой части. Как только вы упираетесь в верхнюю грань и параллельно пытаетесь задать большую частоту (нежели ту, на которой может работать видеокарта), алгоритм, заложенный в драйвер, сбрасывает частоту. После этого достаточно убрать с десяток мегагерц и повторить тест. И так до тех пор, пока не найдете максимально стабильную частоту ядра. А далее – новый маневр с Power Target. Совет здесь один: поднимать на одно-два деления и не забывать при этом о проверке работоспособности видеокарты на заданных параметрах.
Для тех, кто умудрился запутаться в разгоне новых GPU NVIDIA, я приготовил иллюстрации.
Общий план работы карты.
Полное TDP видеокарты, именно максимально допустимое, изначально задано производителем. Складывается оно из штатных рабочих частот в рамках функции GPU Boost и максимального значения Power Target. GPU Boost управляет не только частотой, но и напряжением, а Power Target – это стратегический запас для разгона. Допустим, мы, не трогая Power Target, увеличим GPU Clock Offset.
Запрашиваемая частота – это GPU Clock Offset. Было задано слишком высокое значение, которое превышает заложенное производителем начальное энергопотребление (TDP). В результате частота вырастет на меньшую величину. Для того чтобы действительно достичь требуемой частоты, придется сдвинуть Power Target.
Вот так выглядят идеально подобранные настройки. Запрашиваемая частота подкреплена сдвигом ползунка Power Target. Максимальное TDP не превышено.
К сожалению, иногда приходится встречаться со сложным алгоритмом разгона. С тех пор как NVIDIA задала определенный уровень TDP для каждого класса видеокарт, а компании применяют собственный разгон, вы вполне можете столкнуться с полным отсутствием частотного потенциала. Очень сложно определить стабильную частоту, поскольку, даже увеличив Power Target, GPU Boost работает непредсказуемо. В одной игре вы получите 1130 МГц, а в более требовательной – 1100 МГц. После запуска Furmark на экране и вовсе будет фигурировать 1050 МГц.
Новая технология в виде GPU Boost 2.0 расширила свое влияние на частотный диапазон. Даже первая ее версия отличалась быстрой работой, постоянно стараясь увеличить частоту при любой возможности. Вторая версия работает по более агрессивному сценарию. Если заявленная частота GPU Boost равна 870 МГц, то в реальности можно встретить как 915 МГц, так и 990 МГц. Причины столь сильного повышения частоты кроются в настройках.
Во-первых, пользователям теперь доступна не одна базовая настройка (Power target), а две – Power Target и «Температура». По умолчанию приоритет остается за первой. Максимальное значение для Titan – всего 110%, начальная температура 80°C, а максимальная температура равна 95°C. Оба параметра могут задаваться как раздельно, так и совместно, причем приоритет можно изменять от одного к другому. Как результат, средняя частота увеличивается.
Готовы перейти к более интересной части? Тогда вперед. NVIDIA позволила при условии соглашения с риском повредить видеокарту задействовать небольшой вольтмод (OverVoltage) до 1.187 В. Соглашаясь с правилами, вы дополнительно увеличиваете напряжение и повышаете среднюю частоту GPU. Вроде бы появляется ощущение снисходительности по отношению к энтузиастам, но ранее объявленное общее ограничение максимального энергопотребления никуда не делось. Допустим, будем считать, что 250 Вт это среднее энергопотребление, тогда максимальное по моим тестам получилось «плюс 45 Вт». Не дотягивает даже до GeForce GTX 690.
Что же получают пользователи? Жесткую привязку к 295 Вт, все остальное предоставлено на ваше усмотрение, хотя напряжение при этом нельзя поднять выше 1.187 В. Налицо желание компании максимально огородить видеокарту от любых повреждений и запутать дополнительно пользователя различными настройками. Но не все так печально. Изначальный смысл появления температурной настройки позволяет существенно снизить уровень шума без риска перегреть карту. Говоря проще, в рамках определенного диапазона можно делать все, что вашей душе угодно, варьировать уровень шума, нагрева, разгон по своему усмотрению, но под контролем NVIDIA
Дополнительно обнаружился еще один интересный момент. Ранее я не встречался с проблемой разгона памяти на видеокартах NVIDIA GeForce GTX 6xx, но теперь максимальный TDP распространяется и на память. Чем это чревато для энтузиастов? Приведу простой пример. Путем некоторых манипуляций вокруг цифры 295 Вт можно получить разгон 1100-1170 МГц, настало время разгонять память. Но каждые дополнительные 100 МГц памяти отнимут 25-50 МГц от разгона ядра. Неудобно и непривычно… К тому же, ускоритель GeForce GTX Titan не приспособлен для стресс-тестов типа Furmark. Он быстро распознает нетипичную нагрузку и снижает частоту вместе с напряжением до минимального значения. Для проверки разгона мне пришлось воспользоваться программой тестирования Unigine Heaven в максимально тяжелых для видеокарты условиях.
| Частота GPU, ГГц | 0.950 | 0.975 | 1 | 1.015 | 1.030 | 1.045 | 1.060 | 1.075 | 1.100 | 1.125 |
| Power Target | 100 | 102 | 106 | 106 | 106 | 106 | 106 | 106 | 106 | 106 |
| Temp Target | 80 | 85 | 95 | 95 | 95 | 95 | 95 | 95 | 95 | 95 |
| GPU Clock offset | 0 | 25 | 30 | 35 | 25 | 35 | 50 | 65 | 90 | 115 |
| Напряжение, мультиметр, В | 1.112 | 1.115 | 1.115 | 1.115 | 1.187 | 1.187 | 1.187 | 1.187 | 1.187 | 1.187 |
| Температура GPU, °C | 80 | 81 | 81 | 81 | 82 | 82 | 82 | 82 | 82 | 82 |
| Температура VRM, °C | 70 | 71 | 72 | 72 | 73 | 73 | 73 | 73 | 73 | 73 |
| Обороты вентилятора (max), об/мин | 2250 | 2350 | 2400 | 2400 | 2500 | 2500 | 2500 | 2500 | 2500 | 2500 |
| Энергопотребление, Heaven, Вт | 315 | 332 | 334 | 335 | 351 | 354 | 354 | 354 | 355 | 359 |
В итоге была достигнута стабильная частота графического процессора в 1125 МГц, а в играх и того больше – 1150 МГц. Не забыта и память, она разогналась совместно с GPU до 1650 МГц.
Пришло время рассмотреть видеокарту GeForce GTX Titan подробнее.
| Модель | A, мм | B, мм | C, мм | D, мм | A1, мм | B1, мм | C1, мм |
| AMD HD 7970/ HD 7950 | 266 | 98 | 34 | 71 | 277 | 98 | 39 |
| NVIDIA GTX 670 | 172 | 98 | 33 | 62 | 241 | 98 | 38 |
| NVIDIA GTX 680 | 254 | 98 | 34 | 63 | 254 | 98 | 38 |
| NVIDIA GTX 690 | 280 | 98 | 34 | 84 | 281 | 99 | 40 |
| NVIDIA GTX Titan | 267 | 98 | 36 | 64 | 267 | 98 | 40 |
А - длина печатной платы, без учета системы охлаждения и планки портов видеовыходов.
В - ширина печатной платы, без учета контактов PCI-E и системы охлаждения.
С - высота от горизонтальной плоскости печатной платы до уровня верхней поверхности системы охлаждения.
D - диаметр вентилятора/ов по внешнему радиусу.
А1 - длина печатной платы, с учетом системы охлаждения (если выходит за пределы печатной платы) до планки портов видеовыходов.
В1 - ширина печатной платы, без учета контактов PCI-E, но с замером системы охлаждения (если выходит за пределы печатной платы).
С1 - высота, с учетом задней пластины (если есть)/винтов крепления радиатора до уровня верхней поверхности системы охлаждения. Если она ниже высоты задней планки портов видеовыходов, то измеряется высота до верхней точки планки.
В своем новом премиум-продукте NVIDIA решила продолжить стиль видеокарты GeForce GTX 690. Элегантный корпус системы охлаждения из магниевого сплава, вставка из оргстекла и прочее в том же духе. Легко угадывается сопоставление дизайна графических ускорителей с их стоимостью под 1000 долларов.
На задней панели расположены стандартные видеовыходы: пара DVI, HDMI и DisplayPort. Общая длина GeForce GTX Titan составляет 267 мм, что всего на несколько миллиметров больше соответствующего габарита GTX 680.
Для GeForce GTX Titan компания подготовила свой персональный дизайн. Оно и понятно, до сих пор в ассортименте NVIDIA были видеокарты с шиной обмена данными 256 бит и 512 бит, а Titan оборудован 384-битным интерфейсом. Первая партия, состоящая из двенадцати микросхем, расположена вокруг GPU, оставшиеся двенадцать штук размещены сзади в зеркальном отражении.
Если вы помните, NVIDIA принципиально ограничивает максимальное энергопотребление своих моделей, поэтому расчетное тепловыделение легко сопоставить с наличием шести фаз питания. Нет больше необходимости гадать, какие частоты, какое напряжение задаст энтузиаст, разгоняя видеокарту. Не надо задаваться вопросами, не выйдет ли из строя система питания, хватит ли ее на разгон. С этой точки зрения, руководствуясь принципами достаточности, шесть фаз в формате Dr.MOS – вполне хороший задел на любые жизненные ситуации. Пара фаз предусмотрена для памяти. Стоит отметить, что вся схема питания симметрично отражена относительно середины, что это, не проявление ли эстетического духа разработчиков даже в мелочах?
ШИМ-контроллер питания GPU – ON Semiconductor NCP 4206. К сожалению, мне не удалось найти по нему каких-либо данных. Аналогичный контроллер установлен и на GeForce GTX 690. Можно лишь предположить, что максимальное количество поддерживаемых фаз равно шести. И судя по всему, а другое здесь было бы странно, контроллер оснащен современными технологиями энергосбережения (отключение фаз питания во время простоя) и протоколом связи между программой и VID-значениями напряжений. Последнее открывает пользователю доступ к изменению напряжений видеоядра и памяти.
Графический процессор GK110 площадью ~521 мм2 размещен на текстолитовой подложке на 31-й неделе 2012 года. Вместо привычной цельной пластины кремниевый кристалл защищен металлической рамкой по периметру. Финальная формулировка фаз питания звучит так: 6+2+1 (GPU/MEM/PLL).
Двадцать четыре микросхемы памяти с шиной обмена данных 384 бита и плотностью 2 Гбита распаяны по сторонам от GPU. Это продукция производства Samsung, она рассчитана на частоту до 1500 МГц (эффективная частота 6000 МГц).
Штатные частоты NVIDIA GeForce GTX Titan составляют 837 МГц (Turbo Boost до 876 МГц) и 1500 МГц соответственно для графического процессора и памяти.
Система охлаждения нового однопроцессорного флагмана состоит из нескольких частей, но после снятия кожуха львиная доля внимания достается основному радиатору. Во-первых, в его основании лежит большая испарительная камера. Во-вторых, использована практически вся доступная под его размещение длина. В-третьих, чтобы добраться до него, придется воспользоваться целым набором инструментов. Как вы думаете, сколько типов винтов вам придется открутить? Два-три? Пять! Пара крестовых соединений, Torx и шестигранники.
Инженеры в угоду красивому виду создали ребус для потребителей. Мало того, все шестигранники настолько малы, что риск сорвать их чрезвычайно велик. Осложняет процесс разборки и нанесенный на них фиксатор резьбы. Кто-то действительно думает, что GeForce GTX Titan это вибростенд и винты будут выкручиваться в процессе эксплуатации?
Возможно, никто просто не подумал о том, что рано или поздно наступит момент, когда под прозрачной крышкой скопится пыль. И как ее тогда очистить? На видеокарте не предусмотрен режим принудительной продувки системы, остается только полная разборка системы охлаждения.
Под радиатором уместилась массивная пластина, охлаждающая в первую очередь систему питания. А для повышения эффективности в конце карты сделаны дополнительные ребра. В целом конструкция очень надежная и производительная.
Перечень используемых контрольно-измерительных приборов и инструментов
Для корректного замера температуры и шума использовались приведенные ниже условия. Помещение, внутри которого располагается система автоматической поддержки климатических условий. В данном случае уровень температуры был установлен на отметке 24°C +/-1°C. За точностью соблюдения заданных параметров наблюдало четыре датчика, один из которых находился в 5 см от вентилятора системы охлаждения видеокарты и был ведущим. По нему происходила основная коррекция температуры в помещении.
Шум измерялся на расстоянии 50 см до видеокарты. Фоновый уровень составлял <20 дБА. В качестве жесткого диска использовался SSD, а блок питания, помпа, радиатор с вентиляторами во время замера находились за пределами комнаты. На стенде отсутствовали иные комплектующие, издающие какие-либо шумы.
Звуко- и видеозапись системы охлаждения производилась на расстоянии ~10 см от вентилятора. Первые 5-10 секунд без нагрузки в режиме простоя, далее включалась 100% нагрузка с помощью программы Furmark. Наибольший уровень шума достигается в конце аудиозаписи. Заранее определялся температурный режим и шум, чтобы в процессе записи аудиодорожки вы смогли услышать именно максимальный шум. В процессе просмотра видеороликов можно выделить тембр и характер звуков, издаваемых системой охлаждения. Предупреждаю вас, что звук на них сильно приукрашен, то есть ощущается сильнее, чем есть на самом деле.
Уровень потребления электричества в простое оценивался по показаниям тарификатора E305EMG сразу после загрузки операционной системы. Значения, отображаемые на графике, соответствуют минимально достигнутым цифрам с прибора. Под нагрузкой видеокарты тестировались программой Furmark. После 10-15 минут температура и обороты вентилятора достигали своего теоретического максимума, после чего данные заносились в таблицу.
Температура силовых цепей измерялась путем установки термодатчика в пространство между радиатором и термопрокладкой в самое нагруженное место.
Пояснения к графикам:
В процентах указана скорость вентилятора/ов, выставленная в MSI Afterburner, начиная от 20% (для видеокарт NVIDIA от 35%) до 100%, с шагом 5%. Таким образом, чтобы понять, насколько нагреется видеокарта, и как сильно она будет шуметь, скажем, при 50% скорости вентилятора, достаточно провести вертикальную линию через отметку 50%. В местах пересечения получаем три значения: с красной линией – максимальную температуру в нагрузке, с синей линией – температуру в простое, с черной линией – уровень шума.
Все видеокарты тестировались с заводскими частотами. Учтите, что звукозапись в видеоматериалах приукрашает уровень шума.
Температура графического ядра и обороты вентилятора/ов.
NVIDIA не зря делает акцент на улучшение акустических характеристик системы охлаждения GeForce GTX Titan. По сравнению с GeForce GTX 680 шума действительно стало меньше. Разное количество выделяемого графическими процессорами тепла не столь сильно повлияло на эффективность охлаждения. Вернее, инженерам удалось сдержать пыл GK110 на уровне GK104 с меньшим уровнем шума. Превосходный результат.
Температура системы питания и обороты вентилятора/ов.
А продвинутый радиатор системы питания не позволил подняться температуре VRM выше 80°C. Опять же по аналогии с GeForce GTX 680 явных ухудшений не замечено.
NVIDIA GeForce GTX Titan
NVIDIA GeForce GTX 690
NVIDIA GeForce GTX 680
AMD Radeon HD 7970
Для корректного сравнения необходимо прослушивать все видеозаписи на одном уровне громкости. Сравнение относительное, а не абсолютное.
| NVIDIA GeForce GTX Titan | 30% | 35% | 40% | 45% | 50% | 55% | 60% | 65% | 70% | 75% | 80% | 85% |
| дБА | 24.0 | 26.8 | 29.7 | 32.8 | 36.5 | 40.2 | 43.5 | 46.7 | 49.8 | 53.0 | 56.2 | 58.6 |
| t°C минимальная | 29 | 28 | 27 | 26 | 25 | 25 | 25 | 25 | 25 | 25 | 25 | 25 |
| t°C максимальная | 98 | 91 | 84 | 77 | 72 | 67 | 63 | 59 | ||||
| t°C VRM мин | 31 | 30 | 30 | 30 | 29 | 29 | 29 | 28 | 28 | 28 | 28 | 28 |
| t°C VRM макс | 90 | 84 | 79 | 74 | 70 | 67 | 63 | 60 | ||||
| t°C окружающей среды | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 |
| Обороты вентилятора, об/мин | 1150 | 1350 | 1500 | 1750 | 2000 | 2200 | 2400 | 2700 | 3000 | 3400 | 3750 | 4100 |
| NVIDIA GeForce GTX 680 | 30% | 35% | 40% | 45% | 50% | 55% | 60% | 65% | 70% | 75% | 80% | 85% |
| дБА | 31.1 | 32.0 | 35.6 | 38.0 | 41.1 | 44.0 | 46.2 | 50.0 | 52.0 | 55.2 | 58.0 | 60.8 |
| t°C минимальная | 32 | 32 | 31 | 31 | 29 | 29 | 28 | 28 | 27 | 27 | 27 | 26 |
| t°C максимальная | 98 | 89 | 81 | 74 | 70 | 66 | 64 | 62 | ||||
| t°C VRM мин | 35 | 35 | 35 | 34 | 34 | 34 | 33 | 33 | 33 | 32 | 31 | 30 |
| t°C VRM макс | 84 | 80 | 75 | 69 | 65 | 63 | 61 | 60 | ||||
| t°C окружающей среды | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 | 24 |
| Обороты вентилятора, об/мин | 1125 | 1300 | 1500 | 1725 | 1950 | 2200 | 2475 | 2775 | 3100 | 3450 | 3850 | 4250 |
Для корректного сравнения возьмем несколько конкурентов, в том числе с нереференсными системами охлаждения.
Без нагрузки.
Под нагрузкой.
Для полного восприятия информации необходимо учитывать напряжение и частоту видеокарт под нагрузкой. Для наглядности добавим недостающие для анализа данные из теста Furmark.
Исходя из результатов, нельзя не отметить существенное снижение частоты GeForce GTX Titan под нетипичной нагрузкой Furmark. Единственная причина, почему видеокарта так поступает, это попытка вывести ее из расчетного равновесия, когда общая нагрузка не превышает 105-107%.
Соотношение температуры GPU в 2D и уровня шума.
В простое по сравнению с видеокартами GeForce GTX 680, GeForce GTX Titan стал самым тихим ускорителем. Не зря инженеры потратили столько сил на доводку и модернизацию системы охлаждения. Вы думаете, я шучу? Взгляните, номинальные обороты вентилятора GeForce GTX 680 и GeForce GTX Titan одинаковые, а уровень шума различается на 7 дБА!
Соотношение температуры GPU в 3D и уровня шума.
Но под нагрузкой все становится на свои места. Охлаждать 7.1 млрд транзисторов нелегко, а делать это лучше GeForce GTX 680 вдвойне тяжело. И все-таки и с этой задачей инженеры справились.
Предлагаю вам ознакомиться с приведенными ниже данными по результатам тестирования. Для начала – зависимость температуры графического ядра от оборотов вентилятора/ов.
Зависимость температуры силовой части видеокарты от оборотов вентилятора/ов.
Послушать систему охлаждения и сравнить различные СО между собой можно, воспользовавшись приведенными в таблице ссылками.
Стоит отметить, что для сравнения величин шума уместнее обращать внимание на численные значения в дБА. Данное тестирование подразумевает относительное сравнение характера шума. Для правильного сопоставления выставите громкость вашей акустики на один уровень, на котором и следует слушать все аудиозаписи.
| Референсные СО AMD | Референсные СО NVIDIA |
| Radeon HD 5970 [2900 Кб] | GTX 470 [2500 Кб] |
| Radeon HD 6790 [2500 Кб] | GTX 570 [2500 Кб] |
| Radeon HD 6850 [1700 Кб] | GTX 580 [1500 Кб] |
| Radeon HD 6870 [2150 Кб] | GTX 590 [2700 Кб] |
| Radeon HD 6950 [3200 Кб] | GTX 670 [1800 Кб] |
| Radeon HD 6970 [2600 Кб] | GTX 680 [2300 Кб] |
| Radeon HD 6990 [2150 Кб] | GTX 690 [2550 Кб] |
| Radeon HD 6990 880 МГц [2300 Кб] | GTX Titan [1400 Кб] |
| Radeon HD 7750 [2050 Кб] | |
| Radeon HD 7770 [3040 Кб] | |
| Radeon HD 7870 Rev 1 [2100 Кб] | |
| Radeon HD 7870 Rev 2 [2650 Кб] | |
| Radeon HD 7950 [3200 Кб] | |
| Radeon HD 7970 [3100 Кб] | |
| Radeon HD 7850 Rev 1 [2250 Кб] | |
| Radeon HD 7850 Rev 2 [1550 Кб] | |
| Оригинальные СО AMD | Оригинальные СО NVIDIA |
| AC Accelero HD 7970 [1600 Кб] | Palit GTX 660 Ti JETSTREAM [1050 Кб] |
| ASUS HD7870-DC2T-2GD5 [1470 Кб] | MSI N660Ti PE 2GD5/OC [1550 Кб] |
| HIS 7870 IceQ Turbo [2000 Кб] | Zotac GTX 660Ti AMP! [1970 Кб] |
| HIS IceQ Turbo HD 6790 DD [2100 Кб] | ASUS GTX 670 DirectCU II [2650 Кб] |
| MSI HD 6870 Hawk P[1700 Кб] | Gainward GTX 680 Phantom [2630 Кб] |
| MSI HD 6870 Hawk S[2300 Кб] | Gigabyte GTX 560 Ti 448 [2300 Кб] |
| MSI HD 6970 Lightning P[1700 Кб] | Inno3D iChill GTX670 OC [2350 Кб] |
| MSI HD 6970 Lightning S[1850 Кб] | KFA2 GTX 670 EX OC [2550 Кб] |
| MSI HD 7770 [2200 Кб] | KFA2 GTX 680 LTD OC [1715 Кб] |
| MSI HD 7950 Twin Frozr III [2500 Кб] | MSI GTX 460 Cyclone II [2300 Кб] |
| MSI R7870 HAWK [2080 Кб] | MSI GTX 460 Hawk [2150 Кб] |
| MSI R7870 Twin Frozr 2GD5/OC [1300 Кб] | MSI GTX 480 Lightning [2300 Кб] |
| Sapphire HD 6790 [2700 Кб] | MSI GTX 550Ti Cyclone II [3600 Кб] |
| Sapphire HD 7870 GHz Edition OC [1600 Кб] | MSI GTX 560 Twin Frozr II [1500 Кб] |
| XFX HD 7770 DD [3500 Кб] | MSI GTX 560Ti 448 Twin Frozr III P[2000 Кб] |
| XFX HD 7950 DD [2600 Кб] | MSI GTX 560Ti 448 Twin Frozr III S[1700 Кб] |
| XFX HD 7970 DD [2600 Кб] | MSI GTX 560Ti Twin Frozr II [2150 Кб] |
| MSI HD 7970 Lightning [1470 Кб] | MSI GTX 580 Lightning [1300 Кб] |
| HIS HD 7970 X Turbo [1000 Кб] | ZOTAC GTX 560Ti 448 [2600 Кб] |
| Sapphire HD 7850 OC [1850 Кб] | Zotac GTX 660 AMP! [860 Кб] |
| HIS 7850 IceQ X Turbo X [920 Кб] | Inno3D iChill GTX 660Ti [1000 Кб] |
| MSI R7850 Power Edition OC [1000 Кб] | KFA2 GTX 680 LTD OC [620 Кб] |
| MSI R7770 Power Edition 1GD5/OC (1 вентилятор) [2030 Кб] | Gigabyte GV-N680OC-2GD [500 Кб] |
| MSI R7770 Power Edition 1GD5/OC (2 вентилятора) [1500 Кб] | MSI GTX 680 Lightning [530 Кб] |
| XFX R7750 DD BE [1480 Кб] | KFA2 GeForce GTX 660 Ti 3GB EX OC [860 Кб] |
| Gigabyte GV-R785OC-1GD [1240 Кб] | KFA2 GeForce GTX 660 EX OC [1840 Кб] |
| XFX R7850 Core Edition [1150 Кб] | MSI N660 TF 2GD5/OC [1340 Кб] |
| PowerColor AX7850 2GBD5-DHV2 [1550 Кб] | MSI N650Ti PE 1GD5/OC [2560 Кб] |
| ASUS HD7850-DC-1GD5 [1300 Кб] | MSI N650 PE 1GD5/OC (1 вентилятор) [1700 Кб] |
| ASUS HD7850-DC2-2GD5 [2150 Кб] | MSI N650 PE 1GD5/OC (2 вентилятора) [2250 Кб] |
| ASUS HD7850-DC2T-2GD5-V2 [850 Кб] | Zotac GTX 680 AMP! [1200 Кб] |
| PowerColor HD7990 [2200 Кб] | |
| Sapphire HD 7870 XT [1850 Кб] |
Если подойти к делу с технической стороны, то видеокарта NVIDIA GeForce GTX Titan получила большое количество интересных функций и возможностей. В их числе: адаптированная под разгон и тишину система охлаждения, возможность создания конфигурации из трех ускорителей, высокая производительность в GPGPU-вычислениях с двойной точностью, качественная система питания без посторонних звуков в любых режимах работы.
Осталось проверить игровую производительность и окончательно расставить все точки над «i».
Выражаем благодарность за помощь в подготовке материала: