NVIDIA официально представила видеокарту GeForce GTX Titan


Суперкомпьютер Titan из Национальной лаборатории Оук-Ридж известен как самый мощный вычислительный комплекс на сегодняшний день, и тот факт, что в его составе применяются ускорители Tesla K20x, компания NVIDIA, имеющая к ним непосредственное отношение, считает личным триумфом.

Tesla K20x основан на процессоре GK110 с архитектурой Kepler. Площадь GPU, состоящего из 7.1 миллиарда транзисторов, равняется 521 кв. мм. Он насчитывает 15 блоков SMX (работоспособно 14), включающих по 192 ядра CUDA. Изделие несёт на борту 6 Гбайт памяти GDDR5, связанной с GPU 384-рязрядной шиной.

Именно близкое сходство прикладных характеристик представленной сегодня видеокарты и ускорителя, используемого в суперкомпьютере Titan, позволило NVIDIA сыграть на ассоциациях и присвоить однопроцессорному флагману модельного ряда GeForce претенциозное имя – GeForce GTX Titan.

GeForce GTX Titan использует процессор той же конфигурации, что и его вычислительный родственник, а единственным различием стали немного увеличенные частоты. Так, базовая частота GPU равна 837 МГц, режим динамического разгона увеличивает это значение до 876 МГц, память работает на 6 ГГц QDR. Быстродействие видеокарты измеряется величиной 4.5 терафлопса (одинарная точность) и 1.3 терафлопса (двойная точность). Значение TDP GeForce GTX Titan равно 250 Вт, в режиме бездействия потребление энергии не будет сильно отличаться от такового у GeForce GTX 680 в аналогичных условиях.

Штатная система охлаждения по-эталонному проста: радиатор на основе испарительной камеры обдувается центробежным вентилятором, прикрывается конструкция декоративным кожухом. Последний изготовлен из магниевого сплава, хромированного алюминия и органического стекла, подобное сочетание материалов можно наблюдать у GeForce GTX 690.

На печатной плате видеокарты насчитывается 24 микросхемы памяти GDDR5, по 12 штук с каждой стороны. Преобразователь напряжения включает шесть фаз, достаточное питание обеспечивается посредством восьми- и шестиконтактного разъёма.

Не обошлось и без сюрпризов: вместе с GeForce GTX Titan была представлена доработанная технология динамического разгона GPU Boost 2.0.

Теперь оверклокеры смогут изменять параметр "GPU Temp Target"...

...и, что самое интересное, максимальное напряжение. Но допуск к экспериментам с электропитанием будет предоставлен только тем, кто осознаёт всю тяжесть последствий возможных ошибок, что обязательно нужно подтвердить в настройках драйвера. Кроме того, данная функциональность будет присуща исключительно изделиям тех партнёров, которые готовы взять на себя гарантийные обязательства, в других случаях изменение максимального напряжения будет заблокировано на уровне BIOS видеокарты. На существующих видеокартах GPU Boost 2.0 реализован не будет, очевидно, технология останется уделом новых продуктов NVIDIA.

Также NVIDIA рассказала о технологии "разгона" дисплеев при помощи особых алгоритмов вертикальной синхронизации (функция не работает со стереоскопическими мониторами):

Как известно, эмбарго на результаты тестирования GeForce GTX Titan в бенчмарках и играх будет действовать до ближайшего четверга, к этому же времени на страницах нашего сайта появится подробный обзор флагмана. В продаже в России под знаменем ASUS, Palit, Gigabyte и Zotac видеокарта появится 4 марта по рекомендованной цене 34990 рублей.

Оценитe материал
рейтинг: 4.2 из 5
голосов: 193

Возможно вас заинтересует

Сейчас обсуждают