После удачного старта GeForce GTX 1080 компания Nvidia преподнесла второй сюрприз для любителей игр, анонсировав преемника GeForce GTX 970 в виде видеокарты GeForce GTX 1070. Естественно, существенно уменьшив стоимость новинки – до $379 для моделей партнеров и $449 за версию референсного дизайна.
Основное нововведение в GeForce GTX 1070 то же, что и в GeForce GTX 1080 – это техпроцесс изготовления 16 нм. Благодаря ему в графический процессор средних размеров (314 мм2) поместилось 7.2 млрд транзисторов, что позволяет говорить о том, что GP104 по сложности замещает GM204, но по возможностям превосходит его.
В рамках 16 нм техпроцесса Nvidia удалось значительно повысить рабочие частоты видеоядра, и теперь в режиме GPU Boost достигается невероятное значение – 1.7-1.8 ГГц. Порадует энтузиастов и разгон.
Сделаем небольшую ремарку, объясняющую причины невысокого роста производительности при разгоне. Дело в том, что даже штатный режим GPU Boost постоянно удерживает высокую частоту GPU, поэтому разгон в относительной величине измеряется скромными +150-200 МГц. При этом рассчитывать на легкие 2.0 ГГц в случае GeForce GTX 1070 не приходится. Разработчики компании приложили максимум усилий, чтобы младшая модель ни при каких условиях не догнала бы старшую.
Отсюда и изначально низкий уровень TDP, и скромный запас по максимальному энергопотреблению. Остается надеяться на появление модифицированной версии BIOS, открывающей доступ к повышенному лимиту. Пока же путем правки и записи расширенного TDP сместить лимит не удалось никому. По моим наблюдениям графический процессор должен отлично масштабироваться с поднятием напряжения, достигая частот 2.3-2.4 ГГц на воздухе, но тогда энергопотребление видеокарты будет уже не таким впечатляющим и легко перешагнет 200 Вт.
По сравнению с GeForce GTX 1080 новая модель лишилась памяти GDDR5X, оставшись на старой GDDR5. Кроме того, из-за множества физических оптимизаций Nvidia легко отрезала излишек цены и отправила новинку в сегмент среднего класса.
Конечно, все ранее описанные для GeForce GTX 1080 нововведения в полной мере подходят и для GeForce GTX 1070. Мы лишь повторим, что компания действительно верит в будущее 3D реальности, поэтому многие нововведения направлены на поддержку выходящих вскоре решений. Основные улучшения внутри видеоядра направлены на оптимизацию работы с 3D очками и рассказывать об этом можно бесконечно. Остановимся на главном.
Во-первых, это однопроходное стереоизображение для VR. Благодаря технологии уменьшается работа GPU «по геометрии», чем существенно повышается производительность без падения качества. Во-вторых, драйвер и видеокарта учитывают геометрические особенности линз в 3D очках и используют специальные алгоритмы расчета.
Упомянем и новый режим Sli с двойными мостиками. Изначально многие обозреватели неправильно трактовали заявление Nvidia о новом соединении. GeForce GTX 1080 все еще можно объединять в 3- или 4-Way конфигурации, но акцент постепенно смещается в сторону 2-Way. Обусловлено это достаточной производительностью GP104.
Даже одна видеокарта превосходит GeForce GTX Titan X, а пары хватит для 100 кадров в секунду и 4К разрешения в любой игре. Старые мостики Sli можно использовать по-прежнему, но с новыми доступны большие разрешения.
И раз уж речь зашла о графическом процессоре, рассмотрим его подробнее. По сути перед нами решение среднего класса, а пока не представлены более дорогие и производительные модели, Nvidia GeForce GTX 1080 и GeForce GTX 1070 будут считаться самыми быстрыми видеокартами.
В полном GP104 каждый SM работает в паре с движком Polimorph. Но для соответствия современным запросам в него поставили новый блок Multi-Projection. У GeForce GTX 1070 отключили один блок, оставив 15 потоковых мультипроцессоров вместо 20.
Пара из SM и движка Polimorph образуют блок TPC.
В GP104 содержится четыре GPC, каждый из которых состоит из пяти TPC и суммарно восьми сегментов контроллера памяти на весь чип. Каждый TPC состоит из SM и Polimorph. Каждый SM содержит 128 ядер Cuda и кэш-память размером 256 Кбайт, 96 Кбайт общей памяти и 48 Кбайт L1 кэша, а также восемь текстурных блоков.
Любой SM может работать с очередью, состоящей до 32 команд. На внешнем крае остались восемь 32-битных контроллеров видеопамяти.
Поддержка DX12 выразилась в новом режиме работы планировщика заданий, который прямо связан с тем, что видеоядро Pascal обладает динамическим распределением. И чтобы оно не простаивало в моменты, когда обработка графических данных закончена, планировщик подкидывает ядрам вычислительную задачу. Таким образом сокращается время бездействия графического процессора, причем существенно.
| Наименование | Radeon R9 Fury X |
GeForce GTX 1070 |
GeForce GTX 980 |
GeForce GTX 1080 |
GeForce GTX 980 Ti |
| Кодовое имя | Fiji | GP104 | GM204 | GP104 | GM200 |
| Версия | GCN 1.2 | Pascal | Maxwell 2.x | Pascal | Maxwell 2.x |
| Техпроцесс, нм | 28 | 16 | 28 | 16 | 28 |
| Размер ядра/ядер, мм2 | 596 | 314 | 398 | 314 | 601 |
| Количество транзисторов, млн | 8900 | 7200 | 5200 | 7200 | 8000 |
| Частота ядра, МГц | – | 1506 | 1126 | 1607 | 1000 |
| Частота ядра (Turbo), МГц | 1050 | 1683 | 1216 | 1734 | 1075 |
| Число шейдеров (PS), шт. | 4096 | 1920 | 2048 | 2560 | 2816 |
| Число текстурных блоков (TMU), шт. | 256 | 120 | 128 | 160 | 176 |
| Число блоков растеризации (ROP), шт. | 64 | 64 | 64 | 64 | 96 |
| Максимальная скорость закраски, Гпикс/с | 67.2 | 96.4 | 72 | 102.8 | 96.2 |
| Максимальная скорость выборки текстур, Гтекс/с | 269 | 180.7 | 144.1 | 257.1 | 176 |
| Тип памяти | HBM | GDDR5 | GDDR5 | GDDR5X | GDDR5 |
| Эффективная частота памяти, МГц | 500 | 2000 | 1750 | 2500 | 1750 |
| Объем памяти, Гбайт | 4 | 8 | 4 | 8 | 6 |
| Шина памяти, бит | 4096 | 256 | 256 | 256 | 384 |
| Пропускная способность памяти, Гбайт/с | 512 | 256.3 | 224.3 | 320.3 | 336.5 |
| Питание, разъемы Pin | 8 + 8 | 8 | 6 + 6 | 8 | 6 + 8 |
| Потребляемая мощность (2D / 3D), Ватт | -/275 | -/150 | -/165 | -/180 | -/250 |
| CrossFire/Sli | V | V | V | V | V |
| Цена при анонсе, $ | 649 | 415 | 500 | 650 | 650 |
| Заменяемая модель | Radeon R9 295X |
GeForce GTX 970(80) |
GeForce GTX 780 Ti |
GeForce GTX 980(Ti) |
GeForce GTX Titan Black |
| Модель | A, мм |
B, мм |
C, мм |
D, мм |
A1, мм |
B1, мм |
C1, мм |
| Nvidia GeForce GTX 670 | 172 | 98 | 33 | 62 | 241 | 98 | 38 |
| Nvidia GeForce GTX 680 | 254 | 98 | 34 | 63 | 254 | 98 | 38 |
| Nvidia GeForce GTX 770 | 267 | 98 | 36 | 64 | 267 | 98 | 40 |
| Nvidia GeForce GTX 780/ GTX 780 Ti/ GTX Titan/ GTX Titan Black | 267 | 98 | 36 | 64 | 267 | 98 | 40 |
| Nvidia GeForce GTX 970/ GTX 980/ GTX 980 Ti/ GTX Titan X | 267 | 98 | 36 | 64 | 267 | 98 | 40 |
| Nvidia GeForce GTX 1070/ GTX 1080 | 267 | 98 | 36 | 64 | 267 | 98 | 40 |
| Nvidia GeForce GTX Titan Z | 267 | 98 | 45 | 84 | 267 | 98 | 52 |
А – длина печатной платы, без учета системы охлаждения и планки портов видеовыходов.
В – ширина печатной платы, без учета контактов PCI-E и системы охлаждения.
С – высота от горизонтальной плоскости печатной платы до уровня верхней поверхности системы охлаждения.
D – диаметр вентилятора/ов по внешнему радиусу.
А1 – длина печатной платы, с учетом системы охлаждения (если выходит за пределы печатной платы) до планки портов видеовыходов.
В1 – ширина печатной платы, без учета контактов PCI-E, но с замером системы охлаждения (если выходит за пределы печатной платы).
С1 – высота, с учетом задней пластины (если есть)/винтов крепления радиатора до уровня верхней поверхности системы охлаждения. Если она ниже высоты задней планки портов видеовыходов, то измеряется высота до верхней точки планки.
GeForce GTX 1070 оснащена пятеркой видеовыходов: три DisplayPort 1.4, один HDMI 2.0b и один полностью цифровой DVI-D.
Последний теперь невозможно задействовать при подключении через переходник к старым мониторам с портами D-sub, учтите это. Одновременно допускается подключение по четырем видеовыходам с максимальным разрешением 7680 х 4320 @60 Гц.
Обновленный декодер.
Пусть обе новинки, GeForce GTX 1080 и GTX 1070, достаточно похожи, но печатные платы для них используются разные. Во-первых, в случае GDDR5 применена другая трассировка печатной платы, сами модули крупнее. Во-вторых, из-за уменьшенного теплопакета (150 Вт) количество фаз сократилось до четырех так же, как и для референсных версий GeForce GTX 970/ GTX 980.
Правда, видеокарта все еще потребляет энергию через единственный разъем 8-pin. ШИМ-контроллер поддерживает различные режимы по управлению фазами, включая адаптивное включение и выключение при необходимости.
Специально для новых моделей компания Nvidia обновила дизайн системы охлаждения. Теперь внешний вид стал немного футуристичнее.
В центре стоит радиатор с испарительной камерой, через множество ребер которого проходит воздух. Сзади установлен дополнительный радиатор для отвода тепла от центральной пластины.
Алюминиевое основание теплорассеивателя охлаждает микросхемы памяти GDDR5 – здесь их восемь, производства Samsung – через термопрокладки.
С обратной стороны стоит декоративный кожух, который разбирается с двух сторон.
С торца светится логотип.
Конфигурация:
Программное обеспечение:
Перечень контрольно-измерительных приборов и инструментов:
Для корректного замера температуры и шума использовались приведенные ниже условия. Помещение, внутри которого располагается система автоматической поддержки климатических условий. В данном случае уровень температуры был установлен на отметке 24°C +/-1°C. За точностью соблюдения заданных параметров наблюдало четыре датчика, один из которых находился в 5 см от вентилятора системы охлаждения видеокарты и был ведущим. По нему происходила основная коррекция температуры в помещении.
Шум измерялся на расстоянии 50 см до видеокарты. Фоновый уровень составлял <20 дБА. В качестве жесткого диска использовался SSD, а блок питания, помпа, радиатор с вентиляторами во время замера находились за пределами комнаты. На стенде отсутствовали иные комплектующие, издающие какие-либо шумы.
Видеозапись системы охлаждения производилась на расстоянии ~10 см от вентилятора. Первые 5-10 секунд без нагрузки в режиме простоя, далее включалась 100% нагрузка с помощью программы Unigine Heaven Benchmark v4.0. Наибольший уровень шума достигается в конце аудиозаписи. Заранее определялся температурный режим и шум, чтобы в процессе записи аудиодорожки вы смогли услышать именно максимальный шум. В процессе просмотра видеороликов можно выделить тембр и характер звуков, издаваемых системой охлаждения. Предупреждаю вас, что звук на них сильно приукрашен, то есть ощущается сильнее, чем есть на самом деле.
Под нагрузкой видеокарты тестировались программой Unigine Heaven Benchmark v4.0. Уровень потребления электричества в играх оценивался специальным приспособлением по обеим линиям 8 pin и шине PCI-e. После 10-15 минут температура и обороты вентилятора достигали своего теоретического максимума, после чего данные заносились в таблицу.
В части игр, где это возможно, использовались встроенные отрезки теста, при необходимости тестирование дополнялось результатами утилиты Fraps v3.5.99. Для данного теста мы полностью пересмотрели уровень качества в играх для видеокарт топ-класса. Теперь в игровых приложениях выставляются максимальные настройки, а сами тесты проходили в трех разрешениях: 1920 х 1080, 2560 х 1440 и 3840 х 2160 (4K).
Список приложений:
VSync при проведении тестов был отключен.
Пояснения к графикам:
В процентах указана скорость вентилятора/ов, выставленная в MSI Afterburner, начиная от 0% до 100%, с шагом 5%. Таким образом, чтобы понять, насколько нагреется видеокарта, и как сильно она будет шуметь, скажем, при 50% скорости вентилятора, достаточно провести вертикальную линию через отметку 50%. В местах пересечения получаем три значения: с красной линией – максимальную температуру в нагрузке, с синей линией – температуру в простое, с черной линией – уровень шума.
Все видеокарты тестировались с заводскими частотами. Учтите, что звукозапись в видео материалах приукрашает уровень шума.
Температуры графического ядра и обороты вентилятора/ов.
GeForce GTX 1070 немного меньше нагревается и, как следствие, меньше шумит. На слух разница не столь велика, но цифры говорят об обратном – 36 дБА против 38 дБА.
Nvidia GeForce GTX 1070Компания Nvidia пересмотрела политику разгона графических ускорителей семейства Pascal и теперь к уже бывшим инструментам добавились новые переменные.
Раньше в арсенале энтузиаста были две настройки: максимальная температура и энергопотребление. Подняв оба значения, мы получали до 120% энергопотребление и до 94°C максимальную температуру. Остальные правки надо было вносить в BIOS, тогда разблокировалось максимальное энергопотребление. Теперь же управлять GPU Boost стало удобнее.
В самом простом режиме отныне доступна линейная привязка частоты Boost к напряжению. Вы выставляете кривую по своему усмотрению и проверяете настройки.
Линейный режим дает вам право задать крутизну зависимости. Но никто не гарантирует работоспособность видеокарты, поэтому сразу переходим к продвинутым настройкам.
В таком виде вы самостоятельно задаете частоту Boost в зависимости от напряжения. Вот где раздолье без правки BIOS. К сожалению, поскольку видеокарта все еще лично управляет напряжением, получается пусть и полупрофессиональный подход, но не совсем то, что нужно энтузиастам.
Уровень TDP остается заблокированным, либо увеличенным до 112%. И в итоге хватает простого линейного графика. Другое дело, когда появится новая версия прошивальщика, и мы доберемся до переменных TDP в BIOS. А пока под разгон выделяется не более 168 Вт от изначальных 150 Вт.
В конечном счете благодаря всем настройкам и опыту удалось достичь 1900 МГц на воздухе. Результат вполне прогнозируемый, но хотелось бы и заветных двух гигагерц. Думаю, партнеры Nvidia быстро поддержат мое желание, и предложат нереференсные версии с 2.0 ГГц.
Для оценки поведения видеокарт в номинальном режиме обратимся к более чем часовому тесту Battlefield 4 в сетевом режиме игры, параллельно соберем данные с графического ядра, а также значения частот памяти, энергопотребления и температур. Объединяем полученные данные в единые графики и видим, насколько точно соответствуют заводские характеристики реальным цифрам, и что происходит с важными показателями при разгоне.
Частота ядра.
В штатном режиме частота Boost достигает в среднем 1730 МГц и даже спустя час не падает. При разгоне дельта сужается и в среднем удается уложиться в диапазон от 1870 до 1930 МГц. С учетом продолжительности теста разогнанная GeForce GTX 1070 выдает в среднем 1913 МГц. С такими результатами она не может соперничать со старшей моделью, хоть и подбирается достаточно близко.
Частота памяти.
Разгон памяти на GP104 нужно осуществлять аккуратно. Быстро подняв частоту, я специально провел несколько тестов и понял, что встроенные алгоритмы коррекции ошибок снижают результат. К тому же память не является узким местом видеокарты, лучше расходовать запас энергопотребления на GPU.
Напряжение vGPU.
Максимальное значение напряжения, доступное для видеокарты, составляет 1.09 В. Но при использовании заводского ограничения в 150 Вт режим GPU Boost почти никогда не поднимает его до верхнего предела. В среднем, что без разгона, что с ним напряжение графического процессора колеблется в диапазоне 0.96-0.98 В.
Температура GPU.
При этом GeForce GTX 1070 на пару градусов холоднее старшей версии. Сказывается хорошая конструкция системы охлаждения, меньшее число исполнительных блоков и частоты. В разгоне она едва достигла максимальной температуры GeForce GTX 1080 без разгона.
Обороты вентиляторов.
В штатном режиме вентилятор раскручивается до 2000 об/мин, что на расстоянии в один метр составляет менее 40 дБА, точнее 36.1 дБА. Это тише штатного охлаждения GeForce GTX 980 Ti с ее 46.7 дБА, и приблизительно соответствует замерам GeForce GTX 980 – 35.5 дБА. В разгоне вентилятор увеличивает скорость до 2200 об/мин и издает шум с силой 38.2 дБА, что с точностью до десятых совпадает с номинальным уровнем шума референсной GeForce GTX 1080.
В процессе тестирования GeForce GTX 1080 и GeForce GTX 1070 мне так и не удалось поймать момент с ошибкой управления вентиляторами. Их обороты росли плавно в обе стороны, резких скачков не наблюдалось. По заверениям инженеров Nvidia, уже готово обновление BIOS, исправляющее эту вероятность, и в скором времени все партнеры его получат.
Частоты видеокарт и версия драйверов
| Модель | Частота, МГц | Разгон, МГц | Версия драйверов |
| Radeon R9 Fury X | 1050/500 | 16.5.2 | |
| GeForce GTX 1080 | 1607/2500 | 2000/2600 | 368.16 |
| GeForce GTX 1070 | 1506/2000 | 1900/2200 | 368.19 |
| GeForce GTX 980 Ti | 1000/1750 | 368.16 | |
| GeForce GTX 980 | 1027/1750 | 368.16 |
Реальные частоты видеокарт отличаются от заявленных. Важно понимать, что номинальные 1506 МГц в играх в среднем превращаются в 1730 МГц благодаря технологии GPU Boost.
Поэтому не стоит думать, что разгон в 400 МГц добавляет лишь несколько процентов производительности. На самом деле разгон GPU для GeForce GTX 1070 составил 183 МГц. Аналогичное замечание действует и для GeForce GTX 1080, где настоящая разница между заводскими значениями и разгоном видеоядра составляет 256 МГц.
Участники тестирования
Версия – последняя на момент тестирования, с обновлениями Origin.
Настройки:
Версия – последняя на момент тестирования, с обновлениями Origin.
Настройки:
Настройки:
Настройки:
Настройки:
Настройки:
Настройки:
Настройки:
Настройки:
Настройки:
Настройки:
| Модель | Средн. к/с | Средн. к/с 1920 |
Средн. к/с 2560 |
Средн. к/с 3840 |
| Radeon R9 Fury X | 67.9 | 93.6 | 69.7 | 40.4 |
| GeForce GTX 1080 | 94.9 | 136.4 | 95.1 | 53.3 |
| GeForce GTX 1070 | 78.1 | 113.7 | 77.9 | 42.6 |
| GeForce GTX 980Ti | 73.2 | 105.9 | 73.4 | 40.3 |
| GeForce GTX 980 | 57.9 | 84.7 | 57.6 | 31.3 |
| GeForce GTX 1080 OC | 99.7 | 142.5 | 101.1 | 55.6 |
| GeForce GTX 1070 OC | 85.5 | 124.4 | 85.7 | 46.4 |
Чтобы понять, какую производительность считать приемлемой, стоит выяснить, на что необходимо обращать внимание. Стендовый набор игр и настроек выбран с учетом корректности сравнения всех участников, от начальных моделей до самых дорогих.
Условно степень сложности отрисовки сцен в играх можно разделить на:
Данный тест проводился с настройками «Ультра». Необходимо заметить, что чем выше качество, тем в большей степени результат зависит от видеокарты, а не от системы в целом.
По этой причине даже 30 кадров в секунду условно можно считать минимальным порогом для вхождения в группу видеокарт, подходящих для большинства игр. Отметим, что из-за нестабильных курсов валют стоимость кадров в секунду оценивается в долларах и по рекомендованной в день анонса цене.
А теперь представим итоги в виде таблицы, в которой результаты тестов (к/с) будут объединены со стоимостью видеокарт, а также их энергопотреблением. В сумме это даст некий рейтинг привлекательности: чем больше уровень производительности и меньше цена с энергопотреблением, тем выше позиция у модели. Баллы складываются из следующих составляющих: скорости (50%), стоимости (30%) и энергопотребления (20%).
Если Nvidia GeForce GTX 1080 поразила нас производительностью, то GeForce GTX 1070 удивила не меньше. Очевидно, что за начальную точку отсчета была взята видеокарта GeForce GTX 980 Ti и новинка опередила ее. Даже больше, ведь запас по частоте еще остался. Добавим сюда ничтожные по сравнению с 250 Вт, характерными для топовых решений прошлых поколений, 140-150 Вт энергопотребления и получим настоящего убийцу бывших флагманов.
Увы, на деле все не так гладко. Ложкой дегтя стал ценник – 35 000 рублей за версию референсного дизайна. Поэтому владельцы GeForce GTX 970, GTX 980 и GTX 980 Ti могут спать спокойно. Но в случае систем с GeForce GTX 680/ GTX 770 новая модель может послужить стимулом к обновлению.
Выражаем благодарность за помощь в подготовке материала: