Сравнение качества графики в играх на видеокартах AMD и NVIDIA

/Первоапрельский материал/ Теория гласит, что конкуренция – благо для потребителя, механизм, заставляющий производителей повышать качество и снижать стоимость продукции. Не являются исключением и видеокарты. В дело идут не только технические преимущества, но и маркетинг. И чтобы оценить их производительность, существует множество инструментов, хотя не всегда количество означает качество.
1 апреля 2014, вторник 03:00

Оглавление

Вступление

Первоапрельский материал

Надеемся, вы вдоволь повеселились над нашим шуточным обзором гранёного стакана. А теперь серьезно.

Теория гласит, что конкуренция – благо для потребителя, механизм, который заставляет производителей повышать качество и снижать стоимость своей продукции. На практике, как известно, не существует такого преступления, на которое не пойдет капиталист ради хотя бы ста процентов прибыли. И жертвой этого преступления зачастую оказывается сам потребитель, не способный разобраться во всех тонкостях работы товара, который он приобретает.

Не являются исключением из правила и видеокарты. Из десятка с лишним компаний, присутствующих на рынке пятнадцать лет назад, остались лишь единицы, а разработчиков высокопроизводительных решений только два. И борьба за кошелек потребителя между NVIDIA и AMD (в девичестве ATI) продолжается все эти годы. В ход идут как объективные технические преимущества и достижения, так и маркетинг. Для того чтобы оценить производительность видеокарты, существует множество инструментов, но не всегда количество означает качество.

В начале прошлого десятилетия, в самый разгар борьбы между ATI и NVIDIA, сообщество энтузиастов было удивлено вскрывшимися масштабами махинаций с качеством картинки в угоду производительности у обоих вендоров. Стало ясно, что это не случайные ошибки и просчеты производителей, а заранее спланированные изменения в аппаратном и программном обеспечении, способные обеспечить прирост производительности в ущерб качеству построенного изображения.

Прежде, чем перейти к сравнению качества рендеринга современных видеокарт, вспомним, с чего начиналась нечестная борьба за скорость, какие механизмы использовали производители, чем все в итоге закончилось, и закончилось ли? Мы решили не давать молодому поколению фанатов новых аргументов для своих священных войн, поэтому не будем упоминать, кто из разработчиков использовал ту или иную технологию. А старое поколение и так все помнит, поэтому разве что ухмыльнется, или смахнет ностальгическую слезу. Приступим.

Способы оптимизаций

Фильтрация текстур, подмена уровней текстур

Считается, что начало махинациям с качеством картинки было положено на заре DirectX 8 видеокарт, с выходом GeForce3 и Radeon 8500. В то время, основная масса приложений использовала DirectX 7, который недалеко ушел по своим возможностям от простого 3D ускорения. Работа графического процессора, преимущественно, сводилась к выборке текстур и закраске сцены. Скорость выполнения данных операций очень быстро росла, удваиваясь практически каждое поколение, так что уже с выходом GeForce 2 GTS и Radeon 7500 производители столкнулись с избыточной производительностью в ряде задач и решили сделать акцент на качество картинки.

Новые видеокарты и приложения начали активно использовать вместо билинейной фильтрации текстур анизотропную, которая значительно улучшала качество картинки на дальних планах сцены. Трилинейная фильтрация позволяла сглаживать переходы между уровнями текстур. Естественно, эти механизмы начали использовать и в тестах производительности видеокарт, поскольку данные алгоритмы были ресурсоемкими и давали существенное снижение производительности. В условиях невысокой производительности центральных процессоров, зачастую неспособных прокормить графические, это был хороший способ разменять теоретическую производительность на практическое улучшение качества картинки.

Но очень быстро вскрылся ряд нюансов. В частности, видеокарты одного производителя демонстрировали заметное превосходство над конкурентом в ресурсоемких режимах с использованием анизотропной фильтрации. Но все очень быстро встало на свои места. Лидерство в скорости являлось следствием агрессивных оптимизаций алгоритма сглаживания, который работал только на поверхностях под углами 0 и 90 градусов, а на наклонных поверхностях, например 45 градусов, не работал вовсе. Кроме того, при использовании анизотропной фильтрации, отключалась трилинейная, и переходы между уровнями текстур становились заметны.

Но на этом игры с текстурами не закончились, в дело пошли манипуляции уровнями текстур. У каждой текстуры в игре есть несколько уровней, предназначенных для закраски сцены на разном удалении от наблюдателя. Максимальное качество и детализация под ногами персонажа, минимальное – вдали.

Таким образом, немного упрощается работа графического процессора по отрисовке дальних планов и экономится место в видеопамяти. Драйвер видеокарты подменял уровни текстур на более высокие, т.е. вместо нулевого, самого качественного, использовался первый, вместо первого – второй, и т.д. Качество картинки практически не страдало, а вот производительность вырастала на десяток процентов, а то и более, что в условиях жесткой конкурентной борьбы нередко становилось аргументом для потребителя.

Но рано или поздно, тайное всегда становится ясным. Энтузиасты вывели производителей на чистую воду, замалчивать и скрывать проблемы стало бессмысленно. Производители, в свою очередь, нашли способ выйти из положения с выгодой для себя. Они позволили пользователям самим выбирать между качеством, скоростью, или компромиссным режимом отрисовки сцены, добавив соответствующие органы управления в панель настроек драйвера. В конце концов, качество картинки страдало незначительно, а лишний десяток процентов производительности мог оказаться совсем не лишним.

Данный механизм управления качеством сохранился до сих пор в панели управления драйвера, хотя и изрядно эволюционировал, расширив области применения, поскольку ATI и NVIDIA находили все новые и новые способы повышать производительность в ущерб качеству.

Манипуляции с шейдерами

Добавив в панель управления драйвером механизм, позволяющий управлять оптимизациями качества текстур, производители решили лишь часть проблем, ведь помимо программных манипуляций были и аппаратные, в частности вышеупомянутый алгоритм анизотропной фильтрации только горизонтальных и вертикальных текстур. Исправить ситуацию можно было только выпустив новые GPU, что не было в те времена большой проблемой, линейки видеокарт обновлялись каждые полгода. Технологии не стояли на месте и возможности программирования железа росли. На смену DirectX 8 пришла его обновленная версия, DirectX 8.1, принесший поддержку пиксельных шейдеров версии 1.4.

Разумеется, оба производителя наперегонки начали рассказывать о том, что их графические процессоры поддерживают данный API в полной мере, но один из них слукавил. Возможности поддерживались не полностью, часть функционала не была реализована в железе, но производитель бодро рапортовал об успехах освоения новой версии API от Microsoft. Увы, первые же приложения с поддержкой PS 1.4 вскрыли несостоятельность этих заявлений, и для достижения требуемого качества сцены приходилось использовать пиксельные шейдеры версии 1.3 в несколько проходов, что фатально сказывалось на производительности. Но горевать по этому поводу долго не стали, наступала эпоха DirectX 9, эпоха, когда накал борьбы за скорость и кошельки потребителей достиг своего пика.

С выходом легендарных Radeon 9700 Pro и GeForce FX 5800 Ultra разница в подходах к реализации возможностей нового API стала видна невооруженным глазом. Один из производителей предлагал быстрый, но не очень гибкий в плане программирования графический процессор. Второй производитель заложил в свой продукт поразительные возможности программирования, значительно превышающие требования Microsoft, но расплачиваться за это пришлось скоростью работы в DirectX 9 приложениях. Отставание от конкурента было столь значительным, что компания не могла на это закрыть глаза.

Вскоре с помпой был выпущен драйвер, радикально повышающий производительность новых видеокарт в основных приложениях, которые использовались для оценки производительности, в частности, 3D Mark. Научно объяснить такие приросты было невозможно, а в магию энтузиасты не верили, так что пришлось в очередной раз разбираться с нововведениями эффективных менеджеров и программистов. Выяснилось, что драйвер видеокарты определял приложение и подменял код шейдера на более простой, дающий схожую, но не тождественную картинку. Обезвредить данную оптимизацию можно было простым переименованием исполняемого файла из, к примеру, 3dmark.exe в 3dmrak.exe. Драйвер не узнавал приложение, не подменял код шейдера, и скорость опускалась до старых, уже привычных значений.

Впрочем, впоследствии производитель опять сумел извлечь для себя выгоду и поднять производительность, на этот раз честно. Драйвер научился оптимизировать код шейдеров для исполнения без потери качества, т.е. менять и переставлять инструкции оптимальным, для исполнения на своем графическом процессоре, образом, но без каких либо отличий в качестве сцены.

Дальнейшее развитие поменяло производителей местами. Мощная, но негибкая графическая архитектура одной фирмы оказалась неспособна изогнуться под требования DirectX 9c и пиксельные и вершинные шейдеры версии 3.0. Второму производителю оказалось проще нарастить мускулы своим графическим процессорам в новой линейке, а по возможностям программирования пришлось внести очень незначительные изменения, благодаря заложенному в прошлую линейку фундаменту. Это был ад, как для пользователей, так и для программистов. Фактически сосуществовало несколько линеек адаптеров с разными возможностями, DirectX 9, 9a, 9b и 9с. Т.е. при написании игры, необходимо было учитывать все эти различия между семействами и использовать те функции, которые умело каждое конкретное семейство.

Но нюансов было много, а люди были склонны ошибаться, так что все это многообразие породило множество ошибок и артефактов в играх, которые исправлялись все новыми и новыми патчами. Сравнивать между собой различные семейства видеокарт по производительности стало практически невозможно. Из-за различий в железе, игровые движки давали разные картинки на разных подверсиях API, а попытки вручную выставить идентичные настройки качества часто приводили к появлению артефактов. Не обошлось и без заявлений производителей о поддержке тех API, которые графические процессоры поддерживали лишь частично, но это уже пройденный этап.

Стоит вспомнить и о точности вычислений. Производители часто декларировали более высокие точности, нежели умело их железо. К примеру, вместо заявленных 24-битных вычислений, были только 16-битные. Вместо 32-битных, 24-битная, а то и те же 16 бит. Это добавило множество бессонных ночей и седых волос программистам, которые честно пытались разобраться, почему на выходе получается совсем не то, что должно. А пользователи получали новые веселые артефакты в играх.

К счастью, Microsoft и вендоры сделали для себя выводы, и с приходом DirectX 10 требования к «железу» стали жестче, а возможности практически уравняли. Новое «железо» было значительно более гибким в программном плане, так что без особых проблем могло исполнять код всех подверсий DirectX 9.

Алгоритмы сглаживания

Казалось бы, с выходом DirectX 10 должно было наступить долгожданное счастье, и оно наступило, но не для всех. Видеокарты вышли задолго до операционной системы и игр с поддержкой нового API. Они обладали огромной математической производительностью, которую некуда было девать. Так что борьба вновь переместилась на поле качества изображения. К уже известным алгоритмам суперсэмплингового и мультисэмплингового добавились методы краевого сглаживания и сглаживая полупрозрачных текстур. Это позволило значительно повысить качество картинки ценой несущественного падения итоговой производительности. Пользователи были счастливы, а несчастными во всей этой истории в очередной раз оказались тестеры видеокарт.

Ведь алгоритмы сглаживания в панели управления множились как кролики в хороший год, и не всегда было понятно, чем метод сглаживания 4xQ отличался от 6x, какие алгоритмы были более качественными и как они комбинировались в различных настройках. Выяснилось также и то, что один из производителей обошел конкурента на поле качества и обладал более развитыми алгоритмами сглаживания. Но тут встала другая проблема, как сравнивать между собой видеокарты разных производителей при настройках высокого качества. Выставлять максимальное качество? Некорректно, ведь более качественная картинка требовала больше мощности, что сказывалось на производительности. Приводить к общему знаменателю? Тоже некорректно, ведь в таком случае не использовались новые прогрессивные алгоритмы, на которые производитель потратил транзисторный бюджет GPU.

Но эти вопросы прошли мимо большинства пользователей, немногие вдавались в такие подробности, да и того накала борьбы, что несколько лет назад, уже не было.

Фиктивные кадры

Отдельного упоминания заслуживают и относительно недавние исследования метода подсчета кадров. Один из производителей заявил, что выпустил специальный набор для тестирования производительности видеокарт, который способен честно считать количество отрисованых кадров. Особенности и извилистость пути кадра от игрового движка до изображения на мониторе позволяли некорректно подсчитывать количество кадров в секунду, отрендереных видеокартой. Ведь кадром могло считаться всего лишь несколько строк, вместо целой картинки. Производитель, таким образом, подчеркивал, что его решения дают не только более честные показатели скорости, но и более плавный видеоряд. Впоследствии, второй производитель выпустил обновление драйверов, в котором повысил плавность выводимого видеоряда, но это далось ожидаемым падением производительности. Так или иначе, в этот раз в выигрыше оказались, наконец-то, все.

Какие можно сделать выводы из написанного выше? Оба производителя неоднократно использовали различные ухищрения, чтобы повысить привлекательность своих продуктов. И эта борьба продолжается уже более десяти лет. Странно думать, что энтузиасты способны выявить все механизмы обмана потребителя, ведь дело давно поставлено на поток и лишь совершенствуется с течением времени. Значительная часть оптимизаций уже давно легализована и может быть настроена в панели управления драйвера. Аппаратных оптимизаций уже не осталось, все настраивается программно. Каждый сам может выбрать, что для него важнее, шашечки, или ехать.

Но выбор этот непростой. Стоит ли пожертвовать производительностью ради качества картинки? Насколько важно качество картинки и положение отдельных пикселей для игрового процесса? Готовы ли пользователи мириться с тем, что производители будут молча применять агрессивные оптимизации, незначительно, но все же меняющие картинку? Пускай с этим разбираются диванные теоретики и философы, а мы приступим к тестированию современных видеокарт с целью выявления различий в качестве изображения.

Тестовый стенд и ПО

Тестирование производилось в составе следующей конфигурации:

  • Материнская плата: ASUS Maximus VI Formula;
  • Процессор: Intel Core i7-4770K @ 4,6 ГГц (100x46), HT On;
  • Система охлаждения: Thermalright Silver Arrow SB-E Extreme;
  • Термоинтерфейс: Prolimatech PK-1;
  • Оперативная память: G.Skill TridentX F3-2400C10D-8GTX, 2*4 Гбайта DDR3-2400 (10-12-12-31, 1.65 В) @ 2133 МГц 8-10-10-25;
  • Жесткий диск: Western Digital Caviar Blue (WD500AAKS), 500 Гбайт;
  • Блок питания: Corsair CMPSU-750HX (750 Вт);
  • Корпус: открытый тестовый стенд.

В качестве графического адаптера со стороны NVIDIA для тестирования использовалась ASUS ROG Poseidon GTX 780, со стороны AMD – Radeon R9 290 эталонного дизайна (производитель – Club3D).

Программное обеспечение

  • Операционная система: Windows 7 Ultimate SP1 x64;
  • Драйверы видеокарты: Catalyst 13.12 WHQL, Forceware 334.89 WHQL;
  • Дополнительное ПО: FRAPS 3.5.9 build 15586, Autohotkey 1.0.48.05.

Методика тестирования

Для анализа качества графики были выбраны следующие игровые приложения:

  • Assassin's Creed IV: Black Flag;
  • Battlefield 4;
  • Crysis 3;
  • F1 2013 Codemasters;
  • Far Cry 3;
  • Hitman: Absolution;
  • Metro: Last Light;
  • Sleeping Dogs;
  • The Elder Scrolls V: Skyrim;
  • World Of Tanks 0.8.11.

Синтетические тесты не использовались, поскольку в них пользователи все же не играют, и качество выводимого ими изображения не является ключевой характеристикой. Искать недочеты там, где производители могут исповедовать принцип «производительность любой ценой» – дело неблагодарное.

Для того, чтобы сделать скриншоты максимально приближенными друг к другу, процедура их снятия была полностью переложена на автоматику – при помощи Autohotkey скриптов производилась загрузка уровней и прохождение тестовых сцен до момента снятия скриншотов. Кроме того, было решено, что не стоит судить о качестве графики только лишь по одному игровому отрезку, поэтому для сравнения видеокарт использовалось более одной тестовой сцены для каждой игры.

Поскольку большинство пользователей в углубленные настройки драйверов не заглядывает, то для тестирования использовались настройки драйверов по умолчанию.

Дабы самостоятельно изучив скриншоты, пользователи имели возможность высказать свое мнение относительно качества изображения в тех или иных играх без включения фактора фанатизма, в дальнейшем по тексту вместо упоминания производителей примут участие «видеокарта №1» и «видеокарта №2». Далее по тексту – первой принадлежит изображение слева, второй – справа.

Внимание: скриншоты JPG в увеличенном варианте представляют собой изображения формата PNG, поэтому могут быть довольно «тяжелыми» (в среднем 1.5–3 Мбайта). Размер и разрешение обеих версий картинки, как всегда, прописаны в блоке ALT тега IMG; обычно браузеры показывают их во всплывающей подсказке.

Тестирование

Assassin's Creed IV: Black Flag

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Прорисовка местности: Очень высокое;
  • Качество текстур: Выс.;
  • Качество сглаживания: MSAA 8x;
  • Качество теней: Мягкие тени (высок.);
  • Качество отражений: Выс.;
  • Ambient occlusion: HBAO+ (высок.);
  • Сумеречные лучи: Выс.;
  • Объемный туман: Вкл.

В качестве первой тестовой сцены для сравнения качества графики был выбран отрезок с большим открытым пространством, где можно оценить общий уровень детализации графики, а также качество прорисовки отдаленных объектов:

В целом, разница между видеокартами №1 и №2 минимальна, и отдать предпочтение той или иной карте при рассмотрении скриншотов трудно. Можно отметить немного отличающуюся цветовую гамму, но опять таки трудно сказать чья более правильная. Из негативного, но что не получилось отобразить на скриншотах – у видеокарты №2 наблюдалось мерцание теней у удаленных объектов, чего у видеокарты №1 не было.

Что ж, после рассмотрения больших открытых пространств не мешает сравнить «картинку» на суше:

По сравнению с большими открытыми пространствами, в данной тестовой сцене проблем у видеокарты №2 не наблюдалось, и между картами осталась лишь небольшая разница в цветовой гамме, так что в этой сцене между картами можно признать паритет.

Battlefield 4

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Качество графики: Ультра.

Как и в случае с Assassin's Creed IV: Black Flag, начнем рассмотрение с тестовой сцены на больших открытых пространствах, для оценки качества изображения удаленных объектов:

Субъективно, при рассмотрении картинки «в динамике» глазу прицепиться было не за что, да и снятые Autohotkey’ем скриншоты оказались максимально приближенными друг к другу. Итого, сколько-нибудь заметной разницы между видеокартами №1 и №2 я не заметил.

Что ж, раз не удалось найти разницы на открытых пространствах, то самое время поучаствовать в «заварушках»:

Если оценивать по скриншотам то, что видеокартами «нарисовано», то опять-таки серьезной разницы не увидеть даже при увеличении изображения в 2-4 раза. А вот если взглянуть на то, что видеокартами «не нарисовано», то есть посмотреть на скриншоты в общем плане, или даже при небольшом уменьшении, то становится сильно заметно, что видеокарта №2 отображает меньшее количество мелких частиц/меньшее количество дыма. Это заметно и при просто игровом процессе, а не на разовых изображениях.

Что ж, по найденным следам «читерства» можно признать счет между картами 0:2.

Crysis 3

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Сглаживание: MSAA Среднее (4Х);
  • Разрешение текстур: Максимальное;
  • Параметры системы: Максимальное.

Как и в предыдущих играх, начнем сравнение видеокарт со взгляда вдаль:

Если не увеличивать изображения и сильно не приглядываться, то разница заключается разве что в миллиметрах позиционирования персонажа, что является погрешностью прохождения сцены средствами Autohotkey. Если же приглядеться сильнее, и воспользоваться увеличением изображения – можно отметить разницу между графическими адаптерами в плане отображения тумана: в целом, туман находится в одних и тех же местах кадра, то есть не является динамическим и при загрузке тестовой сцены «погода» не меняется. Однако на изображении видеокарты №2 на удалении видно меньшее количество тумана (заметно в пространстве чуть левее от прицела). В динамике такая разница особо не заметна, и в отличие от того же Battlefield 4, сильным минусом это не назвать. Так что, в счет запишем не 0:3, а 0:2.5.

Что ж, из больших открытых пространств переместимся в джунгли:

С правильной отрисовкой травы, света/тени и отражений проблем не возникло ни у одной из видеокарт, в данной тестовой сцене между картами можно присудить паритет.

F1 2013 Codemasters

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Детализация: Максимум;
  • Сглаживание: MSAA8x.

В отличие от «шутеров», в данной игре нет больших открытых пространств, которыми можно было бы любоваться в процессе игры, поэтому для сравнения двух различных режимов использовалась «сухая», и «дождевая» гонки. Начнем, пожалуй, с рассмотрения «сухой» графики:

Видеокарты слегка отличаются цветовой гаммы, но какая карта показывает более правильное изображение сказать трудно. В остальном, разницы между картами замечено не было, как «в динамике», так и при рассмотрении скриншотов.

Что ж, попробуем найти разницу в дождевых условиях:

Возможно, разницу в качестве графики смогут найти читатели, но я отдать предпочтение той или иной видеокарте не могу. Получается, что F1-2013 – первая игра на сегодня, где «мошенничество» производителей не было обнаружено. Ну, или плохо искал, сказать трудно.

Far Cry 3

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • DirectX: DirectX 11;
  • Метод SSAO: HBAO;
  • Сглаживание: MSAA 8x;
  • Общее качество: Максимум.

По традиции, сравнение видеокарт начнем с рассмотрения сцены с большими открытыми пространствами. Для усложнения «картинки», дополнительно используем контровый свет:

В целом, уровень детализации изображения одинаков на столько, на сколько это возможно. По сравнению с некоторыми предыдущими играми нет разницы даже в цветовой гамме изображения.

Для второй сцены, была выбрана деревня, почти полностью находящаяся в тени:

По сравнению с предыдущей тестовой сценой заметной невооруженному взгляду разницы обнаружено так и не было, а вот приглядевшись к скриншотам поближе, разница таки была обнаружена: видеокарта №2 отображает огонь в костре без дыма, в то время как на скриншоте видеокарты №1 слегка заметный дым присутствует. Так как обнаружена разница была только при дотошном изучении изображений – зачтем карте 0.5 балла.

Итого, общий счет «читерства» на данный момент – 0:3.

Hitman: Absolution

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Сглаживание: MSAA 8x;
  • Качество: Ультра.

Начнем с рассмотрения графики в большой открытой локации:

Видеокарта №2 немного «желтит», но в остальном, разницы в качестве изображения нет. Между видеокартами можно с уверенностью заключить о паритете.

Что ж, если разницы нет на открытых пространствах, то может есть шанс найти разницу «в толпе»?

Сколько я не пытался изучить скриншоты, видимой разницы обнаружено не было. Разве что из-за слегка отличающейся производительности карт скрипты остановили тестовую сцену на слегка разных временных промежутках.

Metro: Last Light

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Качество: Очень высокое;
  • SSAA: 4x;
  • Фильтрация текстур: AF16x;
  • Тесселяция: Очень высокое.

Мир Metro можно сказать поделен на две части – поверхность, и закрытые помещения. И там, и там есть на что полюбоваться, так что тем интереснее сравнить работу видеокарт. Начнем с рассмотрения открытых пространств:

В целом, обе видеокарты рисуют очень красивую картинку, хотя в этом конечно больше заслуг самой игры. Разницу можно отметить разве что в прорисовке тумана – у видеокарты №2 туман более честный, в то время как видеокарта №1 видимо экономит свои ресурсы. Ну, зато и производительность у графического адаптера №1 выше.

Что ж, от рассмотрения открытых пространств перейдем к закрытым помещениям:

Честно говоря, при изначальной проверки скриншотов даже не поверилось, однако факт: с разными видеокартами наблюдается разная яркость лампы на стене, что влияет на общую освещенность сцены и качество ее отображения. Только вот какая из картинок сложнее для видеокарты, то есть, кто в данном случае «жульничает»? На мой взгляд, изображение карты №2 более правильное. Разумеется, что в таких условиях нельзя было обойтись одной тестовой сценой, так что было решено пройти игру дальше, в поисках более показательных мест. Итого, третья пара скриншотов:

Что ж, здесь отчетливо видно, что кадр видеокарты №1 сильно пересвечен, что сказывается на общей детализации изображения.

Суммируя полученные в игре результаты думаю стоит присудить карте №1 даже не один, а полтора штрафных балла, так как снижение качества графики в угоду производительности здесь заметно сильно. Итого, общий счет на данный момент – 1.5:3.

Sleeping Dogs

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Уровень графики: Экстрим.

Для начала, сравним качество на больших открытых пространствах:

Обе видеокарты показали очень близкое качество изображения, отдать кому-либо пальму первенства трудно. Так что, проверим, как поведут себя карты в тестовой сцене облета рыночной площади:

Если честно, то от игры я ожидал чего угодно, кроме того, что увидел на экране: да, карты идентичны при отрисовке местности, идентичны в работе со светом и тенью, но если присмотреться внимательнее, то вскрывается поразительная разница – у видеркарты №2 на переднем плане кадра изображено гораздо меньшее количество персонажей!!! И, это ведь не при обычном игровом процессе всплывает, а во встроенном в игру тесте производительности. Если честно, то разную сложность тестовых сцен у разного «железа» я последний раз могу припомнить в CPU тесте 3DMark Vantage, где количество объектов зависело от количество ядер процессора. Но если там это было просто особенностью теста, то здесь видеокарта поймана с поличным.

Итого, свой штрафной балл карта №2 честно заслужила. Общий счет – 1.5:4.

The Elder Scrolls V: Skyrim

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Детализация: Ультра;
  • Сглаживание: MSAA 8x;
  • Анизотропная фильтрация: 16x.

Для начала, летний дневной пейзаж с удаленными объектами:

Показываемое видеокартами качество изображение в целом одинаково, как при рассмотрении объектов на ближнем плане, так и при рассмотрении удаленных объектов.

Что ж, попробуем полную противоположность – зимний ночной кадр, с искусственным освещением:

Как и в первом случае, разницы между видеокартами обнаружить не удалось. Ранее такая же картина наблюдалась в F1-2013 и в Hitman: Absolution.

World Of Tanks 0.8.11

Настройки графики:

  • Разрешение экрана: 1920х1080;
  • Качество графики: Максимум.

В качестве первой пищи для размышлений была выбрана тестовая сцена на открытом пространстве:

В данной игре видимо обошлось без сюрпризов – графические адаптеры показывают одинаковое качество графики, и какой-либо разницы не заметно даже при сильном увеличении изображения.

Что ж, посмотрим, как видеокарты справятся с крупным планом и спецэффектами:

Как и в первом случае, обе видеокарты показали одинаковый уровень детализации, преимуществ/недостатков той или иной карты обнаружить не удалось.

Заключение

Отнестись к результатам проведенного тестирования можно двояко – с одной стороны, выявился явный «лидер», графический ускоритель №2 за тест собрал аж четыре штрафных балла, при всего полутора у видеокарты №1. Но если за нечестной игрой были замечены оба производителя, то получается, что выборкой игр можно было бы попытаться получить и обратный результат.

Отчасти именно поэтому было решено не указывать, какой номер у модели AMD, а какой у адаптера NVIDIA: полученные результаты слишком неоднозначны, а более широкая выборка игр невозможна в связи со слишком большими трудозатратами.

Конев Иван aka Ivan_FCB
Забелин Алексей aka TheJudge


Клик