Ruby vs Nalu или "Критический анализ философии оверклокинга"
Эта работа была прислана на наш "бессрочный" конкурс статей.
Сразу предупреждаю, в данной статье Ruby и Nalu обсуждаться не будут, потому что это не стоит того. Имена этих персонажей были взяты в качестве названия статьи только лишь по одной причине: в ней будет частично освещён вопрос о борьбе Nvidia и ATI, хотя данный вопрос и не является ключевым моментом статьи. Так о чём пойдёт речь в данной статье? А в данной будет пересмотрен традиционный взгляд на вопросы оверклокинга, попугаи, ватты – то есть о том, что так интересует пользователей компьютеров, но данная статья представляет из себя скорее художественный, чем технический текст.
Итак, приступим. Будет рассмотрена любимая оверклокерами тема GF FX5900 и Radeon9800. Сразу оговорюсь, что хотя я являюсь владельцем FX5900XT, я не отдаю предпочтения ни NVIDIA, ни ATI и вы поймёте почему. Что, спросите вы, тут можно сказать нового, эту тему мусолят и мусолят все подряд. Но, затрагивая эту тему, по-моему, уж слишком много уделяют внимание разгону, попугаям, вольтам. Я думаю, что не всё должно быть так просто. Но обо всём по порядку:
1) Попугаи.
Для чего многие фанаты оверклокинга осуществляют разгон – известно для чего – в погоне за ПОПУГАЯМИ. Но что означает их количество? На самом деле практически ничего, особенно для адаптеров такого класса. Ведь полученные в тестах FPS во многих случаях оказываются больше частоты обновления монитора и мы их реально не видим, к тому же ещё неизвестно, какие из этих 200fps реально попадут на экран, так что ничего кроме психологического удовольствия и возможно даже дёрганий картинки мы не увидим. К тому же именующие себя "гуру-оверклокер" давно установили, что тестировать надо с Vsync Off, то есть с дёрганиями картинки из–за несинхронизации с монитором, ведь FPS-то больше. А кому, если подумать это надо? С другой стороны, есть ситуации с недостатком этих самых FPS. Например, их можно увидеть в тестах, где "умные" люди насовали без толку десятки разных шейдеров и таким образом получили 3-10 FPS. Тестировать такое придет в голову только больному человеку – потому что если кадров меньше 24 – то человек точно если и не больной, то станет им гарантированно. Как видите, для оценки адаптера по-моему мнению наиболее подходят тесты, где FPS=Refresh rate и Vsync ON, а результаты должны сравниваться с позиций качества картинки. К сожалению ни один существующий тест этим требованиям не удовлетворяет. Таким образом, тестируется скорость при "одинаковом" качестве картинки (что не соответствует действительности), вместо оценки качества при одинаковой скорости. А это не есть одно и то же.
реклама
Я думаю, с моим мнением согласятся и разработчики Half Life 2, которые приняли за основу своего проекта, совместимость с большинством современных и не очень видеокарт, при разном уровне качества картинки. Но что же тогда можно сказать о существующих тестах (или играх, в дальнейшем я буду говорить только о тестах, хотя должно быть понятно, что принципиальных отличий между тестом и игрой нет)? Если FPS>Refresh, то для меня разницы между результатами не существует, а если меньше, то, скорее всего, в этом виноваты кривые руки создателя теста, его тяга к извращениям или же желание какой-либо компании продавать всё новые и новые карточки, всё более и более дорогие. А оно нам надо? Ведь самая интенсивная область применения 3D графики – игростроение, либо отстаёт от передовых технологий, либо, из-за неправильного использования его ресурсов, требуёт всё новых и новых графических монстров. К тому же желание разработчиков компьютерного железа порадовать ловцов попугаев приводит к ухудшению качества и без того уродливого изображения. Так что задумайтесь перед покупкой себе очередного монстра-акселератора – ЗАЧЕМ?
2) Влияние процессора на попугаи.
Я думаю, многие из вас видели подобные названия статей. Что же они исследуют? По их словам они исследуют зависимость скорости видеокарты от процессора. Но это же чистый бред и сейчас я вам это докажу. Скажите, что надо видюхе от компьютера для работы (кроме питания)? Известно что – данные для обработки, которые загружаются в простейшем случае по AGP. И как же влияет частота процессора например 1.4 и 3.4 Ghz на эту шину с частотой 66Mhz. Я думаю, чтобы загрузить её на 100% достаточно и 600Mhz процессора (пусть мы имеем AGP8x: 66*8=528 + учитываем FW и SBA). Другое дело – это то, что компании-производители видеокарт жульничают с аппаратной реализацией 3D-функций и заменяют их программными. Так что же тогда мы в таком случае исследуем – степень хитрости разработчиков видеокарт? Ответ однозначен – ДА! И как же нам избежать этих недоразумений? Очень просто – тестировать на самых слабых процах без всяких там 3DNow, поскольку производители видеокарт точат драйвера под эти функции и получают выигрыши в производительности, на самом деле не прикладывая никаких усилий в техническом плане. Тем более что программная обработка 3D-функции очень сильно загружает процессор и его не хватает на расчеты, например, игровых ситуаций (которые, надо сказать, на самом деле и не требовали бы наличия мощного процессора – но что делать – он ведь занят ненужной работой). Так что вот как нас ещё заставляют покупать всё новые и новые процессоры.
3) Список расширений
Ни в одном обзоре, посвященном сравнению видеокарт (во всяком случае, сравнений FX5900 и ATI9800) я не увидел сравнение списка поддерживаемых расширений. А ведь их сравнение, например, может означать, что одна из видеокарт просто не сможет реализовать картинку с качеством другой при такой же скорости. И выявить это могли бы тесты, моделирующие данные ситуации.
Кстати, для желающих убедиться в этом, достаточно вспомнить недавние публикации NVIDIA насчёт шейдеров 3–й версии: действительно, чтобы получить такую же картинку на шейдерах 2–й версии потребовалось бы значительно больше ресурсов, т.е. времени – что означает потерю любимых оверклокерами FPS. На самом деле такие же исследования можно провести и в плане FX5900 и ATI9800, но, к сожалению, я не могу их осуществить, так как не имею второй из вышеперечисленных карт. Хотя по числу расширений FX5900 – несомненно, лидер. Однако нельзя судить об адаптере только по списку расширений, во-первых, из–за разных их реализаций, во-вторых, из-за их "полезности". Вспомним хотя бы буфер шейдеров ATI. Или, например, технология SmoothShader в исполнении ATI, применяемая в кодеке DivX, банально размыливает картинку, напротив поддержка FX OpenGL 1.5 и OpenGL SL 2.0, наверное, ценнее.
4) Тепловыделение и динамический оверклокинг, вольтмод.
Разгоняя видеокарту, мы повышаем её тепловыделение и потребляемую мощность. Причём эти повышения во много раз перекрывают обычно несоизмеримо низкий с ними прирост в производительности при разгоне. Что получается: больше греется – ставим мощное охлаждение – т.е. превращаем компьютер в:
- Шумящую турбину, достающую своим шумом вас и всех окружающих (воздушное охлаждение).
- Макет холодильника, который по принципу тепловой машины в одном месте охлаждает, а в другом нагревает. Ну и надо вам сначала где-нибудь обжечься, а потом себе что-нибудь отморозить, да ещё ненароком и пролить на себя, например, охлаждающую жидкость (водяное охлаждение, фреонка).
- Место вложения "лишних" денег. Заплатить за вышеперечисленное кучу денег или заплатить ещё больше при использовании пассивного охлаждения. Кстати, при любом раскладе придётся раскошелиться ещё и на блок питания 350–500 Ватт (например, моей FX5900XT хватает 250W блока питания Codegen и ни напряжения не пляшут, ни компьютер не зависает!!!)
- Чёрную дыру. Платить каждый месяц за электроэнергию столько, сколько платит небольшая швейная фабрика.
реклама
Кстати, фирма NVIDIA в этом ракурсе выглядит вполне неплохо с их динамическими изменениями частот ядра на FX5900. Действительно, зачем впустую гонять GPU на больших частотах, если достаточно более низких, при этом и тепла выделяется меньше, и потребляется меньше энергии. Жаль, что такая политика не проведена в отношении частот памяти. Хотя некоторые непонимающие критикуют NVIDIA и за GPU. А в чём дело? Оказывается, что это приводит к падению FPS? Ну а зачем нам лишние FPS?
Чтобы доказать это, я приведу простой пример, как работает динамическое тактирование у NVIDIA. Для анализа я создал свой собственный тест с одним vertex шейдером версии 1.0 применяемый к освещению текстур на объектах, состоящих из около 1000 полигонов (треугольников). И каковы, вы спросите результаты? Они следующие – тест запускается при 800 FPS, а частота при старте 390, через 10 секунд – частота 376 и 770 FPS, ещё через 10 – частота 300 и 650 FPS. Vsynk был выключен. И что следует из этого наблюдения – только то, что такая большая частота была вовсе и не нужна для этого теста, и драйвер правильно изменил частоты. Стоит заметить, что при утяжелении нагрузки – увеличении числа одновременно выводимых в тесте объектов, я получил FPS
5) Качество, оптимизации и разгон вообще.
Для чего лично мне нужен разгон? Мне он нужен только в случае возможности повышения качества изображения за счёт него. Под словом качество здесь и везде в данной статье понимается объективная оценка изображения на экране. Такие ситуации действительно случаются (я уже упоминал в силу каких причин) и поэтому приходится за неимением лучшего довольствоваться тем, что есть. Но постоянный разгон, как я уже говорил, исключительно вреден. Но что же с качеством. Оказывается, что хотя производители железа с выпуском новых адаптеров и обещают нам улучшение качества, в реальности всё не так просто. Часто в стремлении увеличить FPS – а видимо их многие считают основным критерием качества, придумываются различного рода оптимизации. Оптимизации бывают хорошими и плохими, и сейчас я объясню, какие и почему.
На самом деле под оптимизациями можно понимать два понятия: улучшение алгоритма или упрощение алгоритма. На самом деле, даже улучшение алгоритма также является упрощением алгоритма, но применяется в тех случаях, когда, например, на определённом шаге алгоритма становится ясен конечный результат. Но так как основные алгоритмы компьютерной графики, которые используются сейчас, были созданы 20–30 лет назад, то они уже давно оптимизированы. Так что сейчас практически нет возможностей подобных оптимизации. Что же делают сейчас – выкидывают сложные расчеты, уменьшают разрядность вычислений – то есть просто убивают и так далеко не идеальные по качеству изображения. Хотя об этом достаточно трудно судить.
Возьмём хотя бы функцию IntelliSample NVIDIA. Попробуйте передвигать ползунок и анализировать полученные при этом картинки различных тестов. Да при пристальном анализе изображения оптимизации можно различить на картинках, но на фоне сегодняшнего несовершенства средств 3D графики эти различия на самом деле оказываются несущественными. Кстати, поражает настойчивость производителей железа к оптимизации тех элементов, которые больше других влияют на качество – как-то трилинейная, анизотропная фильтрация и антиалисинг. Хотя есть примеры оптимизаций, вообще несущественно снижающих качество изображения, как, например, сжатие текстур, Z–buffer`а. Такие оптимизации еще можно допустить, остальные лишь показывают нам нездоровое желание компаний обогнать друг за счёт существенных потерь в качестве.
В этой статье я попытался в понятной форме изложить сегодняшнее состояние 3D-графики, несостоятельность сегодняшних средств тестирования и чрезмерную амбициозность оверклокеров. Надеюсь, данная статья пойдёт на пользу как последним, так и всем сторонам, участвующим в разработке средств 3D графики и их применения.
Ждём Ваших комментариев в специально созданной ветке конференции.
Лента материалов раздела
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Сейчас обсуждают