Мы за ценой не постоим: обзор современных мультипроцессорных графических систем
реклама
- Введение
- Multi-GPU: прошлое, настоящее и будущее
- Nvidia GeForce 9800 GX2: принципы работы и технические характеристики
- Nvidia GeForce 9800 GX2: HybridPower
- Gainward Bliss 9800 GX2 1024MB: упаковка и комплектация
- Nvidia GeForce 9800 GX2: дизайн печатной платы
- Nvidia GeForce 9800 GX2: конструкция системы охлаждения
- Nvidia GeForce 9800 GX2: шумность, температурный режим, разгон и совместимость
- Multi-GPU: проблемы и ограничения
- Конфигурация тестовых стендов и методы тестирования
- Результаты тестирования
- Трехмерные шутеры с видом от первого лица
- Трехмерные шутеры с видом от третьего лица
- RPG
- Стратегии реального времени
- Синтетические тесты
- Заключение
Введение
Идея создания высокопроизводительной многопроцессорной графической системы является одной из тех идей, которые периодически предаются забвению, но затем возрождаются вновь. 3dfx SLI, ATI Rage Fury MAXX, S3 MultiChrome – лишь некоторые из попыток воплощения этой идеи. Какие-то из них оказывались более успещными, некоторые, как, например, XGI Volari Duo – откровенно провальными, но, в конце концов, эволюция решений multi-GPU породила две жизнеспособных технологии, ATI CrossFire и Nvidia SLI, которым удалось занять пусть небольшую, но устойчивую нишу на рынке дорогих игровых систем высшего класса.
Как мы уже неоднократно говорили, в секторе недорогих решений мультичиповые технологии практически не прижились, и прижиться не могут по одной простой причине – в подавляющем большинстве случаев приобретение двух относительно недорогих графических карт менее выгодно, чем вложение средств в одну карту класса high-end. Не в последнюю очередь такое положение вызвано техническими особенностями современных игровых движков (HDR, сложные шейдеры с циклами, ветвлениями и зависимостями, многопроходной или отложенный рендеринг, постобработка и т.д.), не позволяющих добиться максимальной производительности систем multi-GPU без программной оптимизации, учитывающей эти особенности. Пользователь, однако, не обязан вникать в эти тонкости; с его точки зрения, приобретённая графическая карта должна обеспечивать максимально возможную для своего класса производительность во всех играх, а именно этого-то современные решения multi-GPU предложить как раз и не могут. Это обрекает их на маргинальный статус «дорогой игрушки для энтузиастов»; впрочем, наиболее популярные игры получают нужные программные оптимизации сравнительно быстро, что является дополнительным фактором, удерживающим технологии multi-GPU от забвения. Есть и ещё одна причина их существования: скорость. Для тех, кто не постоит за ценой или стабильностью.
Иногда производительность графических процессоров растёт медленней, чем системные требования современных игр – достаточно вспомнить Crysis, не позволяющий использовать максимальный уровень детализации без потери игрового комфорта ни на одной из современных систем. Меж тем, новые GPU появляются в арсенале компаний-разработчиков не по мановению волшебной палочки: создание такого чипа - сложный, долгий и весьма затратный процесс, так что время от времени у разработчика просто не оказывается под рукой достаточно производительного ядра. Но сегодняшнее промедление в индустрии трёхмерной графики чревато огромными потерями или даже уходом с рынка завтра, поэтому компании вполне естественно начинают изыскивать способы сохранить темп наращивания производительности своих решений и выиграть время. Тут-то и приходит на помощь концепция multi-GPU. Как известно нашим читателям, долгое время графическое подразделение Advanced Micro Devices, бывшая ATI Technologies, не распологало графическим ядром, способным спорить на равных с Nvidia G92, поэтому она первой обратилась к помощи технологии CrossFire, создав ATI Radeon HD 3870 X2, несущий на борту два чипа RV670. Как показало проведённое нами исследование, объединение двух ядер на одной плате наделило новинку солидным потенциалом, и пусть она не показала максимальной производительности во всех тестах, но формально ATI Radeon HD 3870 X2 стал самым быстрым одиночным видеоадаптером, что после долгого перерыва вновь позволило ATI заявить о своём технологическом первенстве.
Поскольку война на рынке потребительской трёхмерной графики не прекращается ни на минуту, такое заявление не могло остаться безответным со стороны Nvidia. Давний соперник ATI представил решение, призванное перехватить у ATI Radeon HD 3870 X2 титул короля 3D. Поскольку Nvidia в настоящее время также не располагает графическим ядром нового поколения, создавая GeForce 9800 GX2, компания пошла по тому же пути, что и ATI, благо опыт создания двухпроцессорных графических карт у неё уже был.
Multi-GPU: прошлое, настоящее и будущее
реклама
Повторимся, такой подход являлся, является и, возможно, так и останется временным явлением - отсрочкой на то время, пока в секретных лабораториях ATI и Nvidia готовятся к выпуску графические процессоры следующего поколения. В обзоре ATI Radeon HD 3870 X2 мы привели подробные аргументы в поддержку данной точки зрения. Вкратце, они заключаются в том, что придерживаясь такой концепции, компании-разработчики обеспечивают себе свободу ценового и скоростного манёвров. С одной стороны, компании получают возможность использования некондиционных ядер с частью отключенных блоков в недорогих картах, а с другой – доводка техпроцесса позволяет повышать тактовые частоты, увеличивать производительность, а, следовательно, и расширять ассортимент продуктов, от чего конечный покупатель только выигрывает. Ставка на гомогенные мультичиповые решения в стратегических масштабах невыгодна обеим сторонам: производителю – повышенной стоимостью разработки, производства и поддержки таких графических карт наряду, а покупателю – узким ассортиментом предлагаемых решений и их повышенной стоимостью в сравнении с одночиповыми аналогами.
Впрочем, и у «одноядерной концепции» есть существенный недостаток – производители не могут наращивать мощность гомогенных графических ядер до бесконечности, так как это влечет за собой порой неоправданный рост сложности чипа, увеличение площади кристалла и уровня энергопотребления. Недостатки гомогенных мультиядерных решений хорошо известны; о них мы говорили неоднократно, поэтому, не исключено, что будущее – за гетерогенными чипами MCM (multi-chip module). По сути, сама концепция не нова: ещё в 3dfx Voodoo и Voodoo 2 текстурные процессоры и модули растровых операций были выполнены в виде отдельных микросхем. Также подобный подход активно применялся в профессиональных 3D-ускорителях 3Dlabs, где в отдельный чип мог быть вынесен, например, геометрический сопроцессор.
На новом уровне это может выглядеть, как набор кристаллов разной функциональности, объединённых одной упаковкой и связанных внутренними высокоскоростными интерфейсами. Один кристалл, к примеру, вполне может содержать командный процессор, ROP, контроллеры памяти, системной шины и DVI/HDMI/DisplayPort, а второй – набор TMU и универсальных исполнительных блоков. Как вариант, базовый кристалл может содержать только командный процессор и контроллеры интерфейсов ввода-вывода, а всё остальное будет реализовано отдельными дополнительными кристаллами, что даст ещё большую гибкость конфигурирования такого решения. Производительность, таким образом, можно будет наращивать сравнительно малой кровью - путём установки в упаковку чипа дополнительных исполнительных модулей. Конечно, такой подход менее выгоден в сравнении с однокристальной архитектурой, но по сравнению с гомогенным multi-GPU, будь оно реализовано в виде MCM или путём установки нескольких отдельных чипов он смотрится гораздо выигрышнее. Главное преимущество гетерогенного MCM/Multi-GPU перед гомогенным MCM и классическим multi-GPU заключается в том, что его производительность всегда максимальна и не зависит от программных оптимизаций. Это неудивительно, поскольку он, по сути, представляет собой обычный графический процессор, функциональные блоки которого разнесены по отдельным физическим кристаллам. Такой подход кажется нам наиболее прогрессивным, но пока рано делать прогнозы насчёт перспектив его развития.
В настоящем обзоре мы опишем Nvidia GeForce 9800 GX2 и 4-way SLI, но посвящён он будет не только и не столько ей, сколько современному состоянию технологий multi-GPU в целом, а также выяснению вопроса о том, что они могут принести игроку. Мы рассмотрим как классические двухпроцессорные схемы, так и схемы с большим количеством графических процессоров в системе, включая чётырехпроцессорные комплексы Nvidia Quad SLI и ATI 4-way CrossFireX.
Nvidia GeForce 9800 GX2: принципы работы и технические характеристики
Поскольку новинка использует ядро G92, откровений ожидать не приходится. Спецификации Nvidia GeForce 9800 GX2 выглядят следующим образом:

Совершенно очевидно, что новая разработка Nvidia представляет собой обычный SLI-тандем из двух GeForce 8800 GTS 512MB, с поправкой на тактовые частоты и использование микросхемы-коммутатора PCI Express, обеспечивающей работу SLI на любой системной плате. В этом плане GeForce 9800 GX2 ничем не отличается от ATI Radeon HD 3870 X2. Любопытно отметить, что тактовые частоты графических процессоров в сравнении с GeForce 8800 GTS 512MB понижены с 650/1620 МГц до 600/1500 МГц, в то время, как у ATI Radeon HD 3870 X2 они, напротив, были повышены в сравнении с одиночной картой. При этом надо помнить, что разработка ATI имеет одноплатную компоновку, но, вместе с тем, благодаря 55-нм техпроцессу, RV670 заметно экономичнее и холоднее G92 в полной конфигурации.
реклама
Основное преимущество Nvidia GeForce 9800 GX2 перед ATI Radeon HD 3970 X2 – вдвое больше количество TMU и скалярная архитектура массива ALU, более эффективная в современных играх из-за поддержки со стороны разработчиков. Также отметим поддержку PCI Express 2.0 и отсутствие поддержки DirectX 10.1, в то время как у решения AMD ситуация в точности обратная. Впрочем, в настоящее время поддержка обоих стандартов не слишком актуальна и не приносит реальных дивидендов в играх. Теоретически, решение Nvidia должно работать быстрее, особенно если учесть, что оно позиционируется в более высокую ценовую нишу, нежели ATI Radeon HD 3870 X2 - $599-$649 против $449, однако всё зависит от качества реализации поддержки SLI. Если оно окажется не на высоте, пользователь, решивший приобрести GeForce 9800 GX2, получит GeForce 8800 GTS 512MB с заниженными частотами, но по сильно завышенной цене. Насколько стоит опасаться такой ситуации, покажут результаты игровых тестов.
Логика работы Nvidia GeForce 9800 GX2 ничем не отличается от логики работы любого другого тандема SLI, разве что графические процессоры находятся в пределах одного видеоадаптера и располагают одним слотом PCI Express x16 на двоих. Точно так же был устроен Nvidia GeForce 7950 GX2:

У GeForce 9800 GX2 выведён наружу только один порт MIO, поэтому максимальной конфигурацией является 4-way SLI, достигаемой путём установки в систему двух таких карт. Аналогичные ограничения на сегодняшний день имеет технология ATI CrossFireX.
Что касается логики работы multi-GPU, то мы, к сожалению, не располагаем точной информацией на этот счёт. По всей видимости, Nvidia, вслед за ATI решила отказаться от использования любых режимов рендеринга, кроме AFR. Ранее, технология SLI поддерживала также режим SFR, в котором каждый GPU занимался отрисовкой половины одного кадра, а система Quad SLI могла использовать гибридный режим SFR on AFR. В последнем случае каждая пара GPU отрисовывала по целому кадру, используя SFR, после чего, эти кадры поочерёдно выводились на экран в режиме AFR. В настоящее время использование SFR затруднено широким распространением сложных техник рендеринга, поэтому переход на AFR выглядит логично – этот режим не требует столь тщательной программной оптимизации, а в ряде случаев нормально работает и вовсе без неё. Тем не менее, на этот счёт существуют разночтения, и ряд обозревателей считает, что режим SFR не был предан забвению, как это случилось с режимами Scissor и SuperTiling в случае с ATI CrossFireX.
Из недостатков, свойственных AFR, следует отметить увеличение запаздывания реакции игры на действия пользователя. В случае с двумя чипами это практически незаметно, но с четырьмя запаздывание может быть весьма существенным и негативно отражаться на игровом комфорте. Насколько серьёзна эта проблема, мы выясним ниже, в разделе, посвященном результатам тестов.
Nvidia GeForce 9800 GX2: HybridPower
Технологии Hybrid CrossFire и HybridPower являются дополнениями к традиционным энергосберегающим технологиям, таким как ATI PowerPlay, поддерживаемой семейством ATI Radeon HD 3000. Если суть PowerPlay заключается в динамическом управлении частотой и напряжением питания графического процессора, а также отключении неиспользуемых в данный момент функциональных блоков, то HybridPower и Hyberid Crossfire работают совсем по-другому. В случае наличия поддержки со стороны системной платы технологии позволяет использовать интегрированное в чипсет графическое ядро для вывода изображения в режиме 2D, отключая дискретные ядра и снижая, таким образом, уровень энергопотребленция платформы.


Хотя в этом режиме потребление одного чипа G92 сравнительно невелико, такая возможность может быть отнюдь нелишней в случае наличия в системе двух Nvidia GeForce 9800 GX2, ведь в сумме они несут на своих бортах четыре таких чипа. По нашим оценкам, энергопотребление комплекса Nvidia GeForce 9800 GX2 Quad SLI может достигать свыше 140 Ватт даже в режиме простоя. Их отключение даст существенный выигрыш в экономичности такой игровой платформы.
Сама по себе HybridPower является подмножеством технологии Hybrid SLI, но, разумеется, для такой мощной карты, как Nvidia GeForce 9800 GX2 возможность работать в единой связке с интегрированным графическим ядром неактуальна, поэтому другая часть технологии, режим GeForce Boost интересной новинкой не поддерживается.
реклама
Лента материалов раздела
Интересные материалы
Возможно вас заинтересует
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила