Ретроклокинг: все топы NVIDIA – Windows XP от GeForce 6 до Maxwell
Оглавление
- Вступление
- Попытка 2.0
- Тестовый стенд
- Участники тестирования
- Результаты тестов
- 3DMark 2001 SE Pro b330
- 3DMark 2003 v.3.6.1
- 3DMark 2005 v.1.3.1
- 3DMark 2006 v.1.1.1
- Comanche 4 (Benchmark)
- Max Payne
- Doom III
- Far Cry
- Resident Evil 5 Benchmark
- Tom Clancy’s Splinter Cell
- 3DMark Vantage
- Resident Evil 6 Benchmark
- Lost Planet Benchmark
- Crysis
- Заключение
Вступление
Лаборатория продолжает цикл статей о ретроклокинге. Возможно, у вас еще свежи воспоминания о проведенном ранее тестировании самых современных AGP и PCI-Express видеокарт на одной платформе. В прошлый раз мы остановились на топах с PCI-Express интерфейсом, но из-за несовместимости «железа» (материнской платы ASRock 4CoreDual-VSTA с процессором Intel Core 2 Extreme QX9650 @4.0 ГГц и видеокарт с PCI-Express третьего поколения) модели старше, чем GeForce GTX 580, запустить на ней не удалось.
Было решено повторить данное тестирование на платформе LGA 1155, чтобы охватить все поддерживаемые топовые видеокарты на Windows XP. Что из этого получилось, вы узнаете, прочитав данную статью.
реклама
Попытка 2.0
Итак, чтобы до конца разобраться с флагманскими видеокартами NVIDIA применительно к ретроклокингу, в качестве основной операционной системы выступает неизменная «народная» Windows XP. Я взял ее за основу, поскольку она является моей основной ретро-тестовой операционной системой и большинство экспериментов проводится непосредственно с ее участием.
Так что, если кто-то ждет тестирования всех топов на Windows 10 в паре с недавно вышедшим Intel Core i9-10900K, смею вас разочаровать. Мне самому было бы интересно увидеть результат, но возможность провести такой эксперимент у меня физически отсутствует. К тому же больший интерес вызывает выяснение того, на что способна Windows XP и ретро-система, построенная на ее основе. Что предпочесть – GeForce 6800 Ultra или GeForce GTX 900 с GPU Maxwell?
Прошлый тестовый стенд был собран на базе материнской платы ASRock 4CoreDual-VSTA, которая оснащена парой графических интерфейсов (AGP 8X и PCI-Express), и процессора Intel Core 2 Extreme QX9650, разогнанного до 4.0 ГГц.
Получившаяся конфигурация была производительна, даже применительно к построению ретро-системы, но она содержала ряд недочетов. Во-первых, графический интерфейс PCI-Express первого поколения насчитывал всего четыре линии; во-вторых, чипсет VIA Technologies не блистал производительностью; и в третьих, работу оперативной памяти стандарта DDR2 c частотой 266 МГц можно было назвать разве что удовлетворительной.
Если кто-то не успел ознакомиться с содержанием предыдущих материалов, то ссылки на них приведены ниже:
- Ретроклокинг: все топы NVIDIA – AGP интерфейс;
- Ретроклокинг: все топы NVIDIA – PCI-Express интерфейс.
В результате я остановился на старом добром Intel Core i7-2600K, материнской плате ASUS Maximus V Extreme на чипсете Intel Z77 и 16 Гбайт DDR3 памяти с частотой 2133 МГц. Чтобы было более «стильно-модно-молодежно», процессор был разогнан до 5.1 ГГц при помощи воздушного охлаждения.
Windows XP без всяких проблем устанавливается на данную платформу, как и все необходимые драйверы для интегрированных в материнскую плату контроллеров.
реклама
Конечно, 32-х битная операционная система не увидит все 16 Гбайт оперативной памяти, но используемым тестам с лихвой хватит трех оставшихся. HT или Hyper-Threading я отключил за неиспользованием данной технологии большинством тестов.
А вот с драйверами для видеокарт все не так просто. Поддержка Windows XP давно прекращена, поэтому о «лучезарной» серии GeForce RTX придется забыть, как впрочем, и о 100-й серии также. Хотя энтузиасты пытались завести GeForce GTX 1080 Ti на Windows XP, но эксперимент так и не удалось успешно завершить.
Поддержка GeForce GTX 900-й серии официально закончилась на «мидле» – GeForce GTX 960, поэтому ПО для GeForce GTX 980 и GeForce GTX 980 Ti пришлось прикручивать вручную. Последняя версия GeForce Game Ready Driver для Windows XP за номером 368.81 датируется 14 июлем 2016 года.
Чтобы добавить поддержку видеокарт 900-й серии – от GeForce GTX 970 до GeForce GTX 980 Ti – в драйвер, необходимо внести несколько строк, которые находятся в файле «nv4_dispi.inf». О том, какие строки необходимо добавить, можно прочесть здесь.
В результате полученных манипуляций моя система позволяет запускать PCI-Express видеокарты от GeForce 6800 Ultra до GeForce GTX 980 Ti. С недостающими моделями топовых линеек мне помог zEsEn, благодаря чему в тестировании приняло участие 13 видеокарт, которые закрыли временной отрезок с 2004 по 2015-й год, итого 11 лет развития и прогресса.
Тестовый стенд
Состав тестового стенда:
- Процессор: Intel Core i7-2600K 3.4 @5.1 ГГц (HT-off);
- Кулер: Raijintek Leto Pro RGB;
- Материнская плата: ASUS Maximus V Extreme (Intel Z77 Chipset);
- Оперативная память: 16 Гбайт DDR3 G.Skill 2133 МГц (9-11-10-39 2Т);
- Накопитель: SSD SATA Kingston SSDNow V300 SATA-III 60 Гбайт;
- Блок питания: Zalman ZM1000-EBT, 1000 Ватт.
По сравнению с предыдущим тестовым стендом, состоявшим из материнской платы ASRock 4CoreDual-VSTA и Intel Core 2 Extreme QX9650, заметно вырос обмен данными между процессором и видеокартой, благодаря использованию полноскоростного интерфейса PCI-Express с шестнадцатью линиями вместо четырех. Вдобавок поддерживается второе поколение указанного интерфейса, что означает увеличение скоростей обмена данными с 1.0 Гбайт/с до 8.0 Гбайт/с для видеокарт, поддерживающих данную версию интерфейса.
Использование процессора Intel Core i7-2600K, разогнанного до 5100 МГц, так же положительным образом сказалось на производительности всей системы, как и использование более скоростной памяти DDR3 SDRAM. Я запустил в Windows XP SP3 тест AIDA64 производительности процессора в таком состоянии, и вот какие значения получил:
И пусть по процессорной производительности удалось дотянуться без наличия Hyper-Threading до Intel Core i7-4770 с микроархитектурой Haswell (и на горизонте появился Core i7-7700K, который относится к микроархитектуре Kaby Lake), но в ниже описанном ПО наличие восьми потоков необязательно, а вот тактовая частота лишней явно не будет. Страшно подумать, какие бы получились цифры, если бы я не отключал HT, но это уже как-нибудь в другой раз.
реклама
Тестирование проводилось в Windows XP SP3 с помощью следующего ПО:
- 3Dmark 2001 SE Pro b330;
- 3Dmark 2003 v.3.6.1;
- 3DMark 2005 v.1.3.1
- 3DMark 2006 v.1.1.1;
- Comanche 4 Benchmark;
- Max Payne;
- Doom III;
- Far Cry;
- Resident Evil 5 Benchmark;
- Tom Clancy's Splinter Cell.
Участники тестирования
Звездный состав участников тестирования коренным образом не изменился. Среди них все та же заряженная GeForce 6800 Ultra с удвоенным объемом видеопамяти производства MSI,…
… а также все остальные, включая GeForce GTX 580 с удвоенным количеством видеопамяти в виде MSI N580GTX Lightning Xtreme Edition 3Gb, которая способна работать на 1 ГГц при использовании штатной системы охлаждения.
Об этих видеокартах я рассказывал в предыдущих эпизодах эксперимента. А вот далее будем знакомиться персонально.
GeForce GTX 680
GeForce GTX 680 – представитель архитектуры Kepler с очень большим или громадным отличием от всего того, что было у GeForce GTX 580 (Fermi). Начиная с GeForce GTX 680 и до GeForce GTX 980 Ti, графические процессоры изготавливались с применением норм 28 нм техпроцесса, против 40 нм у Fermi. У нового GPU количество шейдерных блоков увеличилось в три раза, количество блоков текстурирования удвоилось, сменилось поколение поддерживаемого PCI-Express интерфейса со второго на третье, не говоря уж о прочих улучшениях.
Но самым «инновационным» решением стало использование технологии GPU Boost, которая динамически управляет частотой графического процессора.
С этого момента и по сей день оверклокерам приходится напрягаться. Если в 500-й серии видеокарт NVIDIA действовало правило – выставил руками частоту и она стоит как вкопанная, то теперь мы имеем дело с энергосберегающими технологиями и специальными алгоритмами работы GPU при различных условиях, зависящих от уровня ТDP, температуры и других параметров.
Представлять GeForce GTX 680 будет видеокарта MSI NGTX680 Lightning.
Серия видеокарт Lightning производства MSI в представлении не нуждается, это всегда быстро, надежно и разгоняемо. Частота GPU – 1110 МГц (1176 МГц Boost), эффективная частота видеопамяти – 6008 МГц. На этих частотах видеокарта использовалась в тестах.
GeForce GTX 780
Буквально через год и несколько дней былого флагмана сменил новый. Инженеры NVIDIA потрудились на славу, количество транзисторов при неизменном техпроцессе увеличилось вдвое! Количество CUDA-ядер возросло с 1536 до 2304. Технология GPU Boost была обновлена до второй версии, но, несмотря на это, частота GPU получилась ниже, чем у предыдущего лидера, и составляла рекомендованные 863 МГц. Частота видеопамяти осталась на прежней отметке – 6008 МГц.
Но мощи у GeForce GTX 780 было не занимать, ведь не зря транзисторный пакет увеличился вдвое. Сама компания заявляла о 70% превосходства над GeForce GTX 580 или о 42% при сравнении с GeForce GTX 680.
Отстаивать честь GeForce GTX 780 вновь будет представитель компании MSI – молниеносная версия одноименной видеокарты.
Когда держишь в руках MSI N780 Lightning, понимаешь, что это изделие не простая поделка. В ней каждый сантиметр площади заточен под разгон, габариты и масса этой видеокарты внушают страх владельцам небольших корпусов.
Впрочем, стендовая ASUS Maximus V Extreme также напряглась, армированный слот PCI-express ей не помешал бы, так как за непродолжительное время туда устанавливался не один десяток видеокарт.
GeForce GTX 780 Titanium
Спустя полгода NVIDIA выпускает нового флагмана на все том же GPU с кодовым именем GK110 – GeForce GTX 780 Ti (Titanium). Инженеры не стали изобретать велосипед, а просто сделали доступными ранее отключенные блоки. Количество ядер CUDA увеличилось с 2304 до 2880, количество блоков фильтрации текстур (TMU) – с 192 до 240 штук. Частота работы видеопамяти увеличилась на один гигагерц и составила 7008 МГц.
Подросла и базовая скорость GPU с бустом с 863/900 до 876/928 МГц, в итоге новоиспеченный Titanium обогнал по производительности первого «Титана».
В этот раз молниеносный Titanium использоваться не будет: их было выпущено всего 12 экземпляров и найти его сейчас практически нереально. Эти версии участвовали в соревновании MSI Master Overclocking Arena (MOA, октябрь 2014 года), в рамках которого опытные оверклокеры планеты сражались за титул самого лучшего. Вот они как раз и использовали модели MSI GeForce GTX 780 Ti Lightning MOA Edition.
Но я буду использовать видеокарту не хуже – EVGA GeForce GTX 780 Ti Classified K|NGP|N Edition. Созданная при участии известных оверклокеров Vince «K|NGP|N» Lucido и Illya «TiN» Tsemenko, данная модель готова ко всему, благодаря использованию передовой элементной базы и оверклокерских наработок.
EVGA GeForce GTX 780 Ti Classified K|NGP|N Edition в состоянии работать, потребляя свыше 450 Вт энергии. С ее помощью был поставлен не один мировой рекорд в различных оверклокерских дисциплинах. Она стала первой видеокартой EVGA, давшей начало целой линейке производительных графических ускорителей EVGA K|NGP|N Edition.
У меня же она в этот раз будет работать на своих стандартных частотах: 1072 МГ для GPU и 7000 МГц для видеопамяти.
Следующее поколение NVIDIA в числовом выражении пропустила, после 700-й серии сразу вышла 900-я. Почему так получилось, можно узнать, обратившись к соответствующей новости тех лет, а я продолжу далее.
GeForce GTX 980
Прошло чуть меньше года после анонса GeForce GTX 780 Ti, как NVIDIA снова порадовала общественность новым графическим ускорителем – GeForce GTX 980, который вышел на обновленной архитектуре Maxwell второго поколения. По сравнению с серией 700 это было больше эволюционное решение.
Количество транзисторов уменьшилось на 30% при неизменном технологическом процессе, но зато была проведена работа по оптимизации самих транзисторов, так как GK110, легший в основу видеокарт 700-й серии, был самым большим графическим процессором, который могла изготовить TSMC по 28 нм техпроцессу в 2013 году.
В результате многочисленных оптимизаций новый флагман оперировал 2048 ядрами CUDA, 128 текстурными блоками и 64 блоками растеризации. Энергоэффективность GPU стала еще лучше, подросла частота видеоядра, добавились новые технологии поддержки сглаживания, освещения, теней. Помимо вполне ожидаемой поддержки всех спецификаций DirectX 11.2, Maxwell 2.0 получил поддержку новых возможностей API DirectX 12.
В принципе, именно 2013 и 2014 годы были самыми интересными, с точки зрения разнообразия нереференсных моделей видеокарт. На это время также пришелся и пик соревновательного оверклокинга на мировой арене, когда мэтры криогенного охлаждения не только боролись за оверклокерский трон, но и выпускали свои именные версии графических ускорителей при поддержке ведущих производителей видеокарт. И борьба в этом сегменте уже тогда шла не на жизнь, а на смерть.
Достаточно вспомнить некогда известного оверклокера №1 из Великобритании – Ian «8Pack» Parry и его видеокарту KFA2 GeForce GTX 980 HOF 8Pack Edition – это целое произведение искусства:
При поддержке производителя видеокарт Galax известный бразильский оверклокер Ronaldo «Rbuass» Buassali выпустил свою видеокарту – Galax GeForce GTX 980 HOF TecLab Edition, названную в честь команды TecLab OC Team.
Не отставала и компания EVGA, а с ней и мастера разгона и инженеры Винс «K|ngp|n» Люсидо и Илья «TiN» Цеменко, выпустившие EVGA GeForce GTX 980 Classified K|NGP|N Edition.
Эта видеокарта была разработана и создана специально для разгона и экстремальных оверклокеров, а также для обеспеченных энтузиастов и просто ценителей подобного рода продукции.
Цифровая подсистема питания EVGA GeForce GTX 980 Classified K|NGP|N Edition построена по схеме «14+3» и способна выдавать ток до 600 А, используя при этом сразу три входа – два 8-контактных и один 6-контактный. Система охлаждения ACX 2.0 обеспечивает высокую эффективность охлаждения всех компонентов при минимальном шуме. Тактовая частота GPU равна 1304 МГц (1418 МГц Boost). Именно эта модель видеокарты станет участником теста. Конечно, в Windows XP весь ее потенциал не будет раскрыт, но зато лишний раз можно будет вспомнить наиболее выдающиеся модели видеокарт.
Я позволю себе упомянуть еще одну интересную видеокарту из серии GeForce GTX 980, это самая быстрая GeForce GTX 980 из когда-либо созданных. И пусть выше были приведены очень быстрые варианты, а есть еще, например ASUS ROG GTX 980 Matrix Platinum, но даже она по тактовым частотам, зашитым в BIOS, уступает флагману номер один.
Встречаем – ASUS GTX 980 20th Anniversary Gold Edition. Улучшенный Matrix Platinum, юбилейное издание, лимитированная серия – этот ускоритель по праву может считаться самым быстрым. Его тактовые частоты равны 1317 МГц (1431 МГц Boost) против 1127 МГц (1216 Boost) у референсной модели. Увы, не каждый мог себе ее позволить приобрести на момент появления в продаже.
GeForce GTX 980 Ti
GeForce GTX 980 Ti, основанный на GPU с кодовым названием GM200, получился еще быстрее предшественника. Графический процессор содержит шесть кластеров GPC, состоящих из 24 мультипроцессоров, но в данной модели были отключены два из них, а так по факту получился бы Titan X.
Шесть гигабайт быстрой видеопамяти, работающей на частоте 7 ГГц, сообщаются с GPU посредством 384-битной шины, что дает пиковую пропускную способность видеопамяти в 336.5 ГБ/с или в полтора раза больше, чем у GeForce GTX 980.
Количество транзисторов возросло с 5.2 млрд до 8 млрд штук. Количество универсальных процессоров насчитывает 2816, текстурных блоков – 176, блоков блендинга – 96, против 2048/128/64 у GeForce GTX 980. Видеокарта стала еще быстрее, технологичнее и на $100 дороже.
В качестве тестовой видеокарты на этот раз будет выступать KFA2 GeForce GTX 980Ti «Hall of Fame 8Pack Approved Edition» с частотной формулой 1190 МГц (1291 МГц Boost) для видеоядра и 7010 МГц для видеопамяти.
Результаты тестов
Настало время собрать всех участников тестирования и посмотреть, что из этого получилось. Если кто-то просто пролистал статью или посмотрел картинки, то я еще раз напомню, что все вышеперечисленные видеокарты будут оцениваться в DirectX9 в Windows XP SP3, поэтому далеко не все функции и технологии ускорителей будут задействованы, так как это уже другая история.
Перед началом еще одно коллективное фото на память.
Опытные оверклокеры должны знать все перечисленные модели в лицо, если кто-то подзабыл, то в обсуждении, думаю, подскажут. Жалко, что ни одна из этих видеокарт не была у меня в ее актуальное время, а лишь спустя годы, когда они перешли в разряд «ретро». Даже несмотря на это, мое отношение к ним не меняется.
Ниже приведу все скриншоты GPU-Z с характеристиками используемых моделей и версий драйверов.
В результатах тестов я оставил значения, полученные на предыдущей платформе с Intel Core 2 Extreme QX9650 (они выделены иным шрифтом), для наглядности и сравнения с системой с более быстрым процессором.
3DMark 2001 SE Pro b330
Итоговый балл
Больше – лучше
Включите JavaScript, чтобы видеть графики
Тест 3DMark 2001 SE – один из самых гибких бенчмарков. На графике видно, что начиная с архитектуры Fermi резкий рост производительности заканчивается, грубой силой тут уже не отделаешься.
К тому же, здесь только в четвертом подтесте «Nature» используются все преимущества DirectX8 в виде вертексных и пиксельных шейдеров, задействование попиксельного рельефа, кубические карты среды и 4-слойное текстурирование. В одном кадре может находиться до 181 тысячи полигонов и до целых 40 мегабайт 32-битных текстур. Без GeForce3 в свое время тут делать было нечего. Самые мощные системы того времени набирали в нем целых 6 000 очков.
Итоговый FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
Обычная 3D-сцена тех лет, полигоны и вертексные шейдеры, движения персонажей в кадре с динамическим освещением созданы специальным алгоритмом, использующим CPU и 3D карту. Здесь уже ничего не зависит ни от CUDA ядер и прочих современных технологий, хватает даже GeForce 7900 GTX.
3DMark 2003 v.3.6.1
Итоговый балл
Больше – лучше
Включите JavaScript, чтобы видеть графики
Тут ситуация немного меняется. Самый большой всплеск производительности у GeForce GTX 480, а далее уже наблюдается рост до 10%, за исключением GeForce GTX 780 Ti. Ниже на скриншоте можно увидеть все результаты протестированных видеокарт в данном бенчмарке.
3DMark 2005 v.1.3.1
Итоговый балл
Больше – лучше
Включите JavaScript, чтобы видеть графики
И опять видны границы перехода поколений: от GeForce 7900 GTX к GeForce 8800 Ultra, от GeForce GTX 285 к GeForce GTX 480.
Итоговый FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
3DMark 2006 v.1.1.1
Итоговый балл
Больше – лучше
Включите JavaScript, чтобы видеть графики
Здесь наблюдается аналогичная предыдущему тесту картина. Ниже на скриншоте можно увидеть результаты всех видеокарт:
Comanche 4 (Benchmark)
1280 x 1024, 32 bit color, Texture compression – on, Hardware Shaders – on, FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
Comanche 4 это игра-симулятор полета на прототипе боевого вертолета RAH-66 со встроенным бенчмарком. Игровой движок поддерживает API DirectX 7 и DirectX 8. Используются мультитекстурирование, аппаратное ускорение операций расчета освещенности и преобразования координат (Hardware Transforming & Lightning), пиксельные и вершинные шейдеры.
Но этот бенчмарк очень уж сильно полагается на мощь центрального процессора. Условно победу одержала GeForce GTX 580, хотя остальные претенденты отстали на уровне погрешности измерений.
Max Payne
1280 x 1024, PCGH's Final Scene No.1 (VGA-Demo), Average FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
В 2001-м году эта игра наделала много шума, благодаря своей «кинематографической» графике и известному режиму «Bullet time». Передовые технологии того времени затем воплотились в третий тест пакета 3DMark 2001 Second Edition.
В данном тесте представители архитектуры Maxwell 1.0 и 2.0 остались не у дел, хотя в любом бенчмарке Directx11 они опередили бы представителя Fermi.
Doom III
1024 x 768, High Quality, Average FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
Far Cry
1024 x 768, Max Quality, demo 3DNews - Research, Average FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
Resident Evil 5 Benchmark
1024 x 768, D3D9 version, Middle Quality, Average FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
Tom Clancy’s Splinter Cell
1024 x 768, Max Quality, demo Tbilisi, FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
Что же из всех этих тестов вытекает? Для Windows XP и платформ, которые официально с ней совместимы, использовать видеокарту быстрее, чем GeForce GTX 580, нет большого смысла, в ряде случаев хватит даже GeForce GTX 285. А вот от смены процессора Intel Core 2 Extreme QX9650 @4.0 ГГц на Core i7-2600K @5.1 ГГц разница видна невооруженным взглядом.
Но мне все же было интересно, как обстоят дела в DirectX 10. Вдобавок в обсуждении предыдущего материала просили еще включить в список тестов Crysis. Поэтому ниже все тесты и игры будут проходить в ОС Windows7 x64.
3DMark Vantage
Итоговый балл
Больше – лучше
Включите JavaScript, чтобы видеть графики
По мере задействования большинства графических технологий и использования более совершенного API DirectX 10 производительность видеокарт начинает расти более поступательно.
Resident Evil 6 Benchmark
1920 x 1080, D3D9 version, Max Quality, итоговый балл
Больше – лучше
Включите JavaScript, чтобы видеть графики
Lost Planet Benchmark
DX10 (Cave), FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
Crysis
DX9 (1280 x 1024) Middle, FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
В Crysis очень хорошо видны технологические скачки видеокарт, поддерживающих API DirectX DX9, DX10 и последующий DX11. При таких настройках потребление видеопамяти приближается к одному гигабайту, нелегко приходится видеокартам с малым объемом памяти, а GeForce 6800 Ultra вообще не смогла даже запустить данный тест.
DX10 (1920 x 1080) High, FPS
Больше – лучше
Включите JavaScript, чтобы видеть графики
На мой взгляд, при таких настройках не хватает уже мощности процессора, чтобы полностью загрузить старшие видеокарты.
Заключение
Думаю, многие ожидали, что во всех тестах видеокарты выстроятся по линейке друг за дружкой, сильная за слабой и так далее. Но такая ситуация была бы характерна для нормальных условий, где каждая модель выступала бы в тех тестах, для API которых она предназначалась. При таком подходе количество участников было бы меньше, а мне хотелось провести тесты со всеми.
Впрочем, у нас совсем другая история, суть которой – запустить на Windows XP все топовые видеокарты, какие на сегодняшний день возможно. Благо данная операционная система идеально подходит для игр, время которых прошло. Как выяснилось, использование самых производительных видеокарт вкупе с Core i7-2600K не принесет ощутимых дивидендов, в ряде случаев GeForce GTX 580 может оказаться быстрее.
Автор выражает благодарность zEsEn за предоставленные «молниеносные» видеокарты MSI.
Теги
Лента материалов раздела
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила