Смена GeForce 7950 GT 512 MB на Radeon HD 4870 1 GB в ПК с socket 939 – стоит ли овчинка выделки?

2 декабря 2008, вторник 14:24
для раздела Блоги
Смена GeForce 7950 GT 512 MB на Radeon HD 4870 1 GB в ПК с socket 939 – стоит ли овчинка выделки?

Место первой публикации статьи - сайт AMDClub.ru
ссылка:
Введение


Для любого владельца ПК, хотя бы изредка играющего в «неказуальные» компьютерные игры, рано или поздно, но абсолютно неотвратимо наступает… эээ… «момент истины»… «Истина» эта для любого «геймера» неизбежно горька, неумолима и бескомпромиссна – соотношение количества FPS к качеству выдаваемой картинки в той или иной игре перестает устраивать. Сначала, для комфортного «прохождения» игры приходится жертвовать сглаживанием, анизотропной фильтрацией и прочими «вкусностями», затем вместо максимальных графических настроек человеку приходится выбирать высокие, а то и средние настройки, позже еще снижать качество «картинки»… Статус-кво, естественно, не может продолжаться вечно, среди видеоигр имеются хиты, в которые можно играть и играть, но любому из нас иногда хочется попробовать что-то новое…

В конце концов, так произошло с моим ноутбуком – LG LM 60, все навязчивее требующем замены на более производительный, ибо этот устарел, а в командировках иногда хочется «скоротать время» с новым, свежеприобретенным игровым софтом…

Все ближе к этому и мой «десктоп» - ПК на базе CPU AMD Athlon 64 X2 4600+ для сокета 939… На нем и сейчас вполне комфортно играть в большинство современных игр на средне-высоких, а иногда и на максимальных настройках, но жертвовать приходится все большими и большими «вкусностями», даже с учетом того, что ОС Microsoft Windows XP, мною пока «апгрейдиться» на OC Microsoft Vista не планируется.

Впрочем, скоро весна, а вместе с ней и очередной апгрейд (точнее сборка нового ПК), либо на базе ЦП от AMD - Phenom II (Deneb), либо, что совсем исключить нельзя, на ЦП производства Intel(Core i7) … А там, быть может, и Microsoft Windows Vista до ума доведут, ну или я «снизойду» до ее приобретения :).

Итак, сегодня речь пойдет сначала о трудном выборе среди двух продуктов вечных конкурентов – ATI, являющейся ныне частью AMD и NVIDIA – пока еще сохраняющей независимость, затем о «потребительских качествах выбранного продукта». Для кого-то эта статья будет актуальной (далеко не все владельцы ПК полностью обновляют их «содержимое» раз в полгода), для кого-то бесполезной, ибо они уже успели сменить одиночную Radeon HD 4870 512 MB на пару GeForce GTX 280, работающих в режиме SLI… Тем не менее, я все же постараюсь, чтобы эта статья была не слишком обременительной для чтения и была достойна хотя бы беглого просмотра диаграмм.

Предупреждение:

Внимание, все тесты проводились в операционной системе Microsoft Windows XP! Не ищите в этой статье результатов тестов для DirectX 10, в ней их просто нет! Для меня лично, в настоящее время недостатки Windows Vista перевешивают ее достоинства (впрочем, и на iXBT.com центральные процессоры до сих пор тестируются в ОС Windows XP 64 Bit)…

1. Острая проблема выбора

Не секрет, что зачастую выбор конкретного продукта является достаточно сложной, хотя и весьма занимательной процедурой. Например, в прошлый раз, я выбрал в качестве нового «девайса» видеоадаптер NVIDIA GeForce 7950 GT 512 MB, причем наряду с ценой той видеокарты, ее производительностью, шумностью системы охлаждения, отлаженностью драйверов и пр., не последним фактором, сыгравших роль в выборе именно ее было нежелание менять блок питания на 400 Вт.

Однако время идет, требования «железа» к мощности БП ужесточаются, поэтому в этот раз, смена БП превратилась в неизбежность, и я заблаговременно приобрел новый БП мощностью 600 Вт, но о нем, в следующей статье (возможно…).

Итак, при выборе нового видеоадаптера лично для меня, критериями выбора были следующие его свойства:

1) Не слишком высокая цена (до 12000 рублей), ибо после этой суммы доплата за «большую» производительность слишком уж нецелесообразна (производительность «девайса» выше на 10-20%, а цена на все 40-100%);

2) Возможность (при желании) докупить вторую такую же видеокарту и использовать ее в режиме SLI или CrossFire;

3) Приемлемый температурный режим с использованием «стоковой» системы охлаждения;

4) Хорошие отзывы на форумах (в том числе высказывания о количестве возвращенных по гарантии экземплярах сотрудников магазинов);

5) Поддержка современных графических технологий, (в том числе тех, которые появятся в ближайшем будущем во вновь выходящих играх);

6) Наличие примерно 1 гигабайта видеопамяти на «борту» девайса;

7) Возможность «разумного оверклокинга». Экстремальными видами разгона я не увлекаюсь, но изредка и мне хочется «выжать все соки» из купленной «железки».

На момент написания статьи, на рынке высокопроизводительных видеоадаптеров, имеющих «приемлемую» стоимость, основными конкурентами являются видеокарты NVIDIA GTX 260 (216 SP) 896 MB и ATI Radeon HD 4870 1024 MB.

Прежде чем выбирать, предлагаю изучить таблицу с их характеристиками:




Как видно из представленной таблицы, характеристики обоих видеоадаптеров (с учетом особенностей конкретной архитектуры GPU) весьма близки. Предпочесть однозначно одну видеокарту другой невероятно сложно, для большинства покупателей, думаю, выбор между этими двумя продуктами перейдет в плоскость личных предпочтений.

Лично я рекомендую тем, кто сомневается (и при этом не имеет конкретных предпочтений) сходить в ближайший компьютерный магазин, где попросить продавцов подключить к двум одинаковым ПК (с видеокартами из таблицы выше) два одинаковых монитора, и попросить их запустить какую либо 3D игру или один из 3DMark’ов. В 3D картинка у видеокарт ATI и NVIDIA отличается достаточно для того, чтобы Вы смогли выбрать одну из них, исходя из увиденного Вами изображения на мониторах…

Что говорите? Боитесь, что Вас пошлют в эээ… «другой магазин»? Не волнуйтесь, не пошлют. Если Вы скажете «менеджерам по продажам», что пришли купить видеокарту, но выбираете из этих двух, то Вам обязательно помогут с выбором. Главное не слушайте их, а смотрите и выбирайте самостоятельно…

Лично я после весьма продолжительных размышлений предпочел ATI Radeon HD 4870 1024 MB. Причем, как это ни смешно, но основную роль в этом сыграли два фактора – более качественная (на мой, сугубо мой субъективный взгляд) картинка в 2D и более насыщенная в 3D у видеокарт ATI, а также поддержка ими DX 10.1, которой нет у конкурента.

2. Краткое описание тестируемого продукта

Итак, объектом нашего исследования является видеокарта ATI Radeon HD 4870 1024 MB, производства компании Sapphire.

Упаковка:

Упакована видеокарта, оказалась в сравнительно небольших размеров коробку (285х165х88 мм), снаружи глянцевый «супер» внутри обычная картонная коробка.




На «глянце» изображена «воинственная» девушка, a la «Лара Крофт», с револьвером в руке, рядом с которой имеется упоминание об установленном 1 гигабайте GDDR5 видеопамяти. На боковых стенках коробки имеются более подробные сведения о продукте, а вот о тактовых частотах GPU и видеопамяти ни слова.

Видеокарта выполнена на текстолите красного цвета, оснащена двухслотовой системой охлаждения.

Вид спереди:




Вид сзади:




Пайка элементов весьма качественная, криво припаянных элементов, как это было когда-то на видеокарте ATI Radeon Х800XL этого же производителя, при визуальном осмотре видеокарты мною обнаружено не было.

За исключением двух DVI и одного S-Video выходов, каких либо иных разъемов на видеоадаптере не имеется (кроме двух шестипиновых разъемов для подключения питания и разъемов для организации Cross Fire, разумеется);

Поскольку в ближайшее время замена стоковой системы охлаждения мною не планируется, снимать ее я не стал, для того чтобы получить некоторые сведения о GPU я воспользовался программой GPU-Z, которая представила следующую информацию:




Как видно из скриншота, в GPU, установленном на видеокарте ничего необычного – стандартный микрочип RV770, выполненный по технологии 55 Нм, работающий на тактовой частоте 750 МГц. Видеопамять, также работает на стандартных частотах, ее объем – 1 Гб.

Комплект поставки:

Наряду с видеоадаптером, упакованным в двойной полиэтиленовый пакет с «пупырышками»:) в коробке оказалось:

- штекер-переходник DVI – HDMI – 1 шт.;
- штекер-переходник DVI – VGA – 1 шт.;
- мостик для организации «Cross Fire»;
- переходник S-Video – аналоговый выход;
- переходник-разветвитель S-Video – компонентный выход;
- два кабеля для подключения дополнительного питания видеокарты (шестипиновые разъёмы);
- компакт-диск с драйверами видеокарты, а также электронной инструкцией в формате PDF по установке и настройке видеокарты;
наклейкой с эмблемой производителя;
- буклет с инструкцией по установке видеокарты и драйверов (многоязычный, в том числе на русском языке);




Как видите, комплект поставки не слишком богатый, нет ни игр, ни фирменных утилит. В то же время, нельзя сказать и о том, что он совсем беден, все необходимые штекеры и переходники в наличии имеются (в том числе для организации Cross Fire), производитель позаботился также и о тех покупателях, чьи блоки питания не имеют достаточного количества шестипиновых кабелей.

Температурный режим:

нагрузка на GPU создавалась с помощью 20 циклов теста Firefly Forest из тестового пакета 3DMark 2006 в разрешении 1280х1024 с анизотропной фильтрацией уровня 16х. Также было активировано и полноэкранное сглаживание 8 AA. Все тесты проводились в закрытом корпусе Thermaltake Tsunami Dream. Комнатная температура во время тестирования была равна 26,5 градусам Цельсия. Отслеживание частот и температуры видеокарты осуществлялся с помощью программы RivaTuner v2.20 (автор - Алексей Николайчук AKA Unwinder).

Для «ужесточения» тестового режима, видеокарта предварительно была разогнана до частот 780\987 (3948) МГц.




Как видно из графиков мониторинга, даже при «разумном оверклокинге» температура GPU не превышала 85-91,5 градусов Цельсия, что по современным меркам не так уж и много. На стандартных частотах температура ниже на пару градусов. Тем, кто планируют серьезный разгон, в любом случае, стоит позаботиться о замене «стоковой» системы охлаждения на более производительную.

3. Тестовая система и методика тестирования:

Начнем, мы, естественно, с описания тестовой системы, в которой и тестировалась видеокарта:

- Материнская плата: ASUS A8N SLI SE;

- CPU: AMD Athlon 64 X2 (2,4 ГГц), кэш L2 2*512 Кб., Socket 939;

- Система охлаждения CPU: Arctic Cooling Freezer 64 Pro;

- Оперативная память:
4x512 Мбайт DDR-400 модулей RAM производства Kingston ;

- Дисковая подсистема: SATA-II Гбайт, Western Digital 160 Гб., SATA Western Digital 80 Гбайт; SATA Seagate 80 Гбайт;

- Оптический привод: SATA-II DVD CD & DVD±R/RW Optiarc 7173S;

- Корпус: ATX Thermaltake Tsunami Dream, стандартная комплектация с боковым вентилятором;

- Блок питания: Raptoxx RT600 PSP (штатный 120-мм вентилятор);

- Монитор: Samsung SyncMaster 971p/75 Гц.

По современным меркам мой ПК далеко не самый производительный, но тем интереснее будет исследование, ибо одним из вопросов, является целесообразность апгрейда видеокарты уровня Nvidia 7950 GT (ATI Radeon X1950) на видеоадаптер ATI Radeon HD 4870 (GeForсe GTX 260) (именно я сегодня выступаю в качестве добровольца) :). Противником вновь приобретенного видеоадаптера ATI Radeon HD 4870 будет выступать моя «старая, добрая» видеокарта Albatron 7950 GT 512 Мб.

Все тесты были проведены в операционной системе Windows XP x86 SP3; операционная система не настраивалась на максимальное быстродействие;

- драйверы видеокарты на GPU ATI – Catalyst 8.11;
- драйверы видеокарты на GPU NVIDIA – forceware 178.13;

Все настройки драйверов по умолчанию (ибо я не вижу смысла отключать «полезные» оптимизации, а на качество картинки современные «уловки» драйверописателей не влияют).

Тестирование видеокарт проводилось только в одном разрешении экрана: 1280x1024 (стандартном для моего монитора). Для тестов был использован следующий набор 3D приложений, состоящий из синтетических бенчмарков и компьютерных игр:

Синтетические тесты:

- 3DMark 2001 SE (1280х1024);

- 3DMark 2003 (1280х1024);

- 3DMark 05 (1280х1024);

- 3DMark 06 (1280х1024);

Во всех случаях синтетические тесты проводились в двух режимах:
- стандартный (без сглаживания и анизотропной фильтрации);
- с включением полноэкранного сглаживания (4AA);

Компьютерные игры:

- F.E.A.R: версия игры 1.0, разрешение монитора 1280х960, все настройки на максимум, анизотропная фильтрация 16Х, полноэкранное сглаживание 4Х, «мягкие тени» включены;

- S.T.A.L.K.E.R.: Shadow of Chernobyl (Direct3D 9) – версия игры 1.0.0.4, профиль настроек качества «полное динамическое освещение», ползунок «сглаживания» выставлен на максимум, тени от травы включены;

- Unreal Tournament 3 (Direct3D 9) – версия игры 1.3, максимальные настройки графики в игре, Motion Blur активирован, тестировались «Flyby» и «Botmatch» - сцены на уровне “Corruption” (4 последовательных цикла), использовался бенчмарк HardwareOC UT3 Bench v1.3.0.0;

- Crysis (Direct3D 9) – версия игры 1.1.1.5767, профиль настроек «High», трехкратный цикл теста видеокарты на уровне «Island» бенчмарк CrysisBenchmarkTool 1.05;

- Far Cry 2 (Direct3D 9) – версия игры 1.00, профиль настроек «High», двухкратный цикл теста «Ranch Small» из бенчмарка Far Cry 2 Benchmark Tool (v1.0.0.1).

4. Результаты тестов производительности видеокарт

Начнем мы с синтетических бенчмарков. Возможно, что у кого-то из читателей возник вопрос, почему я использую «старые» 3D-Mark’и 2001SE – 05, но не использую новейшего 3DMark Vantage?

Отвечаю: во-первых, как я уже говорил, все тесты проводились в ОС Windows XP, во-вторых, этот новейший тестовый пакет мало популярен среди тестеров и оверклокеров из-за необходимости иметь постоянное подключение к интернету во время бенчмаркинга, а в-третьих, он не «блещет» уровнем выдаваемой картинки.

На всех диаграммах в этой главе красным (и его оттенками) обозначены результаты видеокарты ATI, зеленым (и его оттенками) видеокарты NVIDIA.

Синтетика:




Даже беглый анализ результатов позволяет сделать весьма интересные выводы:

1. Для начала следует отметить, что наиболее адекватно отражает производительность видеокарт тестовый пакет 3DMark 2003, на втором месте 3DMark 2001 SE. В остальных бенчмарках прирост гораздо ниже возможного.

2. В относительно современных бенчмарках, по неизвестной мне причине падение производительности при включении полноэкранного сглаживания гораздо ниже, чем в относительно старых. Причинами этому могут быть, как агрессивные оптимизации со стороны производителей видеоадаптеров, так и чрезвычайная зависимость видеокарт от производительности CPU. Позже я постараюсь ответить на этот вопрос.

3. Теоретически, исходя из результатов синтетических тестов, прирост в современных играх лишь от смены видеокарты может достигать впечатляющих результатов (вплоть до двукратного превосходства). Найдется ли подтверждение этому предположению, станет понятно по результатам тестов в компьютерных играх…

Результаты игровых бенчмарков:




Ну что же, прирост весьма и весьма впечатляет, особенно средний и максимальный FPS. Вы можете сказать, что эта игра давно уже устарела, отчасти я с Вами соглашусь, но F.E.A.R. и сегодня остается весьма требовательной игрой, в которую можно поиграть на тестовых настройках далеко не на любой видеокарте. Более того, по результатам этого теста следует, что то, что «не тянула» на максимальных настройках NVIDIA Geforce 7950 GT вполне по силам ATI Radeon HD 4870.




Ну что сказать то? Результаты вполне предсказуемы и логичны (количество FPS я округлил до целых чисел). Средний FPS в этой игре вырос практически в три раза, минимальный FPS в два раза, а вот максимальный FPS вырос сравнительно немного. Вероятнее всего дальнейший рост максимального FPS ограничен производительностью тестового CPU, впрочем, это предположение мы проверим позже…




В этом небезызвестном сетевом шутере прирост несколько меньше, чем в двух предыдущих играх, но и он достаточно велик. Увеличение производительности на треть - вполне адекватная причина для смены подавляющего большинства оборудования, тем более видеокарты :).




На диаграмме прекрасно видно, что прирост FPS от смены видеоадаптера просто колоссален. Перед нами именно та ситуация, которую я «предсказывал» выше. Прирост в некоторых тестах почти трехкратный. Если имея в системном блоке видеокарту Geforce 7950 GT играть в Far Cry 2 на высоких настройках просто невозможно, то новая видеокарта позволяет это делать вполне успешно даже при активации полноэкранного сглаживания в режиме HDR. Напоминаю, что седьмая линейка видеокарт NVIDIA не позволяла включать антиалиазинг в режиме HDR.




Игра-бенчмарк Crysis, не под силу на высоких настройках моему ПК даже при смене видеокарты. Тем не менее, немного «подшаманив» с настройками, играть в Crysis можно вполне комфортно. Более того, тенденция, обозначенная в предыдущей диаграмме нашла свое полное подтверждение. Преимущество новой видеокарты над старой практически трехкратное. Вполне вероятно, что поднять производительность выше, поможет смена ЦП на более производительный (ну или его хотя бы его разгон:)).

Промежуточные итоги:

Итак, нами исследована производительность видеоадаптера ATI Radeon HD 4870 1 Гб в сравнении GeForce 7950 GT 512 MB. Пока, даже без учета возможного оверклокинга из диаграмм прекрасно видно, что апгрейд, как минимум целесообразен. Владельцам ПК с ЦП производительностью сравнимой с моим, простая замена видеокарты даст возможность играть в самые современные игры на высоких настройках. Теми же, кто впоследствии, как и я планирует апгрейд, видеокарта Radeon HD 4870 1 Гб вполне может быть перенесена в новый ПК. На сегодня ее производительность более, чем достаточна для любых игр.

5. Эксперименты с разгоном

Поскольку производительность ATI Radeon HD 4870 1 Гб в условиях отсутствия разгона полностью исследована, пришла пора поэкспериментировать с ней же, разогнав ее, а также CPU.

Лично меня (как, думаю и многих других моих читателей) интересуют два аспекта разгона свежеприобретенного девайса.

1) Насколько целесообразен разгон ЦП без разгона видеокарты?

2) Что даст разогнанной видеокарте разогнанный же ЦП?

Поискам ответов на эти два вопроса и будет посвящена эта глава.

Итак, с целью тестирования мой CPU AMD Athlon 64 X2 4600+ был разогнан до тактовой частоты 2,6 ГГц. Видеокарта ATI Radeon HD 4870 1 Гб была разогнана до тактовых частот 780\987 (3948).




Оперативная память, работающая в режиме DDR-400, разгонялась синхронно с центральным процессором. Тестирование проводилось в 2-х режимах:

Все вышеупомянутые тесты сначала проводились при разгоне CPU, но видеоадаптер работал на штатных частотах, затем, совместно с CPU была разогнана и видеокарта, после чего все тесты повторялись.

Результаты синтетических тестов:




Результаты видеокарты и ЦП, работающих в штатном режиме на диаграмме показаны в красных тонах, результаты видеокарты, работающей на стандартных частотах, при разогнанном до 2,6 Ггц CPU отражены в синих тонах, совместно разогнанные ЦП и видеокарта желто-оранжевые.

При анализе диаграммы прекрасно видно, что максимальный эффект достигается при разгоне ЦП, дополнительный оверклокинг видеоадаптера дает гораздо меньшие дивиденды. Впрочем, наиболее адекватно отражающий результаты видеоподсистемы синтетический бенчмарк 3DMark 2003 достаточно чувствительно реагирует и на разгон ЦП и на разгон видеокарты. Обратите внимание, насколько поднялись в нем результаты в «качественном режиме».

Вывод здесь напрашивается сам собой: с одной стороны ЦП AMD Athlon 64 X2 4600+ обладает достаточной производительностью, чтобы загрузить видеокарту ATI Radeon HD 4870, с другой стороны он не позволяет раскрыть всего ее потенциала. Она так и просится в ПК с более производительным центральным процессором :).

Результаты игровых бенчмарков:




Как видите, в этой игре ситуация весьма похожа на результаты в синтетических тестах. Наиболее полно отражает возросшую мощь совокупности ЦП и видеокарты количество максимальных FPS. На диаграмме видно, что разгон ЦП в абсолютных цифрах дает больший прирост, чем последующий разгон видеокарты. Ничего удивительного в этом нет по причинам указанным мною выше.




Выводы по результатам тестирования в игре S.T.A.L.K.E.R. Shadow of Chernobyl идентичны выводам по результатам тестирования предыдущей игры, если хотите, перечитайте предыдущий абзац еще раз, хотя повторять его дважды и нет смысла :).




Не смотря на дважды повторившийся результат, из общей «колеи» выбиваются результаты тестирования в игре UT III. В ней весьма четко прослеживается ограничение дальнейшего роста FPS при отсутствии дальнейшего разгона CPU. Эта игра, исходя из результатов, отраженных на диаграмме, весьма процессорозависима. Для повышения уровня среднего количества кадров в секунду смена ЦП (или его дальнейший разгон) крайне желательны. Впрочем, тот уровень FPS, который мы имеем «здесь и сейчас» позволяет достаточно комфортно играть в Unreal Tournament III, поэтому и смена ЦП желательна, но отнюдь не необходима :).




Для того, чтобы не перегружать информацией и без того, сложную для восприятия диаграмму, я ограничился лишь результатами с включенным режимом HDR. Результаты тестов, которые Вы можете видеть в графическом виде ни чем не выделяются, среди предыдущих. Как и ранее максимальный прирост дает разгон CPU и в гораздо меньшей степени оверклокинг видеоадаптера. Эта еще одна игра, которая хотя и достаточно комфортно идет на текущей системе, все же содержит в себе намек на желательность смены ЦП на более производительный.




С диаграммой отражающей результаты тестирования в игре Crysis я поступил таким же образом, как и с игрой Far Cry 2. На диаграмме ВЫ можете лицезреть лишь тесты с использованием режима HDR. Сами результаты аналогичны результатам в игре Far Cry 2, за исключением того, что мощности ЦП в ней уже явно не хватает даже для высоких настроек. Итак, перед нами единственная компьютерная игра, требующая «незамедлительной» смены ЦП (или платформы, что гораздо проще в наших условиях). Стоит ли ради одной игры менять платформу? Это каждый должен решить для себя самостоятельно. Лично я готов жить с этим неудобством еще пару-тройку месяцев (все равно я в Crysis не играю, меня и оригинальный Far Cry то не слишком порадовал «геймплеем», не то что этот симпатичный, но бездушный бенчмарк :).

Выводы по результатам всех тестов


Итак, в начале статьи перед нами стояло несколько вопросов, самым важным из которых была оправданность либо бесперспективность смены видеоадаптера NVIDIA GeForce 7950 GT 512 MB на ATI Radeon HD 4870 1 GB. Как видно по результатам тестов, смена видеокарты в моем случае вполне оправдана. Прирост производительности в 3D играх от смены 3D ускорителя получился весьма существенным. Для особо экономных и расчетливых владельцев ПК (они не обязательно могут быть бедными, просто есть определенная категория людей, не любящих переплачивать за то, что им не необходимо), считающих каждую копейку, и не позволяющих себе неоправданных трат, покупка ATI Radeon HD 4870 1 GB будет хорошим выбором. Впрочем, я рекомендую им присмотреться к ATI Radeon HD 4850 1 GB (такие девайсы в продаже уже есть) тот продукт обладает максимальным соотношением цены к производительности. Если бы я не планировал апгрейда материнской платы, RAM и CPU я бы купил именно ее :).

Вторым вопросом, терзавшим меня была процессорозависимость видеокарты ATI Radeon HD 4870 1 GB. Как выяснилось, она адекватно реагирует на разгон CPU, радуя пользователя возросшей производительностью. Жаль, конечно, что в игре Crysis разумного разгона до 2,6 ГГц CPU архитектуры K8 для удовлетворения ее «аппетитов» недостаточно, но не Crysis’ом единым жив виртуальный мир ;).

Третьим вопросом было обоснованность разгона видеокарты в составе текущего ПК результат вполне ожидаем. Разгон возможен, но совсем не обязателен. Если Вы владелец ПК с более новым разъемом для ЦП – АМ2, то Вам достаточно будет проапгрейдить ЦП на что-то уровня AMD Athlon 64 X2 6000+ и не думать его замене как минимум полгода. Тем же, кто, как и я, в свое время, предпочел приобрести ПК с socket’ом 939, для раскрытия всего потенциала видеокарты требуется смена платформы.

Заключение

Прогресс – как волнительно и в то же время беспощадно это понятие… Не успеваешь оглянуться, как твой недавно вполне современный ПК становится устаревшим, не отвечающим требованиям новейших ОС. С одной стороны это хорошо, потому что покупка чего-то нового, всегда приносит радость, с другой стороны ПК – это все же не то, без чего прожить нельзя. В большинстве случаев, гораздо проще раз в пару лет просто менять устаревший ПК на новый, но разве это интересно тому, кто привык собирать их своими руками?

Скоро весна, а вместе с ней и очередной виток противостояния Intel и AMD, которые, не смотря на мировой экономический кризис были, есть и будут локомотивом, двигающим прогресс вперед и вперед…

С уважением, Freevad.

Обсудить можно здесь:
Оценитe материал

Возможно вас заинтересует

Популярные новости

Сейчас обсуждают