При сборке нового компьютера (или апгрейде старого) часто задаются вопросом выбора “правильного” комплекта памяти для работы в высокопроизводительной системе. Как правило, "продвинутые" юзеры сразу начинают советовать выбрать комплект с частотой побольше и таймингами поменьше – ведь только так, по их мнению, потенциал системы раскроется полностью, да и при разгоне по шине запас прочности DRAM не помешает. Причиной таких советов, как показывает практика, становится незнание вопроса. Ведь в дальнейшем (спустя недели-месяцы) оказывается, что добавленные 3000-6000 рублей на покупку “крутой” памяти можно было потратить на покупку более производительной видеокарты или оставить на пиво или ….. (впишите сами). Первый вариант уж точно бы вылился в большую производительность системы, а второй - в утоление жажды в столь жаркую погоду.
Каждый новый обзор оперативной памяти, выходящий на нашем сайте, порождает очередной вал вопросов наших читателей. В первую очередь их интересует прирост производительности, ожидаемый от памяти с высокими частотами и низкими таймингами. Кроме того, возникают вопросы о том, что же лучше: высокая частота либо низкие тайминги, в случае, когда совместить оба варианта не представляется возможным. Многие из них, вероятно, надеются увидеть прирост в десятки процентов (хотя бы в некоторых приложениях) при переходе с 1333 МГц к 2000 МГц, да ещё и на пониженных таймингах. Другая же часть читателей не видит смысла в дорогой памяти и продолжает “сидеть” на бюджетных комплектах. Есть еще две категории, заслуживающие внимания, - профессиональные бенчеры и любители “покруче”, которые знают всю правду, впрочем, у каждого из них она своя.
К сожалению, на просторы интернета материалы по изучению вопроса влияния частоты памяти и таймингов на производительность системы выходят крайне редко. Многие ресурсы практически не уделяют внимание оперативной памяти, а в своих единичных обзорах расхваливают способности того или иного комплекта и практически всегда беспочвенно рекомендуют протестированное к покупке пользователям. Особенно этим “блистают” зарубежные издания.
Сегодня, как вы уже, наверное, догадались, вас ждут ответы на часто задаваемые вопросы, как в обсуждениях статей по памяти, так и в тематических форумах. Для кого-то они станут откровением, а для кого-то подтверждением старой доброй истины. Тестовая конфигурация
Для тестирования был использован открытый стенд со следующей конфигурацией:
Для замеров производительности использовалось разнообразное программное обеспечение:
Все тесты проводились в Windows 7 64-bit. Методика тестирования
Для сегодняшнего тестирования была выбрана платформа Intel LGA 1156, как одна из самых современных и производительных в своём классе. Одним из важнейших плюсов такого выбора является встроенный контроллер RAM и возможность лёгкого достижения частот ~2000 МГц и выше, при использовании соответствующей памяти.
Для исключения влияния частот CPU, BCLK, UnCore, QPI на результаты тестов и имитации высокопроизводительного ПК параметры системы приняли следующие значения.
На протяжении всего тестирования частота процессора оставалась равной 3500 МГц (167x21), блок UnCore и шина QPI так же были “заблокированы”.
Для изучения влияния оперативной памяти на производительность ПК использовались самые популярные сочетания частота\тайминги, как из области применения простыми\продвинутыми пользователями, так и бенчерами-профессионалами:
Использовать столь разнообразные сочетания мне позволила память Kingston HyperX KHX2000C8D3T1K2/4GX, которая была проверена на разгонный потенциал в прошлой статье. Изменение частоты памяти происходило за счёт изменения множителя DRAM. Использовались значения от 3 до 6х. Напряжение изменялось в пределах 1.55-1.95 В.
Для всех сочетаний частота\тайминги каждый тест прогонялся по 3 раза, впоследствии находилось среднее арифметическое значение, которое и попадало на график.
Как вы можете заметить, в списке используемых сочетаний есть вариант, в котором задержка B2B CAS Delay принимала значение 6. Этот вариант демонстрирует ситуацию, описанную в статье по Kingston HyperX, когда при переходе планки в ~1950 МГц система вела себя нестабильно. Для обеспечения беспрерывной работы на больших частотах приходилось повышать вышеуказанный тайминг. Результаты тестирования покажут, насколько сильно это повлияло на производительность.
Для “затравки” я использовал самый популярный бенчмарк подсистемы памяти Lavalys Everest.
На тесте чтения прослеживается чёткая зависимость результатов от частоты и таймингов. Залог успеха прост: больше частота, агрессивнее задержки.
Результаты скорости записи получились неожиданными. Сплошные погрешности. Как таковой зависимости нет. По всей видимости, используемая версия Everest не корректно замеряет интересующую нас величину.
Подтест Memory Copy при каждом запуске выдавал далёкие друг от друга значения (большая погрешность). На графиках можно наблюдать некоторые результаты, которые не поддаются какой-либо зависимости. А в целом совет всё тот же: больше частота, ниже тайминги.
Полученные результаты Memory Latency ничего нового не продемонстрировали. Они указывают на прямую зависимость, о которой я дважды сказал выше.
Бенчмарк MaxMEM2 выводит результат на основе нескольких собственных тестов. В данном случае результатом является пропускная способность при работе с несколькими задачами одновременно. Полученные значения всё так же сильно зависят от частоты и таймингов памяти. Прирост при переходе от 1000-1333 МГц к 2000 МГц очень серьёзный. Дополнительно, что здесь можно отметить – это резкое падение результата при использовании тайминга B2B.
“Шахматные вычисления” не показали особого прироста при увеличении частоты и уменьшении таймингов памяти. Максимальная разница в результатах меньше 1%.
Во всем известном SuperPi, в дисциплине 1M, полученные значения, по моему мнению, одна сплошная погрешность. В каждом из трёх запусков результаты очень сильно различались.
Куда более показательным оказался замер 8M. Прослеживается уже известная нам зависимость (а куда уж без неё, ведь это синтетическое приложение). Из интересного – нелюбовь к высоким таймингам 10-10-10-30.
Многопоточный wPrime последней версии использовался в режиме замера с точностью 32M. Погрешность в каждом из трёх запусков была большая, поэтому некоторые из результатов не сильно вписываются в общую картину.
Вот мы потихоньку переходим к более “реальным” приложениям, которые каждый из нас использует в повседневной жизни при работе с ПК. Первым в этом списке числится архиватор WinRAR и его встроенный тест производительности.
Зависимость результатов от частоты\таймингов проявляет себя в полной мере. Повторяемость результатов высока. Самым неожиданным на этом этапе стал максимальный результат, полученный при включённом B2B CAS Delay – 6. Хотя по здравой логике – такого быть не должно.
При работе с тестовым пакетом x264 Benchmark HD происходило преобразование стандартного видеоролика формата mpg в разрешении 720p. Учитывалось среднее время по 4 результатам (в каждом по два прохода кодирования видео потока). Несмотря на это, повторяемость результатов оказалась не столь высокая. Поэтому “проскакивает” несколько не вписывающихся результатов.
Для имитации работы с 3D графикой использовались пакеты Cinebench R10 и R11.5. В первом случае использовалось два режима: однопоточный и многопоточный. И в том и в другом наблюдалась относительно большая погрешность при каждом замере. Впрочем, уже знакомая зависимость от частоты\таймингов всё равно проявляется.
За счёт малой точности подсчёта результатов в версии R11.5 многие результаты на одних частотах схожи.
При тестировании в излюбленном инструменте большинства фотографов и дизайнеров Photoshop использовались Actions из пака DriveHeaven, в общем количестве пятнадцати штук. Результаты представлены как сумма времени выполнения всех действий.
На некоторых форумах мне приходилось читать “байки” о заметном приросте производительности Photoshop при увеличении частоты памяти и снижения таймингов. Знайте – это не так! Если взять самые часто используемые режимы работы DRAM, то одна-полторы секунды на выполнение пятнадцати действий явно не будут заметны на глаз. Да и повторяемость результатов, как вы можете заметить по графику – невелика.
Результаты, полученные в двух тестовых пакетах (измерители количества “попугаев”) компании Futuremark, показывают нам практически отсутствие какой-либо закономерности. Если замеры производительности CPU ещё поддаются здравой логике, то Overall Score, к сожалению, хаотичная величина.
Подошла очередь игр. Первой в списке числится Far Cry 2 в двух режимах. Особой разницы (которая бы бросалась в глаза) не наблюдается. Прослеживается положительный отклик при работе с “агрессивными” задержками. Впрочем, разброс полученных в ходе трехкратного прогона (и на любом из сочетаний) результатов наблюдался в диапазоне от минимального до максимального значений из графиков выше.
В раллийной аркаде Colin McRae Dirt 2 все полученные данные – одна сплошная погрешность. Комментировать здесь больше нечего.
В S.T.A.L.K.E.R.: Call of Pripyat ситуация чем-то напоминает предыдущие графики. В разрешении 1440x900 (аналог 1280x1024) проглядывается разница, которую внесла, в основном, возросшая частота. В большем разрешении, увы, мощности видеокарты 8800 GTS 512 Мб не хватило. Однако, есть предположение, что при большем FPS разница между режимами работы памяти была бы той же – минимальной.
Последней игрой в нашем тестирования стала популярная GTA 4. Несмотря на достаточное количество кадров, разница результатов на двух графиках около одного кадра. Погрешность, сплошная погрешность.
Тестирование проведено, результаты известны, можно делать выводы. А они для любителей “крутой” памяти неутешительные. Основная суть состоит в том, что реальная производительность системы на базе платформы LGA 1156 очень слабо зависит от установленной оперативной памяти. По моему мнению, подобный вывод можно отнести и к системам на базе LGA 1366, которые, несмотря на трёхканальный режим работы RAM, по своей архитектуре напоминают младшего “брата”.
Если рассматривать синтетические тесты, то прирост, естественно, заметен. Результаты увеличиваются пропорционально повышению частоты планок и понижению их таймингов. В случае же с приложениями, более приближенными к реалиям нашей жизни (при стандартной работе за ПК), прирост производительности практически отсутствует. Не увидите вы его, как при повышении частоты памяти с одного гигагерца до двух, так и при снижении задержек с 10-10-10-30 до 5-5-5-15. Уверять же себя в том, что скорость работы системы возросла лишь на основе результатов синтетических тестов – дело, по крайней мере, глупое.
Если продолжать разговор о производительности ПК, то лучшим вариантов траты денег станет покупка более мощной видеокарты, процессора другого класса или приобретение дополнительных планок. А так, вкладывая деньги в дорогую оперативную память, вы порадуетесь красивым радиаторам, похвастаетесь перед знакомыми и друзьями (и такие случаи бывают) или будете уверять себя в том, что сделали такую покупку не зря. По праву оценить такую покупку смогут лишь очень увлечённые оверклокеры и бенчеры. Они же – любители циферок побольше.
Одним из вопросов, которые я задавал себе перед тестированием, был - “Как сильно влияет включение задержки B2B CAS Delay на производительность системы?”. Результаты, полученные в ходе тестирования, показали понижение производительности в среднем на 1-2%, по сравнению с режимом, где B2B остаётся в положении Disable. Подобное отставание (если оно кого-то очень волнует) можно нивелировать через повышение тактовой частоты RAM на 10-20 МГц. Есть же приложения, где разница в результатах находится в пределах погрешности, то есть попросту отсутствует.
На часто задаваемый вопрос о выборе между высокой частотой и низкими таймингами, можно ответить так – выставляйте те значения, на которых ваша оперативная память способна стабильно работать. Как вы уже поняли, исходя из полученных результатов тестирования, “насиловать” DRAM за счёт повышения нагрузки на неё нет никакого смысла. Если же, дорогой мой читатель, ты используешь высокоскоростную память для собственного утешения либо бенчмаркинга, то я надеюсь, ты и без меня знаешь всю правду.