Данный материал смотрится несколько странно: обычно различные онлайн- и офлайн-издания не уделяют должного внимания своим тестовым стендам – это считается малозначительной деталью. Однако это – как посмотреть и по какому принципу подходить к теме тестирования.
Возьмем вопрос технической части. Лаборатория Overclockers.ru долгое время тестирует твердотельные накопители на постоянной основе, и этот материал является уже 139-м по счету за последние три с половиной года. Накоплена огромная база результатов, и любое изменение в конфигурации тестового стенда может сыграть злую шутку в плане сопоставления разных моделей.
Но время идет. Являвшаяся три года назад вполне актуальной конфигурация из процессора Intel Core i5-2500K и материнской платы на базе набора системной логики Intel Z77 на сегодняшний день устарела не только с точки зрения маркетинга, но и технически, не предлагая интерфейс PCI-Express 3.0. Причем получилось так, что начала сбоить и материнская плата. Тем временем типичный объем оперативной памяти, установленный в ПК пользователей, вырос с 4 до 8 Гбайт. Суммарно это достаточный набор аргументов для того, чтобы произвести полное обновление тестового стенда с точки зрения аппаратной части.
Программная платформа также претерпела изменения. За это время свет увидели Windows 8 и Windows 8.1, и если им не удалось занять серьезные позиции на рынке, то с Windows 10 все вышло иначе: проталкиваемая всеми правдами и неправдами, чуть ли не насильно, ОС Windows 10 смогла стать лидером. По статистике игровой платформы Steam, данная операционная система установлена на почти 50% ПК, фиксируемых сервисом.
Windows 7 обеих редакций установлена примерно на трети ПК – число еще значительное, но явно сокращающееся и предпосылок для изменения этой тенденции не предвидится. Причем изменилось и отношение операционной системы к накопителям, в частности в отсылке команды TRIM и алгоритмах кэширования. Таким образом, тестовый стенд нуждается в обновлении программной части.
А посему встает очевидный вопрос, интересный и сам по себе, а не только с точки зрения служебных нужд сайта: насколько сильно изменятся результаты производительности твердотельных накопителей при таком кардинальном обновлении? Помимо поставленных вопросов стоит отметить, что мне неоднократно приходилось отвечать на различные вопросы по самим тестовым стендам (ведь их два, один используется для тестов производительности, второй – для проверки работы алгоритмов энергосбережения): как они собраны и какими принципами при этом пришлось руководствоваться. Поэтому данный материал нацелен еще и на это – ответить на неизбежно возникающие вопросы читателей.
В последние год-полтора на свет были выпущены новые аппаратные платформы, в основе которых лежат как развивающиеся старые идеи, так и абсолютно новые решения. Всего один пример: контроллер Phison S10 в сочетании с TLC NAND Toshiba.
Во-первых, впервые (простите за каламбур) SLC-кэширование операций записи встречено в SSD, не относящихся к OCZ, Toshiba и Samsung. Во-вторых, впервые потребительский рынок узнал, что TLC NAND в SSD бывает медленной: скорость записи за пределами SLC-буфера у конфигураций объемом 120-128 Гбайт составляет всего примерно 50 Мбайт/с, что практически втрое ниже, чем у Samsung 840 (еще без приставки «Evo») – первого массового розничного SSD на этом типе памяти.
А есть вариант еще страшнее в буквальном смысле слова: Crucial BX200 даже в модификации объемом 240 Гбайт записывает лишь со скоростью 30 Мбайт/с.
Да, SLC-буфер обычно приличный: его размер, в зависимости от объема SSD, может составлять несколько гигабайт (величина задается в процентах от объема накопителя в целом), чего в обыденной эксплуатации, как правило, хватает. Тем более что данные при обычной работе за домашним ПК пишутся не единым потоком, а поступают на накопитель небольшими порциями, между которыми присутствуют паузы, в течение которых микропрограмма контроллера накопителя успевает расчистить место, и к моменту поступления новых данных накопитель готов уже в полной мере.
Горькое прозрение у пользователя наступает в тот момент, когда у него возникает необходимость скопировать некоторый приличный объем данных, превышающий размер SLC-буфера.
Тесты на базе специализированных приложений (бенчмарков), вроде Iometer, при правильном подборе настроек отлично выявляют подобные особенности, но их наглядность и простота понимания для неискушенных в теме пользователей довольно спорны.
Именно поэтому в тестах на устойчивость скоростных характеристик и работы SLC-режима (если он есть) мною используется не только «синтетика» но и реальное копирование файлов – так, как это видит обычный пользователь.
Но проблема в том, что SLC-режим реализовывается не только в SATA-решениях, с лета 2016 года его можно обнаружить и среди PCI-e SSD. Таковы, например, уже выпущенный Intel 600p и анонсированный Samsung 960 Evo. Достаточно открыть спецификации последнего, чтобы понять: KingFast F8M 256 Гбайт, прослужившим верой и правдой нам больше двух лет, уже не обойтись – 1900 Мбайт/с он, являясь решением SATA 6 Гбит/с, никак не обеспечит. Samsung 960 Pro, по словам производителя, хотя и ненамного, но еще быстрее на записи – до 2100 Мбайт/с.
Поэтому нам требуется включить в состав тестового стенда производительный PCI-e SSD, способный отдавать файлы с не меньшей скоростью. В качестве такового будет задействован нашедшийся в моих запасах Samsung SM951 256 Гбайт.
Именно от него зависит производительность, демонстрируемая SSD в тестах мелкоблочных записи и чтения – ведь все пакеты данных еще необходимо подготовить перед отправкой на устройство. Наиболее производительными на данный момент процессорами массового сегмента рынка являются Intel Skylake. Решения AMD не подходят по той простой причине, что обладают меньшим уровнем быстродействия, попытка компенсации которого путем разгона приводит к повышенному тепловыделению и фактически к усложнению эксплуатационных характеристик тестового стенда (массивная СО, шум, энергопотребление). А LGA 2011-3 – относительно малораспространенная платформа.
Для пробного теста возьмем Intel Core i5-6600K, у которого мы будем варьировать число активных ядер (два или четыре) и их частоту (от 3500 до 4700 МГц). Для замера производительности задействуется специализированное приложение Iometer, в котором мы создадим и будем запускать два сценария: один из них отвечает за чтение, а другой – за запись. Оба этих сценария будут генерировать операции случайного доступа блоками данных объемом 4 Кбайт с глубиной очереди от 1 до 64. Каждый тест будет выполняться одну минуту, а за результат будет считаться среднее значение по ежесекундно снимаемым показателям производительности. В качестве тестируемого накопителя выступает признанный «король» рынка потребительских SSD – Samsung 950 Pro объемом 512 Гбайт.
Сценарий «Чтение блоками 4 Кбайт со случайным доступом и глубиной очереди от 1 до 64»
| Режим работы | QD=1 | QD=2 | QD=4 | QD=8 | QD=16 | QD=32 | QD=64 |
| Core i5-6600K@ 3500 МГц, 2 активных ядра | 13 471 | 26 904 | 52 209 | 100 058 | 143 146 | 144 344 | 144 131 |
| Core i5-6600K@ 3500 МГц, 4 активных ядра | 13 549 | 27 043 | 52 806 | 98 972 | 144 737 | 148 315 | 149 108 |
| Core i5-6600K@ 4000 МГц, 2 активных ядра | 13 630 | 27 456 | 53 539 | 101 118 | 170 326 | 169 782 | 170 137 |
| Core i5-6600K@ 4000 МГц, 4 активных ядра | 13 789 | 27 520 | 53 687 | 101 011 | 167 044 | 169 886 | 169 302 |
| Core i5-6600K@ 4400 МГц, 2 активных ядра | 13 784 | 27 565 | 53 724 | 101 000 | 175 173 | 178 779 | 178 224 |
| Core i5-6600K@ 4400 МГц, 4 активных ядра | 13 884 | 27 769 | 54 273 | 102 029 | 175 863 | 186 653 | 184 952 |
| Core i5-6600K@ 4700 МГц, 2 активных ядра | 13 952 | 27 920 | 54 449 | 101 758 | 178 366 | 189 913 | 189 590 |
| Core i5-6600K@ 4700 МГц, 4 активных ядра | 14 042 | 28 065 | 54 769 | 102 952 | 179 125 | 197 720 | 198 463 |
| Режим работы | QD=1 | QD=2 | QD=4 | QD=8 | QD=16 | QD=32 | QD=64 |
| Core i5-6600K@ 3500 МГц, 2 активных ядра | 45 320 | 96 562 | 101 139 | 100 575 | 100 857 | 100 820 | 101 147 |
| Core i5-6600K@ 3500 МГц, 4 активных ядра | 45 391 | 87 836 | 102 848 | 102 762 | 102 415 | 102 693 | 102 601 |
| Core i5-6600K@ 4000 МГц, 2 активных ядра | 48 393 | 101 019 | 101 720 | 100 660 | 101 345 | 102 040 | 102 227 |
| Core i5-6600K@ 4000 МГц, 4 активных ядра | 48 329 | 93 876 | 101 710 | 101 964 | 101 421 | 101 395 | 101 554 |
| Core i5-6600K@ 4400 МГц, 2 активных ядра | 49 229 | 100 139 | 101 379 | 101 542 | 101 792 | 101 149 | 101 314 |
| Core i5-6600K@ 4400 МГц, 4 активных ядра | 50 002 | 96 514 | 101 474 | 101 820 | 101 761 | 101 765 | 101 886 |
| Core i5-6600K@ 4700 МГц, 2 активных ядра | 50 962 | 100 369 | 101 530 | 102 124 | 102 227 | 102 058 | 101 974 |
| Core i5-6600K@ 4700 МГц, 4 активных ядра | 51 358 | 98 905 | 101 273 | 101 419 | 101 668 | 101 557 | 101 482 |
Неожиданно, но факт: официально для Samsung 950 Pro объемом 512 Гбайт указывается до 12 000 IOPS на операциях случайного чтения в один поток и до 43 000 IOPS – на записи. Фактически при разгоне процессора мы можем получить от этого накопителя больше 14 000 и 51 000 IOPS соответственно. Иначе говоря, инженеры компании в спецификациях указали заниженные результаты, тогда как от устройства можно добиться много большего. И уже применительно к теме нашего разговора отметим два момента.
Момент первый. На операциях записи нам будет достаточно практически любой мало-мальски приличной тактовой частоты - показатель в 100 000 IOPS является пределом для однопоточной записи. Что интересно, с глубиной очереди запросов равной двум, двухъядерный процессор даже выиграет в быстродействии.
Момент второй. С операциями чтения все столь же трагично, сколь прекрасно с чтением. Разогнанный до 4.7 ГГц четырехъядерный Skylake-S – это совсем не игрушка с точки зрения производительности. Но даже его не хватает, чтобы полностью раскрыть весь потенциал Samsung 950 Pro на операциях мелкоблочного чтения – прирост показателей IOPS идет буквально «до последнего».
Данный тест еще раз продемонстрировал нам то, что мы наглядно увидели в двух предыдущих («Есть ли разница – 2016» и «Страсти по NVMe») материалах по SSD: развитие оных достигло таких пределов, что гнаться за самыми скоростными моделями просто нет смысла. Фактически вся сфера применения подобных высокоскоростных SSD PCI-e – демонстрировать гигабайты в секунду на простом копировании файлов туда-сюда, где нет нагрузки на ЦП. В реальной работе с данными мощности процессора не хватает на обслуживание даже самих дисковых операций, не то, что на обработку полученного от накопителя.
Подчеркнем: речь о PCI-e. Для SATA 6 Гбит/с проблема стоит менее остро: 198 тысяч IOPS 4k – это примерно 800 Мбайт/с, что в полтора раза превосходит физические возможности интерфейса SATA 6 Гбит/с. Поэтому в тестах SATA SSD любого класса нам будет достаточно двухъядерного Skylake-S, работающего на частоте ~3.5 ГГц. Причем как в полностью синтетических тестах, так и в тестах, имитирующих реальную пользовательскую нагрузку (вроде PCMark). Последние создаются так, чтобы их процессорозависимость была минимальной (все обращения к накопителю – по заранее просчитанному и неизменному сценарию).
Заданным условиям неплохо соответствует нашедшийся в запасах процессор Intel Core i3-6100 – двухъядерный Skylake-S с активной технологией Hyper Threading, работающий на частоте 3700 МГц. У него лишь один недостаток: разгон возможен только посредством изменения базовой частоты, что, согласно ограничениям компании Intel, приводит к отключению встроенного графического ядра.
На первый взгляд ситуация проста – бери любую системную плату, которая доступна, но на деле это не совсем так.
Первое и наиболее очевидное требование:
В конце 2016 года таким требованиям отвечает платформа Intel Skylake. Мы не упоминаем интерфейс SATA-Express: его наличие является опциональным из-за того, что даже сегодня, спустя столько времени после его появления на материнских платах, накопителей, оснащенных SATA-e, в широкой продаже нет. И, скорее всего, уже не появится в силу запуска в серию более компактного разъема U.2. Хотя будущее последнего на данный момент также туманно.
С учетом того, что для тестирования производительности PCI-e SSD возможностей любого процессора Intel Skylake, работающего в штатном режиме, может не хватать, крайне желательна в запасе возможность разгона. К списку требований к системной плате прибавляется еще один пункт:
И на этом еще не все. На самом деле существует еще один технический момент, связанный со спецификой систематического тестирования. Я являюсь автором, пишущим по целому ряду направлений: у меня бывают не только SSD, HDD и карты памяти (изредка), но и материнские платы, процессоры и модули оперативной памяти, которые подвергаются различным «экзекуциям». Причем совершенно разные по исполнению. Например, CPU могут быть в исполнении Socket AM3+, Socket FM2+ и LGA 1151 (а эпизодически – и Socket AM1, и LGA 775). Оперативная память – DDR3 и DDR4. Аналогичная ситуация и с материнскими платами.
В итоге два моих тестовых стенда (помимо основного ПК) не являются константами по своей конфигурации. Наоборот, это просто два выделенных места на моем рабочем столе, к которым подходят провода от мониторов (стесненность условий привела к тому, что их пришлось вешать на стену) и устройств ввода, и установлены блоки питания. Все остальное – постоянно переустанавливается и находится в непрерывном движении. Ведь мною только за месяц иной раз может сдаваться больше десятка обзоров на различную тематику (не только для Overclockers.ru). Не говоря уже про эксперименты ради удовлетворения собственного любопытства или по просьбам форумчан.
Основная проблема в такой ситуации заключается в том, что обычные потребительские комплектующие попросту не рассчитаны на такую интенсивную нагрузку. Процессорные разъемы на системных платах разбалтываются от частых переустановок процессоров (особенно это касается Intel, тогда как разъемы AMD более живучи), слоты памяти начинают расшатываться, а ставшие негодными шлейфы SATA давно уже не удивляют.
Наиболее уязвимым компонентом является материнская плата. И речь не о слотах и разъемах. На самом деле существует менее очевидный фактор: печатная плата. Как ни старайся, но в процессе постоянных перестановок она подвергается деформациям. Причем чем системная плата крупнее и тяжелее (привет массивным радиаторам!), тем деформации эти сильнее. Сам по себе текстолит – вещь относительно терпимая к изгибам и перекосам. Но печатная плата – это не только текстолит, но и несколько слоев тончайших проводников. Они-то, в конце концов, и рвутся. И вот тогда начинается «веселье»: спонтанные и хаотичные отключения периферийных контроллеров и оборудования (тех же разъемов SATA), нестабильная работа в целом, зависания и, наконец, окончательный выход модели из строя.
Практика сурова: Gigabyte GA-Z77-DS3H, с которой мы прощаемся, является третьей материнской платой, используемой для тестов SSD за три с половиной года. До нее были Gigabyte GA-Z77X-D3H и EliteGroup (ECS) Z77H2-A3D. И у всех трех к концу их жизни наблюдались одинаковые симптомы. Нынешняя Gigabyte GA-Z77-DS3H уже просто не может включиться «на холодную», ее необходимо подключать к питанию и ждать некоторое время перед включением; периодически пропадает память или перестают работать порты USB.
Не радует и ASRock Z170 Extreme6, используемая в том числе для тестов PCI-e SSD. Сегодня она, спустя год с небольшим после ввода в эксплуатацию, периодически заставляет варьировать силу прижима системы охлаждения ЦП с целью заставить ее перестать выводить на индикатор POST код «55» и начинать работать. Увы, но переустановка нескольких десятков процессоров и модулей памяти не прошла бесследно.
Вопрос, ставший классикой: что делать? Но та же практика дает ответ и на него: переходить на максимально компактный форм-фактор. Мало того, что это чисто физически удобно в эксплуатации и хранении, но еще и более устойчиво к нагрузкам. Материнская плата Zotac Z77-ITX WiFi (Z77ITX-A-E) форм-фактора Mini-ITX находится в эксплуатации с января 2013 года (ее собственный обзор) по сей день и никаких проблем не доставляет.
Список требований к модели системной платы пополняется еще одним пунктом:
Однако с компактностью связан еще один момент: если брать материнскую плату форм-фактора Mini-ITX, то мы столкнемся с наличием всего одного слота расширения PCI-Express x16. А его нам потребуется задействовать для подключения тестируемых PCI-e SSD. Приобретать же модель более крупного форм-фактора mATX не слишком хотелось.
Во-первых, разница в размерах с платами ATX уже не так велика, а потому к нам возвращается та самая проблема деформаций, от которой мы пытаемся уйти. Во-вторых, сама по себе дополнительная видеокарта, постоянно торчащая из слота – это еще один дополнительный риск повреждений.
Нет смысла вдаваться в детали процесса выбора конкретной модели, просто где-то было неудобное расположение портов SATA (либо в центре платы, либо так, что защелка шлейфа могла блокироваться установленным модулем памяти), где-то этих самых SATA было всего два (это при номинальных-то шести портах, поддерживаемых Intel Z170!), где-то не было интерфейса M.2. В итоге была приобретена Gigabyte GA-Z170N-WiFi.
На ней присутствует весь набор нужных интерфейсов, даже SATA-Express, а разъемы SATA расположены не только в центре, но и на краю. Причем ориентированы они параллельно поверхности платы – можно спокойно использовать шлейфы с защелками, а их подключение будет осуществляться без затруднения.
Недостаток лишь в двух вещах: нет кнопок управления, а посадочное место M.2 расположено с тыльной стороны системной платы – установленная плата расширения (в нашем случае SSD) будет уязвима, если материнскую плату класть на неровную поверхность.
Но это издержки форм-фактора Mini-ITX. При его малых размерах непростой задачей является уже найти и выделить место примерно 25 на 90 мм; здесь и без того компоновка очень плотная, и так контроллер Wi-Fi вынесен на отдельную печатную плату, а батарейка приклеена к корпусу разъемов задней интерфейсной панели.
Однако такие жертвы этого стоят: разница с ATX и mATX колоссальна.
Довелось побаловаться и с разгоном. И, к сожалению, он не слишком радует: под нагрузками очень быстро срабатывает защита подсистемы питания процессора от перегрева – происходит сброс частоты ядер до 800 МГц.
Три фазы питания на основе RA12AY-W52K и RA18CD-W53K (по одному на каждую фазу) под управлением Intersil ISL95858 не могут в полной мере обеспечить потребление четырех процессорных ядер Skylake-S.
Всего же на Gigabyte GA-Z170N-WiFi для питания процессора реализовано семь фаз: еще две отвечают за питание встроенного графического ядра и по одной – VCCSA и VCCIO. С ними проблем не возникает.
Увы, но такая картина является абсолютно типичной. Причина кроется в том, что данная материнская плата сама по себе относится к среднеценовому сегменту и изначально не нацелена на выдающийся разгон. К тому же, нужно помнить про компактный форм-фактор и дефицит места.
Выход есть: приложения, которые мы используем для тестов производительности, не нуждаются в большом количестве ядер у процессора. Поэтому со спокойной душой можно отключить два из четырех ядер Core i5-6600K и на выходе получить значительное сокращение энергопотребления ЦП, как следствие – снижение нагрузки на подсистему питания. В результате этой манипуляции мы получили стабильные 4500 МГц при фактическом (замеры мультиметром) напряжении CPU Core 1.3 В без каких-либо перегревов и сброса частот.
В некотором роде изуверство? Да. Увы, Intel не стала продолжать традиции Pentium G3258, и вариантов у нас немного. Как видно из таблицы выше, два ядра на частоте 4500 МГц все-таки немного лучше, чем четыре, но на 4000 МГц и уж тем более чем два ядра с HT на частоте 3700 МГц у Core i3-6100.
Подобная конфигурация будет нашим запасным вариантом при тестировании высокопроизводительных PCI-e SSD, если не будет под рукой полноценной материнской платы на Intel Z170 или близкой платформе.
Здесь изменение только одно: как выяснилось при анализе тестов, использовавшееся ранее приложение TeraCopy в среде Windows 10 выдает неадекватные результаты. Обнаружилось это еще в момент тестирования SSD Toshiba OCZ RD400. Результат в 2 минуты 15 секунд на копировании семи крупных файлов суммарным объемом 10.3 Гбайт на накопителе, который на практике способен копировать «внутри себя» файлы со скоростью около полутора гигабайт в секунду, смотрится весьма странно.
Поэтому тесты на копирование групп файлов теперь будут выполняться силами самой операционной системы. Для этого был написан командный файл, который в автоматическом режиме копирует файлы и фиксирует время, затраченное на выполнение операции. Вот так он выглядит:
@echo off
echo Create test.txt
echo Start %time%
echo %time%>E:\test.txt
echo D | xcopy E:\file_bench\foto E:\file_bench_end\foto
echo Stop %time%
echo %time%>>E:\test.txt
timeout /t 60
echo Start %time%
echo %time%>>E:\test.txt
echo D | xcopy E:\file_bench\hd_video E:\file_bench_end\hd_video
echo Stop %time%
echo %time%>>E:\test.txt
timeout /t 60
echo Start %time%
echo %time%>>E:\test.txt
echo D| xcopy E:\file_bench\music E:\file_bench_end\music /e
echo Stop %time%
echo %time%>>E:\test.txt
timeout /t 60
echo Start %time%
echo %time%>>E:\test.txt
echo D| xcopy E:\file_bench\word E:\file_bench_end\word /e
echo Stop %time%
echo %time%>>E:\test.txt
Суть его очень проста. Создается файл test.txt. Далее в него пишется время начала операции копирования, с помощью xcopy запускается процесс копирования, по завершении которого время фиксируется в файле test.txt. Нам остается лишь вычислить разницу между двумя указанными временными точками, что и будет результатом.
Обращает на себя внимание наличие команды timeout /t 60. Ею задается пауза между выполнением операций, что дает возможность накопителям с SLC-режимом произвести консолидацию данных и восстановить свою производительность. Мы же все-таки смотрим производительность на операциях с разными типами файлов в реальных условиях.
В общей базе Excel на данный момент содержится 375 строк. Некоторая часть из них относится к разным версиям прошивок, пять – это RAID-массивы из одинаковых SSD. Но даже если отбросить данные результаты, в сумме все равно остается не меньше трехсот пятидесяти различных аппаратных конфигураций. Именно даже конфигураций, а не моделей.
Момент этот на самом деле принципиален и отбрасывать его не стоит: случаи, когда под видом одной и той же версии на рынке оказываются решения абсолютно разных разработчиков, не так редки. И разница между ними порой не занудливо научная, интересная лишь очень дотошным пользователям (как, например, в случае перевода в свое время Samsung 840 Pro с 21 на 19 нм память или идентичности первых Plextor M6 Pro предшествовавшим им Plextor M5 Pro), а самая что ни на есть реальная.
Постоянно используемый мною пример – SSD Silicon Power: под видом Silicon Power S55/V55 на рынок поставлялась настоящая выставка решений – от Phison S8 и MLC NAND, через SandForce SF-2281 и Phison S9 (также с MLC NAND) до нынешних Phison S10 в паре с TLC NAND. Причем под «MLC NAND» следует понимать широкий спектр техпроцессов (25 нм, 24 нм, 20 нм, 19 нм, 16 нм) и типов (синхронная, асинхронная, Toggle) практически всех производителей флеш-памяти (IMFT, Micron, SanDisk и Toshiba).
Про разницу между TLC и MLC мы говорить не будем, но приведем простой пример на MLC NAND. Phison S8 в паре с 19 нм MLC ToggleNAND Toshiba на объеме 120 Гбайт способен обеспечить скорость записи до 380 Мбайт/с. Тогда как SandForce SF-2281 вкупе с асинхронной 20 нм MLC NAND IMFT в иных конфигурациях и 140 Мбайт/с уже будет за радость (про способность Phison S8 и SandForce SF-2281 в отношении пустых блоков отчитываться про запись со скоростью 500 Мбайт/с и более говорить глупо из-за во многом искусственности такой нагрузки). При попытке скопировать несколько относительно крупных файлов разница будет заметна невооруженным взглядом. Именно поэтому разные аппаратные конфигурации я считаю за отдельные решения, пусть даже на рынок они шли под одним торговым наименованием.
Из примера с Silicon Power становится ясной еще одна проблема: ассортимент аппаратных конфигураций очень велик сам по себе, и даже если отбросить явно дублирующие друг друга, список будет немаленький. Держать их всех невозможно – для этого нужны немалые ресурсы, в первую очередь финансовые. Тем не менее, некоторый набор моделей SSD у меня есть, на основе результатов его тестирования мы и будем пытаться строить выводы.
Для проведения тестов был отобран своеобразный по своему составу список участников. Причем предпочтение отдано бюджетным моделям с невысоким уровнем быстродействия – изменение показателей будет заметно именно на них.
Для тестирования была собрана следующая конфигурация:
Программное обеспечение:
Глобальные настройки операционной системы:
В качестве тестового программного обеспечения используются:
Операции с реальными файлами (все операции – в пределах тестируемого носителя):
Данный бенчмарк включает набор специализированных тестов дисковой подсистемы, воспроизводящих реальные ситуации при работе различных приложений. Каждый тест – это своего рода сценарий-трасса работы конкретного приложения, причем воспроизведена не «тупо» нагрузка, а реальная схема работы, когда приложение обрабатывает данные, затем пишет их на диск, считывает что-то другое, необходимое для работы, обрабатывает, прекратив любые операции с носителем, а потом снова начинает действия по чтению/записи.
Итогом такого тестирования является общий индекс производительности, высчитываемый по достаточно непростой формуле, и конкретные показатели скорости в мегабайтах в секунду. Необходимо помнить, что численные показатели учитывают и вышеуказанные паузы, поэтому итоговое значение в мегабайтах в секунду будет небольшим в численном выражении.
ScoreДанный бенчмарк позволяет увидеть скорость операций с файлами внутри одного носителя. Использовалась версия 1.7.4739.38088.
ISOЭто уже больше синтетический бенчмарк, который полезен тем, что позволяет проводить тестирование в двух режимах. Первый – хорошо поддающийся компрессии поток однотипных данных, второй – поток случайных данных, практически не поддающийся сжатию. Соответственно, итоговый результат в обоих случаях будет очень близок к максимально возможным показателям тестируемого носителя.
Режим тестирования случайными данными, не подвергаемых компрессии
На накопитель записывается файл размером 1000 Мбайт, состоящий из случайных практически не поддающихся компрессии данных. Результат теста – среднее значение по итогам пяти линейных проходов чтения.
Последовательное чтение Мбайт/сНа накопитель записывается файл размером 1000 Мбайт, состоящий из случайных практически не поддающихся компрессии данных. Результат теста – среднее значение по итогам пяти проходов чтения случайным доступом блоками 512 Кбайт. Глубина очереди запросов – 1.
Чтение блоками по 512 Кбайт, Мбайт/сНа накопитель записывается файл размером 1000 Мбайт, состоящий из случайных практически не поддающихся компрессии данных. Результат теста – среднее значение по итогам пяти проходов чтения случайным доступом блоками 4 Кбайт. Глубина очереди запросов – 1.
Чтение блоками по 4 Кбайт, Мбайт/сНа накопитель записывается файл размером 1000 Мбайт, состоящий из случайных практически не поддающихся компрессии данных. Результат теста – среднее значение по итогам пяти проходов чтения случайным доступом блоками 4 Кбайт. Глубина очереди запросов – 32.
Чтение блоками по 4 Кбайт, глубина очереди запросов - 32, Мбайт/сНа накопитель записывается файл размером 1000 Мбайт, состоящий из случайных практически не поддающихся компрессии данных. Результат теста – среднее значение по итогам пяти линейных проходов записи.
Последовательная запись, Мбайт/сНа накопитель записывается файл размером 1000 Мбайт, состоящий из случайных практически не поддающихся компрессии данных. Результат теста – среднее значение по итогам пяти проходов записи случайным доступом блоками 512 Кбайт. Глубина очереди запросов – 1.
Запись блоками по 512 Кбайт, Мбайт/сНа накопитель записывается файл размером 1000 Мбайт, состоящий из случайных практически не поддающихся компрессии данных. Результат теста – среднее значение по итогам пяти проходов записи случайным доступом блоками 4 Кбайт. Глубина очереди запросов – 1.
Запись блоками по 4 Кбайт, Мбайт/сНа накопитель записывается файл размером 1000 Мбайт, состоящий из случайных практически не поддающихся компрессии данных. Результат теста – среднее значение по итогам пяти проходов записи случайным доступом блоками 4 Кбайт. Глубина очереди запросов – 32.
Запись блоками по 4 Кбайт, глубина очереди запросов – 32, Мбайт/сСостоялся переезд не только на новую конфигурацию тестового стенда, но и новую операционную систему. И с этим переездом возникла проблема в данном наборе тестов: используемая ранее программа TeraCopy в среде Windows 10 показывала неадекватные результаты. Поэтому было решено отказаться от нее.
Отныне тесты на копирование групп файлов будут выполняться силами самой операционной системы. Для этого был написан командный файл, который в автоматическом режиме копирует файлы и фиксирует время, затраченное на выполнение операции.
Копирование фотографий, сДовольно важным атрибутом быстродействия является время доступа к данным. Стоит понимать, что современные SSD накопители в этом плане достигли уже таких значений, что данный вопрос будет носить скорее академический интерес. Среднее время доступа при операциях чтения и записи было получено в результате тестирования AS SSD Benchmark версии 1.7.4739.38088.
Случайное чтение, мсРезультаты KingFast F8M 256 Гбайт в условиях Windows 7, Intel Z77 и 16 Гбайт DDR3 отсутствуют из-за скоропостижно скончавшегося стенда.
Методика тестирования, включающая реальные действия пользователя или на крайний случай их имитацию. Хорошо это или плохо? С обывательской точки зрения – это просто великолепно: рядовому пользователю нет нужды разбираться в настройках тестов, ценности или малозначительности тех или иных показателей и прочего – для него все просто и наглядно. Но в этом-то и заключается проблема. При всей простоте такие тесты некорректны из-за того, что они напрямую зависят от количества оперативной памяти в системе и ряда других факторов. Например, различия в алгоритмах работы дискового кэша в различных версиях операционных систем Windows. В конечном итоге можно очень сильно «обжечься».
Возьмем, например, SmartBuy Ignition 64 Гбайт. Глупо спорить с тем, что 411 Мбайт/с в тесте AS SSD на копировании ISO (Intel Z77 + 16 Гбайт ОЗУ) смотрятся просто великолепно. «Ух, какой быстрый SSD!» может решить несведущий человек. Но если копнуть чуть глубже, легко обнаружить, что в реальности этот накопитель просто физически не способен предложить такую скорость: пределом для восьми 24 нм кристаллов MLC NAND производства Toshiba, лежащих в его основе, являются всего около 200 Мбайт в секунду на операциях записи. Если попробовать скопировать со стороннего быстрого источника (например, SSD) более-менее крупный файл, такую скорость мы и будем видеть:
Если же произвести копирование именно «внутри» накопителя, подобно тому, как это делает AS SSD, скорость будет еще меньше – уже примерно 110 Мбайт/с (ведь твердотельный диск выполняет две операции параллельно – и чтение, и запись):
Разница с показаниями AS SSD четырехкратная!
Фактически в случае с данной программой мы измерили не скорость накопителя, а кэша, размещаемого в оперативной памяти ПК. Та самая «горочка», видимая на графике копирования Windows 10. Интересно, что чем изначально быстрее накопитель, тем больший прирост в итоге мы получаем. Например, если для GK K3 120 Гбайт в тесте «Copy Game» при 4 Гбайт памяти мы получаем 41 Мбайт/с, а при 16 Гбайт всего 40 Мбайт/с – прирост даже отрицательный, то для Kingston HyperX 3K 120 Гбайт соответственно 153.92 Мбайт/с и 327.45 Мбайт/с – прирост более чем двукратный.
Кстати говоря, некоторое время назад была выпущена в свет более новая версия AS SSD. Но ее основное отличие – только в появившейся возможности увеличивать размер тестового паттерна вплоть до 10 Гбайт, что может не лучшим образом сказаться на результатах накопителей небольшого объема с SLC-режимом. Сам тест работает по прежнему алгоритму, создавая «разреженные» файлы. Да еще приложение не выдерживает каких-либо пауз между тестами, что нежелательно.
Если же вспомнить приложение Intel NAS Perfomance Toolkit, от использования которого я отказался некоторое время назад, то оно при установке 16 Гбайт памяти на старый тестовый стенд на базе Intel Z77 буквально «сходит с ума»:
Справедливости ради, в условиях Windows 10 и 8 Гбайт памяти результаты несколько реалистичнее, но доверия нет уже и к ним. И вот тут вырисовывается два момента.
Момент первый. Ситуация, возникающая не так уж часто, но реальная: копируем файлы. Скопировали. И тут отключается электричество или компьютер зависает. Диалог копирования уже исчез. Но данные-то из памяти компьютера никуда не делись! Операционная система еще продолжала их записывать в фоновом режиме. Итогом становится потеря части данных, о которой пользователь даже не будет догадываться. И не нужно думать, что невелика беда: в кэше могут быть не какие-то отдельные файлы, а фрагменты. Попробуйте у крупного (1-2 Мбайт) файла Excel произвольно стереть через двоичный редактор несколько килобайт – многочасовое восстановление гарантировано. Но пользователь-то уверен, что данные уже скопировались и со спокойной душой может позабыть, а потом и вовсе удалить исходники. Тем более что его внимание будут занимать проблемы с повреждением данных, которые он сам обрабатывал в момент отключения питания.
Момент второй. Почему мы заговорили об AS SSD? Потому что подтест «Copy-Benchmark» очень популярен среди тех, кто пишет обзоры-отзывы за авторством «реального рядового пользователя» на различных ресурсах со свободной публикацией (например, блогах), да и серьезные сайты иногда грешат этим. Тут возникает ситуация, когда можно манипулировать результатами в тестах в ту или иную сторону без каких-либо серьезных усилий – просто добавляя или убирая модули оперативной памяти в тестовом стенде. Осознанно от отсутствия опыта или по иным (весьма прозаическим) причинам, но тем самым публикуя совершенно недостоверные данные и вводя читателя, выбирающего себе SSD, в заблуждение. Про то, как люди, начитавшихся подобных тестов и столкнувшись с реальностью, теряют вообще какую-либо веру в обзоры, думаю, напоминать не стоит.
И ведь это кэширование, если посмотреть на результаты тестов, влияет на показатели самым непредсказуемым образом. На полном серьезе остается впечатление, что логика работы дискового кэша у системы Windows попросту отсутствует или сильно недоработана.
Абсолютно синтетические по своей природе Crystal Disk Mark и AS SSD (время доступа) показывают схожие результаты. PCMark7 и прочие: на Intel Z77 идет стабильный рост показателей в процессе наращивания объема оперативной памяти от 4 до 16 Гбайт. Берем систему на Intel Z170 с аналогичным объемом памяти и в тестах, имитирующих реальную работу пользователя получаем… не рост, а падение показателей! И дело не в материнской плате Gigabyte (иногда решения Mini-ITX слегка хуже по уровню производительности в сравнении с более крупными платами – используемая Zotac Z77-ITX WiFi как раз из таких): результаты тестов были перепроверены на ASRock Z170 Extreme6 с тем же печальным итогом.
Кратко резюмируя вышесказанное: впечатления от переезда на новую платформу такие, что лично я в некотором замешательстве. Результаты, накапливавшиеся годами, лишь ограниченно пригодны для использования в новых материалах. Фактически нам необходимо заново набирать базу результатов, а собранную ранее – попросту списывать в архив. А то и вовсе оставить исключительно синтетические тесты вроде Crystal Disk Mark, Iometer, Anvil Storage и подобных.
Относительно копирования данных и решения проблемы с кэшированием в обсуждении одного из прошлых обзоров несколькими читателями были высказаны идеи использовать файловые менеджеры или же найти способ отключить кэширование. Но и это будет не менее искусственным: у скольких из нас стоит на компьютере, например, Total Commander или вручную отключены кэши?
И далеко не ново впечатление, что каждое новое поколение аппаратного и программного обеспечения развивается в первую очередь в сторону того, чтобы его сравнение с предыдущим поколением было максимально осложнено: появляются кэши, меняются алгоритмы, создаются режимы «автоматического разгона при удобных условиях», работающего зачастую случайным образом, и так далее.
Невольно вспоминается протестированный мною AMD Athlon X4 845: он получил определенную тактовую частоту, но при этом его теплопакет задан ровно таким образом, что процессор практически всегда работает в режиме Turbo Core. При этом в алгоритм внесено ограничение, что эта частота сохраняется непродолжительное время, после чего она начинает постепенно снижаться независимо от соответствия условиям Turbo Core. Ну и каким значением тактовой частоты в итоге руководствоваться? Номинальным? Нет, ибо алгоритм Turbo Core путем задирания планки TDP искусственно сделан слишком агрессивным. Частотой в Turbo Core? Опять нет, ибо она не является жестко фиксированной и не держится постоянно. В итоге в любые тесты производительности вносится элемент случайности и возможный отрыв от реальности (при фиксации частот вручную). Аналогичное мы видим и здесь.
Попробуем поступить следующим образом: в последующих статьях в тех тестах, которые имитируют реальные действия пользователя и в результатах которых присутствует разница, мы добавим оговорку относительно данного момента. Отставание не столь велико, чтобы полностью отказываться от накопленных данных – некоторая сравнимость все же присутствует, насколько удается судить.