После выхода блогов про самые удачные процессоры от Intel и AMD в комментариях зазвучали обвинения в моем "фанатстве" и преданности продукции одного производителя. Причем обвинялся я как в фанатстве в отношении продукции AMD, так и Intel.
Я много раз писал о том, что я беспристрастен в выборе комплектующих и покупаю то, что выгоднее и перспективнее на данный момент, поэтому не надо искать в моих блогах того, чего там нет. Поскольку обвинения в моей преданности корпорации AMD все же звучали чаще, новый цикл блогов, про самые неудачные видеокарты всех времен, я начну с продукции AMD.
Почему я не пишу ATI/AMD в названии блога? Напомню читателям, что компания AMD в 2006 году купила компанию ATI. Первое время это вызвало даже некоторую неразбериху среди пользователей и обзорщиков. Например, AMD Radeon HD 2900 XT иногда в обзорах называли ATI Radeon HD 2900 XT.
Но я считаю, что не стоит объединять продукцию ATI и AMD в критических блогах, поэтому возьму видеокарты 2006 года выпуска и позже. Хотя была мысль включить в этот список и ранние видеокарты, например ATI Radeon X600 XT.
AMD Radeon HD 5830 был выпущен в 2010 году и позиционировался между очень удачной и популярной Radeon HD 5850 и не менее удачной и популярной Radeon HD 5770.
И вроде бы все было хорошо, но видеокарта получилась довольно странной: производительность на уровне старых Radeon HD 4890 или разогнанных Radeon HD 4870, но при этом большое по тем временам энергопотребление в 175 ватт. Напомню, что более быстрая Radeon HD 5850 потребляла всего 151 ватт.
В результате Radeon HD 5830 стал ненужен многим игрокам. Как замена Radeon HD 4870 и Radeon HD 4890 он не давал ни производительности, ни выигрыша по энергопотреблению. При этом был довольно дорог и получилась ситуация, что в массовые игровые компьютеры бралась Radeon HD 5770, а в более производительные - Radeon HD 5850.
Radeon R9 290X появился в конце 2013 года и должен был бороться с GeForce GTX 780 Ti. Первые обзоры новинки пестрели подозрительной графой "н/д" в разделе "энергопотребление".
Потом выяснилось, что заявленное энергопотребление составляло 290 ватт! Конечно, в этом плане GeForce GTX 780 Ti тоже отличался приличным аппетитом в 250 ватт, но он был быстрее и работал в нормальном температурном режиме.
Референсное же охлаждение Radeon R9 290X попросту не справлялось с охлаждением этого монстра, температуры доходили до 95 градусов даже при 3000 оборотов турбины.
Потом, когда партнеры AMD выпустили нереференсные карты, а пользователи стали осваивать андервольт, Radeon R9 290X стал более интересной и перспективной покупкой. Но первый бой был проигран Nvidia, массовый пользователь испугался чудовищных температур и энергопотребления.
Radeon R9 390X был выпущен спустя почти два года после Radeon R9 290X и по сути, являлся работой над ошибками предыдущей модели.
Практически, мы имели то же самое ядро, с тем же набором потоковых процессоров и текстурных блоков, но на чуть более высокой частоте, с более быстрой памятью объемом в восемь гигабайт и чуть сниженным, до 275 ватт, энергопотреблением.
Но эта работа над ошибками длилась почти два года и Radeon R9 390X банально опоздал, став, как и Radeon R9 290X, видеокартой для энтузиастов. На рынке уже вовсю царствовали GeForce GTX 970 и GeForce GTX 980 и игрокам попросту не нужен был Radeon R9 290X в новой обертке.
AMD Radeon R9 380X вышел в 2015 году, в тяжелое для AMD время как на процессорном рынке, так и на рынке видеокарт. Radeon R9 380X являлся наследником удачной Radeon HD 7970, но четыре года - это очень долгий срок для графической архитектуры, даже для такой удачной, как Graphics Core Next (GCN).
По сути, его ядро Antigua был полной копией ядра Tahiti по конфигурации основных вычислительных блоков. Но частота ядра была ниже, шина памяти уменьшилась с 384 до 256 бит. И пользователи прекрасно понимали, что им преподнесли уже третью, после Radeon R9 280X, реинкарнацию одной и той же видеокарты.
Некоторую популярность она обрела, но бороться с GeForce GTX 960 и GeForce GTX 970 за кошельки игроков ей было очень тяжело.
Заканчивая этот блог, испытываешь двоякое чувство. Особенно глядя на видеокарты после 2013 года.
С одной стороны, описанные видеокарты проиграли в свое время аналогам от Nvidia.
Но с другой стороны, спустя несколько лет, можно взглянуть на ситуацию совсем по другому. Ведь они имели больший объем памяти, большую вычислительную мощь, которая позволила им стать выгодными "числодробилками" в майнинге.
А самое главное - все они имели более длительную поддержку драйверами, и если сейчас сравнить Radeon R9 290X и GeForce GTX 780 Ti и даже более новые видеокарты в играх, картина будет совершенно иной.
Но никто не покупает видеокарты на будущее, пользователям нужно здесь и сейчас получить оптимальное сочетание производительности, энергопотребления и цены. Поэтому я записал эти видеокарты в "неудачные", как и большинство игроков тех лет, которые не стали их покупать.
В следующем блоге вспомним самые неудачные видеокарты от Nvidia. А пока пишите в комментарии, какие видеокарты и от AMD и от Nvidia вы считаете самыми неудачными?