Платим блогерам

Новости 05 октября 2007 года

Участившиеся откровения представителей Intel об устройстве процессоров поколения Nehalem позволяют понять, что основные концепции уже выработаны, и теперь компания предпринимает усилия для их воплощения в жизнь. Как уже сообщалось, в силу экономических и конъюнктурных факторов процессоры Penryn будут достаточно долго соседствовать с Nehalem, наполняя средний и нижний ценовые сегменты, но в 2009 году архитектура Nehalem протиснется и в эти секторы рынка.

Мы имели возможность убедиться, что процессоры Nehalem с интегрированным графическим ядром будут представлены в массовом ценовом сегменте. Японские коллеги с сайта PC Watch вновь пообщались с представителями Intel, ответственными за разработку стратегий и принятие решений, и теперь можно перечислить факторы, способствующие "переселению" графического ядра из северного моста в центральный процессор.

Начнём с того, что перенос контроллера памяти в центральный процессор заставляет графическое ядро быть ближе к обоим этим компонентам, и с этой точки зрения интеграция графического ядра в процессор выглядит естественным шагом на пути к повышению эффективности интегрированной графической подсистемы. Только с переходом на 45 нм техпроцесс Intel получит возможность интегрировать в процессор не только контроллер памяти, но и графическое ядро, при этом сохранив "транзисторный бюджет" в экономически целесообразных рамках. Как пояснили представители Intel, первое поколение процессоров Nehalem с интегрированным графическим ядром будет иметь монолитный кристалл, необходимости в использовании многочиповой упаковки в данном случае нет.

Наконец, Intel приводит схожие на аргументы AMD доводы в пользу переноса графического ядра из чипсета в процессор. Важность мультимедийных задач в жизни среднестатистического пользователя неуклонно растёт, и появление процессоров с развитой графической частью открывает новые пути построения не очень дорогой универсальной системы, обладающей неплохой современной функциональностью.

Как поясняют представители Intel в беседе с нашими японскими коллегами, появление процессоров Nehalem с интегрированным графическим ядром положит конец интегрированным чипсетам в привычном понимании этого слова. Графическое ядро перекочует в процессор, и роль чипсета будет выполнять, по сути, южный мост. В настольном сегменте Intel будет выпускать только дискретные чипсеты, разделяя их по цене и уровню функционального развития. Желающие получить более производительную графику всегда могут установить в материнскую плату дискретную видеокарту. Сторонники бюджетных графических решений будут покупать процессоры с интегрированным видеоядром. Вполне закономерная эволюционная метаморфоза.

84
Японские прогнозы уже недавно дали понять, что процессоры Nehalem с интегрированным графическим ядром пропишутся в массовом ценовом сегменте. Это сразу же породило у читателей предположения о невысоком уровне быстродействия интегрированного в процессор графического ядра. В принципе, зерно рациональности в таких рассуждениях есть: во-первых, "транзисторный бюджет" ограничен, и запихивать в процессор производительное графическое ядро просто невыгодно; во-вторых, интегрированные в чипсет графические ядра никогда высокой производительностью по сравнению с дискретными решениями не отличались.

Между тем, взявшие интервью у Патрика Гелсингера, одного из вице-президентов Intel, коллеги с сайта Tech ARP поделились некоторыми комментариями относительно быстродействия встроенного в процессор графического ядра. Как пояснил господин Гелсингер, графическое ядро выиграет от переноса в процессор не только из-за более тесной интеграции с процессорными ядрами, но и из-за доступа к разделяемому кэшу процессора. О структуре кэш-памяти процессоров Nehalem компания Intel собирается подробнее рассказать на предстоящей весенней сессии IDF 2008, а пока Гелсингер намекнул, что процессоры Nehalem будут иметь многоуровневый кэш, и последний уровень будет разделяемым. Скорее всего, речь идёт о разделяемом кэше третьего уровня - его-то и будет эффективно использовать встроенное в процессор графическое ядро.

По оценкам Intel, между соседними поколениями интегрированной графики при таком подходе будет наблюдаться разрыв в быстродействии между 20% и 200%. Конечно, аппетиты компьютерных игр растут гораздо более высокими темпами, но для непритязательных пользователей такой прирост быстродействия графической подсистемы будет достаточным.

38
Компания Intel некоторое время назад серьёзно озаботилась узнаваемостью своих торговых марок, и после проведённого анализа ситуации решила представить 1 января 2008 года новую систему обозначения процессоров. Предполагалось, что процессоры Core 2 Duo и Core 2 Quad будут объединены под торговой маркой "Core 2", а о количестве ядер и прочих характеристиках потребитель должен будет догадываться по не самым понятным буквенно-цифровым обозначениям. Появившиеся позднее номера моделей процессоров Yorkfield и Wolfdale только подтвердили эти опасения.

Однако, как сообщает сайт eWeek со ссылкой на слова представителей Intel, компания решила прислушаться к пожеланиям потребителей при формировании нового набора торговых марок. Например, от реформирования брендов настольных процессоров решено отказаться. Они сохранят торговые марки "Core 2 Duo" и "Core 2 Quad", а также соответствующие логотипы. Как сообщалось ранее, процессоры Core 2 Extreme новое обозначение получать не собирались, так что изменения не касались бы их в любом случае.

Заметим, что и мобильные процессоры Core 2 Solo сохранят свою торговую марку, Intel просто наведёт порядок в брендах семейства Centrino. Потребительская платформа будет именоваться "Centrino", а мобильные системы для корпоративных потребителей получат логотипы "Centrino with vPro Technology".

Что касается продемонстрировавших неспособность повторить успех Centrino в части узнаваемости бренда платформ VIIV и vPro, то на помощь этим замысловатым торговым маркам придут узнаваемые сочетания вроде "Core 2 Duo". Например, соответствующий концепции vPro компьютер на базе двухъядерного процессора будет наделяться логотипом "Core 2 Duo with vPro Technology". Ранее такая система довольствовалась бы логотипом с упоминанием только технологии vPro.

Наконец, в серверном сегменте будет упрощена система обозначений моделей Itanium. Вместо "Itanium 2" будет применяться логотип "Itanium Inside". Пожалуй, такие планы по преобразованию торговых марок действительно улучшат ситуацию с их узнаваемостью, не создавая новых проблем.

В том, что видеокарты модели Radeon HD 2900 GT могут быть представлены, сомнений ни у кого не вызывало, особенно после обнародования характеристик этих видеокарт двумя крупными партнёрами AMD. Другое дело, что сама целесообразность анонса такого переходного продукта по такой цене представлялась сомнительной. За символическую доплату можно было получить Radeon HD 2900 Pro, который не только обладает увеличенным объёмом памяти, но и имеет большее число шейдерных процессоров, а главное - полноценную 512-битную шину памяти. Кстати, первые цены в прайс-листах европейских продавцов подтверждают справедливость такой позиции: разница в цене между Radeon HD 2900 GT и Radeon HD 2900 Pro равна 10-20 евро.

Более того, консультации с осведомлёнными источниками позволили нам узнать, что AMD ставит под сомнение целесообразность анонса Radeon HD 2900 GT. Напомним, что эти видеокарты должны были выйти уже 8 октября, в ближайший понедельник. Теперь AMD может либо перенести анонс на 12 ноября, либо полностью отменить его! Легко представить, что в середине ноября, за неделю до анонса более прогрессивных видеокарт модели Radeon HD 2950 Pro, убогий инвалид по имени Radeon HD 2900 GT вряд ли кому-то будет нужен. Самое главное, что продавать Radeon HD 2900 GT с таким опозданием будет невыгодно самой AMD.

Учитывая, что до первоначальной проектной даты анонса Radeon HD 2900 GT осталось всего несколько дней, о реальной судьбе этой видеокарты мы наверняка скоро узнаем. Потенциальным же покупателям мы бы не советовали связывать с этим продуктом особых надежд - он вообще может не появиться на свет.

Сейчас, когда ни у кого не остаётся сомнений в неизбежности анонса новой версии GeForce 8800 GTS 640 Мб с увеличенным до 112 штук числом шейдерных процессоров, некоторые вопросы по-прежнему требуют прояснения. Например, как отличать новую GeForce 8800 GTS от старой? И если какой-то суффикс в названии новой версии видеокарты поможет её идентифицировать, не станет ли это соблазном для партнёров NVIDIA продавать её по чуть более высокой цене?

К счастью, кое-какая информация на этот счёт у нас имеется. Прежде всего, повышать цену на GeForce 8800 GTS 640 Мб в связи с предстоящей модернизацией модели NVIDIA не собирается. Другое дело, что предновогодний ажиотаж, проблемы с непредсказуемой отечественной таможней и обострение жадности у локальных дилеров где-нибудь в славном городе Комсомольске-на-Гламуре могут спровоцировать повышение цен, но на эту ситуацию NVIDIA уже влиять не может.

Во-вторых, нам стало известно, что ради исключения путаницы в обозначениях и пресечения всякого рода словотворчества со стороны партнёров, NVIDIA может присвоить новой версии GeForce 8800 GTS 640 Мб особое имя - GeForce 8800 GTO. Видеокарты с таким суффиксом в названии всегда имели особую судьбу: если ATI использовала этот суффикс для обозначения трансформируемых по числу конвейеров видеокарт, то NVIDIA разрешала отдельным партнёрам продавать ограниченные серии видеокарт с суффиксом GTO, которые отличались увеличенным объёмом памяти и повышенными частотами. Словом, когда все обозначения уже использованы, в ход идёт "GTO"...

Новости о видеокартах модели GeForce 8800 GT появляются в эти дни с такой периодичностью, что если под них выделить специальный сайт, он не только не будет пустовать, но и будет регулярно обновляться и привлекать заинтересованных посетителей. Нам же приходится укрупнять накапливаемую информацию о GeForce 8800 GT, поступающую из самых разных источников.

Начнём с того, что чип G92 должен иметь 64 шейдерных процессора - об этом ранее почти не говорилось, но теперь мы имеем основания упоминать эту характеристику. Если учесть, что чип G92 будет иметь 256-битную шину, природа достаточно высокого быстродействия GeForce 8800 GT становится понятна не всем. Напомним, что GeForce 8800 GT так близко подобралась к GeForce 8800 GTS 640 Мб в плане быстродействия, что NVIDIA была вынуждена наделить последнюю дополнительными шейдерными процессорами. Впрочем, не надо забывать, что GeForce 8800 GT обладает достаточно высокими частотами - 600/1800 МГц, которые к моменту анонса могут быть ещё повышены. Это и объясняет приличный для своих характеристик уровень быстродействия.

Многие читатели задаются вопросом о ценах на видеокарты GeForce 8800 GT. Разброс цен будет определяться объёмом памяти видеокарты - как известно, предусмотрены модификации с 256 Мб и 512 Мб памяти соответственно. Первая будет стоить от $179 до $199, вторая будет стоить от $229 до $249. К нижнему пределу рекомендованных цен эти видеокарты приблизятся только в одном случае - если конкурирующие решения серии Radeon HD 2950 будут обладать более привлекательным сочетанием цены и производительности.

Следует прояснить ситуацию с позиционированием видеокарт NVIDIA после анонса GeForce 8800 GT. Итак, GeForce 8800 GTS 320 Мб будет снята с производства, ей на смену придёт GeForce 8800 GT 512 Мб. Версия GeForce 8800 GT с 256 Мб памяти займёт пустующую нишу между GeForce 8600 GTS и GeForce 8800 GT 512 Мб. Как уже сообщалось накануне, версия GeForce 8800 GTS с 640 Мб памяти обзаведётся увеличенным до 112 штук количеством шейдерных процессоров, и заменит собой "старую" GeForce 8800 GTS 640 Мб. Новое флагманское графическое решение от NVIDIA, скорее всего, появится в первом квартале 2008 года.

Заметим, что уже успевший полюбиться многим стройный кулер GeForce 8800 GT может быть видоизменён для серийных видеокарт. Как сообщает сайт The Inquirer, компания NVIDIA в спешном порядке проводит "тепловой анализ" систем, в составе которых может эксплуатироваться GeForce 8800 GT. Есть опасения, что первоначальный вариант кулера может справляться с охлаждением видеочипа не во всех ситуациях, а потому потребует доработки. Впрочем, поднятая британским ресурсом паника может быть напрасной, и может оказаться, что NVIDIA просто перестраховывается.

Популярные статьи

Сейчас обсуждают