Путешествие из Санта-Клары в Москву

В жизни IT индустрии бывают разные периоды. Случается, что компьютерная общественность по полгода а то и больше ждет появления какой-нибудь новинки, а когда она, наконец, выходит, выясняется, что супер-пупер мегареволюционная видеокарта представляет собой ни что иное, как свою предшественницу, которой чуть-чуть увеличили тактовые частоты и прилепили новый стикер на вентилятор системы охлаждения. Нынешний 2006 год к таким периодам не относится. Согласитесь, за последние несколько месяцев в компьютерном мире произошло немало событий, заставлявших пользователей снова и снова вчитываться в новостные ленты offline-изданий и интернет-сайтов: это и выход платформы Socket AM2, принесший долгожданную поддержку памяти стандарта DDR2 системам на основе процессоров AMD (событие хоть и не революционное, но важное с точки зрения дальнейшего развития платформы K8 ), и появление не менее долгожданных процессоров Intel c архитектурой Conroe, и неожиданная покупка ATI Technologies компанией AMD. А в самое ближайшее время нас ожидают: выход нового флагманского видеочипа R600 компании ATI, завершение уже ставшего легендарным долгостроя под названием Windows Vista, и (немного позднее) появление чипов с архитектурой K8L, являющихся следующей ступенью в развитии платформы AMD64. В общем, скучать в ближайшие полгода нам с вами не придется.
А вот не так давно случилось еще одно событие, несколько недель не дававшее спокойно спать всей прогрессивной компьютерной общественности – компания NVIDIA выпустила новый графический процессор под кодовым именем G80. Назвать его простой эволюцией чипов предыдущего поколения язык не поворачивается. Начнем с того, что это первый и пока единственный GPU, поддерживающий DirectX 10. Во-вторых, G80 способен в рамках технологии, называемой Quantum Effects, аппаратно рассчитывать «физику» в играх. В-третьих, новый графический процессор NVIDIA обладает унифицированными (то есть универсальными) шейдерными блоками, способными выполнять не только расчеты, связанные с построением трехмерного изображения, но и моделировать физические процессы. Про возросшую по сравнению с предшественниками графическую мощь чипа здесь можно даже не упоминать. Уже только от словосочетаний «128 потоковых процессоров, работающих на частоте 1350 МГц» и «384-битная шина памяти» начинает кружиться голова, а фраза «768 Мб памяти типа GDDR3, работающей на частоте 1800 МГц» заставляет нервно дергать ногой под столом в предвкушении счетов за электроэнергию.
Но оставим в покое технические характеристики чипа и поговорим о немного другом. Сразу после анонса, который состоялся 8 ноября, NVIDIA развернула кампанию, призванную раскрутить продукты, в основе которых лежит чип, и без того ставший популярным еще до своего появления на прилавках магазинов. И частью этой кампании стал NVIDIA Reality Tour’06 представлявший собой целую волну рекламных акций, прокатившуюся 11 и 12 ноября по крупнейшим городам всего мира. Не обошли устроители вниманием и Москву – в означенные дни на всем известной «Горбушке» компании NVIDIA ( www.www.nvidia.ru) и «Стартмастер» ( www.startmaster.ru) провели презентации, на которых были представлены видеокарты на базе чипа G80 – топовая GeForce 8800 GTX и чуть «урезанная» GeForce 8800 GTS, а также материнские платы для процессоров Intel, на основе нового набора системной логики NVIDIA nForce 680i SLI.

Последний, кстати, поддерживает камни с разъемом LGA 775, включая четырехъядерные чипы Core 2 Quad. По сравнению с НМС пятисотой серии (nForce 590 SLI Intel Edition и nForce 570 SLI Intel Edition) была улучшена поддержка скоростных модулей памяти DDR2 и увеличен частотный потенциал самого чипсета. Последнее особенно важно, поскольку процессоры Intel Core 2 Duo прекрасно разгоняются, но при этом обладают небольшим множителем, отчего разгон системы чаще всего упирается в неспособность материнской платы устойчиво работать при высоких частотах системной шины. Ограниченные возможности разгона – одна из важнейших причин, не давших чисетам серии nForce 5xx завоевать широкую популярность среди пользователей.

В субботу, 11 ноября, прибыв на место проведения мероприятия, ваш покорный слуга обнаружил два работающих стенда с виновницами торжества – новейшими видео- и материнскими платами под капотом, подтанцовку в виде девушек, выделывавших всевозможные «па» под «мелодии и ритмы зарубежной эстрады», а также группу журналистов телеканала ТНТ, снимающую сюжет, посвященный последним продуктам NVIDIA. Когда телевизионщики разъехались, посетители, которых, было, немного оттеснили из «кадра», вновь стали кучковаться возле машин и выспрашивать у демонстраторов что да как. Самым смелым из них предлагалось побороться в мини-турнирах за право стать обладателем футболки или мышековрика с символикой NVIDIA. Победителю парного заезда в Flat Out 2 также доставалась фотография себя любимого с очаровательными танцовщицами, которую распечатывали на принтере прямо «не отходя от кассы». Кстати, музыка на презентации гремела так оглушительно, что объясняться с окружающими приходилось, в основном, при помощи крика и жестов.

Тем не менее, мне все-таки удалось выяснить, что же скрывалось под капотом демонстрационных машин, помимо «презентуемых» GeForce 8800 GTX и материнок на nForce 680i SLI. А скрывал каждый из корпусов, не много ни мало, четырехъядерный процессор Intel Core 2 Quad, пару быстрых жестких дисков, два гигабайта скоростной памяти DDR2-1066 МГц производства славной компании Corsair, ну и пишущий DVD привод в придачу. В общем, системки не для бедных. Скромностью в плане энергетических аппетитов они тоже не отличались – каждая машина была подключена к серверному блоку питания мощностью 1100 ватт (а помнится, некоторые недавно обзывали семисотваттные питальники мини-трансформаторными будками; хитрый смайл). Впрочем, мне представляется не слишком оправданным использование для описанных выше систем столь мощных PSU, ведь по официальным данным для ПК с одиночной видеокартой GeForce 8800 GTX специалисты NVIDIA рекомендуют использовать блоки питания мощностью 450 ватт и более, а для машины с одной GeForce 8800 GTS вполне подойдет питальник, выдающий 400 «честных» ватт. В случае же построения SLI-системы нужно предусмотреть установку блока питания мощностью не менее 700 ватт для машины с двумя платами 8800 GTX или 600 ватт для ПК с парой 8800 GTS. (К слову, в каждой из двух представленных систем была установлена лишь одна видеоплата GeForce 8800 GTX.)

Но к чему же вся эта дороговизна и киловатты электроэнергии? Скажу сразу – последних шейдеров мне увидеть так и не довелось, поскольку на обеих демонстрировавшихся машинах была установлена Windows XP. Соответственно, ни DirectX 10, ни новейших видеоэффектов не было, и быть не могло, поскольку новый API будет работать лишь под управлением Windows Vista. Зато удалось «в живую» увидеть то, как новая плата NVIDIA обсчитывает различные физические процессы. Всего показывали три демки. Первая – моделирование поверхности воды, вернее различных брызг и всплесков при взаимодействии жидкости с другими объектами. Должен сказать, что эта демонстрация понравилась мне меньше, чем другие: происходившее на экране не всегда выглядело реалистично. Впрочем, это можно списать на «сырость» алгоритмов (читай, драйверов), по которым рассчитывался физический процесс. К тому же этот самый процесс очень и очень сложен, и адаптировать непростую физическую модель к расчету на графических ускорителях, да еще так, чтобы все выглядело «как в жизни» – дело не из легких. Поэтому будем считать, что инженеры NVIDIA в целом с задачей справились, и им осталось получившуюся модель лишь немного «доработать напильником».


Вы слыхали когда-нибудь словосочетания «фотореалистичная графика» и «кинематографические спецэффекты»? Помнится, несколько лет назад, когда «шейдерные» игры были еще не очень распространены, я начитался таких вот определений в каком-то журнале. Относились они к сверхнавороченной по тем временам игре Max Payne 2. Естественно, мне сразу захотелось испытать «всю мощь современных технологий» на себе, но когда я раздобыл эту игру, моя реакция была примерно такой: «Ну и что? Это и есть те самые шейдеры, за которые берут столько денег? А где же фотореализм и все остальное?» Так вот, глядя на госпожу Кёрри (вернее, на ее виртуального двойника) таких вопросов не задаешь, потому что создаваемый GeForce 8800 GTX персонаж выглядит настолько реалистично, насколько это в принципе возможно при использовании компьютерной графики. То есть выдаваемая платой NVIDIA картинка не уступает тому, что мы можем увидеть в современных фильмах, использующих технологии компьютерной анимации, таких, как Final Fantasy, к примеру.


Понятно, что если при таком уровне детализации заставить ту же GeForce 8800 GTX отрисовывать не один персонаж, а целый кадр вместе со всей окружающей обстановкой, то скорость упадет ниже уровня плинтуса. Но это не главное. Главное, что теперь существуют графические ускорители, мощности которых в принципе достаточно для создания со скоростью более двух кадров в секунду трехмерной картинки подобного качества. Пока такие видеокарты есть только у NVIDIA. Но очень скоро компания ATI выпустит свои платы на базе чипа R600, способные состязаться с GeForce 8800, а, может быть, и превзойти их. А там уж и Windows Vista подоспеет с новыми шейдерами, которые смогут в полной мере использовать недюженные способности современных видеокарт.
Комментарии, исправления, дополнения можно оставить здесь.
P.S. Сорри за задержку. В жизни не всегда все получается так, как хотелось бы.

UPDATE: на nZone.com по этому адресу, наконец-то, выложили демки, которые демонстрировались на презентации: Adrianne Demo, Froggy Demo и Box of Smoke Demo.
Лента материалов
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Сейчас обсуждают