История nVIDIA (обновлена)

12 марта 2006, воскресенье 11:18
для раздела Блоги
1995
История этой калифорнийской корпорации берёт начало в 1995 году, когда она была основана предприимчивыми Дженсеном Хуангом – будущим президентом и генеральным директором , и Крисом Малаховски –вице-президентом по разработке аппаратного обеспечения…
Первым их продуктом является чип NV1,выпущенный в 1995 году, NV1 и его модификация STG2000 были первыми "полными" мультимедиа-ускорителями. Оба чипа были идентичны за исключением того, что NV1 использовал высокопроизводительную VRAM, а STG2000 - более дешевую DRAM. Несмотря на то, что NV1 был первым продуктом NVIDIA, для свого времени он был весьма продвинутым решением: 2D- и 3D-графика, встроенный аудиопроцессор мощностью 350 MIPS и процессор ввода-вывода. Самой известным ускорителем на основе NV1 был Diamond EDGE 3D.
Когда чип NV1 был только представлен, многие из 3D-стандартов, которые сейчас кажутся непререкаемыми, еще принимались. Пока полигоны не были окончательно утверждены в качестве стандарта для 3D-игр, NVIDIA решила использовать другой способ формирования примитивов объемного изображения - Quadratic Texture Maps (кривые поверхности третьего порядка). Тогда как современным 3D-ускорителям требуется большое количество маленьких полигонов для воспроизведения гладкой поверхности, в NV1 использовались искривленные стороны полигонов. Это позволяло чипу отображать гладкие поверхности без особой нагрузки. Текстуры хранились в системной памяти и подавались через шину PCI или VESA Local Bus по мере необходимости - по тому же принципу через несколько лет будет работать AGP.
Однако первый продукт NVIDIA не состоял целиком из графического ядра. В NV1 была интегрирована микросхема для воспроизведения звука. С 32 каналами, 16-битным CD-качеством и аппаратным ускорением примитивного объемного звука, NV1 производила более сильное впечатление, чем многие PCI звуковые карты первого поколения. В качестве банка для MIDI (таблица MIDI была сертифицирована Fat Labs) использовалось 6 МБ системной памяти.
Вместо традиционного игрового порта на NV1 был размещен разъем, поддерживающий геймпады и джойстики от Sega Saturn, которые можно было использовать в любой совместимой с DirectInput игре, включая Virtua Fighter, Virtua Cop и Panzer Dragoon.
Хотя чип NV1 намного превосходил возможности конкурентов и был значительно перспективней, именно технология кривых поверхностей третьего порядка привела к его рыночной смерти. Когда Microsoft утвердила спецификации Direct3D, незадолго после того, как NV1 появился на полках магазинов, именно полигоны были выбраны в качестве стандартных примитивов. И, несмотря на все усилия NVIDIA и Diamond, разработчики больше не хотели ориентироваться на NV1. Компания Diamond даже пыталась увеличить число покупателей огромными скидками и включением в комплект поставки геймпада от Sega, но и это не принесло успеха.
С помощью Direct3D Microsoft практически уничтожила NVIDIA. Производители ПК отказывались ставить в машины видеокарты на чипе, несовместимом с Direct3D, и инженеры NVIDIA понимали, что не смогут вывести на рынок новый полигональный 3D-ускоритель. Компания ушла от общественного интереса и была вынуждена уволить несколько сотрудников.
Если бы тогда NVIDIA смогла обойти необходимость вводить поддержку Direct3D и продолжила использовать кривые поверхности третьего порядка...
Из интервью с Джоном Кармаком:
Технология кривых поверхностей третьего порядка могла бы стать на самом деле мощным свойством NV1, и Microsoft загубила хорошее начинание, утверждая в качестве примитивов треугольники. Гм, не совсем так.
Уже несколько лет NVIDIA развивается не в пример остальным графическим компаниям, но давайте не будем романтизировать былые дни. NV1 был полным отстоем, и он значительно повредил бы развитию 3D-ускорителей в будущем. Microsoft провела хорошую работу, вытесняя стандарт NVIDIA.
Существует негласное мнение, что кривые поверхности лучше, чем треугольники, потому что для формирования кривой поверхности нужно много треугольников. Конечно, кривые можно упростить до того, чтобы они выполняли роль треугольников, но это - значительная потеря пропускной способности.
К сожалению, тогда существовал целый ряд продуктов, у которых отсутствовала поддержка важнейших функций [рендеринга], однако было встроено подобие патчевых поверхностей, что требовало выравнивания текстур в соответствии с направляющей сеткой патча. Это похоже на производную от 2D-графики, где нормальное движение спрайтов дополняется их масштабированием, поворотом, проектированием и искривлением. По такой схеме работали продукты 3DO, Saturn и... NV1. Возможно некоторые люди сейчас работают над заменой стандартных методов формирования текстур, но они, скорее всего, делают ту же ошибку.
Без возможности разделять процессы текстурирования и геометрического преобразования, нельзя получить отсечение в самом общем смысле слова (не говоря даже о том, что отсечение кривой вне направляющей сетки приведет к нарушению ее структуры), и либо приходиться смиряться с тем, что плотность текселя широко варьируется, уменьшаясь иногда до точки, либо стыки текстур проявляются при каждой смене ее плотности. Никакой возможности повернуть текстуру на поверхности, или спроектировать ее на множество поверхностей. Нельзя заменить общие принципы, не говоря уже о треугольниках, такими примитивами.
Даже если отвлечься от теоретической стороны вопроса, у NV1 не было HSR (hidden surface removal - устранения скрытых поверхностей), края кривых не смыкались, не отсекались плоскости и не поддерживалась коррекция перспективы. Это было приспособление, а не инструмент.
1996
1996 год для nVidia можно считать “безрыбной” порой, в тот год корпорация работала на новым чипом, понимая, что NV1 сильно ударил по их репутации.
1997
И наконец в 1997 году nVidia представляет свой новый чип : NVIDIA RIVA 128 –первый высокопроизводительный 128- битный Direct3D процессор.
С выходом этого чипа nVidia стала стремительно продвигаться на рынке. Riva 128 действительно оказалась очень сильным продуктом. Газеты в то время говорили :
"Наши исследования показывают, что разработанная NVIDIA 128-битовая архитектура доминирует в категории высокопроизводительных графических акселераторов для РС, сегодня ей принадлежат 44 процента рынка, — заявил д-р Джон Педди, президент Jon Peddie Associates, ведущей маркетинговой компании, занимающейся исследованием рынка цифровых технологий. — По нашим данным, компания NVIDIA принадлежит к числу самых быстроразвивающихся, темп ее роста составил 65 процентов за год. Сегодня она поставила больше 128-битовых 3D-процессоров, чем вся остальная индустрия, вместе взятая".
1998
1998 год стал годом выпуска Riva TNT , ставшая логичным продолжением Riva 128 . На тот момент лишь производительность voodoo 2 не давала взойти ей на трон. И лишь выпуск Riva TNT 2 помог nVidia полностью укрепиться на рынке ,как лидер, в то время как 3dfx потерпел неудачу со своим voodoo3.
1999
1999год –год выпуска первой 256-разрядной видеокартой, что стало на тот момент самым большим прорывом за всю историю существования корпорации.
Итак. В то знаменитое время, когда была война между производителями чипов, всё становилось на ноги. 3Dfx её проигрывала и на nVidia смотрели как на королеву, которая никого не щадит. Возведение её на трон способствовала линейка чипов TNT и TNT 2. Нужен был продукт который бы навечно её оставил там. И он вышел, появившись в холодном 3 квартале 1999 года. Это стало действительно достижением. Все карты перед ним меркли и не годились в сравнение. Он открыл людям наслождение играть в разрешении 1024 х 768. Люди это оценили.
Сам чип работал на частоте 120 МГц., память работала на частоте 166 МГц (дальше частоты карт буду писать как 120/166). Появился он в массовой продаже по цене около 350 баксов. Производительность была выше всяких похвал. Quake 2 летал на всех разрешениях, а в Quake 3 можно было играть на 1024 х 768 в 32 битном цвете. Кадров давал в нем около 60. Скажете мало? С выпуском этой видеокарты выявилось такое явление как “процессорозависимость”, чем сильнее процессор, тем больше производительность. В то время Pentium II 450 был не у каждого. Разгон видеокарт приводил к радостным дивидендам. Гнались хорошо, до 150/210.
“Стандарт”. Для нормальной игры в большинство 3D шутеров, к которым относится и Quake 3, для разрешения 1024 на 768 и цвете 32 бита (дальше будет как "стандарт"), нужно в среднем 60 кадров в секунду. Это и является пределом играбельности. Этот стандарт и станет основополагающимся пределом. Мерь сюда. Средняя скорость 60 кадров это с запасом при том что нижний предел не будет опускаться меньше 25-30 кадров в сложных сценах. Для увожающего себя игрока это мало, нужен предел играбельности в 100 кадров на этом разрешении, минимум будет падать до 40.
На этом чипе впервые была опробована DDR память. Одинаковая по частоте с SDR памятью она могла пропускать в два раза больше данных через себя чем предшественница, т.е. Работающая на частоте 150 МГц. DDR память имела такую же пропускную способность, как SDR при частоте 300 МГц. Но такой сверх скоростной SDR не было, поэтому постановка DDR, вместо обычной памяти, была оправдана. Обозначается же DDR память несколькими способами. Есть такое обозначение 333 МГц. DDR, по идее это должно обозначать, что стоит 333 МегаГерцовая DDR память которая соответствует 666 МегаГерцовой памяти SDR, но иногда я и сам путаюсь. Потому-что 166 МГц DDR память уже увеличили и поставили число 333, но оставили DDR имея ввиду, что это уже увеличенная до значений SDR памяти DDR память. Вот так. Имейте это ввиду. Дальше я буду применять для DDR памяти второе обозначение.
И начинаем мы вот с чего. К концу 1999 года на рынок вышла видеокарта на чипе GeForce 256 с поддержкой DDR памяти. Её частоты 120/300. Производительность по отношению к SDR версии плат выросла примерно на 15-20% в особенности в больших разрешениях, в особенности при применении 32 битного цвета. В Quake 3 при 1024х768 давал 70-75 кадров в секунду. В разгон карты шли плохо. До 150/320.
2000-2001
Ровно через пол года после первого GF, в начале 2000, вышел GF 2, а точнее GF 2 GTS (GigaTixelShader – первый кто мог перемалывать более 1 миллиарда текселей в секунду). Эта видеокарта задумываласть для будущего дня. Который должен был наступить через 2 года, и вот он наступил. Обозначение GTS это архитектура которая упрощает построение фигур. Ничем особенным правда он от предшественника не отличался. Но была повышена его частота до 200/333, да производиться он от предшественника стал по 0.18 мкм., а не 0.22 мкм тех.процессу, из-за этого тепловыделение уменьшилось. Применялась только DDR память.
Производительность увеличилась на 25-30%. Но если посчитать по частотам то мы придем к выводу, что что-то здесь не так. GF 2 мы будем сравнивать с DDR версией GF I. Даю их частоты 120/300 и 200/333. Сразу видно, что видеокарты на его основе не сбалансированы. При увеличении частоты работы чипа на 66% память работает только на 11% быстрее. А ведь всем известно, что всё в видеокартах зависит от самого медленного элемента коим память и являлась здесь. Но как ни крути производительность всё равно выросла, 25-30% это тоже не мало.
А на счет трех букв. Так вот. Эта архитектура на нем работала очень криво, или вообще отказывалась работать. В будующем мы увидим, что её работа осуществлялась програмно, но не самим чипом. Самое же главное состоит здесь в том, что игры с её поддержкой появятся массово только в 2003 году!!! На данный момент, конец 2001 года, есть одна игра и один тест с поддержкой этой функции. А какого тогда черта покупать суппер дорогой ускоритель (500$ в момент его появления) главная фишка которого не поддерживается?!
Для игроманов он всё-таки остается чем-то символическим вплоть до наших дней. В Quake 3 при разрешении 1024 на 768 и 32 битном цвете он давал 90-95 кадров. В разгон шел плохо. 230/366 было. Разгон чипа, в большинстве своем ничего не давал, а память гналась плохо.
Всё-таки екнуло что-то у nVidia и посмотрев на свою ошибочку ( может и не на ошибку, а на целенаправленную стратегию) она в 3 квартале 2000 года выпустила на рынок два новых чипа: GF 2 MX и GF 2 PRO. Видеокарты на основе первой: нацелены на народ. Второй чип – это тот же GTS, но перемаркированный как GF 2 GTS PRO. nVidia решилась на перемаркировку из-за того, что в продажу начали поступать карты якобы с GF 2 PRO, но под намертво приклееным радиатором стояла маркировка GF 2 GTS.
По частотным же показателям GF 2 GTS PRO опережал GF 2 GTS. Они у карт на нем составляли 200/400. Как видно частота памяти была увеличена, что заменто высвободило мощь чипа. По отношению к предшественнику производительность сразу-же выросла на 25%. В Quake 3 при «стандрте» давал 110-120 кадров в секунду. Сейчас у карт на этом чипе есть все шансы стать “народными”.
Ну а теперь наш рассказ будет посвящен самой удачной “народной видеокарте” на чипе GF 2 MX. Что-же за зверь такой этот МХ? В общем-то ничего такого особенного. nVidia проделывала это много раз во времена карт на TNT и TNT 2, то шину доступа к памяти урежет, то частоты занизит, то количество памяти уменьшит раза в 4. Ну и что же мы видим. Рассуждаем и ворочаем мозгами. Даю рецепт приготовления. Уменьшим частоту с номинальных 200 до 175. Вместо 4 конвееров рендеринга оставим только два, а точнее “кастрируем”. Снабдим не хваленой DDR памятью, а SDR памятью. Нет а почему только SDR, давайте добавим всё-таки DDR, но не 128 битную, а 64 битную. Ну а для того чтобы брали вставим чего-нибудь такого, чего нет в обычном GF 2 GTS, а точнее поддержку двух мониторного режима. Вот вам без лишних хлопот и новая карта вырисовывается.
Всё. Чип приготовили. И так. Вот перед нами чип GF 2MX. Но самое удивительное он оказался удачным. Он был ориентирован на средний, а потом и на нижний диапазон пользователей. Стандартные частоты nVidia дала для производителей карт как 175/166. Карта давала в Quake 3 на «стандарте» - 60 кадров в секунду. Что для пользователя, у которого был 17 дюймовый монитор который работал в самом распостраненном для них разрешении 1024 на 768, было самым наилучшим выбором. Да и цена в момент появления была 140-150 долларов. Это был действительно наилучший выбор для среднего пользователя.
В начале 2001 года ряд карт на GF 2 MX был расширен. Появились карты на МХ 100, МХ 200 и МХ 400.
Первая – это самый зарезаный МХ, у него занижены частоты до 143/166, но самое главное , шина памяти уменьшена до 32 бит (жуть). Производительность неизвестна, из-за того, что была на нем выпущена только одна карта, которая является сейчас раритетом.
Вторая - это кастрированный GeForce 2 MX, но не такой зарезанный, шина памяти уменшена до 64 бит, производительность на 50 % ниже, частоты 175/166.
Третья - обычный чип, но чуть разогнанный до 200/183, производительность на 10 % лучше.
Но самое главное все чипы на GF 2 MX созданы для разгона. С обычных частот видеокарты с GF 2 MX 175/166, ты можешь получить от неё 210/210 и получить прибавку ещё до 25 %. Максимумальный разгон добытый мной в сети был равен частотам работы карты - 250/260 и был достигнут на карте CardeXPERT MX 400.
А на самом деле, чтобы дать изюминку в своей продукции, фирмы делавшие на этом чипе карты завышали их частоты (или занижали их). Можно заметить карты на МХ 400 с частотами 200/166, а можно и на 200/200, и даже 240/240.
Эволюция продолжилась. GTS и PRO были по частоте 200 Мгц. И тут nVidia решила выпустить самую лучшую и производительная карту из семейства Двоек - GF 2 Ultra. По производительности эта карта оставила всех предшественниц за бортом. 60 кадров в секунду давала в 1600 на 1200, а в «стандарте» 150 кадров (Проха давала 110 -120 кадров). Но она стала самой большой неудачей. Она работала на частотах 250/460, выпуск годных чипов, работающих на такой частоте, или чуть больше, был 5-8%. Но самое главное, что появившись на прилавках за 600 баксов их никто не брал. Только самые искушенные и тестеры. Цена её и осталась такой-же высокой, упав до 350 долларов, но и тогда её тоже никто не брал. Потому-что скоро должен был выйти новый Суппер чип GF 3, который появился только за 380 чубаксов и превосходивший Ультру на 10-50%!
Значит так. Вышел этот мастодонт и все замерли. По производительности в 32 битном цвете он не имел себе равных на протяжении 6 месяцев. Он оказался такой мощный, что для его силы не было игр готовых её применить. Только осенью у него появился противник от ATI, а также начали выходить игры специально для него.
А теперь о производительности. У всех предыдущих чипов от nVidia есть одна очень большая проблема. Их скорость сильно зависила от пропускной возможности памяти. Во время начала властвования GF 2 (нет всё-таки чуть раньше, во время появления первых GeForce-ов за год до этого) все играли при 16-битном цвете. И вот случилось, они вышли и их начали покупать. Но сущъность человека состоит в том, что ему всего мало. Мало 16-битного цвета, надо 32. Так вот. На этих картах можно было играть в разрешении 1280 на 1024 при 16 битном цвете, но никто этого не хотел, а играли в 800 на 600, но в 32 битном. А почему не в 1024 на 768 ? Да потому-что при переходе в 32-битный цвет производительность падала на 45-50 процентов. И это никого не радовало.
И все брали, и все ругали, даже я.
А вот сейчас небольшое отступление. У ATI представившей тогда свою карту на своем чипсете RadeOn, этой проблемы не было. В 16 б. цвете видеокарты от неё проигрывали GF процентов 30-40 во всех разрешениях везде, а вот в 32 б. цвете они сравнивались с ним и вигрывали начиная с 1024 на 768 уже 5 -10%. Всё из-за памяти. АТI-вские чипы не так были привязаны к пропускной способности памяти Да еще и разгружали её систему при задействовании специальной системы HyperZ. В отличии от карт nVidia.
Это продолжалось до появления этого самого аборигена. ВПЕРВЫЕ за всю историю nVidia смогла сделать чип который не делал такого большого падения производительности при переходе от 16 к 32 битному цвету. Это был первый акселератор 32 битного цвета. 95 кадров можно было получить в 1600 на 1200 при 32 б. цвете. При разгоне со штатных 200/460 до 240/540 тянул на 110 кадров. В 16 б. при стандартной частоте было 105 кадров. Производительность падает незначительно, на 5-10% при переходе от 16 к 32 битам. Сейчас такой комбайн стоит 300-350 в России и 400 в Эстонии. Производительности хватило бы на всех, даже самых требовательных игроков.
Но в начале все испугались из-за того, что Третий проигрывал Второй Ультре в 16 б. цвете 10-15%. Из-за этого все начали орать что nVidiа сделала Трехе "Мать Убийцу" своего нового чада. Но вышли новые драйвера которые занизили производительность! плат на Ультре (примерно во всех разрешениях на 10-15 % в 16 битном цвете, по отношению к прежним показателям), но этого никто в слух не говорил. Дорога к успеху была проложена.
Вот уже три года nVidia выпускает новые карты ровно в срок. Новая карта в 1 квартале, улучшенная в 3 квартале и так пока продолжается. Всем был хорош GeForce 3, но вдруг очнулась после долгой спячки Канадская компания ATI и выпустила линейку карт на своём Radeon-е. 7000-ки для безденежных и 8000-ка для продвинутых. В первой группе 6 карт, во второй 1. Две из них 7500 и 8500 могли составить серьезную конкуренцию: первая – GF 2, вторая – GF 3.
И тут наш герой встрепенулся. И дал залпом сразу три карты - линейку под названием Titanium-ы. В составе GF 2 Ti, GF 3 TI200 и GF 3 TI500. Что
они из себя представляют:
Первая - чип от GF 2 Ultra, а память от GF 2 GTS PRO - 250/400.
Вторая - заниженный по частотам GF 3 - 175/400.
Третий - разогнанный GF 3 - 240/500.
2001-2002
Конец 2001 года, начало 2002, стало рассветом новой линейки видеокарт от nVidia. GeForce Ti 4 показывал небывалую по меркам того времени производительность. Была представлено несколько модификаций, различия основывались на частотах и кол-ве памяти. Младшая моделька – Ti4200 ,представляла собой решение для среднего сегмента рынка, Ti 4400- высшая ступень этого же сегмента, Ti 4600 же представлял высокопроизводительные решение бизнес- класса.
Далее последовала линейка FX –которая стала одной из самых неудачных вех в истории nVidia . Первым был выпущен чип NV30:
Компания сделала около семи pевизий чипа NV30 (возможно, их было «всего» четыpе, а еще тpи так и не были выпущены), каждый pаз выплачивая своему чипмейкеpу (TSMC) поpядка $1 млн. за сам пpоцесс, а также около $20 млн. - за увеличение темпа pабот. Лишь на четвеpтый или пятый pаз из пластин были получены пеpвые годные чипы. Состояние пеpсонала самой компании, как Вы понимаете, было близко к паническому. Пеpвые видеокаpты GeForce FX 5800 создавались на основе тех немногих годных чипов, котоpые все-таки удавалось получить из обpаботанных пластин. Для пpимеpа, на пеpвых поpах из 126-127 чипов, умещающихся на пластине, pабочими оказывались всего 7-10 штук, что поднимало цену каждого пpоцессоpа NV30 с $10-20 до $60. В свете чpезмеpного и ничем не подкpепленного оптимизма маpкетингового и PR-отдела (именно под давлением котоpых, отчасти, и были подняты pабочие частоты, ставшие пpичиной использования печально знаменитой системы Flow FX), выставлявших новинку как «убийцу» для пpодукции конкуpентов, последовавший за этим пpовал GeForce FX 5800 нанес NVIDIA очевидные имиджевые потеpи.
Hе менее удивительно выглядит ситуация и с последними новинками компании в лице NV36 и NV38. Дело в том, что выпуск пеpвого из этих двух чипов был намечен на втоpую половину сентябpя, тогда как NV38 должен был выйти еще в конце августа. Однако, несмотpя на pазницу в pеальных сpоках появления чипов, их анонс был пpоведен не только одновpеменно, но еще и с наpушением всех pанее пpогнозиpовавшихся сpоков .Для того, чтобы понять, почему это пpоизошло, необходимо сделать небольшое отступление. Как мы знаем, согласно новому пpавилу ATI, анонс любого пpодукта должен быть пpоведен не pаньше 30 дней до момента его появления на pынке. Hегласный же закон NVIDIA тpебует, чтобы было выпущено как минимум 10 тыс. единиц пpодукции, пpежде чем она будет объявлена официально.
2003-2004
Весь 2003 год ушел на доработку драйверов под серию FX ,но кроме этого nVidia всё это время усиленно работала над новым чипом…
Что собственно сама nVidia говорила тогда о нём, мы может понять из уст Дана Виволи:
Дан Виволи (Dan Vivoli) является исполнительным вице-президентом nVidia по маркетингу. С октября 1988 до декабря 1997 он работал в должности вице-президента по маркетингу в компании Silicon Graphics, Inc., а затем в 1997 вступил в нынешнюю должность у nVidia. С 1983 до 1988 года Виволи занимался маркетингом в компании Hewlett-Packard.
Недавно nVidia анонсировала чип следующего поколения - GeForce 6800. И вновь компании пришлось конкурировать с ATi, которая через неделю анонсировала линейку X800. У нас появилась возможность взять интервью у Дана Виволи по поводу новой линейки продуктов, конкуренции, будущих тенденций и технологий.
Tom's Hardware Guide (THG). Люди, которые покупают графические карты, часто сомневаются, приобретать продукцию nVidia или вашего конкурента. Приходится ли вам работать над тем, чтобы сильнее дифференцировать nVidia от ATi, и как вы планируете вообще к этому подходить?
Дан Виволи (DV). Создать продукт, превосходящий конкурентов! ;-)
Если же говорить серьёзно, то мы тратим немало усилий на создание новой архитектуры, что отразилось на NV40 (уже шестое семейство карт). Это очень тонкий процесс, охватывающий всю компанию: архитекторов, инженеров, специалистов по маркетингу и, что более важно, группу поддержки разработчиков. С выходом шестой серии видны плоды нашего труда. Никогда до этого у нас не было архитектуры, столь сильно засветившейся в сообществе разработчиков. Каждая функция Shader Model 3.0 создавалась именно по их просьбам. Кроме того, мы добавили фильтрацию с плавающей запятой и смешение (blending) в кадровом буфере только из-за просьб разработчиков. А потребители просто получают максимально возможное качество на самом производительном GPU.
К тому же, один из самых важных наших секретов - это процессор видео. Он использует впечатляющую и удивительную технологию, которая даёт потребителем средство работы с видео непревзойдённого качества. Так что вскоре вы можете ожидать от нас появления новых продуктов в области видео.
THG. Представители nVidia упоминали, что ваша компания работает над увеличением своей рыночной доли настольных графических чипов. Есть ли у вас шансы на успех?
DV. Конечно. Мы уверенно занимаем 60% рынка настольных GPU. Но есть ещё 40%, которые нам тоже не помешают!
Как мы считаем, нам нужно проводить образовательную работу с остальной частью рынка. Сегодня 50% продаваемой графики - это интегрированные решения. Однако большинство потребителей не понимают, что интегрированное решение является компромиссом, и на самом деле, это не настоящий GPU. Пользователи не только получают медленные игры, часто с визуальными дефектами и нестабильной работой, но и испытывают определённые неудобства при работе с 2D-приложениями типа графических редакторов. Как я считаю, каждому пользователю необходим второй процессор в ПК - графический. Возьмите более медленный CPU, докупите карту с нормальным GPU - и вы получите лучшую машину.
THG. Чип nVidia 6800 впечатлил индустрию и прессу. Были ли вы сами удивлены столь большим ростом производительности?
DV. Нет! Мы с самого начала планировали осуществить самый большой прорыв за всю историю nVidia. Да и поддержка SM 3.0 действительно многое значит. Но ещё не всё! Мы готовим широкую линейку карт на основе 6800. Так что потребитель с любым достатком сможет насладиться шестой линейкой наших карт и SM 3.0.
Если вам понравилась 6800, вам понравится и SLI. Технология Voodoo SLI была впечатляющей. SLI у шестой линейки GeForce представляет собой полностью новый подход, обладающий лучшим качеством и эффективностью.
THG. Чипы nVidia 6800 и ATi X800 демонстрируют значимые продвижения по производительности. Если посмотреть в обозримое будущее, ждёт ли нас ещё одна подобная революция?
DV. Мы не планируем замедляться. Впереди нас ждёт много работы. Я помню времена, когда мы выпускали GeForce2. Это была настолько быстрая и функциональная карта, что трудно было представить что-то лучшее. Затем появилась GeForce3 - и процесс пошёл... Сегодня GeForce3 уже мало кого интересует. А через 2-3 года в небытие уйдёт и 6800!
THG. Где nVidia видит возможности для инноваций?
DV. Мы только начали затрагивать программируемость. На то, чтобы достичь кинематографического качества в реальном времени, уйдёт ещё несколько поколений. Да и мы всё больше вкладываемся в наш процессор видео - и вы это ощутите.
THG. Какие продукты в вашей линейке имеют лучшие шансы на успех?
DV. Мне очень нравятся наши планы развития мобильных решений. Мы планируем немало достижений по соотношению производительность/энергопотребление. Шестая линейка обладает десятикратным преимуществом по этому параметру в сравнении с предыдущим поколением! К тому же, не забывайте о процессоре видео, который уже заинтересовал производителей ноутбуков. Я жду очень многого от шестой линейки чипов для ноутбуков.
К тому же, мы только начали проникать в область карманных ПК. Развитие линейки GoForce просто впечатляет. Следите за новостями...
nVidia вышла на рынок карманных ПК с GeForce.
THG. Рынок интегрированной графики теперь всё больше и больше завоёвывает Intel - сегодня доля этой компании, по данным Mercury Research, уже достигла 60 процентов. Как вы планируете зарабатывать деньги на этом рынке, ведь здесь очень низкая прибыль, и, в принципе, конкуренция привела даже к демпингу?
DV. На самом деле, чтобы получить реальное представление о рыночной доле, необходимо учесть и "двойное наличие". В зависимости от квартала, до 1/5 части продаваемой интегрированной графики просто не используется (то есть в системе присутствует нормальный GPU). Поэтому интегрированная графика, на самом деле, занимает, примерно, половину рынка. Как мы полагаем, этот процент не изменится в обозримом будущем.
И хотя этот процент сегодня намного выше, чем 4 или 5 лет тому назад, конкурентов на рынке интегрированной графики стало намного меньше. Сегодня рынок выглядит уже не так пёстро, как раньше. Вспомните: VIA, SiS, 3dfx, Matrox, Intel, Rendition, S3, Chromatic... все эти компании предлагали свои GPU.
THG. Что вы думаете о HDTV?
DV. HDTV для нас является значимой вехой. Да и для потребителей эта технология немаловажна. И, конечно, HDTV требует больше графической мощности - а мы это любим.
Флагманской моделью линейки NV4x является чип NV40, увидевший свет в апреле 2004 года. Он производится по хорошо отработанному, но стремительно устаревающему 130-нм техпроцессу на заводах IBM, его 222 миллиона транзисторов потребляют до 120 Ватт энергии, поэтому "силовых" возможностей штатного интерфейса AGP 8x уже катастрофически не хватает и на видеокартах, изготовленных на базе NV40, обычно устанавливают по два (!) дополнительных разъема питания. Да и система охлаждения всей этой "печки" должна быть не самой слабой. Наряду с NV40, выпускается и его PCI Express-модификация NV45, все отличие которой от базовой модели, заключается в интегрированном в корпус чипа AGP-PCI-E мосте HSI. В производственной линейке NVIDIA встречается еще и чип NV48, который отличается от базового NV40 только тем, что выпускается на фабриках TSMC. Таким образом, NVIDIA целиком и полностью отказалась от услуг IBM в области изготовления чипов, и вернулась к своему старому и, видимо, более приемлемому, чем IBM, технологическому партнеру.
256 битный четырехканальный (организация 64х4) интерфейс памяти NV40 обеспечивает подключение до 1 Гбайта памяти любого типа - как обычной DDR1/DDR2, так и специально разработанной для использования в видеоустройствах GDDR3. Что касается архитектурных особенностей NV40, то стоит отметить, что он стал первым графическим процессором, возможности которого полностью соответствуют требованиям DirectX 9.0с, иными словами, его вычислительные возможности позволяют выполнять шейдеры версии SM (Shader Model) 3.0. Высокую производительность обеспечивают 6 вершинных и 16 пиксельных конвейеров (каждый из которых, в свою очередь, оборудован двумя шейдерными блоками и одним блоком текстурирования). Одновременно могут работать либо два шейдерных блока, либо текстурный и один из шейдерных блоков. Таким образом, NV40 позволяет выполнить за такт до 16 текстурных операций или 32 операций с глубиной и буфером шаблонов, обеспечивая анизотропную фильтрацию с соотношением сторон до 16:1 включительно.
На базе ядра NV40/NV45/NV48 выпускаются видеокарты: GeForce 6800 Ultra, GeForce 6800 GT, GeForce 6800 и GeForce 6800 LE. Типовые значения частоты ядра/шины памяти GeForce 6800 Ultra составляют 400 МГц/1,1 ГГц, у модификации GeForce 6800 GT они снижены до 350 МГц/1 ГГц, у GeForce 6800 - до 325 МГц/700 МГц, а у GeForce 6800 LE частотные параметры не оговорены вообще - все отдано на усмотрение производителей видеокарт. При этом у последних двух еще и уменьшено до 12 количество пиксельных конвейеров. Причем, в отличие от общепринятой практики, когда "урезание" осуществляется путем программного отключения некоторого числа процессоров (что дает возможность народным "умельцам" путем нехитрой операции подключить неиспользуемые блоки, получив, таким образом, полнофункциональную GeForce 6800 за небольшие деньги), в данном случае компания NVIDIA выпустила специальное "усеченное" ядро NV41. В нем имеется всего лишь 12 "физических" пиксельных процессоров, тогда как все остальное полностью соответствует базовому NV45. Ядро NV42 является 110-нм версией NV41. Кстати, именно оно лежит в основе самой последней новинки NVIDIA - GeForce 6800 GS (частота чипа - 425 МГц, памяти - 1000 МГц), призванной составить конкуренцию ATI Radeon X1600 XT.
Для видеокарт среднего уровня, компания NVIDIA в августе 2004 года выпустила графическое ядро NV43, являющееся, впрочем, несколько упрощенным (путем уменьшения числа вершинных и пиксельных процессоров и каналов контроллера памяти) решением, основанным на архитектуре NV40. Однако NV43 выполнен по 0,11-мкм технологии TSMC (количество транзисторов в ядре составляет 146 млн.), и, кроме того, он стал первым графическим ядром NVIDIA с встроенным контроллером PCI Express (возможна трансляция интерфейса PCI-E в APG 8х с помощью двустороннего PCI-E-AGP моста HSI). Благодаря более "тонкому" технологическому процессу и меньшему количеству исполнительных устройств в ядре, тепловыделение NV43 не превышает 70 Вт, то есть на PCI-Express карте разъем для дополнительного питания не нужен.
Набор вычислительных ресурсов NV43 ровно вдвое меньше, чем у старшей модели NV40 - он оснащен восемью пиксельными конвейерами и тремя вершинными, а ширина шины памяти уменьшена с 256 до 128 бит.
В настоящее время представлено две Mainstream-модификации видеокарт, базирующихся на графическом процессоре NV43 - GeForce 6600 и GeForce 6600 GT, а также одна класса Low-End - GeForce 6200 (впрочем, с недавних пор она переименована в GeForce 6600 LE). Частоты ядра и шины памяти GeForce 6600 составляют 300 и 550 (иногда - 500) МГц, а у модификации GT - 500 и 1000 МГц соответственно. В GeForce 6200/6600 LE используется "усеченное" ядро NV43V с четырьмя (вместо пиксельными конвейерами, а его частотный диапазон соответствует GeForce 6600.
Благодаря достаточно высокой тактовой частоты чипа, несмотря на всего лишь 8 пиксельных конвейеров рендеринга, NV43 обеспечивает филлрейт даже больший, нежели 12 конвейерный GeForce 6800. Однако реально достичь уровня производительности своего "старшего товарища" GeForce 6600 GT не дано - сказывается и использование 128-битной шины памяти и уменьшение до 3 числа вершинных процессоров, хотя все это и позволило заметно удешевить 6600-ю серию. Поэтому совсем неудивительно, что видеокарты на чипах GeForce 6600 GT и, особенно, GeForce 6600, сегодня демонстрируют наилучшее соотношение "цена/производительность".
В младшей модели семейства графических процессоров NVIDIA GeForce 6x00 - GeForce 6200ТС используется преимущественно ядро NV44, изготовленное по 0,11-мкм проектным нормам. Как и в случае NV43, PCI Express у него нативный (то есть реализованный на чипе), а AGP 8х вариант чипа обозначается как NV44А. NV44 имеет 3 вершинных процессора, как у NV43, и 4 пиксельных, какие-либо глобальные архитектурные отличия от NV40 и NV43 отсутствуют.
Главным ограничителем производительности у NV44, является подсистема памяти - ширина шины ограничена 64-битами. Индекс TC обозначает поддержку технологии TurboCache, призванная задействовать часть системной памяти при рендеринге буфера кадра, благо, пропускной способности шины PCI-E x16 для этого хватает. Конечно, такие видеокарты заметно проигрывают по уровню производительности своим полноценным собратьям, зато немного выигрывает у них по стоимости. А для бюджетных решений, каждый сэкономленный доллар может оказаться решающим в деле продвижения на рынок решений той или иной конкурирующих фирм. Тем не менее, для того, кто захочет немного сэкономить, приобретя такую видеокарту, такой выигрыш окажется иллюзорным. Ведь системная память, в особенности DDR2, от которой "оттяпывает" свою часть видеосистема, отнюдь не безразмерна и далеко не бесплатна.
2005
Середина лета 2005 года стала новой вехой в истории компании NVIDIA - был выпущен графический процессор нового поколения G70. Но, несмотря новое кодовое название чипа, его архитектуру нельзя считать принципиально новой - он является очередным этапом эволюции хорошо знакомой всем нам архитектуры семейства NV4x (о чем свидетельствует первоначальное кодовое обозначение чипа - NV47).
Плюс к этому, NVIDIA не стала рисковать и выпустила его по хорошо отработанному 110-нм техпроцессу TSMC, поэтому нет ничего удивительного в том, что видеокарты семейства GF7800GTX стали доступны в массовых количествах сразу после анонса.
Основным новшеством G70, базирующемся на все том же наборе шейдеров Shader Model 3.0 (SM 3.0), стало увеличение до 24 (или, по терминологии NVIDIA, до 6 процессоров квадов) числа слегка улучшенных, по сравнению с NV4x, пиксельных процессоров, а вершинных - до 8, объем адресуемой памяти типа GDDR3 может достигать 1 Гбайт. Кроме того, была осуществлена оптимизация питания и энергопотребления, благодаря чему типовое потребление видеокарты GeForce 7800 GTX не превышает 110 Ватт, то есть осталось на уровне GeForce 6800 Ultra, несмотря на 30% увеличение числа транзисторов. В G70 появилась аппаратная поддержка ряда потенциальных "хитов" ближайшего будущего: воспроизведение видео в формате HDTV, а также поддержка важных специальных возможностей графической драйверной модели Windows Vista. Кроме High-End видеокарты GeForce 7800 GTX (430/1200 МГц), процессор G70 устанавливается и в его чуть более скромном собрате - GeForce 7800 GT, отличающимся от GTX не только пониженными (до 400/1000 МГц) частотами, но и урезанным числом конвейеров (20 пиксельных и 7 вершинных) рендеринга, что обеспечивает ему место (по показателям производительности) где-то посередине между GeForce 7800 GTX и GeForce 6800 Ultra.
2006
9 марта 2006 года миру был представлен новый флагманский чип от NVIDIA, носящий кодовое название G71. Данный чип был представлен двумя картами: GeForce 7900GTX - флагманская карта, которая должна была возглавить иерархию карт калифорнийской корпорации, и GeForce 7900GT,имеющий урезанные частоты относительно старшей модификации.
Собственно их частоты: 650/1600 для 7900GTX и 450/1300 для 7900GT. Конечно, это относится именно к референс-картам, и в серийных картах в зависимости от производителя частоты могут меняться.
Говоря о архитектуре чипа G71, очевидно, что это та же самая архитектура, что была реализована в G70, просто переведенная на технологию 90нм и с минорными изменениями. Стоит сказать, что к примеру в G71 транзисторов стало меньше относительно G70, но на скорости это не как не сказалось.
В новом G71 блоков стало судя по всему под завязку - то ли выход годных на 90нм производстве так хорош, толи NVIDIA может позволить себе больше брака (т.к. себестоимость чипа упала из за существенно меньше площади). Еще один вариант ответа на этот вопрос - значительная оптимизация - тоже вероятен, но менее, т.к. сократить число транзисторов на 25 миллионов, без какой-либо потери в скорости при совершенно такой же архитектуре сложно. Но, может быть и возможно, не будем отвергать такую версию сразу. Итак, косвенные причины показывают на высокий выход годных и отсутствие проблем с производством, а также на заметно меньшую себестоимость нового чипа по сравнению с G70. Таким образом становится и понятен его кодовый номер - G71 - чип и правда проще по транзисторам, хотя в итоге и быстрее благодаря более высокой частоте - такой вот парадокс.
Итак, с точки зрения архитектуры, в наличии все те же возможности и все тоже число активных блоков. Т.е. все определит тактовая частота, которая заметно выше, и цена, которая, благодаря более тонкой технологии и меньшему числу транзисторов может потенциально опуститься заметно ниже, чем в случае с G70.
Говоря, собственно, о производительности G71, то стоит сказать, что в данном случае она примерно равна чипу от ATI R580. При чем данный паритет может колебаться в зависимости от используемого приложения, и его ориентировки. Например, сложные ветвистые шейдеры на R580 выполнялись быстрее. А приложения, которые требовали выборки текстур из "вершинников" позволяли G71 выйти вперед, засчет невозможности выполнения этого процесса на R580.
Что же, на данном этапе война между ATI и NVIDIA разгорелась с новой силой, и все должна была решить цена. А она имеет, как мы знаем, любит в зависимости от региона существенно меняться. Так что баталии этих двух графических гигантов временами перечеркивались работой спекулянтов той или иной местности. Но одно было ясно, чип у NVIDIA получился очень добротный. При очень неплохом уровне проивзодительности, он имел совсем небольшой уровень тепловыделения и энергопотребления, чего было нельзя сказать о R580. Так что при покупке карточки на чипе G71, мы могли быть уверены, что получите "холодную", "тихую" и производительную карту. А чего еще надо для обычного пользователя? Впрочем, любителей разгона NVIDIA тоже не обделила,т.к. GeForce 7900GT на базе чипа G71,должен был показывать отменный разгон.
Говоря о новинках, выпущенных на тот момент NVIDIA, стоит сказать, что калифорнийскими кудесниками был выпущен также чип для среднего ценового сегмента. Кодовое имя чипа - G73.
Было очевидно, что G73 это практически ровная (если не считать 5 вершинных блоков вместо 4) половина G71. Как с точки зрения контроллера памяти, так и пиксельной части. Однако и тут необходимо оговорить некоторую поправку, физически у G73 присутствует 16 пиксельных процессоров а не 12 (т.е. в наличии 4 квада), один квад оставлен для борьбы за выход годных чипов или (чем не шутит рынок) для выпуска решения с 16 пиксельными блоками, способного отреагировать на новую конкуренцию в нише. Сравнивая на тот момент, чипы G73 и NV43(чип на базе которого выпускались до этого GeForce 6600/6600GT, именно на замену этого чипа был выпущен G73),стоит омтетить,что чип меньше по площади, чем NV43 - но почти в два раза производительнее.
Видеокарты, которые должны были базироваться на G73 и должны были носить названия GeForce 7600/GT/GS.
Но кроме всего прочего, nVidia побеспокоилась и о AGP -секторе, и вскоре мы смогли любоваться картой 7800GS. Говоря о ней, стоит сказать, что она представляла собой чип G70 с урезанными конвейрами,в данном случае число пиксельных конвейров было уменьшено до 16, а вершинных до 6. Частота GPU также была занижена до 375 мгц, частота памяти составляла 1200мгц. Все характеристики карты говорили о заведомо отличном разгоне.
На тот момент GeForce 7800GS без особого труда смог стать королем AGP рынка видеокарт, прежде всего засчет достаточно высокого уровня производительности и отличного разгонного потенциала.
Также NVIDIA на том этапе выпустила карту и для LOW- сектора. Имя этому герою - GeForce 7300GS. Карта обладает 4-мя пиксельными и 3-мя вершинными конвейрами. Имеет частоту GPU равную 550мгц, конечно, это значение может меняться в завимости от экземпляра и производителя. Частота памяти 700 мгц, и набрана она чипами DDR2 , с 64-битной шиной памяти, что является достаточно серьезной преградой нормальной производительности. Но все же 7300GS демонстрировала неплохую производительность для своего сектора( LOW), и была явно быстрее предыдущих карт для данного сегмента рынка от NVIDIA(GeForce 6200).

На этом пока все. Ждем новых изменений и новинок.

Обновление статьи происходит постоянно, по мере хода истории NVIDIA.

По вопросам и пожеланиям писать на laudon@list.ru
Харьков Артем aka Brand ( Лидер клана nVidia OverGuru)
Оценитe материал

Возможно вас заинтересует

Популярные новости

Сейчас обсуждают