Галерея мульти-GPU видеоадаптеров. Часть 2

для раздела Блоги


                   

Как обычно немного истории: Дженcен Хуанг, Кертис Прэм и Крис Малачовски основали компанию NVIDIA в апреле 1993 года в штате Калифорния, США. Первый графический чип увидел свет в 1995 году. Назывался он NV1 и производился компанией SGS-THOMSON Microelectronics под именем STG-2000, а видеокарты были известны в основном под маркой Diamond Edge 3D. NV1 был первым доступным 3D-ускорителем для IBM PC-совместимых машин, все остальные конкурирующие ускорители появились на рынке с отставанием в полгода. Во многом STG-2000 была принципиально новым продуктом: на печатной плате одновременно размещались 2D-карта и 3D-ускоритель, звуковая карта и специальный порт для игровых контроллеров Sega Saturn. Подключалась видеокарта посредством интерфейса PCI, а объем встроенной памяти стандарта EDO равнялся 2 Мб, однако на некоторых моделях его можно было расширить до 4 Мб после установки дополнительной платы расширения. Но были у видеокарты и серьёзные проблемы: качество 2D графики было весьма посредственным и она не могла соперничать с более дешёвой и популярной продукцией той же S3. Наличие же встроенного звукового чипа, пусть и обладавшего рядом интересных особенностей, в эпоху тотального преобладания проверенных и недорогих решений конкурентов тоже не давало решающего преимущества. Отдельно стоить поговорить о 3D составляющей NV1: видеопроцессор использовал необычное квадратичное наложение текстур (quadratic texture mapping, QTM) вместо принятой сегодня технологии на основе полигонов, и интерес рынка к продукту окончательно угас, когда Microsoft объявила о спецификациях DirectX, так некстати для NVIDIA основанном на традиционном полигональном рендеринге. Попытка исследовательской группы NVIDIA портировать квадратичную технологию на API Microsoft провалилась, также как провалилась и попытка добавить ограниченную поддержку Direct3D, ввиду её медлительности, вызванной использованием программной обработки. DirectX API был "фундаментально" несовместим с NV1 и означал неизбежную смерть видеокарты как продукта для массового рынка. Масла в огонь подлил и провал Sega Saturn в сравнении с Sony Playstation, так что уникальная совместимость с его контроллерами тоже не смогла сыграть на руку NVIDIA. Дальнейшие работы по NV1 были спешно свёрнуты, а разработка следующего поколения видеочипов NV2, которые должны были стать частью новой консоли Sega Dreamcast - остановлена. NVIDIA была вынуждена полностью отказаться от QTM в пользу полигонального рендеринга в своих будущих продуктах.        


реклама


В 1997 году NVIDIA выпустила видеочип NV3, который более известен как Riva 128, кстати, само название Riva - акроним от Real-time Interactive Video and Animation accelerator. В этот раз компания решила не наступать на те же грабли и изначально обеспечила новой видеокарте максимальную совместимость с Direct3D, а позже и с OpenGL. Графический процессор изготавливался с применением 350-нм тех. процесса и содержал 3,5 миллиона транзисторов. Видеокарта использовала память типа SGRAM, объем которой составлял 4 Мбайт, а частота — 100 МГц. Ширина шины памяти составляла 128 бит. В отличие от видеокарты Voodoo Graphics, Riva 128 работала как через интерфейс PCI, так и через новейший на то время AGP. В 3D приложениях видеокарта была несколько медленнее, чем её основной конкурент, однако при этом она сочетала в себе одновременно 2D и 3D графические чипы, что положительно сказывалось на общей стоимости видеосистемы. Еще одним конкурентным преимуществом была поддержка более высоких разрешений, NV3 позволял выводить 3D изображение в разрешениях вплоть до 800x600 и 960x720, в то время, как Voodoo Graphics ограничивалась лишь 640х480. Всё это обеспечило видеокарте популярность среди OEM производителей. Однако были у Riva 128 и недостатки. Изначально видеокарта использовала наиболее выгодное с точки зрения количества вычислений по-полигонное MIP текстурирование, вместо более качественного по-пиксельного. Как результат - резкая и неожиданная смена качества прорисовки на объектах, в те моменты времени, когда происходила замена LOD на текстуре, будь то перемещение самой точки наблюдения или перемещение полигона, относительно точки наблюдения. Недоработку исправили выпуском обновленной версии драйверов, в которых NVIDIA отдельно добавила поддержку режима по-пиксельного MIP текстурирования. Были недостатки и в работе билинейной фильтрации, которая сама по себе хоть и обеспечивала большую, чем у Voodoo Graphics, резкость картинки, но при этом добавляла текстурам незначительные графические артефакты, попутно проявляя едва различимые швы между соседними полигонами. Нельзя не отметить и отсутствовавшую изначально поддержку OpenGL и движка Unreal Engine в Direct3D режиме. И если первую проблему решили выпуском обновленной версии Riva 128 ZX с увеличенным до 8 Мб объемом видеопамяти, то из-за второй всё равно приходилось мириться с низкой производительностью, так как Direct3D по прежнему не работал, а производительность в OpenGL оставляла желать лучшего.  


                   NVIDIA Riva 128 

На выход Voodoo² в 1998 году NVIDIA подготовила достойный ответ в лице Riva TNT. Новый чип, имевший кодовое название NV4, был изготовлен по старому 350-нм технологическому процессу и содержал 7 миллионов транзисторов. В сравнении с Riva 128 был добавлен второй пиксельный процессор, что практически удвоило скорость рендеринга, к тому же использовалась более быстрая память, а на смену DirectX 5.0 пришел DirectX версии 6.0. Видеокарта по прежнему поддерживала одновременно 2D и 3D графику и могла похвастать 128 битной шиной памяти, суммарный объем видеопамяти стандарта SDRAM равнялся 16 Мбайт, а её частота возросла до 110 МГц. Особенностью видеокарты была поддержка 32-битного цвета и текстур с разрешением вплоть до 1024x1024 пикселей, хотя при активации 32-битного цвета, разрекламированного самой NVIDIA, производительность падала на 20-40% в зависимости от разрешения. У несколько запоздавшей ATI Rage 128 при этом подобной проблемы не наблюдалось. Также NV4 обзавелся поддержкой фирменной технологии Twin-Texel, которая позволяла накладывать две текстуры на один пиксель за такт в режиме мультитекстурирования, благодаря ей скорость заполнения выросла примерно на 40%, а применение именно этой технологии отражено в названии Riva TNT. Изначально видеокарта была нацелена на то, чтобы превзойти Voodoo² по скорости, однако из-за большого нагрева тестовых образцов пришлось снижать частоту графического процессора с планировавшихся 110 МГц до 90 МГц, которых оказалось недостаточно для успешного противостояния с 3dfx. К тому же на тот момент множество игр выпускалось исключительно с поддержкой Glide API, в котором владельцы карт NVIDIA не обладали никакими преимуществами, а сами Voodoo² поддерживали режим SLI, активация которого поднимала планку производительности до недостижимого уровня. Немногим позже для Riva TNT был выпущен новый видеодрайвер под брендом - Detonator. В нем была добавлена поддержка оптимизаций 3DNow!, благодаря которым возросла производительность в ряде OpenGL и DirectX приложений, в частности количество кадров в Quake2 выросло на 30%. В 1999 году NV4 был немного доработан и переведен на 250-нм тех. процесс. Видеокарта обзавелась поддержкой текстур разрешением до 2048х2048, порт AGP 4x пришел на смену AGP 2x, частота графического процессора возросла до 150 МГц, а видеопамяти до 183 МГц, при этом до 32 Мб возрос и её объем. Видеочип сменил маркировку на NV5, а сама карта приобрела двойку в названии и выпускалась в двух вариантах: Riva TNT2 и Riva TNT2 Ultra, отличались они лишь тактовыми частотами. Позже была добавлена промежуточная версия в лице Riva TNT2 Pro и более дешевые варианты под названием Vanta, Vanta LT и Riva TNT2 M64 с урезанной до 64-бит шиной памяти. 


Canopus Riva TNT2 Ultra

Самая первая видеокарта семейства GeForce утвердила компанию NVIDIA в роли лидера рынка дискретных графических решений и была впервые представлена 31 августа 1999 года. GeForce 256 была наиболее продвинутым графическим ускорителем своего времени. Основной особенностью видеокарты стало внедрение технологии Transform and Lighting (T&L, трансформация и освещение), которая отвечала за обработку освещения и трансформации объектов в реальном времени, прежде эти функции исполнял центральный процессор. Во многом благодаря движку T&L производительность GeForce 256 в некоторых играх могла быть значительно выше, нежели у конкурентов и предшественников. Критики справедливо заявляли, что внедрение T&L было сильно переоценено и что в ряде случаев достаточно быстрый процессор мог обсчитывать геометрические расчеты не хуже, чем графический чип. К тому же ранние драйверы испытывали некоторые проблемы с производительностью и стабильностью, а программисты не очень-то и торопились внедрять поддержку новой технологии и тянули кота за хвост вплоть до выхода на рынок GeForce 2 и Radeon R100. Что касается самого видеочипа NV10, то выпускался он по 220-нм технологии, этим объясняются столь низкие тактовые частоты, а из-за высокого тепловыделения приходилось в обязательном порядке использовать активное охлаждение графического процессора. Из нового - наконец-то появилась поддержка MPEG2, DirectX 6.0 уступил место более новому DirectX 7.0, а количество пиксельных процессоров, текстурных блоков и блоков растеризации относительно предшественника было удвоено. GeForce 256 выпускался в двух вариантах - со старой памятью SGRAM и с новой высокочастотной DDR. В плане производительности в системах с использованием бюджетных процессоров новинка демонстрировала подавляющее преимущество над Voodoo3 и Riva TNT2, однако как только процессор заменялся на более быстрый, разрыв сильно сокращался. 

                  NVIDIA GeForce 256 

В начале 2000 года был представлен новый видеочип NV15 и семейство видеокарт GeForce 2, которое базировалось на его основе. Архитектура NV15 во многом повторяла своего предшественника, но были и существенные отличия. Новый видеочип содержал в себе 25 миллионов транзисторов и выпускался по более тонкому 180-нм технологическому процессу, что позволило значительно увеличить частоту графического чипа. Количество пиксельных процессоров не изменилось, однако теперь на каждый из них приходилось по два текстурных блока, что позволяло видеокарте накладывать до 8 текстур за такт и удвоило скорость выборки текстурных данных до 1,6 Гигатекселей в секунду, отсюда и название GTS - GigaTexel Shader. Нельзя не отметить и появление технологии NSR (Nvidia Shading Rasterizer), которая позволяла рассчитывать затенение отдельных пикселей практически без потери производительности. Так же как и предшественник, NV15 поддерживал T&L, за год его работа была оптимизирована, а производительность при отрисовке геометрических объектов и освещения выросла примерно на 30%. Из недостатков - видеокарты страдали от недостаточной производительности подсистемы памяти и неважной реализации технологии Z-буферизации. Помимо старшей версии с приставкой GTS, NVIDIA вывела на рынок целую гамму различных решений для всех сегментов рынка. Это и более быстрые GeForce 2 Pro, Ti и Ultra, отличавшиеся повышенными тактовыми частотами, и бюджетные видеокарты семейства GeForce 2 MX, которые пришли на смену подешевевшим Riva TNT2 для противостояния с недорогими ATI Radeon 7000 и Radeon SDR. От GeForce 2 GTS они отличалась тем, что у них была отключена половина пиксельных процессоров и текстурных блоков, уменьшена частота ядра, а быстрая DDR память заменена недорогой памятью типа SDR, кроме этого, выпускались и 64-битные версии видеокарты GeForce 2 MX. В остальном она поддерживала такие же технологии, как и GTS.

                       GeForce 2 Ultra 

Видеочип NV20 был первым в мире графическим решением, поддерживавшим библиотеки Microsoft Direct3D 8.0. Видеокарта GeForce 3 на его основе была впервые представлена в рамках конференции Macworld в январе 2001 года, где она использовалась для демонстрации работы технодемки Junior Lamp от Pixar и Doom 3 от id software. Сам графический процессор выпускался по обновленному 150-нм техпроцессу и претерпел значительные изменения. Новшеством была поддержка движка nFinite FX Engine. Его появление означало, что видеокарты GeForce 3 теперь поддерживали пиксельные и вершинные шейдеры, которые позволяли создавать огромное количество различных спецэффектов. Другой особенностью NV20 являлась улучшенная архитектура памяти под названием LMA (Lightspeed Memory Architecture), которая включала несколько особых механизмов, призванных частично разгрузить подсистему памяти посредством сжатия данных, читаемых и/или записываемых в Z-буфер, подобно технологии ATI HyperZ. Шина памяти новых ускорителей осталась 128-битной, однако теперь она состояла из четырех 32-битных контроллеров, тогда как GeForce 2 использовали один, 128-битный. Особенно эффективна такая система была в детализированных сценах. Видеокарта поддерживала новые алгоритмы сглаживания MSAA (Multi-Sampling Anti-Aliasing) и Quincunx, которые демонстрировали более высокую производительность, нежели SSAA (Super-Sampling Anti-Aliasing) ценою ухудшения качества изображения. При использовании MSAA сглаживались лишь кромки полигонов, а не всё изображение целиком. Это благотворно сказывалось на общей производительности, но при определенном расположении границ полигона к наблюдателю эффект от использования подобного типа сглаживания сильно уменьшался, также MSAA не работало на частично прозрачных поверхностях. Quincunx же был своего рода блюр-фильтром, который смещал исходную картинку на пол пикселя вверх и влево, чтобы создать суб-пиксели с усредненным цветом. Затем шло наложение двух изображений, острые кромки частично исчезали, но изображение получалось менее детализированным и добавлялось размытие. Помимо новых алгоритмов сглаживания карта поддерживала 8х анизотро́пную фильтра́цию, против 2х у предшественницы. По производительности GeForce 3 нередко отставал от GeForce 2 Ultra, ведь конфигурация самого видеочипа не изменилась, в то время как у Ultra версии были на четверть более высокие частоты. Но всё менялось, когда в дело вступало полноэкранное сглаживание: благодаря новым алгоритмам производительность GeForce 3 падала не так значительно, как у GeForce 2 и она вырывалась вперед. Осенью 2001 года NVIDIA расширила модельный ряд GeForce 3 выпуском двух новых вариантов - GeForce 3 Ti 200 и Ti 500. Первая отличалась пониженными частотами ядра и памяти, у второй же наоборот частоты было серьёзно повышены. Более ничем от оригинальной карты они не отличались. 

                    Hercules 3D Prophet III GeForce 3 Ti 500  

Семейство видеокарт GeForce 4 было представлено в начале 2002 года. Графический чип NV25 архитектурно повторял NV20 и содержал 63 миллиона транзисторов, выпуск вёлся с использованием 150-нм технологического процесса. Помимо повышенных частот Geforce 4 мог похвастать удвоенным количеством вершинных шейдеров и поддержкой технологии Pixel Shader версии 1.3. Движок nFinite FX Engine и LMA(Lightspeed Memory Architecture)были доработаны, так же появилась возможность проигрывания DVD и одновременная поддержка двух мониторов, которая перекочевала прямиком с GeForce 2MX. Изначально выпускалось две версии видеокарты: GeForce 4 Ti4400 и Ti4800, которые отличались лишь тактовыми частотами. С выпуском более дешевой версии было решено немного повременить, чтобы партнеры NVIDIA получили возможность распродать имевшиеся складские запасы стремительно устаревающих GeForce 3 Ti200 и Ti500. Однако агрессивная ценовая политика ATI с её Radeon 8500 и 8500LE вынудили NVIDIA изменить своё решение и спешно выводить на рынок GeForce Ti4200. Для того, чтобы избежать внутренней конкуренции с более дорогими картами серии, частота памяти у Ti4200 была снижена до 222 МГц. Обновился и бюджетный сектор, на смену GeForce 2MX пришло семейство 4MX. Обновленная линейка GeForce 4МХ не поддерживала новейший DirectX 8.0 с пиксельными шейдерами, однако она всё же могла похвастать новым 2-х канальным контроллером памяти с поддержкой технологии LMA и продвинутыми режимами сглаживания Accuview, кроме того имелся блок VPE (Video Processing Engine) для декодирования MPEG-2 и полноценная поддержка двух мониторов. Подросли и тактовые частоты, медленная память SDR была заменена более быстрой DDR. Через год вышел обновленный видеочип NV28, который добавлял поддержку AGP 8x. Ti4200 была переименована в Ti4200 8x, Ti4400 в Ti4800SE, а Ti4600 в Ti4800, частоты при этом оставались прежними.  

                 Asus V8460 Ultra Deluxe GeForce Ti 4600   

Графический чип NV30 был представлен широкой публике в конце января 2003 года. Сам чип выпускался с использованием 130-нм технологического процесса и содержал в себе 125 миллионов транзисторов. Семейство видеоадаптеров, выпускавшихся на основе NV30, получило название GeForce FX и было представлено двумя моделями: GeForce FX 5800 и 5800 Ultra, которые отличались лишь тактовыми частотами. Особенностью видеокарт была поддержка Microsoft DirectX 9.0 и Shader Model 2.0, а также технологии Ultra Shadow. Помимо этого были доработаны алгоритмы сглаживания и оптимизирована работа подсистемы памяти. Правда из-за узкой 128-битной шины инженерам NVIDIA пришлось прибегнуть к использованию более дорогой памяти DDR2, которая, к тому же, обладала весьма горячим нравом. Блок VPE (Video Processing Engine), предназначенный для кодирования видео в формате MPEG2, перекочевал в карту из младшей серии МХ4. Несмотря на все новшества, видеокарта была раскритикована как за невысокую производительность, так и за свои неважные потребительские свойства. А из-за специфического внешнего вида и шумовых характеристик фирменной системы охлаждения Flow FX, она получила обидное прозвище "пылесос". Вышедший полугодом ранее Radeon 9700 Pro мало того, что обладал меньшим потреблением и тепловыделением, так еще и не оставлял ни единого шанса детищу NVIDIA в приложениях, использовавших новый Shader Model 2.0. В срочном порядке на обновленном видеочипе NV35 была выпущена GeForce FX 5900 Ultra c 256-битной шиной памяти и улучшенной производительностью вершинных шейдеров. Одновременно были выпущены бюджетные модели FX 5600 и 5200, особенностью которых было то, что в некоторых приложениях они умудрялись проигрывать старой GeForce 4 Ti4200, а в случае FX 5200 и вовсе МХ440. Несмотря на неудачный старт, серия FX получила дальнейшее развитие. Осенью была выпущена GeForce FX 5950 Ultra и GeForce FX 5700 Ultra, в последней использовалась память GDDR2. Начало 2004 года ознаменовалось выпуском GeForce PCX 5950 и GeForce PCX 5750, начался постепенный переход индустрии на стандарт PCI Express. 

                  GeForce FX 5800 Ultra 

Видеокарты GeForce 6-й серии были призваны вернуть компании лидирующее положение на рынке дискретных графических решений, которое пошатнулось после провального старта линейки ускорителей GeForce FX и, надо сказать, у них это почти получилось! Инженеры NVIDIA провели блестящую работу над ошибками и новый графический чип NV40 по всем статьям превосходил своего предшественника NV30/35. В четыре раза увеличилось количество пиксельных процессоров и блоков растеризации, в два раза количество вершинных процессоров и блоков текстурирования. Производительность GeForce 6800 Ultra в 2-2,5 раза превосходила таковую у GeForce 5950 Ultra при том, что она выпускалась в рамках всё того же 130-нм технологического процесса и даже несколько убавила в плане энергопотребления, однако до Radeon X800 XT Platinum Edition она все-таки немного не дотягивала. Частота видеоядра были несколько меньше, чем у предыдущего флагмана, однако при этом использовалась более быстрая и совершенная GDDR3 видеопамять объемом 256 Мб, через некоторое время была выпущена 512 Мб версия карты. Выпускались варианты как с поддержкой порта AGP, так и с поддержкой нового PCI-Express 16x. Все видеокарты 6-й серии поддерживали новейшие Shader Model 3.0 и DirectX 9.0, а также технологию PureVideo, которая переносила нагрузку по перекодированию и последующей обработке видео с центрального процессора на видеокарту. Впервые со времён 3dfx появилась возможность объединять пару графических карт в рамках одной системы с целью повышения производительности, называлась технология NVIDIA SLI (Scalable Link Interface). В среднем ценовом сегменте безраздельно властвовал NV43 и основанная на нем GeForce 6600GT. Видеокарта была представлена чуть позже, чем старшие решения и представляла из себя половинку от GeForce 6800GT с поддержкой всех фирменных технологий. На неё, как и на флагманы, ставилась быстрая GDDR3 память, а благодаря более тонкому 110-нм технологическому процессу видеокарта изначально обладала довольно высокими частотами и неплохо поддавалась разгону. Производительность GeForce 6600GT была настолько высокой, что она с лёгкостью опережала старшие решения предыдущего поколения в лице Radeon 9800 Pro и GeForce 5900 Ultra. Самый младший представитель семейства - GeForce 6200 производительностью не блистал, однако получил поддержку технологии Turbo cache, которая частично компенсировала малый объем видеопамяти в 64 Мб. Она позволяла карте заимствовать часть оперативной памяти под свои нужды, когда собственная видеопамять заканчивалась. Партнерами NVIDIA было выпущено великое множество модификаций GeForce 6600, а GeForce 6800 и 6800LE были первыми и последними видеокартами компании, в которых можно было легко и непринужденно активировать заблокированные конвееры и, в случае их работоспособности, бесплатно получить хорошую прибавку к производительности. 

              GeForce 6800 Ultra     

реклама



Седьмая серия GeForce была представлена летом 2005 года и являлась эволюционным развитием предшествовавшей ей шестой. Кодовое название графического процессора изменилось на G70, он изначально проектировался с расчетом на использование PCI-E стандарта, а выпуск вёлся с использованием проверенного 110-нм технологического процесса. В каждый конвейер были добавлены дополнительные блоки ALU, которые отвечали за обработку наиболее популярных пиксельных шейдеров. При этом число самих конвейеров и блоков текстурирования было увеличено до 24 штук, прибавилась и пара вершинных шейдеров. Были проведены оптимизации алгоритмов сглаживания и фильтрации, а также появилась поддержка эффекта HDR. С этим самым HDR NVIDIA наступила на грабли, так как на всех картах GeForce седьмой серии он не мог работать одновременно с активированным режимом полноэкранного сглаживания и пользователю приходилось выбирать лишь одно из двух. В то время, как Radeon X1800 и Х1900 прекрасно работали и с тем и с другим одновременно. Помимо аппаратной несовместимости HDR и антиалайзинга у G70 были проблемы с использованием анизотропной фильтрации: вдали многие текстуры сильно теряли в детализации и появлялся эффект замыливания. Несмотря на недостатки, видеокарты имели определенный успех на рынке. Осенью была выпущена ускоренная версия GeForce 7800 GTX с расширенным до 512 Мб объёмом видеопамяти и сильно поднятыми тактовыми частотами, а весной, менее чем через год после релиза, был произведен "рестайлинг" G70, в результате чего появился обновленный G71. Новый-старый чип выпускался с использованием более тонкого 90-нм технологического процесса, что благотворно сказалось на тактовых частотах. Новым флагманом стала GeForce 7900 GTX, одновременно с ней вышла и более дешевая GeForce 7900 GT с уменьшенным до 256 Мб объемом видеопамяти и более скромными тактовыми частотами, но при этом сохранившая все функциональные блоки графического процессора. Тогда же был представлен новый король среднего ценового сегмента - GeForce 7600GT, камня на камне не оставивший от Radeon X1600 и первая эталонная двухчиповая карта NVIDIA - GeForce 7900 GX2, предназначавшаяся исключительно для продажи в составе готовых высокопроизводительных компьютеров от партнёров компании. До потребительского сегмента она дошла несколько позже в виде несколько упрощенной GeForce 7950 GX2. Видеокарты седьмой серии были последними продуктами NVIDIA, которые выпускались в вариантах с поддержкой шины AGP, самыми быстрыми навсегда остались Gainward Bliss 7800 GS+ Silent и GeForce 7950 GT AGP

              GeForce 7800 GTX 512 Mb   

Выходу восьмого поколения GeForce предшествовала мощная рекламная компания, а по сети гуляло множество различных слухов: кто-то обсуждал фотографии видеокарты с гибридной системой охлаждения, другие спорили о предназначении загадочного чипа NVIO, третьи строили безумные теории насчет поддержки физических эффектов, а четвертых волновало энергопотребление, стоимость и немалые размеры печатной платы. С официальным релизом, который состоялся 8 ноября 2006 года (да, меньше чем через год карте стукнет десять лет) были получены и ответы на некоторые вопросы:

  • эталонная версия видеокарты не предусматривала использование гибридной системы охлаждения и обходилась стандартным кулером с центробежным вентилятором. Однако позже гибридный вариант, замеченный на прототипе, был выпущен компанией Cooler Master в виде самостоятельного продукта Hydra 8800. Вероятно на этапе проектирования рассматривалась возможность оснащения карты подобным охладителем.
  • чип NVIO отвечал за работу внешних интерфейсов, таких как DVI и HDTV-Out. Также в нем находился цифрово-аналоговый преобразователь RAMDAC
  • расчеты физических эффектов GeForce 8800 GTX изначально не поддерживала, а не стандартная шина доступа к памяти объяснялась тем, что такое значение инженеры посчитали оптимальным с точки зрения цены и обеспечиваемой пропускной способностью. Поддержка расчетов физики появилась значительно позже, вместе с поглощением компании Ageia, которая до этого занималась разработкой и поддержкой собственного программного движка PhysX.
  • несмотря на опасения, видеокарта обходилась без специального внешнего блока питания, а таинственный разъем на задней панели оказался ничем иным как обыкновенным HDTV-Out. Размеры адаптера и вправду впечатляли, карта достигала 27 сантиметров в длину и была, пожалуй, одной из самых длинных потребительских видеокарт на то время. В этом плане поспорить с ней могла разве что GeForce 7900 GX2, да Mac версия GeForce 6800 Ultra. Что касается тепловыделения - чип G80 оказался не столь уж и горячим, а инженеры с достоинством выполнили поставленную задачу и спроектировали довольно тихую систему охлаждения, которая эффективно отводила излишки тепла за пределы корпуса и удерживала температуру графического процессора на отметке в 70-75*С.

Что же нового привнесла восьмая серия? А принесла она унифицированную шейдерную архитектуру, которая объединяла пиксельные и вершинные процессоры в единые блоки. Всего таких блоков было 8, каждый из них содержал 16 ALU (арифме́тико-логи́ческих устро́йств), 4 блока текстурирования (TMU) и собственный кэш первого уровня, в котором могли храниться не только текстуры, но и другие данные, которые мог запросить шейдерный процессор. Всего, таким образом, имелось 128 потоковых процессоров (ALU) и 32 текстурных блока + 24 блока растеризации, сами потоковые процессоры функционировали на удвоенной частоте графического чипа. Архитектура получилась очень гибкой и способной плавно масштабироваться. Видеокарта поддерживала новейший DirectX 10 и Shader Model 4.0. Была наконец-то реализована совместная работа полноэкранного сглаживания и HDR, проведены оптимизации работы анизотропной фильтрации, качество картинки стало, как минимум, не хуже, чем у конкурента, а также был добавлен новый алгоритм сглаживания CSAA (Coverage Sampling AA). Что касается производительности - GeForce 8800 GTX не оставлял ни единого шанса видеокартам прошлых поколений. Побиты были не только одиночные флагманы, но и тандем 7950 GX2 с Crossfire связкой из пары X1950 XTX. Средний ценовой сегмент выступал не так уверенно. Новый GeForce 8600 GTS ничего не мог противопоставить подешевевшим GeForce 7950GT и Radeon X1950 GT/Pro и при бОльшей стоимости зачастую сильно проигрывал им. Помимо старшей модели 8800 GTX на основе видеочипа G80 выпускалась более бюджетная версия - GeForce 8800 GTS 640, в ней было отключено два блока ALU, а ширина шины памяти была уменьшена до 320 бит. Архитектура Tesla, представителем которой была GeForce 8800 GTX оказалась долгожительницей. Уже весной 2007 года была анонсирована GeForce 8800 Ultra, которая представляла из себя слегка разогнанный вариант 8800 GTX с немного измененной системой охлаждения, новой ревизией видеочипа G80-A3 и более быстрой 0,8 нс видеопамятью. Осенью 2007 года была представлена усовершенствованная версия видеочипа G80 - G92, которая выпускалась по более тонкому 65-нм технологическому процессу. В новом чипе упростили разводку, сделав шину доступа к памяти 256-битной, удвоили количество текстурных блоков, а также добавили поддержку шины PCI-E 2.0, но уменьшили до 16 количество блоков растеризации. Первой на его основе выпустили GeForce 8800GT, которая предлагала графический чип G92 в варианте с 7-ю активными блоками ALU из 8, что давало ей в итоге 112 потоковых процессоров, 56 текстурных блоков и 16 блоков растеризации. Столь выдающиеся характеристики в сочетании с высокими тактовыми частотами приближали производительность карты вплотную к уровню обычной 8800 GTX. Цена при этом была значительно ниже, чем у бывшего флагмана, что сделало GeForce 8800GT бестселлером. Зимой вышла обновленная GeForce 8800 GTS, основанная на всё том же G92, но со всеми 8-ю активными блоками ALU. Эта карта фактически заменила собой снятую с производства 8800 GTX. Графический чип G92, а также выпускавшийся по более тонкому 55-нм технологическому процессу G92b, продолжил своё победное шествие и в 2008 году. На нём были основаны все старшие модели семейства GeForce 9. От предшественников они отличались лишь парочкой незначительных архитектурных улучшений, двумя SLI коннекторами, поддержкой технологии Hybrid Power и более высокими тактовыми частотами. Девятая серия наконец-то предложила по настоящему крепкого представителя среднего ценового сегмента - GeForce 9600GT с 256 бит шиной памяти и 64 универсальными процессорами. Подобных характеристик в своё время ждали от 8600 GT, но последняя не оправдала возложенных на неё надежд. Апофеозом же стал выпуск двухчиповой видеокарты GeForce 9800 GX2, основанной на паре чипов G92b. 

          GeForce 8800 Ultra 

реклама

Дальнейшее развитие архитектуры Tesla было представлено 17 июня 2009 года в лице флагманского GeForce GTX280 и более доступного GTX260. Порядок именования графических процессоров в очередной раз был изменен в каких-то непонятных, известных лишь богу маркетинга, целях - старший видеочип нарекли GT200. Выпускался он по проверенному 65-нм технологическому процессу. Количество универсальных шейдерных процессоров увеличилось почти в два раза - до 240, текстурных блоков до 80, а блоков растеризации с 16 до 32. Видеокарты обладали стандартным набором поддерживаемых технологий: DirectX 10, SLI, PhysX, HybridPower, добавился новый интерфейс DisplayPort, поддерживавший разрешения вплоть до 2560 х 1600 с использованием 10-битного цветового пространства. Серьёзной переработке подверглась сама вычислительная архитектура, доработки были прежде всего направлены на оптимизацию работы карты в не игровых приложениях с использованием технологии CUDA (Compute Unified Device Architecture), универсальные потоковые процессоры были переименованы в CUDA ядра. GeForce GTX280/285 были первыми и единственными продуктами компании NVIDIA, в которых была реализована 512-бит шина доступа к памяти. Внесённые изменения самым негативным образом сказались на площади видеочипа, которая равнялась 576 мм², что на тот момент делало его самым большим чипом из когда-либо выпускавшихся Тайваньской фабрикой TSMC. Даже сегодня GT200 занимает в этом сомнительном рейтинге почётное второе место, уступая лишь более новому Maxwell GM200 (GeForce TitanX и 980Ti). GeForce GTX280 получился очень быстрым и с лёгкостью обходил своего предшественника, часто оставляя позади и двухчиповой GeForce 9800 GX2. Однако за скорость приходилось заплатить высоким тепловыделением и немалой стоимостью самой карты, которая составляла $649. Агрессивная ценовая политика AMD с её Radeon HD 4870, предлагавшейся за $299 и нацеленной на борьбу с GTX260 в среднем ценовом сегменте, вынудило компанию NVIDIA поспешно выпустить обновленную версию GeForce GTX260 Core 216 с увеличенным количеством CUDA ядер, а так же постепенно перевести свой монструозный GT200 на более тонкий 55-нм технологический процесс. Это дало возможность освежить существующий модельный ряд и уменьшить себестоимость производства с отпускными ценами. Уменьшенное энергопотребление и тепловыделение тоже внесли свой вклад и позволили наконец-то выпустить двухчиповую GeForce GTX295, как ответ на ранее вышедший Radeon HD 4870x2.  

                 GeForce GTX280       

Позже была представлена новая архитектура - Fermi и два поколения видеокарт на его основе: GTX400 и обновленная GTX500, которые привнесли поддержку нового DirectX 11 и успешно боролись с продукцией AMD вплоть до выхода архитектуры Kepler. Было это всё относительно недавно, поэтому я не стану заострять ваше внимание на описании этих событий, после краткого экскурса в историю можно перейти непосредственно к тому, ради чего все это затевалось.




реклама

NVIDIA FX 5500 Dual. Как и в случае с Radeon 8500 MAXX, данная видеокарта была плодом воображения одного из пользователей зарубежных форумов и даже несмотря на очевидное вмешательство Photoshop'а, новость о грядущем выходе данной видеокарты имела некоторое распространение.


   


реклама

Jaton  6200 Dual  была сугубо профессиональным решением, предназначенным не для заядлых игроманов, а для профессионалов, которым требовался вывод изображения на четыре экрана мониторов одновременно. Видеоадаптер был выполнен на нестандартной печатной плате зеленого цвета и имел в своем распоряжении пару видеочипов NV43, суммарный объем видеопамяти стандарта DDR2 равнялся 1024 Мб. За дополнительное питание отвечал одиночный 6-pin разъем. Особенностью видеоадаптера была возможность его применения в связке с любой материнской платой благодаря устаревшему, но универсальному PCI разъему. Так уж вышло, что на сегодняшний день эта видеокарта является самой младшей многочиповой картой, основанной на видеочипах производства компании Nvidia.

                  

Помимо длинной версии карты существовала и укороченная, основанная на совершенно другой печатной плате с массивным радиатором. К слову, эта плата позже практически без изменений была использована и в Jaton GeForce 8400 GS Dual.

ASUS  6600GT Dual. Компания ASUS представила свое видение двухчиповой 6600GT в рамках международной выставки CeBIT 2005. Согласно информации представленной на официальном слайде, предполагалось, что видеокарта станет первым в мире графическим решением с двумя видеочипами, которое будет поддерживать вывод изображения одновременно на 4 монитора. Этому способствовала пара разъемов DVI, располагавшихся на задней панели видеокарты и специальные разъемы в верхней части печатной платы, к которым подключалась двойка дополнительных VGA разъемов, аналогично таким у серийной ASUS GeForce 7800GT Dual (в ранних новостях об ASUS 6600GT Dual ошибочно предполагалось, что эти разъемы предназначались для объединения пары видеоадаптеров в режим Quad SLI). Помимо дуэта видеочипов NV43 на плате располагалось восемь чипов памяти Samsung с маркировкой K4J55323QF-GC16 и временем выборки 1,6 нс, суммарным объемом 256 Мб. Питание видеокарты осуществлялось посредством одного 6-pin PCI-E разъема дополнительного питания. В серию видеокарта не пошла, ссылка на оригинальную новость.

реклама

                 ASUS GeForce 6600GT Dual  

Gigabyte 3D1  6600GT Dual. Gigabyte была первой компанией, которая представила двухчиповую GeForce 6600GT. Особенностью видеокарты было то, что на старте продаж она была совместима лишь с одной единственной моделью материнской платы - Gigabyte GA-K8NXP-SLI и продавалась с ней в комплекте в огромной коробке, размерам которой позавидуют многие современные продукты серии Republic of Gamers от ASUS. Примечательно, что даже несмотря на такое серьезное ограничение в плане совместимости, видеокарта стала серийным продуктом и добралась до прилавков магазинов. Видеокарта была построена на основе пары видеочипов NV43, каждый из которых обладал собственными 128 Мб видеопамяти стандарта GDDR3 с маркировкой K4J55323QF-GC16 и временем выборки 1,6 нс, таким образом суммарный объем видеопамяти составлял 256 Мб. Производитель немного поднял тактовые частоты видеокарты: частота памяти составляла 570 МГц против стандартных 500 МГц, частоты же ядер составляли стандартные заводские 500 МГц. При рекомендованной стоимости комплекта в $500-550 видеокарта явно была нацелена на конкуренцию с одиночной GeForce 6800GT, но из-за сырости драйверов и уникальности самой видеокарты, борьба происходила с переменным успехом, особенно в высоких разрешениях с использованием полноэкранного сглаживания, где негативно сказывался малый объем установленной видеопамяти. Пожалуй следует отметить факт того, что спустя некоторое время Gigabyte выпустила специальный SLI переключатель, который позволял видеокарте функционировать в паре с любой материнской платой основанной на чипсете nForce 4 SLI, и делал ее более универсальным решением, чем ранее. Обзор и тестирование видеокарты GeForce 6600 GT Dual можно посмотреть тут

                             

Gigabyte 3D1 XL  6600 Dual. Сразу же вслед за двухчиповой 3D1 GeForce 6600GT Dual, Gigabyte анонсировали похожую плату, но основанную на видеочипах GeForce 6600, которые характеризовались более низкими тактовыми частотами. Новая видеокарта мало чем отличалась от своего старшего собрата, в глаза бросалась лишь слегка измененная конструкция системы охлаждения: размер радиатора полностью повторял таковой у Gigabyte 3D1 6600GT Dual, но место пары вентиляторов занял один, располагавшийся в центре радиатора. Печатная же плата не претерпела совершенно никаких изменений, более того, инженеры Gigabyte не поскупились и снабдили свою 3D1 XL видеопамятью стандарта GDDR3, вместо положенной для простой GeForce 6600 памяти стандарта DDR и не постеснялись поднять частоты видеочипа с 300 до 450 МГц, таким образом подобная карта могла практически на равных соперничать со SLI связкой из пары одиночных GeForce 6600GT. Так же как и старшая модель, Gigabyte 3D1 XL 6600 Dual продавалась только в комплекте с совместимой материнской платой, в роли которой выступала Gigabyte GA-K8N Ultra-SLI. При рекомендованной стоимости в $400 видеокарта могла стать довольно интересной альтернативой одиночной GeForce 6800GT, особенно если учесть, что в ее цену входила достаточно неплохая материнская плата. Ссылка на оригинальную новость.

                     

реклама

Leadtek  PX6600GT Duo TDH Extreme. Видеокарта Leadtek Duo PX6600GT впервые предстала перед объективами фотокамер в рамках международной выставки CeBIT 2005, а в серию должна была пойти вскоре после проведения выставки Computex 2005. Продукт Leadtek выгодно отличался от своего единственного конкурента в лице Gigabyte 3D1 тем, что не требовал для работы специальной материнской платы, достаточным условием было лишь наличие чипсета nForce 4 SLI. Видеокарта была построена на базе пары видеочипов NV43 которые функционировали на частоте 525 МГц (на 25 МГц выше, чем у Gigabyte 3D1), каждый GPU обладал своими собственными 128-ю мегабайтами видеопамяти стандарта GDDR3, которая функционировала на частоте 1120 МГц, таким образом общий объем видеопамяти составлял 256 Мб. Питание подавалось посредством одного 6-pin PCI-E разъема дополнительного питания, а за вывод изображения отвечала пара разъемов DVI и пара внешних разъемов VGA, которые подключались к видеокарте через специальный коннектор. Рекомендованная стоимость видеокарты составляла $400, обзор и тестирование детища Leadtek можно посмотреть тут

                                 

MSI  Geminium Go 6600. Странная и по-своему уникальная "видеокарта" MSI Geminium Go 6600 была впервые представлена на выставке CES 2006. По сути дела, изделие MSI являлось PCI Express x16 адаптером для настольного компьютера, который позволял задействовать в режиме SLI два мобильных графических модуля формата MXM, которые находили применение в ноутбуках с дискретной графикой. В представленном на CES экземпляре использовалась пара модулей GeForce Go 6600, каждый модуль располагал собственными 256 Мб видеопамяти и функционировал на частотах 300 МГц для ядра и 600 МГц для видеопамяти. В серию видеокарта не пошла, но в сети имеется обзор видеокарты, который можно посмотреть, пройдя по ссылке

                             

ASUS  6800 GT Dual. Компания ASUS представила свой двухчиповой прототип, использовавший пару видеочипов NV45, еще в рамках зимней выставки CeBIT 2005, правда в то время предполагался выпуск не GeForce 6800 GT Dual, а GeForce 6800 Ultra Dual. Примечательно, что в ASUS планировали выпускать свою видеокарту с частотами даже бОльшими, нежели те, которыми располагала одиночная GeForce 6800 Ultra: 430 МГц для видеочипов и 1120 МГц для памяти, против заводских 400/1100 МГц, которыми характеризовался одночиповой флагман. Уже к моменту проведения выставки Computex 2005 видеокарта приобрела статус рабочего образца, однако в серию разогнанная Ultra версия не пошла. Причин может быть много: возможно крест на выходе столь амбиционного продукта поставил выход нового одночипового флагмана в лице GeForce 7800GTX и компания решила не создавать ей внутреннего конкурента, а может быть дело было в недостаточном количестве годных видеочипов, способных работать на столь высоких тактовых частотах. Как бы то ни было, в серию пошла менее амбициозная GT версия ускорителя. Видеоадаптер имел в своем распоряжении пару видеочипов NV45, которые функционировали на частоте 350 МГц, частоты видеопамяти стандарта GDDR3, суммарный объем которой составлял 512 Мб, а время выборки 1,6 нс, составляли 500 МГц. Дополнительное питание подавалось посредством пары 6-pin PCI-E разъемов, а за вывод изображения отвечало два DVI разъема. Отдельно стоит отметить, что изначально видеокарта была совместима далеко не со всеми моделями материнских плат и со временем ASUS (как и Gigabyte в случае своей 3D1 6600GT) представила специальный SLI переключатель. Предполагалось, что он позволит использовать видеокарту в паре с ранее несовместимыми материнскими платами. Обзор и тестирование ASUS GeForce 6800GT Dual можно посмотреть тут и тут

реклама

                       


Gigabyte 3D1  6800GT Dual. Видеокарта 3D1 Geforce 6800GT Dual была предст авлена компанией Gigabyte в рамках выставки Computex 2005. Инженеры компании изначально проектировали именно GT версию, в отличии от ASUS и MSI, которые намеривались выпустить монстроподобную двухчиповую GeForce 6800 Ultra, но в итоге потерпели фиаско, в первом случае ограничившись выпуском более скромной GT версии, а во втором и вовсе отказавшись от серийного производства. В итоге видеоадаптер производства Gigabyte получился достаточно интересным: в отличии от творения ASUS видеокарта оказалась достаточно компактной, шутка ли, длина авианосца USS ASUS составляла ошеломительные по тем временам 300 мм, в то время как Gigabyte довольствовался более скромными 260 мм, во многом благодаря тому, что инженеры компании не поленились расположить 512 Мб видеопамяти стандарта GDDR3 по обеим сторонам печатной платы. Правда "короткая" печатная плата слегка омрачалась массивной системой охлаждения, высота которой составляла аж 50 мм. Видеокарта изначально была выпущена с фабрично повышенными частотами: 370 МГц для видеочипов и 1060 МГц для памяти, против эталонных 350/1000МГц. В отличии от все тех же ASUS и MSI, адаптер располагал лишь одним разъемом дополнительного питания, который, возможно, сыграл с ним злую шутку: ведь видеокарта обладала весьма скромным разгонным потенциалом. Gigabyte 3D1 GeForce 6800GT Dual была лишена многих детских болезней, которые были свойственны ранним младшим картам серии 3D1, основанным на видеочипах NV43, так, для работы изначально не требовалась специфическая материнская плата, хотя необходимость наличия у материнской платы поддержки технологии NVIDIA SLI никто не отменял. Обзор и тестирование видеокарты Gigabyte 3D1 GeForce 6800GT Dual можно посмотреть, пройдя по ссылке

           

             

MSI  6800 Ultra Dual. Компания MSI тоже решила не отсиживаться в стороне и, вслед за ASUS и Gigabyte, представила на выставке Computex 2005 свою версию двухчиповой видеокарты, построенной на основе пары видеочипов NV45. Инженеры MSI решили не мелочиться и снабдили свою видеокарту сразу 1 Гб видеопамяти стандарта GDDR3, более того, в верхней части ускорителя находился разъем SLI, который потенциально позволял организовать беспрецедентно быструю по тем временам Quad SLI конфигурацию, обладавшую невероятным суммарным объемом видеопамяти в 2 Гб! В конструкции системы охлаждения использовалось шесть тепловых трубок, а сама система охлаждения была разнесена по обеим сторонам печатной платы, дополнительное питание подавалось посредством пары 6-pin PCI-E разъемов питания. Отдельно стоит отметить факт того, что инженеры MSI, в отличии от своих коллег из ASUS, умудрились уместить пару NV45 на печатной плате более или менее вменяемого размера, что положительным образом сказалось бы на совместимости адаптера с различными моделями корпусов системных блоков. К несчастью, скорый выход GeForce 7800GTX не дал амбициозным планам MSI сбыться и в серию видеокарта не пошла.  

             

                   


 



MSI  Geminium Go 7600. Творение сумрачных немецких тайваньских гениев компании MSI повторно предстало перед публикой в рамках выставки Computex 2006. Инженеры время даром не теряли: печатная плата "видеокарты" была подвергнута серьезной доработке: MXM модули теперь располагались по обеим сторонам платы, что положительным образом сказалось на ее размерах. Место пары модулей, основанных на видеочипах NV43M (GeForce Go 6600) заняли новые, основанные на G73 (GeForce Go 7600). Концепция самой "видеокарты" не изменилась: она по прежнему представляла из себя своеобразный PCI Express х16 адаптер для настольного компьютера, который позволял задействовать в режиме SLI два мобильных графических модуля формата MXM. Отдельно отмечу, что на стенде MSI демонстрировалась и версия оборудованная лишь пассивной системой охлаждения. Обзор и тестирование MSI Geforce Geminium Go 7600 можно посмотреть тут

                         

   

Galaxy  7600GT Dual Masterpiece. Компания Galaxy официально анонсировала графический адаптер Galaxy Masterpiece Dual 7600 GT в рамках выставки Computex 2006. Необычность видеокарты (ровно как и ее старшего собрата в лице Galaxy 7900 GT Dual) заключалась в том, что производитель разместил на одной PCB сразу два графических процессора NVIDIA GeForce 7600GT. На каждый из GPU приходилось по 256 Мб 1,2 нс видеопамяти стандарта GDDR3 со 128-битным интерфейсом, что, правда, не мешало маркетологам Galaxy гордо заявлять о 256 битной шине. Видеочипы G73 функционировали на частоте 560 МГц, а видеопамять на частоте 1400 МГц, дополнительное питание подавалось посредством одного 6-pin PCI-E разъема. Рекомендованную цену предполагалось установить на отметке в 450 евро, но в итоге в серию видеокарта Galaxy Masterpiece Dual 7600 GT не пошла, более подробные фотографии печатной платы можно посмотреть, пройдя по ссылке

                   



ASUS  7800GT Dual. Видеокарта ASUS GeForce 7800GT Dual была впервые представлена далекой осенью 2005 года, вскоре после летнего анонса 7-го поколения видеокарт NVIDIA. Компания решила не затягивать с выпуском своего монстра (как в случае с GeForce 6800GT Dual) и вскоре после анонса появились его первые обзоры. Сердцем видеокарты служила пара видеочипов G70, выполненных по 110 нм техпроцессу, в распоряжении каждого из которых имелось 256 Мб видеопамяти стандарта GDDR3. Стоит отметить, что несмотря на использование видеопроцессоров характерных для GeForce 7800GT, их частоты были установлены на уровне GTX версии: 430 МГц для ядра и 1200 МГц для памяти соответственно. Из-за высокого по тем временам потребления электроэнергии, видеокарта поставлялась в комплекте со специальным внешним блоком питания, коннектор которого прятался под верхним ребром жесткости. 

                 

В этот раз инженерам ASUS удалось уместить свой тандем в рамках куда более скромной, 250 мм печатной платы (камень в огород GeForce 6800GT Dual с ее 310 мм длины). Интересной особенностью видеокарты было и то, что несмотря на отсутствие разъемов MIO, у пользователей все же была возможность объединить мощь пары видеокарт в режиме Quad SLI. Все, что для этого требовалось - это материнская плата с парой PCI-E х16 слотов, да драйвер ForceWare 77.77 из комплекта поставки видеокарты. Видеокарта была выпущена ограниченным тиражом в 2000 экземпляров. Обзор и тестирование ASUS GeForce 7800GT Dual можно посмотреть тут и тут.

                 


Galaxy  7900GT Dual Masterpiece впервые предстала перед объективами фотокамер в рамках выставки Computex 2006. В отличии от инженеров NVIDIA, их коллеги из Galaxy ухитрились разместить пару полноценных видеочипов G71 в рамках одной печатной платы. Помимо пары GPU, видеокарта была оборудована 1 Гб видеопамяти стандарта GDDR3. Обращает на себя внимание и факт того, что частоты видеокарты существенно отличались от таковых у одиночной GeForce 7900GT: частота ядра составляла 607 Мгц, а памяти, которая характеризовалась временем выборки 1,2 нс - 1520 Мгц, против стандартных 450/1320 МГц, характерных для одночипового собрата и 500/1200 МГц, для референсной GeForce 7950 GX2. Продукт от Galaxy превосходил эталонную плату от NVIDIA по всем параметрам, даже рекомендованная цена была ниже - $599 против $600. Но помимо множества плюсов у Galaxy GeForce 7900GT Dual были и минусы: видеокарта была совместима только с материнскими платами, основанными на чипсете NVIDIA nForce 4 SLI, также у видеокарты отсутствовал разъем MIO, что сразу же перечеркивало возможность сборки Quad SLI конфигурации, в итоге недостатки перевесили достоинства и в серию видеокарта не пошла. Но, к счастью, один из рабочих предсерийных образцов попал в руки журналистов сайта Guru3D, и благодаря этому у нас есть возможность посмотреть обзор и тестирование этой, без сомнения, интересной видеокарты. 

Galaxy 7900GT Masterpiece



NVIDIA  7900 GX2   Впервые видеокарта GeForce 7900 GX2 была представлена компанией Foxconn на выставке CeBIT 2006. Видеоадаптер предназначался к использованию только в составе готовых систем производства компаний DELL и Hewlett Packard. К примеру, пара таких карт устанавливалась в систему Dell XPS 600 Renegade стоимостью в $10000, а компания Alienware в своей системе Alienware Aurora ALX пошла еще дальше, снабдив GeForce 7900 GX2 водоблоками и установив ценник на отметке в $14800. Видеокарты GeForce 7900 GX2 никогда не выпускались отдельно от готовых систем, хотя некоторые производители шли на хитрость, продавая карты в составе Barebone систем, которые помимо парочки 7900 GX2, включали блок питания Tagan мощностью 900 Вт, материнскую плату Asus A8N32-SLI Deluxe и корпус Akasa, все это безобразие предлагалось по цене от $2200 до $2500. Видеокарта GeForce 7900 GX2 была построена на базе пары видеопроцессоров GeForce G71, которые функционировали на частоте 500 МГц (против 650 МГц у одиночной 7900 GTX). Каждый GPU располагал 512-ю мегабайтами видеопамяти стандарта GDDR3, которая функционировала на частоте 1200 МГц и сообщался с ней посредством 256 битной шины памяти. Видеокарта была оборудована SLI разъемом для объединения пары адаптеров в режим Quad SLI. Обзор системы, построенной на базе пары GeForce 7900 GX2, можно посмотреть тут и тут

                 

                   


NVIDIA  7950 GX2   Двухчиповой GeForce 7950 GX2 предназначенный, в отличие от вышеупомянутой 7900 GX2, для продажи "простым смертным", был представлен в рамках международной выставки Computex 2006, рекомендованная цена на момент анонса составляла $600. Так же как и 7900 GX2 видеокарта была построена на базе пары видеочипов G71, выполненных по 65 нм техпроцессу, каждый видеочип обладал собственными 512-ю мегабайтами видеопамяти стандарта GDDR3, а частоты ядра и памяти не отличались от таковых у GeForce 7900 GX2. Инженеры NVIDIA проделали большую работу, уместив всю мощь 7900 GX2 в более короткой и дешевой 7950 GX2. Так же как и ее предшественница, карта несла на себе SLI разъем, позволявший объединять пару видеоадаптеров в режим Quad SLI при наличии соответствующей материнской платы. Все выпущенные видеокарты были построены на основе эталонного дизайна, разработанного инженерами NVIDIA, правда среди них встречались и экземпляры с повышенными на заводе частотами, к примеру XFX серии XXX, разогнанная производителем до 570 МГц по ядру.  

                      

Единственной компанией (помимо Club3D, собственная версия которых так и осталась лишь в планах), которая хоть что-то сделала с эталонным дизайном карты, была американская EVGA, которая оснастила свою GeForce 7950 GX2 Black Pearl водоблоком и повысила ее частоты до 600 МГц по ядру и 1400 МГц по памяти. Обзор и тестирование видеокарты GeForce 7950 GX2 можно посмотреть тут, тут и тут


                 




    


Jaton  8400 GS Dual. Jaton GeForce 8400 GS Dual, как и Jaton 6200 Dual является гостем из профессионального сегмента. На короткой печатной плате зеленого цвета, которая практически полностью копировала  укороченную версию Jaton GeForce 6200 Dual,  располагалась пара видеочипов G86, каждый из которых мог похвастать 512 Мб видеопамяти стандарта DDR2, таким образом суммарный объем памяти равнялся 1024 Мб. Дополнительное питание видеокарте подавалось посредством одиночного 6-pin разъема, а сама она подключалась через разъем PCI. Помимо стандартной версии, компания Jaton выпускала и низкопрофильный вариант адаптера. 

                  

NVIDIA Quadro NVS 420. Профессиональная видеокарта Quadro NVS 420 располагала парой видеочипов G98 (GeForce 8400 GS A2) и 512 Мб видеопамяти стандарта GDDR3 и была предназначена для одновременного вывода изображения на несколько экранов мониторов. Для этого на задней панели видеоадаптера располагался специальный разъем VHDCI, который, посредством специального переходника, поддерживал работу до 4 дисплеев разрешением 1920 х 1080 одновременно (на сайте NVIDIA написано, что поддерживались дисплеи с разрешением до 2560 х 1600). 

                   

NVIDIA Quadro NVS 450. Подобно Quadro NVS 420, модель NVS 450 основывалась на всё тех же видеочипах G98 и выпускалась в варианте с 512 Мб видеопамяти стандарта GDDR3 (по 256 Мб на каждый графический чип). На задней панели размещалось четыре разъёма Display Port, которые обеспечивали поддержку до 4-хмониторов разрешением до 2560 х 1600 одновременно. От своего собрата карта отличалась более крупной печатной платой и полностью пассивной системой охлаждения. 

             NVIDIA Quadro NVS 450     


Galaxy  8600GT Dual Masterpiece. Видеокарта представляла из себя прототип, выпущенный на скорую руку инженерами Galaxy и практически ничем не отличавшийся от их же более раннего творения - 7600GT Dual Masterpiece: та же плата, та же система охлаждения, то же расположение модулей памяти.

Единственное отличие заключалось в использовании пары видеочипов G84 вместо G73.








NVIDIA  9800 GX2. Слухи о выходе видеокарты GeForce 9800 GX2 начали появляться еще в конце 2007 года. Постепенно в сети начала появляться информация, касающаяся нового флагмана, саму же видеокарту планировали представить на февральской выставке CeBIT 2008, но потом дату анонса перенесли на более позднее число и в итоге релиз состоялся только 18 марта 2008 года. Сама видеокарта задумывалась, как своеобразный ответ NVIDIA на выход Radeon HD 3870 Х2. Карту отличала необычная конструкция: инженеры NVIDIA не смогли уместить оба видеочипа на одной печатной плате, но при этом не использовали наработки более ранней GeForce 7900 GX2. Вместо того, чтобы, как раньше, разместить печатные платы друг над другом и снабдить каждый чип собственным кулером, инженеры повернули обе платы "лицом" друг к другу и разработали одну общую систему охлаждения, которая отвечала за отвод тепла сразу от обоих печатных плат. Как результат, графический ускоритель своим внешним видом стал напоминать эдакий черный кирпич.

                   

Адаптер имел в своей основе дуэт видеочипов G92, произведенных по 65 нм технологии, частоты видечипов были занижены до 600 МГц, чтобы вписать карту в установленный тепловой пакет. Общий объем установленной видеопамяти стандарта GDDR3 равнялся 1024 Мб, то есть на каждый отдельный видеочип приходилось 512 Мб собственной видеопамяти. Видеокарта вышла быстрой, сложной и очень горячей, не удивительно, что многие владельцы устанавливали на нее водяное охлаждение, а такие производители, как, например, EVGA, выпускали свою версию эталонного варианта GeForce 9800 GX2 с фабрично установленным водоблоком. К сожалению, инженеры NVIDIA снабдили видеокарту слишком малым количеством видеопамяти (то ли из соображений экономии, то ли в преддверии выхода 200й серии), поэтому в высоких разрешениях тот же GTX 280, который вышел через несколько месяцев после анонса 9800 GX2, смотрелся более уверенно и имел задел на будущее, которым 9800 GX2 не обладал. Обзор и тестирование NVIDIA GeForce 9800 GX2 можно посмотреть, пройдя по ссылке

             


NVIDIA Quadro FX 4700 X2. Редкий гость из профессионального сегмента, более того, Quadro FX4700 X2 - лишь одна из немногих профессиональных двухчиповых видеокарт производства NVIDIA. Видеокарта интересна тем, что будучи практически полным аналогом настольной GeForce 9800 GX2, в ней использовался иной способ отвода тепла и построения карты в целом: вместо одного общего кулера, который отводил бы тепло сразу от обоих видеопроцессоров, инженеры NVIDIA решили использовать подход, который ранее был опробован при проектировании Quadro FX 4500 X2 и 7950 GX2 (Quadro FX4500 X2 внешне полностью копировала GeForce 7900 GX2). Каждый видеочип Quadro FX 4700 X2 обладал своим собственным радиатором, который помимо ядра накрывал собой и чипы памяти. В основе карты лежали все те же видеочипы G92b, которые использовались и в настольной версии. Каждый из них имел в своем распоряжении 128 потоковых процессоров и функционировал на частоте 500 МГц (на 100 МГц меньше, чем у настольной 9800 GX2). Примечательно, что в случае профессионального решения, NVIDIA не пожадничала и снабдила видеокарту сразу двумя гигабайтами видеопамяти стандарта GDDR3, правда функционировала она на меньшей, относительно GeForce 9800 GX2, частоте - 1600 МГц против 2000 МГц.

                   

 




Galaxy  GTS 250 Dual. Шла зима 2010 года, уже почти полгода как состоялся релиз видеокарт Radeon серии HD5000, но этот факт не смущал компанию Galaxy, которая внезапно решила представить свою двухчиповую видеокарту GeForce GTS 250 Dual. Рабочий прототип имел в своей основе пару 65 нм видеочипов G92, каждый из которых располагал 512 Мб видеопамяти стандарта GDDR3, частоты прототипа равнялись 600 МГц для ядра и 2000 МГц для 0,8 нс памяти соответственно, а за отвод тепла отвечала массивная трехслотовая система охлаждения. Отдельно отмечу, что система охлаждения была не просто трехслотовой: сама видеокарта занимала лишь два слота расширения, однако ее вентиляторы располагались на специальной, отдельной плате, которая подключалась к материнской плате посредством PCI-E 1x разъема, таким образом увеличивая суммарную высоту видеокарты до трех слотов. Дополнительное питание подавалось посредством двух 6-pin PCI-E разъемов, а фотографии печатной платы прототипа можно посмотреть, пройдя по ссылке.

                             

Предсерийный же образец Galaxy GTS 250 Dual мог похвастать парой видеочипов G92b с низким энергопотреблением, а суммарный объем видеопамяти вырос с 1024 Мб до 2048 Мб GDDR3. Благодаря применению 55 нм GPU, инженеры Galaxy получили возможность существенно уменьшить габариты системы охлаждения, теперь видеокарта обходилась лишь парой вентиляторов, вместо прежних трех, да и длина печатной платы немного уменьшилась. Ни прототип, ни предсерийный образец не были оборудованы разъемом для подключения SLI мостиков. Так уж вышло, что именно первый прототип попал на тестирование к сотрудникам сайта Expreview, о производительности же и частотах предсерийного образца остается лишь догадываться, потому что в серию видеокарта не пошла. 


                         



Zotac  GTS 250 Dual. Еще зимой, вслед за анонсом двухчиповой Galaxy GTS 250, компания Zotac дала понять, что работает над собственным вариантом GeForce GTS 250 Dual, предоставив соответствующее схематичное изображение печатной платы. Шло время, уже вышла долгожданная GeForce GTX 480 и о продукте Zotac все забыли, однако не забыла сама Zotac, представив финальный вариант своей видеокарты в августе 2010 года. Как и в случае предсерийного образца от Galaxy, сердцем карты служила пара видеочипов G92b, выполненных по 55 нм техпроцессу, а суммарный объем видеопамяти стандарта GDDR3, со временем выборки 1,0 нс, составлял 1024 Мб. За отвод тепла отвечала двухслотовая система охлаждения, оборудованная двумя 80 мм вентиляторами. Дополнительное питание подавалось посредством пары 6-pin PCI-E разъемов. Несмотря на заявления Zotac о полной готовности видеокарты к выходу, серийным продуктом видеокарта так и не стала.  UPD: карта все же была выпущена ограниченным тиражом на рынки азиатских стран, всего было выпущено 1000 экземпляров по цене 1000 юаней каждая.


                       


EVGA  GTX 275 CO-OP PhysX Edition. Необычная видеокарта GeForce GTX 275 CO-OP была представлена в ходе специальной презентации, которая была организована компанией EVGA совместно с NVIDIA в ночь на 1 ноября 2009 года (праздник Хэллоуин). Отличительной особенностью видеокарты было то, что на одной печатной плате располагалось два совершенно разных видеочипа. Ими стали изготавливаемые по 55 нм технологии GT200b и G92b, причём первый располагал видеопамятью GDDR3 объёмом 896 Мб с 448-битным интерфейсом, а второй имел 384 Мб аналогичной по типу памяти, но уже со 192-битным интерфейсом. Таким образом, создатели планировали для обработки графики использовать всю мощь GeForce GTX 275 с 240 потоковыми процессорами и частотной формулой 633/1296/2268 МГц (ядро, шейдерные блоки/память), а для расчётов физических эффектов (технология NVIDIA PhysX Technology) задействовать вычислительные ресурсы GeForce GTS 250 со 128 потоковыми процессорами и рабочими частотами 738/1836/2200 МГц. Рекомендованная стоимость необычного тандема на момент релиза составляла $350. Обзор и тестирование видеокарты можно посмотреть тут. Источник новости.   


                      

 

NVIDIA  GTX 295. Видеокарта NVIDIA GeForce GTX 295 была представлена публике 8 января 2009 года, в качестве ответа на Radeon HD 4870 X2, который, правда, вышел полугодом ранее... Очевидно, что столь поздний анонс был связан с весьма горячим нравом видеочипов GT200 и компании пришлось отложить выпуск карты до выхода его обновленной версии, выполненной по 55 нм техпроцессу - GT200b. Графический ускоритель очень напоминал предыдущий двухчиповой флагман - GeForce 9800 GX2: в наличии была все та же пара печатных плат, обращенных друг к другу, а для отвода тепла использовалась общая система охлаждения, которая располагалась между ними. Примечательно, что в случае GeForce 9800 GX2 NVIDIA сэкономила лишь на объеме набортной видеопамяти, в случае же с GTX 295 урезанию подверглись не только сами видеочипы, которые потеряли четверку блоков растеризации (их количество уменьшилось с 32 до 28), но и шина видеопамяти, которая сузилась с 512 бит до 448 бит, соответственно уменьшился и общий объем набортной памяти с возможных 2048 Мб до 1792 Мб. К тому же частота самой памяти стандарта GDDR3 была существенно ниже, чем у основанного на том же видеочипе одиночного GeForce GTX 285.

                 

Отдельно стоит упомянуть и весьма горячий нрав видеокарты, ведь по температурам GTX 295 умудрился переплюнуть даже своего соперника из красного лагеря в лице Radeon HD 4870 X2, который до этого считался абсолютным чемпионом в плане тепловыделения. Из-за высокого нагрева многие производители, среди которых были EVGA, Zotac и BFG, снабжали свои версии видеокарты водоблоками. BFG и вовсе решили не размениваться по мелочам и представили GeForce GTX 295 H2OC Limited Edition, который отличался наличием замкнутой системой охлаждения производства CoolIT, предлагался такой комплект по рекомендованной стоимости в $799, в то время как эталонная карта стоила $599. Обзор и тестирование GeForce GTX295 можно посмотреть, пройдя по ссылке

               



NVIDIA  GTX295 Single. В рамках летней выставки Computex 2009 многие партнеры NVIDIA представили свои варианты одноплатной версии GeForce GTX 295, правда отличались они лишь наклейкой на кожухе системы охлаждения, да коробкой с комплектом поставки. С технической точки зрения обновленная GTX 295 мало чем отличалась от своего двухпалубного собрата, вышедшего полугодом ранее и являлась своего рода работой над ошибками, которая, к тому же, позволяла уменьшить себестоимость самой видеокарты. Не изменились и частоты: пара 55 нм видеочипов NVIDIA GT200b функционировала на частоте 576 МГц, видеопамять же стандарта GDDR3 довольствовалась частотой 2016 МГц. Единственным отличием новой ревизии GeForce GTX 295 было отсутствие разъема HDMI на задней панели видеокарты. 

                 

Несмотря на удачность новой системы охлаждения, некоторые производители решили не ограничиваться выпуском чисто референсной модели видеокарты и снабжали свои варианты различными Full Cover водоблоками, в число этих производителей входили Inno3D, BFG и EVGA. Обзор и тестирование одноплатной GeForce GTX 295 можно посмотреть, пройдя по ссылке

                   


Galaxy  GTX 295 Masterpiece. В конце осени 2009 года на различных интернет ресурсах появилась информация о том, что NVIDIA, по случаю успешного выхода на рынок ускорителей серии Radeon HD 5000, развязывает руки своим партнерам и даёт зеленый свет на выпуск альтернативных версий GeForce GTX 295. Этим случаем не преминули воспользоваться инженеры Galaxy и в конце ноября представили своё видение двухчипового флагмана. Дизайн карты во многом напоминал эталонный, была незначительно усилена подсистема питания: увеличилось количество фаз, питающих GPU, а 8-pin разъем дополнительного питания занял место старого 6-pin. В Galaxy решили не размениваться по мелочам и использовали пару видеочипов G200-350-B3, характерных для одиночной GTX 285. Как следствие появилась поддержка 512-битной шины памяти, а суммарный объём видеопамяти, набранный 32-мя микросхемами, увеличился до 4096 Мб. По сути карта представляла из себя сдвоенную версию одиночного GTX 285. Позже готовый к производству образец видеокарты предстал перед объективами журналистов интернет ресурса PCPOP.com. Galaxy GTX 295 Masterpiece была выполнена на текстолите фирменного синего цвета, а за отвод тепла отвечала массивная двух вентиляторная система охлаждения, которую до этого демонстрировали только в виде 3D моделей. К сожалению скорый выход двухчипового флагмана AMD в лице Radeon HD 5970 сделал нецелесообразным дальнейший выпуск старших моделей на ядре G200 и в серию видеокарта не пошла. 


                Galaxy GeForce GTX 295 4 Masterpiece  


ASUS   GTX 295 MARS Limited Edition. Видеокарта GTX 295 MARS была представлена компанией ASUS в рамках выставки Computex 2009. Несмотря на название, карта ASUS серьезно отличалась от эталонной версии GTX 295. Во-первых, инженеры ASUS применили в своем детище полноценные видеочипы GT200b с полным набором ROP. Во-вторых, был увеличен суммарный объем видеопамяти стандарта GDDR3 с 1792 Мб до 4096 Мб, а шина доступа памяти расширилась с 448 бит до 512 бит соответственно. В-третьих, были серьезно увеличены тактовые частоты графической карты: видеочипы функционировали на частоте 648 МГц, а память на 2400 МГц. Таким образом ASUS MARS технически представлял из себя пару GeForce GTX 285, которые работали в режиме SLI и требовали для подключения лишь один разъем PCI-E x16. Видеокарта была выпущена ограниченным тиражом в 1000 экземпляров, а ее обзор и тестирование можно посмотреть, пройдя по ссылке.

                 


 




EVGA  GTX 460 2Win. Еще в рамках международной выставки CES, проходившей в начале 2011 года, компанией EVGA демонстрировался прототип загадочной двухчиповой видеокарты. Примечательно, что EVGA не обозначала принадлежность своего детища к какой либо существующей серии, поэтому простым посетителям оставалось лишь гадать, что было перед ними: двухчиповая GTX 460, GTX 560, либо может быть даже еще не анонсированная GTX 590! Тайное стало явным лишь в марте 2011 года, когда EVGA официально представили видеокарту GeForce GTX 460 2Win. Видеоадаптер основывался на паре графических процессоров NVIDIA GF104, которые функционировали на частоте 700 МГц (немногим выше стандартных 675 МГц). Каждый видеопроцессор обладал собственным 1 Гб памяти стандарта GDDR5 и сообщался с ней посредством 256 битной шины. Длина печатной платы составляла 293 мм, а дополнительное питание подавалось посредством пары 8-pin PCI-E разъемов. При рекомендованной стоимости в $430 видеокарта позиционировалась как конкурент для одиночной GeForce GTX 580. Обзор и тестирование видеокарты EVGA GeForce GTX 460 2Win можно посмотреть, пройдя по ссылке

               

Zotac  GTX 460 Dual. Прототип двухчиповой GeForce GTX 460 производства Zotaс был запечатлен сотрудниками сайта Expreview осенью 2010 года. Видеокарта имела в своей основе пару видеочипов GF104, каждый видеочип располагал 1024 Мб видеопамяти стандарта GDDR5 и сообщался с ней посредством 256 битной шины. Помимо пары GPU, чипов памяти и разъема MIO, на печатной плате была распаяна специальная микросхема NVIDIA nForce 200, которая отвечала за распределение линий PCI-E между видеочипами. Дополнительное питание подавалось посредством пары 8-pin PCI-E разъемов. За вывод изображения отвечал квартет разъемов DVI. Частоты видеокарты так и остались неизвестными, так как в серийное производство она не пошла. Ссылка на оригинальную новость.

                 


Galaxy  GTX 470 Co-op. Трудно сказать, насколько популярной была гибридная видеокарта GTX 275 Co-op PhysX производства EVGA, однако ее существование явно задело за живое Galaxy, поскольку компания отважилась представить свою версию подобного ускорителя в рамках выставки Computex 2010. Инженеры Galaxy пошли по проторенной дорожке и идейно GeForce GTX 470 Co-op полностью копировал изделие компании EVGA, с той лишь разницей, что место видеочипа GT200b занял более продвинутый GF100, обладавший поддержкой DirectX 11 и на плечи которого возлагалась обработка графических данных, а место G92b занял GF215 предназначавшийся исключительно для обработки игровой физики. Никуда не делся и чип nForce 200, который отвечал за согласованную работу видеочипов. Как и GTX 275 Co-op, видеокарта оборудовалась парой разъемов дополнительного питания и несла на себе два разъема MIO, для обеспечения возможности объединения пары видеадаптеров в режиме SLI. За коммуникационные возможности отвечала двойка разъемов DVI и один Mini HDMI. В серию видеокарта не пошла. 

               


Galaxy  GTX 470 Dual. До начала международной выставки Computex 2010 в Сети постоянно появлялись слухи о том, что NVIDIA собирается выпустить двухчиповую видеокарту GeForce GTX 490, основанную на паре новых графических чипов GF104. По сравнению с GF100, этот чип должен был обладать более низким уровнем энергопотребления и меньшей площадью ядра. Считалось, что на базе двух чипов GF100 создать видеокарту невозможно. Однако компания Galaxy готова была опровергнуть это утверждение, представив на своем стенде прототип двухчипового варианта GeForce GTX 470. Интересно, что Galaxy снабдила свою видеокарту SLI разъемом, что предполагало возможность объединения парочки таких "монстров" в режиме Quad SLI. Длина печатной платы приближалась к 300 мм, а за дополнительное питание отвечало два восьмиштырьковых разъёма, на задней панели были расположены три разъема DVI. Как это обычно бывает, амбициозным планам не суждено было сбыться и дальше прототипа дело не пошло, в серию видеокарта не пошла. 

               

                   


ASUS  GTX 480 Dual (ex MARS II). В одном из давних интервью ресурсу bit-tech представитель компании ASUS признался, что если они и будут разрабатывать двухчиповую карту, основанную на видеочипах NVIDIA семейства Fermi, то эта видеокарта будет основана на полноценной, старшей версии GPU - GF100, а не на младшей GF104, на которой были основаны видеокарты серии GTX 460. Вскоре после этого интервью в сеть утекли изображения некоей двухчиповой видеокарты ASUS, основанной на видеочипах, которые использовались в GeForce GTX 480 (GF100-375-A3). Помимо пары чипов GF100, на длинной печатной плате располагалась специальная микросхема NVIDIA nForce 200, отвечавшая за разделение линий PCI-E и совместную работу чипов. Объем установленной видеопамяти стандарта GDDR5 равнялся 3072Мб (по 1536 Мб для каждого GPU). Питание видеокарте подавалось посредством трех 8-pin PCI-E разъемов. Возможно, видеокарта должна была стать частью серии Republic of Gamers, но задуманному не суждено было воплотиться в виде серийного продукта, так как скорый анонс видеочипа GF110 поставил под вопрос целесообразность создания двухчиповой платы, основанной на паре устаревающих чипов GF100. В серию видеокарта не пошла, ссылка на оригинальную новость. 

                 


 



  

KFA2  GTX 560 Ti Dual. Компания KFA2 анонсировала свою белоснежную GeForce GTX 560 Ti Dual сразу же после выставки CES проходившей в начале 2011 года, где была представлена видеокарта EVGA GTX 460 2 Win, которая, собственно, и заставила KFA2 поспешить с анонсом своей версии. Правда в то время планировалось выпустить видеокарту на основе пары видеочипов GF104 и название она носила не GTX 560 Ti Dual, а GTX 460 Dual. Время шло, EVGA уже успела выпустить свою GTX 460 2Win, успел выйти и обновленный видеочип GF114 и в KFA2 решили проапгрейдить свою карту до GeForce GTX 560 Ti Dual, при этом печатная плата не претерпела никаких существенных изменений. Видеокарта была построена на основе пары видеочипов GF114, помимо двух GPU и микросхем памяти на плате располагался специальный чип-коммутатор, а за вывод изображения на экран монитора отвечала четверка разъемов DVI и одиночный Mini HDMI. Дополнительное питание видеокарты подавалось посредством пары 8-pin PCI-E разъемов. К сожалению, в серию KFA2 GeForce GTX 560 Ti Dual не пошла. Ссылка на оригинальную новость. 


               



EVGA  GTX 560 Ti 2Win. EVGA GeForce GTX 560Ti 2Win практически во всем повторяла свою предшественницу GTX 460 2Win. Сразу же бросался в глаза обновленный кожух системы охлаждения, немного видоизмененная подсистема питания, да парочка лишних конденсаторов в верхней и нижней части печатной платы. Разумеется, место старых видеочипов GF104, заняли новые GF114, выросли и тактовые частоты: скромные 700 МГц преобразились во внушительные 850 МГц, видеопамять же прибавила в частоте лишь 400 МГц, ее частота составляла 4008 МГц, а суммарный объем остался прежним - 2048 Мб. Рекомендованная стоимость EVGA GTX 560 Ti 2Win на момент анонса составляла $519, рекламный проспект обзор и тестирование видеокарты можно посмотреть, пройдя по ссылке

               


NVIDIA  GTX 590   Флагманская видеокарта GeForce GTX 590 была представлена спустя всего 16 дней после анонса своего конкурента в лице Radeon HD 6990. Графический ускоритель имел в своем распоряжении пару видеочипов GF110, выполненных по 40 нм техпроцессу, которые функционировали на частоте 607 МГц. Суммарный объем видеопамяти стандарта GDDR5 равнялся 3072 Мб, а функционировала она на частоте 3414 МГц. Печатная плата видеоадаптера во многом напоминала таковую у одноплатной GeForce GTX 295, а система охлаждения претерпела лишь косметические изменения: место пары тепловых трубок в радиаторах видеочипов заняла более современная испарительная камера, да и все. 


                


Единственным партнером NVIDIA, выпустившим свой вариант GeForce GTX 590, была компания EVGA, которая снабдила эталонную печатную плату Full Cover водоблоком оригинальной конструкции и повысила частоты видеочипов до 630 Мгц. Обзор и тестирование GeForce GTX 590 можно посмотреть тут и тут.


ASUS  GTX 590 MARS II. Анонс ASUS GTX 590 MARS II состоялся в рамках международной выставки Computex 2011. Технически видеокарта представляла собой два графических адаптера NVIDIA GeForce GTX 580, расположенных на одной печатной плате. В отличие от референсной модели GeForce GTX 590, MARS II имел увеличенные рабочие частоты, существенно переработанную подсистему питания и компонентную базу, а также иную прошивку BIOS, что в совокупности обеспечивало 22% преимущество (по официальным данным) над эталонным двухчиповым решением. Согласно финальным спецификациям MARS II, пара графических процессоров GF110 работала на частоте 782 МГц, для ядер CUDA (по 512 на каждый GPU) частота была установлена на отметке 1564 МГц. Между GPU распределялось 3 Гбайт видеопамяти стандарта GDDR5 с эффективной частотой 4008 МГц и 384-битным интерфейсом. Всего было выпущено 1000 графических ускорителей, каждый из которых был укомплектован особой алюминиевой пластиной с серийным номером видеокарты. Обзор и тестирование графического ускорителя ASUS MARS II можно посмотреть, пройдя по ссылке.   

   


 



NVIDIA  GTX 690. GeForce GTX 690 была впервые представлена 29 апреля 2012 года, всего через месяц после анонса одночипового флагмана в лице GTX 680. Видеокарта была построена на основе пары видеочипов GK104 выполненных по 28 нм техпроцессу, каждый из которых располагал 1536 CUDA ядер и функционировал на частоте 915 МГц, которая динамически увеличивалась до 1019 МГц, видеопамять же стандарта GDDR5 функционировала на эффективной частоте 6008 МГц, а ее суммарный объем равнялся 4096 Мб. Для подключения к блоку питания использовалось два восьмиштырьковых разъёма дополнительного питания, а общий уровень энергопотребления не превышал 300 Вт. За согласованную работу видеочипов отвечала специальная микросхема PLX с поддержкой стандарта PCI Express 3.0. Примечательно, что экземпляры видеокарты, предназначенные для написания обзоров, поставлялись в крупной деревянной коробке и снабжались специальным ломиком.


                 


Единственной компанией, которая выпустила версию GTX 690 хоть немного отличавшийся от референсного дизайна была EVGA, снабдившая свою карту водоблоком, пусть и довольно посредственного качества. Обзор и тестирование видеокарты можно посмотреть, пройдя по ссылке

                  

  

EVGA  GTX 680 Gemini 2 Win. EVGA представила свою версию GeForce GTX690 в рамках выставки Computex 2012. Видеокарта основывалась на паре видеочипов GK104 и оснащалась 4 Гб видеопамати стандарта GDDR5 (по 2 Гб на каждый GPU), хотя наклейка на системе охлаждения создавала ложное представление о том, что на видеокарте были распаяны все 16 Гб. На самом же деле сокращение K16G обозначало присутствие фирменной 16-ти фазной системы питания, само же питание подавалось посредством трех дополнительных 8-pin PCI-E разъемов. За вывод изображения отвечало трио разъемов DVI и одиночный Mini HDMI. Система охлаждения EVGA GeForce GTX680 2 Win представляла из себя массивную трехслотовую конструкцию, причем по фотографиям невозможно было определить место расположения вентилятора. Возможно, система охлаждения была устроена аналогично кулеру WindForce 5X видеокарты Gigabyte GTX 680 Super Overclock. Серийно видеокарта EVGA GeForce GTX 680 Gemini 2 Win никогда не выпускалась, так и оставшись прототипом. Ссылка на оригинальную новость.

                         

NVIDIA Tesla K10. Профессиональный ускоритель вычислений, который основывался на паре видеочипов GK104, каждый из которых имел в своем распоряжении 1536 CUDA ядер и 4 Гб видеопамяти стандарта GDDR5. По своим характеристикам карта практически полностью повторяла прототип ASUS MARS III и была бы очень грозным соперником для GTX 780 и GTX TITAN, если бы NVIDIA выпустила настольную версию, снабженную видеовыходами.


ASUS  GTX 690 MARS III. Компания ASUS представила видеокарту GeForce GTX 690 MARS III, которая должна была стать флагманом серии Republic of Gamers, в рамках выставки Computex 2012. Видеоадаптер был построен на основе пары графических процессоров GK104 и оснащался рекордными 8 Гб видеопамяти стандарта GDDR5. Помимо внушительного объема видеопамяти видеокарта могла похвастаться 20+1 фазной системой питания (по 8+2 фазы для каждого GPU и 1 для PLL), а само питание подавалось посредством трех дополнительных 8-pin PCI-e разъемов. За отвод тепла отвечала массивная система охлаждения, оснащавшаяся тремя вентиляторами разных типоразмеров. Для вывода изображения была предусмотрена тройка разъемов DVI и одиночный Mini DisplayPort, что, посредством технологии 3D Vision Surround, давало возможность организовать конфигурацию с тремя Full HD мониторами. К несчастью, ASUS GeForce GTX 690 MARS III повторил судьбу GTX 480 MARS II, так и не добившись статуса серийного продукта. Ссылка на оригинальную новость.


 

  



  


NVIDIA Tesla M10. Очередной гость из профессионального сегмента, который по сути и не имеет права называться видеокартой, ведь ни одного видеовыхода на  карте предусмотрено не было. Тем не менее сама карта достаточно интересная, ведь это единственный графический ускоритель производства NVIDIA, который может похвастать наличием сразу ЧЕТЫРЕХ видеочипов, которые располагаются на одной печатной плате. Не знаю, чем руководствовались инженеры компании при проектировке этого чуда, скорее всего свою роль сыграл излишек видеочипов GM107, которые решили реализовать таким вот изощренным способом... Под кожухом системы охлаждения пряталась четверка тех самых GM107, каждый из которых располагал 640 CUDA ядрами, к слову, такой же GPU устанавливался в одиночные GeForce GTX 750Ti. Помимо квартета видеочипов на плате располагалось 16 банок памяти стандарта GDDR5 общим объемом в 16 Гб, еще 16 Гб было расположено с обратной стороны печатной платы, таким образом общий объем памяти достигал весьма впечатляющих даже по сегодняшним меркам 32 Гб, по 8 Гб для каждого видеочипа! Сложно сказать какой модели соответствовала бы данная видеокарта, выпусти NVIDIA ее дополненную версию с видеовыходами в настольный сегмент. Из-за ограниченной поддержки SLI, она скорее всего не смогла бы угнаться и за одиночной GTX 670, при этом в большинстве проектов и вовсе проигрывала бы бюджетной GTX 660.



ASUS  GTX 760 MARS. Видеокарта ASUS ROG GTX 760 MARS была официально представлена 15 ноября 2013 года. Отличительной особенностью графического ускорителя стало использование "почиканных" до 1152 ядер CUDA видеочипов GK104, в то время как предыдущие двухчиповые карты серии Republic of Gamers по всем параметрам превосходили топовые видеокарты своих серий и изготавливались с использованием полноценных видеочипов. Вспоминая недавно анонсированный ASUS Poseidon GTX 780, основанный на дважды "почиканном" GK110 невольно задаешься вопросом, почему такая серьезная компания использует в своих явно имиджевых продуктах неполноценные графические процессоры. Как бы то ни было, вернемся к GTX 760 MARS: видеокарта получила в свое распоряжение пару GPU GK104, которые функционировали на частоте 1006/1072 МГц против 980/1033 МГц характерных для одиночной GTX 760. Суммарный объем памяти типа GDDR 5 равнялся 4 Гб, функционировала она на частоте 6000 МГц. Оригинальная система охлаждения была выполнена в фирменной стилистике Republic of Gamers. Обдув осуществлялся парой 90 мм вентиляторов, а за отвод тепла от графических чипов отвечала пара идентичных алюминиевых радиаторов, каждый из которых мог похвастать четырьмя тепловыми трубками, нашла себе применение и технология прямого контакта, столь любимая инженерами ASUS. Обзор и тестирование видеокарты можно посмотреть, пройдя по ссылке.

                       


NVIDIA Tesla K80. Профессиональный ускоритель вычислений, который основывался на паре видеочипов GK210, каждый из которых имел в своем распоряжении 2496 CUDA ядер и 12 Гб видеопамяти стандарта GDDR5. Сами видеочипы по своим характеристиками находились где-то между настольной GTX 780 и самым первым GTX TITAN. Сложно сказать, почему было принято решение использовать видеочипы, у которых заблокировано по 384 CUDA ядра, ведь в случае более дешевого GTX TITAN Z компания не пожадничала и использовала чипы GK110 в их полной конфигурации.


NVIDIA  GTX TITAN Z   Релиз видеоадаптера GeForce Titan Z состоялся 25 марта 2014 года и запомнился прежде всего... заявленной стоимостью в $2999! Видеокарта фактически представляла из себя сдвоенный GeForce Titan Black и получилась бескомпромиссной не только ввиду своей стоимости. Шутка ли, инженеры компании умудрились уместить пару полностью функциональных видеопроцессоров GK110 и 12 Гб высокоскоростной видеопамяти стандарта GDDR5 на привычной для старших графических решений NVIDIA плате длиною 267 мм. То есть по длине и ширине графический адаптер не отличался от одиночной GTX 780, однако ввиду горячего нрава пары старших графических чипов семейства "Kepler", высоту системы охлаждения всё же пришлось увеличить до 3 слотов. На момент анонса GTX Titan Z, безусловно, был самой быстрой видеокартой на планете. Однако счастье длилось недолго: вышедший 2 неделями позже AMD Radeon R9 295X2 мало того, что продавался по вдвое более низкой стоимости в $1499, так еще и предлагал покупателю уникальную замкнутую систему водяного охлаждения и в играх опережал своего конкурента из зеленого лагеря благодаря тому, что сохранил частоты одночиповых Radeon R9 290X, в то время как у Titan Z частоты были существенно ниже, чем у одиночных GeForce 780TI и GeForce Titan Black. Отдельно отметим и необоснованно высокую стоимость видеокарты: ведь пара GeForce Titan Black, производительность которых в профессиональных приложениях была бы даже выше за счет более высоких частот, обошлась бы покупателю на треть дешевле. А для игровых приложений дуэт GeForce GTX 780TI, по соотношению цена/качество оставил бы позади и пару Titan Black и Titan Z. Но рынок расставил всё на свои места и уже осенью NVIDIA начала предлагать Titan Z по цене вдвое меньшей, чем было изначально заявлено. Партнерам видеокарта предлагалась строго эталонного дизайна, ведь известно, что компания запрещала вносить изменения в дизайн печатной платы и системы охлаждения видеокарт семейства Titan. Однако это не остановило инженеров Inno3D от разработки альтернативной системы охлаждения для GeForce Titan Z, которая попала в объектив фотокамеры во время одного из визитов репортёров в офис компании. К сожалению, итоговая эффективность этой конструкции осталась неизвестной, так как до стадии серийного производства дело не дошло. Однако нельзя не отметить, что выглядела система охлаждения очень эффектно. Вероятно, предполагалось продавать карту эталонного дизайна в комплекте с альтернативным охладителем и покупателю пришлось бы взять на себя весь риск по её самостоятельной установке на видеокарту. Во всяком случае аналогично поступает компания Gigabyte, которая предлагает эталонные версии видеокарт семейства Titan в комплекте со своим фирменным кулером Windforce 3. Обзор и тестирование видеокарты можно посмотреть пройдя по ссылке.

 

                       




NVIDIA Tesla M80. Профессиональный ускоритель вычислений, который основывался на паре видеочипов GM204, каждый из которых имел в своем распоряжении 2048 CUDA ядер и 8 Гб видеопамяти стандарта GDDR5. Сами видеочипы по своим характеристиками полностью соответствовали тем, что устанавливались в настольные версии GTX 980, отличаясь лишь рабочими частотами. Традиционно для серии Tesla ускоритель был полностью лишен каких бы то ни было видеовыходов





При написании заметки использовались материалы следующих интернет ресурсов:

  • http://www.3dfx.cz
  • http://www.3DNews.ru
  • http://www.AlienBabelTech.com
  • http://www.AmoRetro.de
  • http://www.Bit-tech.net
  • http://www.DVHardware.net
  • http://www.Expreview.com
  • http://www.Ferra.ru
  • http://www.GeekTimes.ru/
  • http://www.Guru3D.com
  • http://www.Hardware.fr
  • http://www.Hardware.info
  • http://www.HardwareHeaven.com
  • http://www.Hardwareluxx.ru
  • http://www.HardwareZone.com
  • http://www.Hexus.net
  • http://www.HotHardware.com
  • http://www.HWP.ru
  • http://www.Igromania.ru
  • http://www.iXBT.com
  • http://www.ModLabs.net
  • http://www.Neoseeker.com
  • http://www.Overclock3D.net
  • http://www.Overclockersclub.com
  • http://www.Overclockers.ru
  • http://www.Overclockers.ua
  • http://www.Pcang.com
  • http://www.PCnews.by
  • http://www.PConline.com.cn
  • http://www.PCPer.com
  • http://www.PCPop.com
  • http://www.PCSTATS.com
  • http://www.PureOverclock.com
  • http://www.Tdfx.de
  • http://www.TechpowerUP.com
  • http://www.TheDodgeGarage.com
  • http://www.THG.ru
  • http://www.TweakTown.com
  • http://www.U-sm.ru
  • http://www.Vccollection.ru
  • http://www.VGAmuseum.ru
  • http://www.VR-Zone.com
  • http://www.Wccftech.com
  • http://www.Wikipedia.org
  • http://www.XtremeSystems.org
  • http://www.XTReview.com
  • http://www.Zol.com.cn

Спасибо тем фотографам и интернет ресурсам, которые не ленились делать качественные фотографии и при этом не уродовали их вотермарками. Так же я извиняюсь перед теми ресурсами, чьи аккуратные вотермарки мне все-таки пришлось стереть, сей проступок я попытался исправить добавлением ссылок на первоисточник материалов. Особенная благодарность товарищам Slaventus86, HRush и Kolian за прекрасные фотографии редких видеокарт, часть которых я позаимствовал из их коллекций для написания этой заметки.

Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news - это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
Оценитe материал
рейтинг: 4.6 из 5
голосов: 10

Возможно вас заинтересует

Популярные новости

Сейчас обсуждают