реклама
Об уровне предельного энергопотребления видеокарт GeForce 8800 GTX руководство NVIDIA говорит открыто, называя цифры порядка 177 Вт. Как уточняют коллеги с сайта The Inquirer , видеокарта GeForce 8800 GTS потребляет на 10 Вт больше, чем GeForce 7900 GTX. Флагманская GeForce 8800 GTX потребляет на 40 Вт больше, чем GeForce 7900 GTX. Кстати, для обозревателей у NVIDIA оказалась припасена несколько иная цифра - 145.5 Вт в режиме максимальной нагрузки.
Вчера мы выяснили, что видеокарты на базе чипа R600 смогут уложиться в диапазон потребляемой мощности 200-220 Вт, даже с учётом соответствия требованиям PCI Express 2.0, расширяющим доступную видеокартам мощность до 225-300 Вт. Коллеги с сайта The Inquirer добавляют, что даже готовящиеся к анонсу в 2007 году видеокарты смогут уложиться в бюджет мощности 225 Вт.
реклама
Казалось бы, утверждение спецификаций PCI Express 2.0 в начале 2007 года должно снять с производителей видеокарт ограничения на потребляемую мощность, ведь системы с поддержкой PCI Express 2.0 смогут обеспечивать до 300 Вт для питания видеокарты. Однако, такие системы появятся не ранее середины года, да и распространены они будут мало. Заставляя поклонников флагманских видеокарт каждые полгода полностью менять компьютер, можно растерять всех клиентов, поэтому производители наверняка учтут интересы тех, кто готов добавить к пределу мощности современных слотов PCI Express x16 (75 Вт) только пару дополнительных разъёмов питания, обеспечивающих по 75 Вт каждый. В сумме получим искомый "бюджет мощности" - 225 Вт.
Как поясняют коллеги, в идеале плата на базе чипа R600 должна потреблять только на 50 Вт больше Radeon X1950 XTX. Конечно, решения на базе чипа R580+ нельзя назвать умеренно горячими - здесь они считаются рекордсменами по энергопотреблению среди одночиповых продуктов, но на звание термоядерного реактора R600 тоже не спешит претендовать. Для снижения энергопотребления AMD и NVIDIA будут осваивать новые техпроцессы и совершенствовать управление питанием графических решений, а также оптимизировать дизайн видеокарт.
Сейчас обсуждают