Опыт разгона с вольтмодом видеокарты SPARKLE GF6600 AGP 128Mb
реклама
О! А вот и оно!
Скажу сразу: у меня не было цели исследовать повышение производительности при разгоне, только голые мегагерцы. Поэтому набор тестов минимален.
Для начала конфигурация компа:
M/B: Epox 8RDAE
CPU: Athlon 1700+ @ 2200 MHz (11*200)
Memory: 2x256Mb NCP + 512Mb Hynix (2.5-3-3-5)
Video: SPARKLE GF6600-AGP 128Mb
остальное не существенно (есть в профиле)
Эту видеокарту я покупал для замены своей старушки GeFoce4 Ti4200, честно отработавшей 1.5 года, и с "вылизанным" разгоном выдававшей в 2001 3DMark ~13000 попугаев. И вот новая 150-ти долларовая красавица установлена в слот, а ее 40-а енотная предшественница отправилась в газету с названием что-то типа "Ноги в руки". Теперь вы представляете, с каким грохотом упала моя челюсть на стол, когда тот же самый "Святой Марк" выдал мне те же 13000 пернатых говорунов. Собрав остатки челюсти и самообладания, я запустил 3DMark03. "Моя бывшая" больше чем 1800 очков не соглашалась. А эта новенькая...
На номинальных частотах (300/550) результат в 3DMARK03 составлял ~5000 marks. На драйверах 76.10 без модернизаций разгон составил 560/680. После включения термомониторинга с помощью Nibitor и Nvflash было принято решение о смене штатного охлаждения - так как температура на ядре в нагрузке доходила до 95 градусов! Вот что из этого получилось:
(кликните по картинке для увеличения)
Мой Sparkle6600 - общий вид
(кликните по картинке для увеличения)
Мой Sparkle6600 - вид сзади
В качестве охлаждения использовался кулер DragonOrb со снятым "вторым" этажом для сокет-А, удаленный из компьютера соседа, ввиду его (кулера) невероятного шума, еще бы - 6500rpm!!! В подошве радиатора в как-будто специально для этого сделанных выступах просверлил два отверстия диаметром 4мм и привернул этого монстра к плате винтами с гайками М3 через картонные шайбы, которые шли вместе с крепежом к корпусу. Штатную термопасту заменил на КПТ-8. Для ограничения скорости в разрыв провода питания (красный) впаян резистор 30 Ом. Скорость упала до 4500rpm, шум снизился до приемлемого. Радиаторы на память приклеены Алсилом-5. Теперь разгон составлял 580/720. Ну что ж, займемся вольтмодом.
(кликните по картинке для увеличения)
Мой Sparkle6600 - вольтмод
Напряжение на ядре выставил 1.6В, на памяти 2.9В
Дальнейшее поднятие напряжения не приводило к заметному увеличению частотного порога. Температура в нагрузке не превышает 57 градусов Разгон 614/756
(кликните по картинке для увеличения)
Результат 3DM03 (614/756)
С преодолением порога в 600 МГц на ядре неожиданно выползли две проблемы:
1. Видеокарта стала неожиданно выключатся в некоторых играх и тестах - просто черный экран и монитор мигает, как будто комп вообще выключен. Особенно критично это было в 4-м тесте 3DM03 - "Mother Nature": запустив его в бесконечный цикл, карта уходила в даун после 2-5 прогонов в зависимости от частоты. Спасает резет.
2. Оказалось невозможным в RivaTuner сохранить частоту более 600 МГц для установки при загрузке. Т.е. ставлю, к примеру, 612, нажимаю "Save", ставлю галку "Apply overclocking", перезагружаюсь и опаньки: получаю дефолтные 300 МГц. Все что меньше 600МГц сохраняется без проблем.
Решение первой проблемы. После изучения документации на микросхему APW7063, управляющую питанием ядра и памяти,(а именно она отключалась) стало понятно, что срабатывает защита по потребляемому нагрузкой (ядром) току. Порог срабатывания защиты прямо пропорционален сопротивлению резистора, подключенному к 7-му выводу микросхемы. Его сопротивление составляло 1.2 кОм. Результат очевиден - резистор выпаян, и заменен на больший - 1.6 кОм. На фото обведен красным. Итог: злополучный тест крутился без сбоя на 620МГц (правда, артефактов было много.)
Решение второй проблемы. С помощью программы nvflash я заменил прошивкой в БИОСе дефолтную частоту ядра 300МГц на 400МГц. (БИОС 400.rom) В результате предел ползунков в панели управления nVidia (свойства-параметры-дополнительно-GeForce660-ClockFrequencySettings) вырос до 800 МГц (раньше было 600) и теперь частоты выше 600 прекрасно сохраняются, вплоть до 800! А выше 800 НЕ сохраняются! Закономерность, однако.
Дальнейший разгон осуществлялся путем изменения таймингов памяти с помощью программы NTimings. Один из участников форума на www.topmods.net экспериментальным путем нашел оптимальные значения для SPARKLE:
цитата:
Вот тайминги, которые я ставил для 790 МГц (по порядку как они идут, сверху вниз, слева направо):
3-16-11-6-0-0-4-0-0-1-0-5-6
Проделав нехитрую процедуру, я получил 800МГц на памяти и следующие результаты в марках:
3DM05 3593marks
(кликните по картинке для увеличения)
Результат 3DM05 (614/803)
3DM03 7855marks
(кликните по картинке для увеличения)
Результат 3DM03 (614/803)
Жалко, только эти тайминги нельзя сохранить в BIOS - nibitor пока некорректно работает с таймингами GeForce6600. Ждем обещанного обновления.
А вот собственно и оно - Nibitor 2.1
Легким движением клавиш файл БИОСа отредактирован и зашит в видеокарту.
Теперь при включении компьютера меня радует надпись Sparkle GeForce 6600 ULTRA. Дефолтные частоты ядра и памяти зашил 500 и 700 МГц соответственно. (БИОС 500.rom)
Последний опыт был проведен для определения потенциала видюхи при дополнительном охлаждении. Я поставил компьютер к открытому балкону (март на дворе). В результате температура ядра не превышала 45 градусов, а итоговые частоты ядра/памяти составили
631/850 МГц. Результаты марков:
3DM03 - 8272
3DM05 - 3770
И это без артефактов.
P.S. Файлы БИОС можно скачать в разделе "файлы"
реклама
Лента материалов
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Сейчас обсуждают