Я думаю, что ошибусь не сильно, если скажу, что видеокарты на чипах семейства Riva TNT2 стали по-настоящему "народными". Хорошие драйверы, высокая производительность и масштабируемость, неплохое качество изображения, снизившиеся в последнее время цены - вот причины популярности этих видеокарт. Но их время определенно прошло, и скоро популярным должен стать другой удачный чип nVidia - GeForce2 MX. Я попытаюсь доступно объяснить, что он из себя представляет, как работает, какую производительность показывает, как и зачем его разгонять, так как убежден, что в ближайшее время именно эти видеокарты станут самыми популярными, и эта информация может быть полезной многим.
Конвейеры
Как известно, 3D-ускоритель позволяет отображать на экране проекцию объемной сцены. Для этого нужно, как минимум, преобразовать координаты треугольников, из которых состоят геометрические модели, спроецировав их на область экрана, убрать невидимые области, закрасить видимые текстурой (или несколькими - мультитекстурирование), поместить полученный результат в буфер кадра, а RAMDAC преобразует данные в аналоговый сигнал и с нужной частотой передаст картинку на монитор. Исходя из этой приблизительной схемы работы 3D-ускорителя рассмотрим, чем GeForce2MX отличается от предшественников, "старшего брата" GeForce2 GTS/Pro/Ultra, и в какую сторону - в лучшую или худшую.
Итак, Riva TNT (TNT - TwiN Texel) был одним из первых чипов с двумя конвейерами рендеринга (построения 3D-сцены) в составе одного чипа. Тем самым он мог обрабатывать по два пиксела за раз, а если нужно было накладывать по две текстуры, то по одному, так как каждый конвейер мог накладывать только по одной текстуре. TNT2 в этом плане не сильно отличается от предшественника, зато GeForce256 (a.k.a. GeForce1) имеет этих конвейеров в два раза больше и справлялся с вдвое большей нагрузкой. Кроме того, GeForce1 имеет в составе блок преобразования координат и расчета освещения - раньше эти задачи должен был решать процессор. Зато GeForce2 получил конвейеры с двумя блоками наложения текстур, так как необходимость накладывать две и более текстуры нужна во всех современных играх.
Так как семейство GeForce для среднего пользователя недоступно из-за высокой цены, логично было ожидать появления чего-нибудь попроще, но функционально соответствующего старшим моделям. Так вот, чип GeForce2 MX можно рассматривать с двух сторон. С одной, это половина GeForce2 GTS, так как число конвейеров у MX всего два. С другой стороны, это усиленная TNT2, так как два конвейера имеют по два блока текстурирования. В общем, получается что-то посередине - вроде как аналог GeForce1. При этом номинальная частота GeForce2 MX заметно выше, чем у первого GeForce - 175 МГц против 120.
Но результаты тестов показывают, что, превосходя GeForce1 на 46% по частоте, на самом деле GeForce2 MX практически не опережает предшественника. Чип при этом не при чем, так как есть еще один компонент видеокарты, влияющий на общую производительность, - память.
Память
В процессе построения проекции трехмерной сцены данные (в основном это текстуры) должны поступать на конвейер непрерывным потоком. Хотя и была попытка использовать для этого основную память компьютера (статью про AGP помните?), видеокарты по-прежнему оснащаются солидным массивом своей локальной памяти. Именно оттуда данные и поступают в чип.
Вспомним историю. Память, которую использовал Riva TNT, имела более высокую частоту, чем сам чип (110 против 90), и подключалась с помощью 128-битной шины. У GeForce2 GTS/Pro/Ultra число требующих текстур блоков выросло в четыре раза, поэтому он использует память с удвоенной скоростью передачи (DDR). Хватает ли ему этого? Вряд ли. Вот если бы GeForce2 MX, с половиной конвейеров, использовал DDR... Но в целях удешевления и (мое мнение) для того, чтобы снизить производительность продукта, относящегося к младшей линейке (иначе хорошее вытеснит лучшее), последний оснащается обычной SDRAM, да еще и на той же частоте, что и память у GeForce1. А ведь есть GeForce1 с памятью DDR, показывающий неплохие результаты, хотя по частоте он уступает MX. Память - мощный тормоз, не дающий GeForce2 MX показать все, на что он способен.
Кстати, о M64, имеющей урезанную шину памяти (64 против 128 бит). Неожиданно, "без объявления войны", nVidia дает возможность выпускать GeForce2 MX M64, он же MX/16, оснащенный физически половиной памяти обычного MX. В таких условиях пропускной способности памяти просто катастрофически не хватает.
Как улучшить ситуацию? Разогнать память! Благо, она это позволяет. Перейду непосредственно к испытаниям, призванным немного помочь чипу, которому явно наступили на шланг с кислородом.
Разгон памяти
Большинство видеокарт на чипе GeForce2 MX оснащаются обычными модулями SDRAM-памяти с маркировкой "6 нс". Если произвести простые расчеты, получится, что они рассчитаны на частоту 1000/6=166 МГц. Но ведь для видеопамяти небольшие ошибки не критичны, так как заметить пару пикселов неверного цвета при смене кадров 30-50 раз в секунду невозможно. Поэтому разгон памяти вполне возможен, особенно если обеспечить охлаждение модулей. Тем самым видеочип, точнее, его конвейеры, будут простаивать меньше в ожидании данных, производительность улучшится.
Я провел эксперименты по разгону памяти двух видеокарт ASUS V7100, которые отличались только количеством и маркой модулей памяти. Посмотрим сначала на результаты видеокарты с 32 Мб памяти (шина - 128 бит). При использовании 16-битного цвета пропускная способность памяти вполне адекватна способностям чипа. Возрастает только чистый fillrate - скорость заполнения треугольников текстурами, да и то не на столько, на сколько разгоняется память. Зато в 32-битном режиме, когда поток данных возрастает в два раза, fillrate увеличивается пропорционально частоте памяти, и прирост в играх и бенчмарках уже хорошо заметен.
Видеокарта с 16 Мб и 64-битной шиной, значительно проигрывающая варианту с 32 Мб (в больших разрешениях более чем в 2 раза), в разгоне памяти просто-таки нуждается. И в 16-битном, и в 32-битном цвете fillrate ограничен только узкой шиной. Насколько разгоняется память, на столько возрастает производительность.
Как я разгонял память? Средствами самого драйвера. Я взял Detonator 6.26, включил закладку разгона и поднял частоту с 166 до 200 МГц, решив сразу "брать быка за рога". Кстати, встроенная возможность разгона в драйверах nVidia очень удобна и безопасна. Во-первых, перед установкой новых значений драйвер проводит мини-тест, во-вторых, если система не загрузится, нужно просто держать Ctrl - все настройки по разгону сбросятся по умолчанию.
В разогнанном состоянии память не давала повода для беспокойства. Температура чипов не поднялась, глюков не было видно даже во время напряженного тестирования. Более того, дальнейший разгон до 210 МГц (больше драйвер не позволяет) тоже оказался более чем успешным. А ведь есть видеокарты с 5.5 нс-памятью…
Итак, результаты тестирования показали, что разгон памяти не вреден и даже полезен видеокартам на GeForce2 MX. А вот разгонять сам чип смысла не имеет. Во-первых, без активного охлаждения он сильно греется. А во-вторых, он не является узким местом - зачем же тогда рисковать?
Вывод
Новый чип имеет все шансы заменить Riva TNT2 в самые кратчайшие сроки. Он обладает новыми возможностями, без которых в скором времени не будут обходиться игры, в частности, у него есть блок аппаратного T&L. Чип имеет вдвое более мощный конвейер, чем Riva TNT2. Его производительность соответствует GeForce1. Он дает лучшее качество изображения и не "замыливает" на высоких разрешениях (RAMDAC 350 МГц). Но самое главное - цена на видеокарты на базе GeForce2 MX не намного превосходит цену на видеокарты Riva TNT2 Pro/Ultra, причем "риве" уже не первый год, а MX только появился на свет. Конечно, память работает недостаточно быстро, а вариант с 16 Мб вообще "задыхается", зато сам чип много простаивает и не сильно греется - обходится даже без вентилятора:) Если вам не по карману "настоящий" GeForce2, почему бы не взять его "младшего брата"?
Макс КУРМАЗ,
[email protected],
[email protected]
Горячие темы