
Вероятно, многие читатели раздела Видеосистемы сайта iXBT.com уже устало вздыхают: "Когда же кончится это засилье видеокарт на чипах от NVIDIA?! Нам бы что-то иное, а то когда есть все время одни торты, то хочется закусить в конце концов соленым огурцом." Нам понятны эти возгласы и даже подобные причитания. Да и в форуме iXBT меня, как ведущего раздел, ругают на чем свет стоит за то, что продукции ATI мы мало уделяем внимания. Безусловно, у нас пробелы в этом плане есть, но все же главной причиной такого, казалось бы, неравноправия является то, что ATI выпускает видеокарты только сама (лишь с выпуском RADEON LE обозначился у нее малоизвестный публике партнер, который стал помогать ATI с выпуском более дешевых модификаций). А значит, что линейка выпускаемых плат на RADEON четко обозначена:
- RADEON 64MB DDR (VIVO) Retail (183 MHz)
- RADEON 64MB DDR (VIVO) OEM (166 MHz)
- RADEON 32MB DDR (166 MHz)
- RADEON 32MB SDR (160 MHz)
- RADEON LE 32MB DDR (148 MHz)
- RADEON VE (150-166 MHz)
В большинстве своем карты отличаются лишь разными типами и частотами установленной на них памяти, графический процессор — один и тот же, но также работающий на разных частотах. Поэтому разница между ними может быть лишь в производительности. Ну и в комплектации VIVO. Только один тип — RADEON VE сильно отличается от предшественников.
А вот видеокарт на GPU NVIDIA GeForce2 и особенно GeForce2 MX вышло за последние полгода очень много. И если бы все были похожи друг на друга как две капли воды, то тогда и писать про каждую из них нечего, а только выпустить что-то вроде сводного обзора, как ранее мы поступали. Однако, приступив в свое время к изучению первых вышедших в свет подобных карт, я обнаружил, что они могут очень сильно отличаться друг от друга, даже имея в основе один и тот же референс-дизайн.
Пользователи GeForce2 MX — карт знают уже прекрасно, что карты могут сильно отличаться хотя бы по качеству в 2D. Я уж не говорю, что появилось очень много карт с индивидуальными особенностями, такими как разные типы памяти и ее объемы, наличие аппаратного мониторинга и т.д. А почти все они поступают в продажу, и пользователи подчас не знают, стоит покупать или нет карту на GeForce2 NX такой-то марки или от того или иного производителя. Потому мы и решили по возможности охватывать парк видеокарт на популярном чипсете.
Однако то, что при этом мы запустили освещение разновидностей видеокарт от ATI — это наша вина. Я не буду ссылаться на постоянную занятость и искать причины, я просто признаю свою вину в том, что так получилось. Я полагал, что демонстрация возможностей этих плат через 3DGiТоги (вверху приведены ссылки на мини-обзоры из этого материала) даст более-менее полную картину о новинках от ATI, которые, повторяю, отличаются лишь производительностью (кроме RADEON VE). Но оказалось, что этого недостаточно. И ныне мы будем ликвидировать эти пробелы в наших статьях, и будем освещать все новинки от ATI, вне зависимости от того, клон ли это или принципиально новая видеокарта.
А теперь займемся делом. Я не зря вначале упомянул про NVIDIA GeForce2 MX. Одним из "коньков" карт на этом GPU является технология TwinView. Разумеется, TwinView поддерживается не всеми картами на GeForce2 MX, а только теми, на которых установлен второй RAMDAC, и имеется гнездо для второго вывода изображения, либо есть TV-out. Такие платы стоят весьма существенно дороже, что не играет "на руку" TwinView. Хочется сразу спросить: а что смогла противопоставить этим картам фирма ATI? Уже довольно долго существовало сравнение:
- NVIDIA GeForce2 64MB vs. RADEON 64MB DDR
- NVIDIA GeForce2 32MB vs. RADEON 32MB DDR
- NVIDIA GeForce2 MX vs. RADEON 32MB SDR
Если в первых двух позициях RADEON почти везде проиграл сопернику, то в третьей ситуация неоднозначная. В 32-битном цвете RADEON 32 MB SDR очень легко обходит NVIDIA GeForce2 MX, и даже подчас новые "версии" последнему не помогают. А если учесть, что ныне в массовом количестве появились дешевые RADEON LE, которые, хоть и работают на более низких частотах, но прекрасно разгоняются, тучи над GeForce2 MX надвигаются весьма серьезные. И вообще "грозой с молнией" стал выход RADEON VE.
На первый взгляд, хочется скептически пожать плечами: И где же тут "гроза" с таким-то медленным 3D? Давайте разберемся не спеша, начнем с перечисления возможностей и характеристик RADEON VE.
- Graphics Controller — RADEON VE graphics processor
- Частота работы 150-166 МГц
- Пиксельных конвейеров — 1
- Текстурных модулей — 3
- Memory Configurations: 64MB DDR, 32MB DDR, 16MB DDR
- 64-битная шина обмена с памятью
- Частота работы 183 (366) МГц
- 3D Acceleration Features
- HYPER Z technology
- PIXEL TAPESTRY architecture
- VIDEO IMMERSION technology
- Twin Cache Architecture
- Single-Pass Multi-texturing (3 textures per clock cycle)
- True Color Rendering
- Triangle Setup Engine
- Texture Cache
- Bilinear/Trilinear Filtering
- Texture Decompression support under DirectX (DXTC) and OpenGL
- Specular Highlights
- Perspectively Correct Texture Mapping
- Mip-Mapping
- Z-buffering and Double-buffering
- Emboss, Dot Product 3 and Environment bump mapping
- Spherical, Dual-Paraboloid and Cubic environment mapping
- Full Screen Anti-Aliasing (FSAA)
- HydraVision Multiple Monitor Management Software дает возможность гибко настраивать вывод изображение на два приемника сигнала ( VGA-гнездо для CRT-мониторов и DVI-гнездо для цифровых мониторов)
- Наличие переходника DVI-to-VGA позволяет вместо цифрового монитора вторым использовать обычный CRT-монитор, обеспечивая полноценную работу с двумя мониторами
- TV-out (S-Video, но в комплект входит переходник S-Video-to-RCA) также вписывается в концепцию мультимониторности, его можно использовать вторым приемником сигнала
- Возможность взаимной смены местами первого и второго приемников сигнала
- HydraVision Multidesk Software позволяет организовать до 9 виртуальных рабочих столов на одном мониторе
- Максимальное разрешение в 3D:
- 65K цветов: 1920х1440
- 16.7М цветов: 1920х1200
Я не стал специально уделять внимания особенностям самого ядра RADEON, потому как об этом все сказано в нашем обзоре, а по спецификациям, приведенным выше, видно, что RADEON VE получился путем урезания растеризационного блока в 2 раза, изъятия из чипа блока Hardware TCL (то есть геометрического сопроцессора) и добавления в него блоков, осуществляющих вывод изображения на второй приемник сигнала (второй RAMDAC, CRTC и др.) Вам ничего это не напоминает? Очень схоже с тем, как получился GeForce2 MX из GeForce2 GTS :-) за исключением того, что Hardware TCL не был убран из GeForce2 MX.
Таким образом, мы видим, что получили… Riva TNT2 Ultra с точки зрения мощности в 3D, только в ином виде. Посудите сами: частота чипа 150 у обоих, в режиме мультитекстурирования Riva TNT2 Ultra выдает 150 млн. пикселей и 300 млн. текселей в секунду, столько и RADEON VE, если активны 2 текстурных блока (а задействовать 3 TMU сейчас пока никто не может, таких игр еще нет). Частота памяти у Riva TNT2 Ultra — 183 МГц при 128-битной шине. У RADEON VE — 183 (366) МГц DDR-памяти, но если учесть 64-битную шину, то получим примерно то же самое. Только лишь уникальные технологии HyperZ и двойного кеширования будут способствовать тому, что RADEON VE покажет большую производительность, чем почти 2-х летней давности Riva TNT2 Ultra.
Плата

Видеокарта построена на AGP 2x/4x основе, имеет 32 мегабайта DDR SDRAM памяти, размещенной в 4-х микросхемах на лицевой стороне PCB.
Модули памяти имеют время выборки 5.5 ns и расcчитаны на частоту работы 183 (366) МГц, на которой и работают.
Чипсет закрыт приклеенным к нему радиатором. Вентилятор отсутствует, впрочем, он и не нужен, так как процессор очень мало греется. На карте кроме привычного VGA-гнезда можно также заметить DVI-вывод. Оба этих вывода, совместно со встроенными в чип RAMDAC-ами и составляют, собственно, основу технологии HydraVision, сходной с NVIDIA TwinView или Matrox DualHead, но в то же время уникальной. Я приведу цитату из пресс-релиза от 9 ноября 2000 года:
"Торонто, Онтарио, Канада, 9 ноября 2000 года — ATI Technologies Inc. (TSE: ATY, NASDAQ: ATYT ), крупнейший в мире поставщик технологий 3D графики и мультимедиа объявил сегодня о заключении эксклюзивного стратегического соглашения с Appian Graphics Corporation, лидером в передовых технологиях работы с изображением, о выводе приложения HydraVision на массовый рынок. Данное соглашение дает ATI право интегрировать систему управления вывода на монитор HydraVision и продвигать ее в составе продуктов, начиная с RADEON VE и далее с будущими продуктами ATI.
"HydraVision долгое время является стандартным приложением для управления выводом изображения на несколько мониторов, а Appian Graphics лидирует в предложении решений для поддержки мульти-мониторных конфигураций", — сказал Дэйвид Ортон (David Orton) президент ATI. "Объединение опыта Appian в средствах управления дисплеем и наших передовых технологий графических акселераторов создает действительно непревзойденную серию продуктов."
Патентованная система управления выводом изображения AppianHydraVision предоставляет пользователю интерфейс для простого управления несколькими мониторами. В состав функций HydraVision входят средства управления окнами вывода приложений и диалогов, назначение "горячих" клавиш, установка независимых значений разрешения экрана и частот кадровой развертки, независимый контроль приложений, а также возможность создания до девяти виртуальных рабочих пространств."
Таким образом, данная технология представляет собой очень интересное решение не только для вывода изображения на два монитора, но и дает возможность создания виртуальных десктопов. Более подробно об этом будет рассказано немного ниже, а сейчас мы возвращаемся к особенностям RADEON VE и его комплектации.
В комплект поставки входит переходник (на фотографии выше), обеспечивающий возможность подключения ко второму гнезду не только цифрового монитора, но и обычного.
Должен еще отметить, что RADEON VE снабжен также TV-out с S-Video-гнездом (в комплект входит переходник S-Video-to-RCA). Поэтому можно организовывать комбинации вывода картинки на любые два из этих трех приемников. Регулировки вывода изображения находятся в драйверах:


Как видим, все понятно и доступно. Обратите внимание на немаловажную деталь: можно менять местами приемники сигнала, то есть первичный и вторичный приемники не жестко привязаны к соответствующим гнездам. Вот что значит иметь два одинаковых RAMDAC в 300 МГц и не думать о том, какой из них более качественный. Так что если даже в спешке подключили мониторы неправильно, не обязательно лезть снова и переключать их, можно просто в драйверах поменять их местами.
Интересно отметить, что фирменная утилита HydraVision позволяет внедрить поддержку мультимониторности практически во все приложения, и даже в таких приложениях, как Adobe Photoshop, мы можем видеть это:


Cама же утилита очень примечательна. После установки в панели задач внизу справа появляется пиктограмма управления HydraVision. Программа позволяет организовать до девяти (!) виртуальных рабочих столов! И одним переключением можно разом переместиться на той или иной десктоп.
Сами рабочие столы можно подписывать по своему усмотрению:

Карта может поставляться как в ОЕМ-виде (мы как раз такую и имеем), так и Retail-упаковке. В комплект входят два переходника: DVI-to-VGA, S-Video-to-RCA, затем CD-диск с драйверами.
Разгон
К сожалению, пока нет утилит, способных корректно поднять частоты работы у этой карты, поэтому плата не разгонялась.
Установка и драйверы
Рассмотрим конфигурацию тестового стенда, на котором проводились испытания карты ATI RADEON VE:
- процессор Intel Pentium III 1000 MHz:
- системная плата Chaintech 6OJV (i815);
- оперативная память 256 MB PC133;
- жесткий диск IBM DPTA 20GB;
- операционная система Windows 98 SE;
На стенде использовались мониторы ViewSonic P810 (21") и ViewSonic P817 (21").
Тесты проводились при отключенном VSync на драйверах версии 7.078 от ATI.
Для сравнительного анализа были использованы показания с видеокарт ATI RADEON 32MB SDR, Hercules Dynamite TNT2 Ultra (частота понижена до стандартных для Riva TNT2 Ultra значений 150/183 МГц), Leadtek WinFast GeForce2 MX/DVI.
Результаты тестов
Качество 2D-графики — на традиционном для ATI высоком уровне. Практически замечаний нет. Вопросы по 2D в последнее время настолько уже "обсосаны", что поднимать их снова нет смысла. Я только еще и еще раз отмечу, что качество 2D может сильно зависеть не только от производителя карты, но и просто от конкретного экземпляра.
А также напомню: перед тем, как ругать видеокарту, проверьте, а соответствует ли ваш монитор тем запросам, которые вы предъявляете к видеокарте?
Приступаем к оценке производительности видеокарты в 3D. В качестве инструментария мы использовали следующие программы:
- id Software Quake3 v.1.17 — игровой тест, демонстрирующий работу платы в OpenGL с использованием стандартного демо-бенчмарка demo002;
- Rage Expendable (timedemo) — игровой тест, демонстрирующий работу платы в Direct3D в режиме мультитекстурирования.
Quake3 Arena
Тестирование проводилось в двух режимах: Fast (демонстрирует работу карты в 16-битном цвете) и High Quality (демонстрирует работу карты в 32-битном цвете).


Видно, что мои предположения о близости результатов RADEON VE к Riva TNT2Ultra оказались почти верными. Только в 32-битном цвете RADEON VE выиграл у последней битву, но, как и ожидалось, сильно проиграл остальным картам, с которыми производилось сравнение.
Expendable
На примере данной игры мы посмотрим на скорость карты в Direct3D.


А вот тут картина полностью меняется, демонстрируя явное преимущество RADEON VE над Riva TNT2 Ultra. RADEON VE даже смог догнать своих более старших и именитых в 3D собратьев. Впрочем, относительная легкость сцен в Expendable тоже могла сыграть свою роль. Но есть и иное предположение относительно работы технологии HyperZ. Хотя, судя по Registry, она включена и в OpenGL, и в Direct3D, в первом случае возможен вариант, что HyperZ и не работает как надо. А в Direct3D выдает все свое преимущество.
Подведем итоги анализа производительности рассмотренной платы ATI RADEON VE:
- Видеокарта демонстрирует производительность в целом чуть выше, чем Riva TNT2 Ultra, а в 32-битном цвете и сильно выше, но не догоняет ранее выпущенные и более мощные карты ATI RADEON SDR и ATI RADEON LE, а также отстает от NVIDIA GeForce2 MX;
- ATI RADEON VE, как и все карты на RADEON, отличается оптимизацией работы в 32-битном цвете;
Выводы
Как мы смогли убедиться, при всей своей относительной "неполноценности" с точки зрения 3D, RADEON VE продемонстрировал высокий уровень отношения цена/производительность/насыщенность функциями. Да, при цене около $90-95, эта карта по производительности отстает от NVIDIA GeForce2 MX -карт, которые имеют примерно такую же стоимость, однако при этом RADEON VE демонстрирует отличное качество в 2D, чего подчас нет у "noname"-карт на GeForce2 MX, а также имеет технологию HydraVision, сродни с NVIDIA TwinView. А карты с последней имеют стоимость уже не около $100, а много больше.
Мы можем советовать ATI RADEON VE тем, кому нужна работа этой карты прежде всего в бизнес-секторе или 2D-приложениях тяжелого плана. Хороша эта карта будет и с офисными приложениями, прекрасный выбор будет у тех, кому нужно объединить 2 монитора (например в целях верстки текстовых или иных материалов). И не надо забывать про традиционное для ATI высокое качество воспроизведения DVD-фильмов и ныне популярных MPEG4-роликов.
Более полные сравнительные характеристики видеокарт этого и других классов вы можете увидеть в наших 3DGiТогах.
Плюсы:
- Вполне удовлетворительная производительность в 3D графике;
- Очень хорошее качество исполнения продукта;
- Поддержка технологии HydraVision (аналог TwinView), но с более широкими возможностями;
- Наличие TV-out, поддерживаемого HydraVision;
- Относительно низкая цена;
Минусы:
- Традиционные для ATI задержки поставок карт, могущие свести на нет преимущества RADEON VE в плане стоимости;
- Уже очень сильная конкуренция на рынке бизнес-компьютерных систем, учитывая наличие не только NVIDIA GeForce2 MX, но и Matrox G450.