Несмотря на то, что компания AMD с некоторых пор является основным конкурентом для NVIDIA на поле графических процессоров для игровых и профессиональных видеокарт, надо отдать должное, руководство NVIDIA не страдает какими-либо «конкурентными предрассудками». В итоге, мы видим, что линейка чипсетов для AMD-платформы от NVIDIA не только вышла в срок, но и включает гораздо больше моделей, которые еще и функционально интереснее по сравнению с тем, что NVIDIA предложила для платформы Intel. На первый взгляд, это может показаться странным, ведь у самой Intel чипсеты с интегрированной графикой, мягко говоря, получаются не слишком удачные, и NVIDIA с «технической» точки зрения куда проще было бы конкурировать на этом поле. Но если посмотреть на ситуацию изнутри отрасли, то не для кого не секрет, что философия Intel явно состоит в том, чтобы «затереть» всех. Если уж не технически, то с помощью других рычагов, например, продавая дорогие и малопопулярные чипсеты «в нагрузку» к более востребованным (а производители плат, соответственно, вынуждены сокращать закупки тех же чипсетов NVIDIA) и стараясь сократить жизненный цикл продуктов. В результате чего конкурентам просто невыгодно тратить средства на разработку чипсетов, которая не успеет окупиться, поскольку в процессорах Intel «вдруг» откроется новая частота FSB, а в скором времени добавится смена сокетов на, несомненно, обратно несовместимые.
Однако и на платформе AMD, перспективы чипсетов NVIDIA не выглядят безоблачно, хотя и по другим причинам. С линейкой чипсетов от AMD технически конкурировать не так просто, к тому же AMD быстрее переводит свою продукцию на более мелкий техпроцесс, нежели NVIDIA, что весьма чувствительно влияет на себестоимость. Поэтому вероятность того, что мы увидим следующее поколение чипсетов NVIDIA, к сожалению, невелика.
Но довольно о грустном, чипсеты, которые мы будем рассматривать в этой статье уже вышли, платы на них выпущены, есть в продаже и будут производиться еще достаточно долго. Ну а поскольку в качестве процессорного гнезда используется Socket AM2+, послужить пользователю такая плата сможет достаточно долго, тем более что дорогие модели оснащены весьма богато. Хотя целом NVIDIA пошла по пути сокращения периферийной функциональности и числа фирменных опций c красивыми маркетинговыми названиями, которые можно было довольно долго перечислять, рассказывая о наиболее оснащенных моделях предыдущего поколения. И это закономерный шаг, учитывая что сетевые контроллеры, подключаемые через PCI Express, сегодня позволяют реализовать практически все возможности, ранее отличавшие интегрированные MAC-адаптеры в составе чипсетов NVIDIA. В то же время спрос на системные платы с двумя сетевыми портами сейчас гораздо ниже, чем наблюдался ранее, поскольку доступнее стали небольшие концентраторы, точки доступа, так называемые, интернет-центры. И использовать компьютер в качестве шлюза, что само по себе неудобно, уже не имеет смысла. В то же время в расширении пропускной способности канала за счет подключения двух гигабитных линий (и объединения их в единый канал) нуждаются единицы, когда речь идет о домашнем компьютере или рабочей станции. Соответственно, встроенный MAC-адаптер остался в единственном числе, а из дополнительной функциональности поддерживает лишь технологию First Packet, о которой мы подробно рассказывали в обзоре семейства чипсетов nForce 500.
Однако, «проще» с инженерной точки зрения, чипсеты не стали, поскольку во всех без исключения моделях интегрировано графическое ядро с поддержкой DirectX 10. В недорогих чипсетах, как и раньше, оно играет роль основного и позволяет пользователю с относительно скромными запросами в отношении 3D-приложений и декодирования видео обойтись без установки видеокарты (либо поставить карту начального уровня и объединить ее ресурсы с возможностями чипсетного ядра в режиме Hybrid SLI (GeForce Boost). А в моделях высокого класса, предназначенных не просто для сборки компьютера с отдельной видеокартой, но и установки до трех карт в режиме SLI, графическое ядро в чипсете позволяет отключать видеокарты для экономии энергии и снижения тепловыделения и шумности (режим Hybrid Power). Надо отметить, что хотя все рассматриваемые чипсеты имеют поддержку обеих технологий, далеко не все видеокарты готовы поддержать работу в хотя бы одном из гибридных режимов. Общее правило вполне естественное — карты из «верхушки» модельного ряда поддерживают Hybrid Power, а самые слабые могут объединиться с чипсетным ядром в Hybrid SLI. Список карт постоянно пополняется, поэтому за подробностями отсылаем к соответствующей таблице на официальном сайте.
Еще одной общей чертой нового поколения чипсетов является полная совместимость со спецификацией Socket AM2+, поддерживается шина HyperTransport 3.0 (для соединения с процессором) и PCI Express 2.0 (для установки графических и других карт). Далее мы рассмотрим чипсеты, доступные на момент написания обзора, но не секрет, что NVIDIA как никакая другая компания любит сегментировать модельный ряд, вводя модели с промежуточными индексами и теми или иными, как правило, очень незначительными отличиями в функциональности. Поэтому если вы будете читать эту статью через несколько месяцев после публикации, рекомендуем заглянуть в пополняемый список чипсетов, доступный на сайте NVIDIA.
GeForce 8100/8200/8300
Все три чипсета имеют одинаковую функциональность, а различаются лишь частотой шейдерного блока графического ядра. Штатная частота ядра в обоих случаях равна 500 МГц, но частота шейдерного блока у GeForce 8100 и 8200 составляет 1200 МГц, а у GeForce 8300 — 1500 МГц. Чипсет GeForce 8100 не поддерживает PureVideo HD, то есть имеет отключенный блок декодирования HD-видео. Во всех случаях обеспечивается одновременный вывод изображения на два приемника: через цифровой канал (DVI или HDMI) и аналоговый VGA.
Графическое ядро имеет 16 универсальных шейдерных процессоров, 4 блока TMU и 4 ROP, память выделяется из оперативной, возможность установки выделенного видеобуфера на плату не имеется. Количество линий PCI Express сокращено до минимума (всего 19, против 26 у AMD 780G), из которых 16 используются для графического порта, а еще 3 для установки контроллеров на плату и слотов расширения. Все линии PCI Express соответствуют стандарту 2.0 и, надо отметить, что имеющегося количества линий для недорогих плат должно хватать, тем более, что чипсеты имеют встроенный MAC-адаптер, соответственно, высвобождается линия, которую иначе занял бы сетевой контроллер.
Остальная функциональность выглядит следующим образом:
- двунаправленная шина HyperTransport 3.0 (частота до 2,6 ГГц, ширина 16 бит в каждом направлении) до процессора;
- 5 устройств PCI;
- 6 портов Serial ATA на 6 устройств SATA300 (SATA-II, второе поколение стандарта), с поддержкой функций NCQ, TCQ и Hot-plug;
- 2 устройства (1 канал) PATA133;
- возможность организации RAID-массивов уровней 0, 1, 0+1 и 5 из SATA-дисков;
- MAC-контроллер для сети 10/100/1000 Мбит/с (Gigabit Ethernet) с поддержкой приоритезации трафика и резервирования канала;
- до 12 устройств USB 2.0;
- поддержка High Definition Audio (7.1).
nForce 720a/730a
Глядя на схему, довольно сложно определить, чем же теперь, после повсеместного внедрения графического ядра в чипсеты, отличаются модели из линеек nForce и GeForce. Смотрим внимательно на список опций и обнаруживаем два отличия: отсутствие в данном случае поддержки HDMI и поддержку лишь 16 линий PCI Express 2.0, тогда как оставшиеся три соответствуют PCI Express 1.1 (иными словами, лишь графический порт получает удвоенную пропусную способность). Надо также отметить, что в основе всех чипсетов nForce графическое ядро аналогичное GeForce 8200, то есть имеющее частоту шейдерных процессоров 1200 МГц. Иными словами, в данном случае графическое ядро играет роль второстепенного, используемого в режиме Hybrid Power, хотя и Hybrid SLI для таких плат все еще может иметь смысл, поскольку данные чипсеты адресованы в сегмент начального уровня и формально должны быть даже дешевле, чем платы в аналогичной комплектации на GeForce 8200. Отличие 730a от 720a в точности повторяет отличие GeForce 8200 и 8100, в младшей версии отключен модуль видеодекодирования. Возможно, таким образом NVIDIA продает чипы с дефектным модулем, а может быть это и чисто маркетинговое решение. Кстати, в списке чипсетов присутствует еще одна модель под номером 710a, в которой графическое ядро отключено вовсе, но нам пока не известно о каких-либо платах, выпущенных или готовящихся к выпуску на этом чипсете.
nForce 750a SLI/780a SLI
Конструктивно nForce 750a копирует nForce 730a с той лишь разницей, что здесь графических портов может быть два, а 16 линий PCI Express между двумя картами будут поделены поровну. В принципе, возражений нет, для SLI на основе недорогих карт такая конфигурация вполне приемлема с учетом удвоенной производительности PCI Express 2.0. На схеме мы также обнаруживаем «пропажу» третьей линии PCI Express 1.1. Что ж, мы уже успели заметить, что на этот раз NVIDIA решила не баловать производителей плат избыточной функциональностью чипсетов.
Заглавная модель в линейке, в отличие от остальных, имеет двухмостовую компоновку, однако вся функциональность, относящаяся к южному мосту, интегрирована в северный мост, ну а второй мост отвечает лишь за поддержку графических портов, которых в данном случае может быть три, соответственно, видеокарты, объединенные в 3-Way SLI образуют конфигурацию x16+x8+x8. Само собою, как и в случае с единственной картой и чипсетом 750a, в данном случае возможно объединение линий, если установлено не максимальное количество карт. Если предыдующие SLI-чипсеты NVIDIA подвергались критике за то, что поддержка графических портов была разделена между двумя мостами, что теоретически могло скзаться на скорости взаимодействия карт, то в данном случае даже реализован аналог Xpress Route, знакомый по чипсетам AMD и организующий непосредственный обмен данными между картами с помощью внутричиповой шины (PWSHORT), также возможна рассылка данных от центрального процессора одновременно на все видеокарты (режим Broadcast), например, когда требуется передать текстуры или геометрическую информацию сразу всем картам. Что касается взаимодействия моста NF200 с главным мостом чипсета, то оно организовано с помощью все той же PCI Express 2.0, 16-ти линий (и 16 ГБ/c) должно хватать для служебного взаимодействия с центральным процессором, ведь основной трафик в SLI/CrossFire-системах возникает между самими видеокартами.
Чипсет nForce 780a отличается от остальных моделей еще двумя «пряниками»: поддержкой SLI-Ready Memory (возможностью автоматической настройки оверклокерских модулей памяти по дополнительной информации из EPP) и сертификацией ESA (открытого стандарта, описывающего взаимодействие различных устройств в составе компьютера с целью управления многочисленными кулерами и создания оптимального теплового режима и минимальной шумности, впрочем, сертификат в данном конкретном случае мало чего значит, пользователь должен озаботиться в первую очередь покупкой ESA-совместимых блока питания и корпуса).
Исследование производительности
Тестовый стенд:
- Материнские платы:
- ASUS M3N-HT Deluxe BIOS 0901 на чипсете NVIDIA nForce 780a. Средняя цена по данным price.ru: Н/Д(0) (в скобках количество розничных предложений, на которое можно щелкнуть для перехода к списку доступных в данный момент)
- Gigabyte MA78GPM-DS2H rev. 1.0 BIOS F4 на чипсете AMD 780G (Н/Д(0))
- ASUS M3N78-EMH HDMI BIOS 0404 на чипсете NVIDIA GeForce 8200 (Н/Д(1))
- ASUS M3N-H/HDMI BIOS 0707 на чипсете NVIDIA GeForce 8300 (Н/Д(0))
- ASUS P5E-V HDMI BIOS 0505 на чипсете Intel G35 (Н/Д(0))
- Процессоры: AMD Athlon 64 X2 4000+ (Н/Д(0)) и Intel Pentium E2160 (Н/Д(0))
- Память: 2 ГБ DDR2-800 Corsair XMS2-6400 (DDR2-800, 5-5-5-15-2T)
- Внешнее видео: ATI Radeon X1900XTX, 512 МБ GDDR3
- Жесткий диск: Seagate Barracuda 7200.10 (SATA-II, 7200 об/мин)
- БП: Chieftec CFT-560-A12C
Программное обеспечение:
- ОС и драйверы:
- Windows XP Professional SP2, Windows Vista Ultimate SP1 (32-битные версии)
- DirectX 9.0c, DirectX 10.1
- ATI Catalyst 8.6
- NVIDIA ForceWare 174.74, ForceWare 175.19
- Intel Chipset Drivers 15.9.0.1472
- Тестовые приложения:
- 7-Zip 4.10b
- кодек XviD 1.0.2 (29.08.2004)
- Doom 3 (v1.0.1282)
- FarCry (v1.1.3.1337)
- Unreal Tournament 2004 (v3339)
- Futuremark 3DMark06 (1024х768)
- Serious Sam II 2.07 (демо Shield Generator28, HDR ON, бенчмарк)
- F.E.A.R. (v1.04, Maximum-уровень для «системы», Middle для «графики»)
- S.T.A.L.K.E.R. (v1.0005, ixbt3 demo)
- Company of Heroes (v1.2)
- World in Conflict (v1.0, Low Quality)
- CyberLink PowerDVD 7.3.2911 (использовались только декодеры для VC1 и H.264), видео воспроизводилось с помощью Media Player Classic (Home Cinema)
Результаты тестов
Начнем по традиции с вычислительных тестов, чтобы определить, насколько заметно влияет использование встроенного графического ядра на работу подсистемы памяти.
Тест | интегрированная графика | внешняя графика (Radeon 1900XTX) | ||||||
Gigabyte MA78GM-S2H (AMD 780G) | ASUS M3N78-EMH HDMI (GeForce 8200) | ASUS M3N-HT Deluxe (nForce 780a) | ASUS M3N-H HDMI (GeForce 8300) | Gigabyte MA78GM-S2H (AMD 780G) | ASUS M3N78-EMH HDMI (GeForce 8200) | ASUS M3N-HT Deluxe (nForce 780a) | ASUS M3N-H HDMI (GeForce 8300) | |
---|---|---|---|---|---|---|---|---|
RMMA, средняя скорость чтения, МБ/с | 3384 | 3317 | 3327 | 3070 | 3484 | 3378 | 3414 | 3114 |
RMMA, максимальная скорость чтения, МБ/с | 6388 | 5363 | 5640 | 4930 | 6568 | 5437 | 6561 | 6061 |
RMMA, средняя скорость записи, МБ/с | 2738 | 2189 | 2430 | 1930 | 2851 | 2194 | 2620 | 2020 |
RMMA, максимальная скорость записи, МБ/с | 5507 | 5726 | 5721 | 5601 | 5779 | 5805 | 5767 | 5747 |
RMMA, время псевдослучайного поиска, нс | 32,8 | 32,1 | 32,7 | 33,7 | 31,9 | 32,0 | 32,2 | 33,8 |
Архивирование в WinRAR, мин:сек | 2:30 | 2:39 | 2:33 | 2:39 | 2:28 | 2:39 | 2:32 | 2:39 |
Кодирование MPEG4 (XviD), мин:сек | 6:04 | 6:07 | 6:01 | 6:05 | 6:04 | 6:03 | 6:00 | 6:02 |
При разработке nForce 780a, как и следовало ожидать, данному аспекту уделялось максимальное внимание, ведь платы на этом чипсете рассчитаны на активных пользователей, для которых снижение общей производительности при переходе на интегрированное в чипсет графического ядро необходимо минимизировать. И мы действительно наблюдаем улучшение относительно результатов снятых на GeForce 8200, хотя по сравнению с AMD 780G, все равно есть отставание. Ну а GeForce 8300 в свою очередь огорчил, почему-то результаты в тестах RMMA оказались еще слабее, чем у GeForce 8200.
Впрочем, надо отметить, что в реальных приложениях эти отклонения заметны в минимальной степени, даже если сопоставить лучший и худший результат. И это предсказуемо, потому как и в RMMA мы видим заметную разницу лишь в тестах на максимальную пропускную способность, тогда как ближе к реальным условиям находятся величины средней скорости чтения и записи. Скорее, вообще приходится удивляться откуда берется даже такая разница, если контроллер памяти встроен в процессор. Но и ответ на этот вопрос есть: основу кода BIOS, который впоследствии используется производителями плат, как правило, в неизменном виде, пишет разработчик чипсета. И именно этим определяется: как будет сконфигурирован контроллер памяти (какие величины будут загружены во внутренние регистры контроллера памяти для тех или иных модулей, ведь помимо основных таймингов, есть еще масса вспомогательных данных).
Тест | Intel G35 | NVIDIA GeForce 8200 (ForceWare 174.74) | NVIDIA nForce 780a (ForceWare 175.19-nForce18.08) | NVIDIA GeForce 8300 (ForceWare 175.19) | AMD 780G (500/1066 МГц) | AMD 780G (разгон до 950/1333 МГц) | ||||||
average fps | min fps | average fps | min fps | average fps | min fps | average fps | min fps | average fps | min fps | average fps | min fps | |
Company of Heroes (800×600), fps | 12,5 | 4,0 | 23,5 | 14,0 | 23,6 | 14,5 | 27,4 | 17,0 | 38,6 | 21,5 | 40,6 | 20,0 |
Company of Heroes (1024×768), fps | 9,7 | 4,0 | 16,8 | 9,7 | 18,1 | 10,2 | 20,6 | 12,7 | 28,1 | 13,8 | 40,7 | 22,6 |
S.T.A.L.K.E.R. (800×600), fps | 28 | 9 | 60 | 18 | 62 | 16 | 65,7 | 12,6 | 68,0 | 22,5 | 91,9 | 24,2 |
S.T.A.L.K.E.R. (1024×768), fps | 21 | 8 | 39 | 8 | 45 | 13 | 48,3 | 15 | 46,0 | 18,2 | 63,2 | 18,2 |
F.E.A.R. (800×600), fps | 16 | 7 | 31 | 17 | 32 | 19 | 35 | 21 | 36 | 20 | 43 | 24 |
F.E.A.R. (1024×768), fps | 11 | 5 | 21 | 10 | 22 | 12 | 23 | 13 | 24 | 13 | 29 | 15 |
World in Conflict (800×600), fps | 14 | 9 | 32 | 14 | 32 | 13 | 38 | 13 | 39 | 14 | 41 | 14 |
World in Conflict (1024×768), fps | 11 | 6 | 25 | 10 | 26 | 11 | 29 | 12 | 32 | 13 | 37 | 13 |
Serious Sam II (800×600), fps | — | 28,6 | 29 | 32 | 42,3 | 56,0 | ||||||
Serious Sam II (1024×768), fps | — | 20,7 | 21 | 23 | 30,0 | 40,5 |
Совершенно очевидно, что графическое ядро в чипсете nForce 780a аналогично GeForce 8200 (в данном случае, с точностью до разницы в версии драйверов), ну а GeForce 8300, действительно, выступает лучше, поскольку имеет повышенную частоту шейдерного блока. Что касается сравнения с AMD 780G, то GeForce 8300, вероятно почти догнал бы AMD 780G, работающего на штатных частотах и не снабженного видеобуфером на плате. Но поскольку сейчас уже есть платы с видеобуфером, более корректным выглядит сравнение GeForce 8300 именно с таким конкурентом (мы в данном случае взяли результаты Gigabyte MA78GPM-DS2H), и здесь снова оказывается, что AMD 780G обеспечивает себе небольшое, но явное преимущество. Кроме того, платы на чипсете AMD, в отличие от NVIDIA, практически все поддерживают разгон графического ядра, который удается в очень широких пределах и, как наглядно видно по результатам тестов, обеспечивает уже весьма солидный отрыв.
Что касается сравнения с конкурирующей платформой, то здесь пока все без перемен, система на чипсете Intel G35 отстает в 2—4 раза, и даже нет смысла считать разницу в стоимости связки процессора и платы, которая, тем не менее, делает сравнение еще более не в пользу Intel. А формально выпущенный еще в начале июня, G45 пока «живьем» потестировать еще никому не удалось, и по информации от производителей системных плат звезд с неба не хватает, то есть вряд ли достигнет уровня даже GeForce 8200.
Тест | Radeon HD3450 | Hybrid CF (AMD 780G) | GeForce 8400GS | Hybrid SLI (GF 8300) | ||||
average fps | min fps | average fps | min fps | average fps | min fps | average fps | min fps | |
Company of Heroes (800×600), fps | 57,5 | 30,2 | 53,9 | 28,8 | 41,7 | 24,7 | 44,2 (*) | 28,1 |
Company of Heroes (1024×768), fps | 37,2 | 17,7 | 47,7 | 25,2 | 30,2 | 18,2 | 33,4 (*) | 22,7 |
S.T.A.L.K.E.R. (800×600), fps | 87 | 21 | 116,6 | 25,1 | 108,2 | 19 | 111,7 | 19 |
S.T.A.L.K.E.R. (1024×768), fps | 60 | 15 | 78,1 | 25,9 | 76,3 | 27,0 | 85 | 15,6 |
F.E.A.R. (800×600), fps | 46 | 25 | 63 | 26 | 63 | 37 | 71 | 51 |
F.E.A.R. (1024×768), fps | 31 | 16 | 40 | 15 | 42 | 24 | 54 | 37 |
World in Conflict (800×600), fps | 53 | 15 | 48 | 18 | 50 | 19 | 45 | 15 |
World in Conflict (1024×768), fps | 47 | 13 | 45 | 15 | 44 | 17 | 40 | 15 |
Serious Sam II (800×600), fps | 54,2 | 68,1 | 46,4 | 47,9 | ||||
Serious Sam II (1024×768), fps | 38,3 | 52,2 | 33,0 | 36,2 |
Переходим к гибридным режимам и видим, что AMD 780G и здесь в среднем выигрывает (взят результат той же платы Gigabyte MA78GPM-DS2H, на штатных частотах). Впрочем, большее беспокойство вызвало качество изображения на системе с Hybrid SLI, а именно мерцание темных областей (земля, небо, все объекты с равномерной окраской почему-то «мигают») в игре Company of Heroes. Кстати, чипсет nForce 780a также поддерживает объединение в Hybrid SLI, с тем же набором карт, что и GeForce 8200/8300, но эта функция не выглядит интересной с практической точки зрения.
Конфигурация (процессор: Athlon 64 X2 4000+ Windsor, C’n’Q OFF) | Режим | Диапазон энергопотребления компьютера в целом, Вт | |
в простое | 3DMark 06 | ||
nForce 780a+GeForce 9800 GTX | Power Saving | 69-93 | — |
nForce 780a+GeForce 9800 GTX | Boost Performance | 117-134 | 170-240 |
GeForce 8300 | 58-63 | 73-109 | |
GeForce 8300+GeForce 8400GS | Boost Performance | 66-69 | 89-135 |
AMD 780G | 52-57 | 65-108 | |
AMD 780G+Radeon HD 3450 | Hybrid CrossFire | 65-70 | 72-117 |
А вот испытать nForce 780a в режиме Hybrid Power очень интересно. Как видите, снижение энергопотребления при отключении питания видеокарты достаточно существенное (измерялось потребляемая мощность системного блока в целом), иными словами GeForce 9800 GTX хоть и потребляет в простое не так много, как под нагрузкой, все же сравниться с интегрированным в чипсет ядром по экономичности не может. Соответственно, констатируем полезность такой технологии, но и сразу же возникает как минимум несколько пожеланий для дальнейшего совершенствования: во-первых, неплохо бы автоматизировать переключение, чтобы при выходе из 3D-игр, компьютер автоматически переходил на интегрированное в чипсет ядро, пока это приходится делать вручную, нажимая на значок в панели задач. А, во-вторых, не помешает и расширить список карт, пока в него входят лишь GeForce 9800 GT/GTX/GX2 и GTX 260/280. Поскольку монитор в такой конфигруации подключается к выходу системной платы (иначе Hybrid Power просто не активируется), мы рассчитывали увидеть и некоторое снижение производительности в 3D, и хоть оно оказалось минимальным (в пределах 3-5%), напрашивается идея все же предоставить пользователю выбор: подключать ли монитор к плате или видеокарте. Пусть в последнем случае экономия окажется меньше, зато и производительность уже не будет ничем ограничена.
Сравнение GeForce 8300 и AMD 780G каких-либо неожиданностей не принесло, разница невелика, и она вполне вписывается в теорию. При максимальной нагрузке разница минимальна, поскольку заявленное TDP у первого чипсета выше лишь на 1-2 Вт, ну а в простое чипсет AMD эффективно отключает вычислительные блоки, снижая свои аппетиты почти до нуля, в то время как NVIDIA такую логику в чипсеты, судя по всему, пока не внедрила.
Тест | Intel G35 | GeForce 8200 | GeForce 8300 | AMD 780G | ||||
average % | min-max % | average % | min-max % | average % | min-max % | average % | min-max % | |
MPEG2, 1080p, 24 fps, 16 Mbps | 25 | 8-35 | 24 | 20-35 | 15 | 10-18 | 9 | 5-15 |
MPEG2, 1080i, 30 fps, 13 Mbps | 35 | 15-50 | 27 | 20-35 | 18 | 12-23 | 12 | 5-20 |
H264, 1080p, 24 fps, 17 Mbps | 80 | 50-95 | 15 | 10-20 | 13 | 10-18 | 10 | 5-15 |
VC1, 1080p, 24 fps, 17 Mbps | 75 | 50-90 | 12 | 5-15 | 10 | 7-12 | 8 | 3-10 |
Мы подробно останавливались на методике тестирования и особенностях настройки ПО для просмотра HD-видео в статье по чипсетам семейства AMD 780, к которой и отсылаем за подробностями. А здесь лишь пополним ту же табличку новой колонкой для GeForce 8300. Как видно, улучшения есть и именно там, где это было особенно необходимо, на декодировании MPEG2. Ну а графическое ядро в nForce 780a, напротив, ничем по сравнению с GeForce 8200 не порадовало, так что с практической точки зрения пользователю будет лучше переключиться на внешнюю карту на время видеопросмотра, который, к счастью, нагружает графический процессор не в пример меньше, чем игры, а значит и шум не помешает отдыху (обычно обороты кулера на видеокартах даже не возрастают).
Заключение
Идея интегрировать графическое ядро во все чипсеты выглядит вполне естественной для NVIDIA, чьей стратегической задачей в деле выпуска чипсетов всегда и являлась помощь в продвижении собственных графических решений. С другой стороны, в такой ситуации пользователь начинает обращать внимание на производительность этих самых графических ядер даже тогда, когда раньше бы не стал об этом задумываться. Иными словами, если графическое ядро, как в случае с GeForce 8200/8300 оказалось слабее, чем AMD 780G, то даже те, кто выбирая плату, собирается поставить видеокарту и об интегрированном в чипсет ядре вовсе забыть, вправе рассчитывать, что плата на NVIDIA-чипсете при прочих равных окажется дешевле.
В самый раз бы здесь выставить козырь в качестве поддержки Hybrid Power (мол, приобретая чипсет и видеокарту от NVIDIA, пользователь может в дальнейшем сэкономить энергию). Но, к сожалению, изначально список видеокарт, поддерживающих со своей стороны эту технологию, был очень короток, да и практически сложно ожидать, что пользователь какой-нибудь 9600GT смог бы заметно преуспеть в деле охраны окружающей среды (тем более, учитывая, что режим приходится переключать вручную, и об этом надо каждый раз вспоминать). В нынешней реализации Hybrid Power представляет интерес даже не в случае с топовыми видеокартами, хотя экономия здесь уже видна и регистрируется в тестах, а SLI-связками из таких карт. Но в данном случае, пользовательский интерес и спрос на подобные системы полностью определяется тем, насколько убедительно выступают в тестах видеокарты от NVIDIA в сравнении с конкурентами.