Ретро-обзор: видеокарта Matrox G200 8 МБ — «убийца» Voodoo 2

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обзор | Видеокарты и мониторы

Обзор видеокарты Matrox G200 8Mb второй половины 1998 года, прозванной задолго до релиза «убийцей» Voodoo 2.

История

Видеокарта была анонсирована 1 мая 1998 года, и стала первым полноценным 3D чипом Matrox. Да, видеокарты с 3D возможностями Matrox делала с начала 90х, но всё это так или иначе были костыли с фирменными API, годными разве что для работы в CAD приложениях и паре десятков игр, в той или иной степени оптимизированных для работы с данными картами. Собственно, это и не удивительно, ибо нормальные 3D API появились только в 1997 году в виде DirectX 5.0 и OpenGL 1.1. Кое кто успел выпустить карты с их поддержкой в 1997 году — ATi Rage Pro, nVidia Riva 128, а вот Matrox и S3 задержались со своими картами до второй половины 1998 года. Ну и над всем этим возвышалась 3Dfx выпустившая в начале 1998 года свою легендарную Voodoo 2, которая помимо DirectX и OpenGL имела так же и свой фирменный API Glide, имевший широкую поддержку среди разработчиков игр.

Вернёмся уже обратно к Matrox G200, который по традиции предоставляли лучшее на рынке качество 2D изображения — 32bit цвет, разрешение экрана вплоть до 1600х1200, поддержку широкоформатных экранов и 32bit Z-буфер для CAD приложений. Также старшие модели видеокарт на данном чипе позволяли осуществлять захват аналогового видео и прочие штуки для работы и обработки видеосигнала.

Видеокарты задолго до появления в продаже получили звание «убийцы» Voodoo 2 и все обзоры на них так или иначе писались с придыханием и трепетом в превосходных тонах. И действительно, по части 2D даже сейчас карта даёт просто бомбическую картинку. Но меня как в те годы, так и сейчас интересует её игровое применение и то на что она способна в играх. А вот с этим у неё на релизе были большие проблемы, ибо на релизе она умела работать только с Direct3D, а полноценный OpenGL драйвер был выпущен только в декабре 1998 года, да и тот имел такую низкую производительность, что врапперы OpenGL через Direct3D в том же Quake 2 оказывались предпочтительней. Но такая ситуация в принципе не была чем-то из ряда вон выходящим в те годы.

Тестируемый экземпляр

Я уже как-то проводил краткое тестирование Matrox G200 в обзоре на видеокарту Intel i740 и выяснилось, что по игровой производительности-то у них паритет.

Так что теперь предлагаю развёрнуто сравнить в лоб две легенды 1998 года — 3Dfx Voodoo 2 12Mb и Matrox G200 8Mb, используя финальные драйверы для обеих видеокарт. Для Voodoo 2 это будут 3.02.02 от 27 января 2000 года, а для G200 — 6.82.016 от 27 февраля 2002 года. Естественно тестировать мы это всё будем под управлением Windows 98 SE. А тестовым стендом нам будет служить системник «белой сборки» HP Vectra VLi8, имеющий на борту распаянный Matrox G200 на 8Mb, а также процессор Intel Pentium III 500MHz и 512Mb оперативной памяти.

Matrox MGA-G200 8Mb распаянный на материнской плате.

Ценник на данный системный блок в те годы был порядка 1500$ в комплектации с 8.4Gb жёстким диском и 64Mb оперативной памяти. Так что учитывая на круг у нас тут железа на 2000$, что по тем временам +/- зарплата среднего россиянина за пару лет… да и по нынешним временам сумма немалая.

3D ускоритель Voodoo 2 12Mb в исполнении фирмы Diamond Multimedia

Собственно, это мой основной системный блок для всяческих ретро игр и прочего баловства, на время тестирования правда пришлось установить дополнительно 2D видеокарту SiS 6125 для чистоты эксперимента, ибо Windows 98 и игры того времени не вполне корректно умеют работать с двумя 3D ускорителями в системе и нужны дополнительные костыли чтобы заставить работать игру на нужном в данный момент ускорителе.

Ну давайте уже перейдём к тестам, Voodoo 2 не умеет работать с 32bit цветом в 3D, а Matrox G200 хоть и умеет, но ценой потери производительности, так что тесты в 32bit будут в ограниченном количестве. Ну, а картинки в 32bit на Matrox G200 я добавлю, для того чтобы вы сами могли решить — а надо ли оно было в те времена в играх.

Для начала по традиции начнём с синтетики.

3DMark 99 Max

Matrox G200 серьёзно так отстаёт по попугаям от Voodoo 2.

К картинке обеих плат ни каких претензий у меня нет.

3DMark 2000 Pro

Ситуация аналогична таковой в предыдущем тесте — G200 отстаёт по попугаям и серьёзно просаживается при попытках использовать 32bit цвет для рендеринга.

И вновь претензий к качеству изображения нет никаких.

3DMark 2001 SE

А вот в 3DMark 2001 SE уже Matrox G200 вырывается вперёд, что в принципе не удивительно, ибо под Direct3D данные карты были оптимизированы лучше, да и у Voodoo 2 ко временам 3DMark 2001 SE уже давно не обновлялись драйверы в виду банкротства компании 3Dfx.

Вот тут уже Voodoo 2 даёт заметно более мыльную картинку нежели G200, который держится в этом отношении вполне бодрячком.

Ну, давайте глянем уже как дела обстояли в реальных приложениях.

Incoming

Одна из первых игр под Direct3D, и на удивление Voodoo 2 уделывает G200 по всем статьям.

Quake

Как видим в OpenGL видеокарта Matrox G200 ничего не может противопоставить Voodoo 2.

Quake II

Во всех режимах тотальное превосходство Voodoo 2.

Quake III Arena

Мда, как видим в OpenGL наш «убийца» не может тягаться с Voodoo 2 ни при каких обстоятельствах, а его способность работать с 32bit цветом в 3D по факту бесполезна в играх. Voodoo 2 на Ultra настройках просадка ниже комфортного уровня, но этому есть объяснение — нехватка текстурной памяти которой у него на борту всего 8Mb. А так как он использует PCI шину, то он лишён быстрого доступа к оперативной памяти откуда можно было бы быстро подгружать текстуры как это делает G200 на шине AGP. Но вот если снизить качество текстур на один пункт с Ultra до High, то всё встаёт на свои места:

И Matrox G200 вновь проигрывает Voodoo 2.

Unreal Tournament

А вот в Unreal Tournament всё не так плохо у Matrox G200, и он заметно опережает Voodoo 2 при использовании Direct3D рендера, который в своё время и разрабатывался с упором на Matrox G200. Вот только есть один нюанс… Unreal изначально разрабатывался под API Glide, так что при его использовании Voodoo 2 просто недосягаем. Ну, а с OpenGL у Matrox G200 как мы помним всё очень не очень, так что преимущества этого рендера он в полной мере реализовать не может.

Итоги

Что по итогу? По итогу мы выяснили что Matrox G200 никаким убийцей и даже конкурентом Voodoo 2 не был, да и по большому счёту не мог быть. Данная видеокарта разрабатывалась для профессионального использования, в отличии от Voodoo 2 который разрабатывался сугубо для игр. Так что если вы собирались в 1998 году работать и зарабатывать, используя персональный компьютер для работы с текстами, фото или видео, то Matrox G200 был по сути единственным вменяемым кандидатом для покупки. А вот если вы собирались играть, то вам нужен был Voodoo 2. Благо при наличии свободных финансов вы могли совместить эти два продукта в одном ПК — что люди зачастую и делали. Что-то вменяемое для профессионального использование за от прочих производителей начало появляться не ранее 2001 года.

А под конец 1998 года и у G200, и у Voodoo 2 появились серьёзные конкуренты на игровом поприще — ATi Rage 128, nVidia RivaTNT и S3 Savage3D. Увы, пока из этой троицы я раздобыл только S3 Savage3D, да и ту пока заставить стабильно работать не получилось. Да и Matrox G200 было бы неплохо найти отдельной платой, чтобы в будущем провести полноценное тестирование и устроить очередную эпичную битву за звание «убийцы» Voodoo 2.

Что касается Matrox G200, у него была ещё долгая счастливая жизнь во всяческих серверах и рабочих станциях. Даже появилась спец версия Matrox G200e, которая паялась на платы всяческих серверов и вызывала лютую ненависть отсутствием при этом драйверов под Windows Server 2008. Скоро кстати у меня будет статья о таком сервере 2010 года выпуска HP ProLiant ML110 G6 из которого я буду делать игровой комп для Genshin Impact.

Апдейт: Тут меня в комментариях поправили, указали на то что драйверы под G200e под Windows Server 2008 R2 существуют. И действительно — драйвер такой есть, и даже есть драйвер под Windows 10. Собственно микросхема содержащая в себе этот G200e называется Server Engines SE-SM4210-P01 и выглядит вот так:

Но как вы можете видеть, толку от установки драйверов нет — выбор разрешений такой же, как если бы этого драйвера не было. И интерфейс точно так же продолжает тормозить, как будто никакого драйвера и нет. Но микросхема эта не только вопросами графики занимается, она нужна для удалённого управления и мониторинга работы сервера.

Ну, а на этом у меня на сегодня всё — всем пока.

Автор не входит в состав редакции iXBT.com (подробнее »)

39 комментариев

M
Интересно отметить, что все GPU не только без вентиляторов, но и без радиаторов!
Что не мешало выдать 85-100фпс при актуальном тогда разрешении 1024x768, во всяком случае, на 3DFX.
Фпс достигли частоты развертки монитора, это и был огромный прорыв.
Сейчас 4k144 далеко не везде достигается при отведении полкиловатта мощности!
PanzerK
Как вы такое выдумываете? Voodoo 2 вообще не умела работать с 1024х768, только если их две в SLI поставить, но опять же «GPU» там состояло их 3 чипов огромных, а в случае SLI то вообще 6, так что при достаточно большом размере платы не удивительно что оно не требовало активного охлаждения. Но только в хороших корпусах, а если напихать подобное в типовой AT корпус тех лет — перегревалось оно тока в путь.
Ну и как видим даже в 800х600 оно 60 фпс показывает с трудом и не везде.
30 фпс для GPU тех лет было очень хорошо, ну а отсутствие радиаторов в больше мере диктуется стремлением вписать видеокарту в существующие тогда стандарты — одна плата = один слот, до двуслотовых видеокарт ещё очень не скоро додумались. Вплоть до времён 9800GT референсные карты за каким-то чёртом делали однослотовыми, хотя всем уже было понятно — что охлаждения недостаточно. Так что это инерция мышления и банальная экономия.
M
Quake2 Выдавал 85фпс с одиночной картой и в районе 100фпс на SLI, помню, так как мониторы были с этой частотой и до нее дотягивал.
Никакого дополнительного охлаждения не было и блок питания был китайский ноунейм.
Но Matrox был какой-то не рабочий и дорогой вариант, 3D не осилили.
А там 3DFX начал городить Voodoo4/5, на чем и закончился.
PanzerK
Тесты выше в статье есть, нет там ни каких 85фпс в Quake II, и Matrox всё прекрасно осилил в 3D местами лучше и качественней чем Voodoo 2.
А Voodoo 4/5 это уже 2000 год и совсем другая история… Voodoo 2 был высшей точкой после которой 3Dfx покатилась к неминуемому банкротству.
S
А ещё раньше и микропроцессоры работали без активного охлаждения и радитора.
p
Отличный материал, спасибо, прочитал на отдном дыхании. Все так, вполне ожидаемо. У меня в 2002 году наверное была Riva TNT 2, и на ней шло очень много всего. Позже уже заменил на Radeon 8100
PanzerK
Ну скоро наверное доберусь до TNT2 Pro, карта действительно выдающаяся по части долгожительства и производительности. Хотя зачастую производительность там явно идёт за счёт всяческих махинаций в драйверах, с которыми тоже отдельная песня — пришлось версий на 5 откатиться прежде чем нашлись более-менее стабильные драйверы, при этом довольно существенно упала производительность.
b
Ниче выдающегося в 3D Матрокс не выдавал — но у него была шикарное ускорение и оптимизация 2D. Illustrator, Photoshop, всякие Corel ы им отрисовывались не просто быстро — а как ураган вообще :)
PanzerK
Ну скажем так на первую половину 1998 года у него было вполне достойное 3D, которое и в CAD приложениях можно было использовать, увы подвели драйверы и поздний старт продаж. Так что к концу года он уже был не интересен массовому пользователю со своими стартовыми 149$ за базовый вариант, учитывая что Voodoo 2 к тому времени уже упала примерно до тех же значений 149-199$, а ещё были Voodoo Banshee, RivaTNT, Savage3D в диапазоне 100-149$, эт не говоря уже о Intel i740 которого было кругом валом по 49$ за китай-подвальную версию.
b
Смешали в кучу — кони люди, мухи тоже.
Matrox G200 карта для другого сегмента рынка изначально была. Глупо сравнивать карту которая в легкую умела в те времена такие разрешения как 1600x1200 на всяких там тринитронах от СОНИ с чисто игровыми решениями, которые 1024x800 то не всегда умели.
PanzerK
Ну как видим рынок решает, а не громкое имя или качество продукции. Таким макаром и G100 можно в «хорошую» карту для своего сегмента рынка записать… хотя нет — там было наглое враньё со стороны Matrox о возможностях этого чипа.
b
Ты сильно заблуждаешься тестируя карту не на «пузатом» мониторе, а на TFT.
Решешия от ATI, Matrox выдавали четкую картинку на них даже с огромными по тем временам разрешениями. А всякие Voodoo, Intel, Savage — это все была мыльная канитель, на высокие разрешения, и качественные мониторы ну никак не расчитанная. Ширпотреб мониторы более менее сглаживали их абсолютную убогость и реальную непригодность в работе в CAD и т.п. если ты конечно не хотел расстаться со своими глазами.
PanzerK
Ну ориентация на 1% рынка и привела Matrox к краху, если бы не подвязки в индустрии загнулась бы она в начале 00х как и все прочие.
Что касается игр, то рабочим разрешением до середины 00х было 800х600 в лучшем случае и на «стекле» оно выглядело вполне приемлемо — так что не удивительно что производители видеокарт особо не запаривались. Ну а «Voodoo или Intel для CAD» эт из разряда анекдотов — ни кому бы и в голову такое не пришло даже подумать о таком, и уж тем более их разработчикам.
100753579509696887198@google
bOOster_alm ты сильно заблуждаешься в причинах четкости и мыльности картинок на мониторах на упомянутых тобой картах. Дело было не в чипах ATI, Matrox или Voodoo, Intel, Savage, а в производителях самих карт. ATi и Matrox делали карты сами или под своим контролем, а Voodoo, Intel, Savage, сюда можно и nVidia добавить, делали кому только не лень, в основном подвальный китай. У брендовых карт на Voodoo, Intel, Savage с картинкой все было в порядке. Самую мыльную картинку я видел на решениях nVidia на картах «innoVision». На картах YuanYaun черных текст двоился и расплывался, это даже появилось на ATi, когда они, последую примеру nVidia, отдали производство карт сторонним производителям. К слову, у Palit было норм изображение, по-крайней мере на тех картах, что мне попадались.
100787016398823503586@google
G200 может в 2048×1536 в 2D
У автора просто не завалялось подходящего 20" CRT Viewsonic ))
PanzerK
Автор, т.е. я, в статье указывал на то, что 2D у этой карты бомбическое, и что в статье исследуются исключительно игровые возможности данной карты. Увы в 3D играх в высоких разрешениях ну разве что слайдшоу красивое можно посмотреть, а нормально играть можно только в разрешении 640x480.
C
А ещё «Матрасы» выдавали шикарную чёткую картинку, что назывется «crystal clear». Смотреть было приятно.
b
В те времена ATI и Matrox как раз конкуренцию вели за 2D рынок карт. У обеих было очень достойное качество, но Matrox Apple не любил, предпочитая ATI ;)
А всякие Voodoo, Intel, Savage — это все была мыльная канитель, на высокие разрешения, и качественные мониторы ну никак не расчитанная. Ширпотреб более менее сглаживал их ущербность.
m
Как насчет обзора Diamond Fire GL на базе Permedia 2 ?
https://www.tomshardware.com/reviews/3d-accelerator-card-reviews,42-6.html
p.s. было очень забавно, когда я в конце 90-х годов написал письмо в Diamond о том, что при игре в Quake на этой карте есть проблемы с текстурами. и через неделю (!) вышел новый драйвер, который пофиксил эту проблему :-)
PanzerK
Где бы его ещё достать… увы у меня не так много карт, а эта ещё и не очень распространённая. Но если попадётся — обязательно сделаю.
m
у меня была коробочная версия. в то время работал с 3DMax и Diamond обещал невероятные вещи в виде превью с текстурами без необходимости рендеринга. это было круто, но работало конечно не особо хорошо :-)
и 2D был почти как у матрокса.
но через пару лет все же заменил на Matrox G400, когда осилил купить Sony GDM-200PS
PanzerK
Я в те года был счастливым обладателем Voodoo 4Mb и «шикарного» монитора 14" 640x480 60Гц который остался от 286 системника. Впрочем монитор этот у меня дожил года эдак до 2003, но годы ни щадят ни кого.
m
вуду у меня никогда не было. завидую людям до сих пор :-)
нормальные компы для меня начались с P100, S3Trio, моник LG 14"
на дальнейшие графические прибамбасы заработал уже сам. но на нормальные игровые видюхи всегда было жалко денег. монитор был для меня приоритетом.
PanzerK
Ну у меня она была году эдак в 1999, купил в комке за 1000р.
Сейчас, по прошествии времени, имея в хозяйстве Voodoo 2, я бы не сказал, что это прям уж какая-то выдающаяся карта, есть всего пара десятков игр, которые на ней действительно выглядят лучше чем на прочих 3D картах. Думаю в те времена вся эта «магия» Voodoo была во многом связана с качественными и стабильным софтом, нежели с какой-то особой уникальностью самих этих карт.
S
Не знаю что там было с G200e на 2008 в момент выхода, но сейчас на файлопомойке родом из 2009 года она вполне себе работает на 2008R2 с драйвером 2.0.9.0 от 12.08.2010
PanzerK
Хм… значит это я всё это время тупил пытаясь найти драйвер на сайтах HP и Matrox…
И действительно — работает, не знаю правда на кой оно мне на серверах надо — но пусть будет.
PanzerK
Проверил я эти «драйверы», толку от них нет, как было 2 разрешения на выбора 800x600 и 1024x768, так осталось.
И окна как тормозили, так и тормозят.
Р
В том время, я был ярым противником Voodoo 2, бесило отсутсвие 2D составляющей, ведь это было сугубо 3D ускоритель. При этом по части 2D, Matrox G200 была топ, в общем её я себе и купил тогда. И в целом не помню каких то значимых проблем с производительностью. Ну а потом Riva TNT (2) всех победила.
PanzerK
Откуда ж взяться проблемам с производительностью, если её у вас нет… шутка.
А проблемы увы были и в Quake 2, и в Unreal как минимум до конца 1998 года.
Для Quake 2 вышедшей в декабре 1997 года, не было у Matrox G200 драйвера с поддержкой OpenGL и вышел таковой только в декабре 1998 года, т.е. целый года с момента релиза игры на видеокартах от Matrox нельзя было играть в него с аппаратным ускорением, хотя нет вру… был у Matrox отдельный ускоритель OpenGL — Matrox m3D на базе чипа NEC/PowerVR PCX2 ценой в 100-200$ эт к вопросу о бесящих 3D ускорителях без 2D составляющей.
Ну, а что касается Unreal вышедшего в мае 1998 года, то там вообще на старте аппаратное ускорение было доступно только для Glide, т.е. только на Voodoo. А Direct3D рендер появился лишь в октябре 1998 года, да и то в альфа версии. Альфа OpenGL там появилась чуть раньше в сентябре 1998, но как мы помним для него у G200 не было соответствующей поддержки со стороны драйверов.
Но благо в обеих этих играх можно было наслаждаться Software рендерингом вообще без этих всех богомерзких 3D ускорений. )))
v
у меня и S3 какая-то валяется и RivaTNT и Vodoo2 и еще какие-то :) лет через 30 как продам :)
PanzerK
Ну нынче Voodoo 2 по 10к уходят, а вот остальные рублей по 250 в среднем, ну за исключением каких-то редких или экзотических моделей.
M
Сам обожаю старые железки. Начинал с 286 с EGA и 386 с VGA. Выменял у друга S3-шку, но был очень разочарован, когда осознал, что в ISA 8-бит она не влезет. Компьютеры были не мои. В какой-то момент их скорее всего выкинули. Жаль я не догадался тогда забрать их себе. Ведь сейчас с подобным железом можно играться только на эмуляторе. Сейчас об этом очень жалею, т.к. года 3 назад вспомнил о кое-каких недоделанных делах. Например в те старые годы я так и не смог разобраться, как программировать CRTC напрямую. А тут взял и разобрался. Очень интересует вопрос. VGA читала 32 бита за такт. В режиме 256 цветов это была только половина символа, что снижало эффективную частоту в 2 раза. Именно из за этого на VGA были доступны только «половинные» режимы 256 цветов — 320 и 360. А что будет, если при этом еще и включить режим деления частоты пополам, который использовался для той же цели в 16ти цветных режимах? Получится поделить частоту на 4 и получить режимы 160 и 180? Или в реальных видушках этот трюк как то жестко заблокирован? На нынешнем реальном железе проверить не получается.
PanzerK
Надо поглядеть дома, была у меня как-то книжка о чём-то таком, но не знаю даже сохранилась ли она в процессе переездов.
Сам я до таких дебрей программирования под DOS не дорос, тогда лет было мало, а потом уже окна во всю были и потребности не было.
M
В книжках о таком не пишут и нигде в интернете вы такой информации не найдете. В том то и проблема. Народ творил со старыми видеокартами кучу всякой дичи, а до такого не догадался. Это чистая догадка. (S)VGA были аналоговыми мониторами. Им было плевать на разрешение в пикселях. Они просто рисовали точки на экране с той скоростью, с какой их выдавала видушка. А видеорежимы не были монолитными. Они настраивались программированием кучи регистров. Что в принципе давало возможность изобретать всякие гибриды бульдога с носорогом. Именно так в общем то и изобрели X-режимы, которые решали проблемы ограничения размера окна видеопамяти 64-мя килобайтами. А мне эта мысль пришла в голову мгновенно, когда я с удивлением осознал, что в режиме 320x200x8 на самом деле используются тайминги от 640x200x4. Я сразу же подумал, а что будет, если их заменить на тайминги от 320x200х4? Получится 160x200x8 или нет?
P.S. Совпадение или нет. Я недавно возился с сервером Intel S1200BT. И вы не поверите, какая там стоит встроенная видеокарта. https://www.rsmanuals.com/71053/intel-s1200bt/page-15/ Некий ServerEngines LLC Pilot III BMC, который в Linux определяется именно как Matrox G200. Тормозит жутко, если честно.
PanzerK
Есть у меня книжка «Справочник по видеосредствам IBM PC и IBM PS/2 (адаптеры CGA, EGA и VGA). Руководство программиста. — М.: Гнозис, 1993.- 128с.: ил» ISBN 5-7333-0463-4
Увы, знаний у меня недостаточно для того чтобы её вполне понять, но явно умное что-то написано. )))
А вот с этим ServerEngines я как раз сейчас развлекаюсь, если что дополню статью, оказывается под него драйверы есть аж под Windows 10.
M
Зачем книжки, если есть интернет? http://www.osdever.net/FreeVGA/vga/vga.htm Но опять же. Сколько не ищи в интернете, а там нет никакой информации по режимам 160x и 180x. Может конечно это просто никому не было нужно, т.к. все хотели большее разрешение, а не меньшее. Но меня больше интересует именно техническая возможность.
PanzerK
Так за чем же дело встало? Надо найти системник подходящий, да проверить…
У меня вот всё это железо лежало лет 15, всё не до того было… а недавно плюнул на всё и вот тестирую — пишу статьи.
Весело.
M
Да не хочется покупать старое железо только ради одного эксперимента. К тому же я не уверен, что фокус пройдет с современными мониторами, а достать сегодня старый CRT очень трудно. Как я и сказал, я тестил эту фичу на реальном железе. Даже современные видюшки все еще поддерживают BIOS, а загрузится под FreeDOS с флэшки — не проблема. Не сработало. Возможно поддерживаемые видео-режимы жестко зашиты или в видеокарте, или в мониторе. У ЖК ведь есть такая штука, как нативное разрешение. А в теории должно было сработать. Т.к. аналоговому монитору плевать на горизонтальное разрешение. Аналоговый монитор это по сути дорогой телевизор. Его волнуют только две вещи — частота строк и частота кадров. Сколько пикселей умещается на строке — его не волнует, т.е. цветовой сигнал аналоговый. Он рисует то, что ему выдает контроллер атрибутов. А он меняет выдаваемую информацию с той скоростью, с какой она поступает из видеопамяти. Если скорость в 4 раза меньше обычной — то должно выдаваться в 4 раза меньше пикселей. Вот и все. Монитор не должен заметить никакой разницы. А у меня только пол экрана заполнялось. При правильной работе должны выполняться условия: 1) Заполняться весь экран. Можно соорудить любое разрешение. Хоть 8х8. Но только разрешения со стандартными таймингами будут заполнять весь экран. 2) Не сдвигаться за пределы экрана. Если сдвигается — значит есть косяки с синхронизацией. Для новых моников это не проблема, т.к. в них есть функция автоматической подстройки. В старых надо было крутить крутилки сзади монитора, а это неудобно.
b
Че за «каша» написана? VGA режим 256 цветов вообще в принципе работал по другому чем 4 битные режимы. Поэтому и пиксельные частоты там абсолютно другие. 256 цветов это линейная организация видеопамяти 320x200x1 байт. 4 битные режимы с высоким разрешением и 16 цветами — это 4 параллельные 1 битные плоскости, программирование которых весьма гимморройное.
Там можно было поиграться с VGA регистрами — но в 99% это означало что монитор просто не будет отображать картинку, не выйдет на рабочий режим. Редкие мониторы типа ViewSonicов или дорогущих проф. мониторов могли ловить нестандартную частоту/синхронизацию. У «стекла» тоже есть физические ограничения на частоту сканирования, величину отклонения «сканирующего луча», и т.п. Поэтому чушь писать не надо — что монитор мог отображать любую частоту заданную регистрами VGA…

Добавить комментарий

Сейчас на главной

Новости

Публикации

Обзор веб-камеры Ugreen 2К: автофокус, два микрофона, удобное крепление

Веб-камера Ugreen представляет собой качественное устройство для видеосвязи и стриминга. Она имеет компактный пластиковый корпус в сочетании серого и чёрного цветов, который обеспечивает надёжную...

Выставка Computex 2024 на Тайване, взгляд визитера. Часть 2 -Произведения искусства в виде ПК, стенды ASrock, MSI, Manli. Leadtek, Зал2, центр Тайбэя

Ежегодная выставка IT-технологий и компаний Computex 2024 на Тайване. Стенды ASRock, MSI, Manli, Leadtek, Общее по Залу 1, Зал 2 кратко, прогулка по Тайбэю: Мемориальный комплекс Чан Кай Ши,...

Почему наш спорт превратился в рекламный трэш. Мнение болельщика

Знаете, я иногда не прочь посмотреть футбол, в том числе — отечественный. Недавно включил очередной матч, и поймал себя на странной мысли: это уже не футболисты, а бегающие по огромному...

Что делать, если вам пришел штраф за чужое нарушение?

Сейчас за ситуацией на дорогах следят не дорожные инспектора. Систему автоматизировали, отдав водителей на попечительство бездушной технике. Камеры видеонаблюдения, расположенные в местах с...

Как подобрать идеальную тормозную жидкость для автомобиля

Пришло время замены тормозной жидкости в вашем автомобиле, и вот вы стоите перед полкой в автомагазине, озадаченные разнообразием канистр. Как не потеряться среди всего этого многообразия и сделать...

Куда исчезают снегири летом?

Снегирь — символ зимы, ее сказочной красоты. Вьюга метет, деревья стоят в белоснежном убранстве, а на ветке яркой рябины сидит он, красавец-снегирь, с алым грудкой и черной шапочкой. Но...