Дэвид готовил ей царский трон.
Ведь от Канады до наших морей
Красная графика всех сильней.
Так пусть же Красная
Сжимает властно
Свой чип мозолистой рукой,
И все должны мы
Неудержимо
Идти за рынок на смертный бой!
Красная графика, марш, марш вперёд!
Офис в России нас в бой тот зовёт.
Ведь от Канады до наших морей
Красная графика всех сильней».
По мотивам известной революционной песни
С лета 2002 года, уже 3 года, как у нас все видеокарты на чипах этой компании ассоциируются с красным цветом. Ровно тогда, как ATI решила изменить цвет эталонных карт, все партнеры (за исключением некоторых) это восприняли как указание, и 80% всех современных акселераторов на основе GPU от ATI имеют красный окрас PCB. Разумеется, изначально толчком к тому, чтобы платы стали красными, явился цвет логотипа компании, однако сейчас уже ассоциации связаны именно с цветом карт. Кстати, в эпиграфе упомянуто имя Дэвид — это имя нынешнего президента ATI — Дэвида Ортона.
А ведь до того вся продукция канадской компании была зеленого цвета (я понимаю, что это традиционно любимый цвет конкурента в лице NVIDIA, чей окрас эталонных карт с самого начала и до сей поры является зеленым, поэтому возможно в 2002 году и произошла такая резкая смена цвета).
…Когда-то очень давно, в дни проведения Международного фестиваля молодежи и студентов в Москве, в 1985 году была основана некая компания, гордо взявшая себе имя «Массовые технологии» или Array Technologies. Поскольку форма компании предусматривала ограниченную ответственность, то обязателен был суффикс Incorporated. Полагаю, что теперь читатели (те, кто не был в курсе) догадались, откуда взялась аббревиатура ATI.
Да, в СССР тогда еще вовсю в ходу были отечественные ПЭВМ, IBM PC XT появлялись в очень ограниченном количестве, а речи о IBM PC AT вообще не было (кроме высокопривилегированных структур). В те время никто даже и не помышлял о том, что можно будет менять видеокарту у себя в компьютере, и уж тем более о том, что от нее будет что-то зависеть в работе всего компьютера.
Вплоть до середины 90-х годов основное внимание уделялось готовым решениям, то есть системным блокам в сборе, даже ставшие в те времена традиционными апрельские выставки Comtek уделяли главное внимание именно компьютерам целиком, без особого рассмотрения комплектующих.
И лишь постепенно, по мере наращивания мощи, разрастания ассортимента этих самых комплектующих, а также периферии, где-то после 1993 года начался бум, бум апгрейдов. Вдруг относительно опытные уже компьютерщики сообразили, что незачем покупать компьютеры целиком, а старые куда-то девать, когда открытая архитектура PC давала широкие возможности по модернизации системных блоков. И резко вверх пошел спрос на отдельные составные части: системные платы, процессоры, накопители, звуковые и видеокарты.
Но опять-таки, если о процессорах уже все знали — и думать нечего: чем больше мегагерц, тем быстрее :), частично стали разбираться в системных платах (начались уже смены интерфейсов, шина ISA стала постепенно вытесняться VLB, а потом и PCI, пошли особые сокеты под 386, 486-е процессоры), получали огромную популярность звуковые платы, где, конечно, локомотивом была компания Creative, а вот насчет видеокарт — думали по остаточному принципу: какая есть, такая и есть. Мало кого интересовало: 256К памяти у нее или 1 мегабайт… Вероятно, поэтому среди первых продуктов ATI были именно звуковые платы:
Но долгожители в мире компьютеров помнят, что под прессингом продуктов Creative жить производителям альтернативных вещей было очень тяжело. Каким бы замечательным ни был Aztech со своими продуктами, а не выдержал. Канадская компания быстро поняла, что ей также мало чего светит, и, в конце концов, свернула производство звуковых карт, к тому времени уже постепенно набирали обороты интерес и спрос на видеокарты.
Да, буквально за год-полтора пришло осознание того, что в принципе хватит сидеть в 640×480 при 16-ти цветах (это в лучшем случае, а в большинстве случаев игры — а ведь они были уже тогда главными потребителями графики, работали в 320×200 при 256 цветах). Интерфейсы тогдашнего Windows были весьма убоги, но уже требовали неплохие ресурсы от видеокарты. А самое главное, что многие пользователи узнали, что оказывается сосед может где-то в какой-то игре или приложении выставить 640×480, а он сам не может. Что оказывается, объем памяти на видеокарте играет огромную роль в этом плане.
И так далее, потом стали предъявляться претензии к качеству и частотам работы RAMDAC и т. д. Просто кладом для таких производителей как Matrox и ATI стал выпуск Windows 95, где уже текстовых режимов (кроме DOS-сессий) не было, и уже нужны были графические карты повышенной четкости и с приличным объемом памяти. NVIDIA тогда еще была, может, во сне у будущего президента, в те времена сотрудника SGI, когда обе канадские компании ATI и Matrox просто насмерть бились за покупателя (почище, чем сейчас баталии с NVIDIA). Фирма из Торонто выставила отряд из семейства Mach:
Это были и Mach32 и первый в мире 64-битный процессор Mach64. Вначале на VLB, а потом и на PCI-интерфейсах. Вы думаете, что только после 2001 года ускорители стали стоить выше 350 долларов? Ошибаетесь! В 1995 году супер-крутая ATI Mach64 с 4-мя мегабайтами VRAM стоила 380 долларов.
Однако фирма из Монреаля никак не могла позволить, чтобы какая-то там компания из Торонто захватила лавры победителя. И в свет вышел Matrox Millennium. Хотя до начала 21-го века было еще много времени, все равно название карте было дано очень звучным. Основана она была также на 64-битном процессоре MGA-64. И также имела 4 мегабайта WRAM (даже тут Matrox был неординарен, выбрал особую память, которую Samsung изготовлял только по его заказу). Продукт имел разъемы расширения, куда при желании можно было установить дополнительную память (платки с 4MB WRAM выпускал также исключительно Matrox). Само собой, цена такого ускорителя даже с 4-мя мегабайтами доходила до 500 долларов (кто там возмущается по поводу того, что GeForce 7800 GTX стоит 550? — Ау! :-)) ).
В ход пошел самый черный пиар, обе компании старались на славу, пытаясь друг друга обвинить в самых тяжких грехах, какие могут быть в этом секторе рынка. Надо сказать, что RAMDAC в то время представлял собой отдельную микросхему, то бишь процессор. И производили такие чипы тогда множество компаний, самыми хитовыми считались RAMDAC-и от Texas Instruments, которые и ставил на свои карты Matrox. А ATI пробовала самостоятельно выпускать и даже RAMDAC.
Должен заметить, что в то время обе компании выпускали не только чипы, но и самостоятельно производили карты на них. Раздача чипов сторонним производителям вошла в моду только в 1996 году с выходом на рынок 3dfx и NVIDIA. Обе компании не имели не только фабрик по производству самих чипов, но не было у них и заводов по выпуску карт. Что имелось в наличии у ATI и Matrox. Правда, чипы они сами никогда не делали, размещали заказы: Matrox у NEC, ATI у TSMC.
Возвращаясь к заголовку раздела, надо сказать, что все карты были тогда зеленого цвета (лишь с разными оттенками от салатового до темно-зеленого).
Далее пошла эра новых чипов, нового поколения — RAGE.
Это совсем другая история, тут уже с одной стороны появилась NVIDIA, которая сразу стала заявлять претензии на то, что ее продукты не хуже, с другой стороны, 3dfx, которая ставила карту на новую область — трехмерную графику.
Тут пути фирм Matrox и ATI разошлись. Первая — не стала ничего особого предпринимать, чтобы как-то остановить наступление конкурентов на новое очень плодотворное и черноземное поле трехмерной графики, вторая — забеспокоилась. В результате чего стали появляться RAGE 3D чипы, умеющие реализовывать зачатки того, что мы сегодня называем 3D.
В принципе, первое время Matrox даже выигрывал, делая упор на быструю 2D-графику с кристально чистым выводом картинки, поскольку 3dfx, как впоследствии главный законодатель мод в 3D, делала упор на отдельные платы, которые были только 3D, то есть не могли работать самостоятельно как полноценные видеокарты. И потому многие владельцы карт от Matrox просто докупали трехмерные ускорители типа Voodoo или Voodoo2 и имели и хорошее 2D, и мощное по тем временам 3D.
А вот ATI и NVIDIA бились (это были первые схватки традиционных конкурентов) за то, чтобы в рамках одной карты (а лучше даже одного чипа) реализовать и 2D, и 3D. Тогда NVIDIA решила, что корни из SGI дают ей право заявить о новом API, где в качестве элемента разбиения сцены был не треугольник, а четырехугольник. Это была роковая ошибка, Microsoft (а ведь она была властителем над тем, что будет в Windows) такие инициативы не поддержала, и с NV1 компания попала в очень тяжелое положение, поскольку чипы уже были сделаны и даже проданы партнерам, а карты успеха не получили. Начались черные дни для калифорнийской компании.
А вот у канадской ATI как раз все шло на подъем. Да, соперничать с 3dfx, введшей новый API Glide, который был настолько прост, что с восторгом принят разработчиками игр, было очень тяжко, однако с одной стороны, никто не мешал продукты ATI использовать как 2D-решения (как и изделия от Matrox), подкупая к ним Voodoo-карты. С другой стороны, все же хилым 3D, но уже обладали новые продукты. Ставка была сделана на DirectX, который тогда начинала проталкивать MS.
И таким образом, «зеленая» графика канадской фирмы по-прежнему была востребована. Более того, во время боязни, что конкуренты окажутся впереди, было принято решение продавать чипы на сторону. И мы могли видеть продукты, например, ASUSTeK на основе RAGE II+ или RADE PRO.
Между тем постепенно поднималась после нокаута NVIDIA. Да, в то время эта совсем другая фирма, спеси, зазнайства не было ни грамма. Мало-мальски поправив финансы на скудных, но все же продажах RIVA 128 (очень помог пиар по поводу первого в мире 128-битного графического процессора), компания затянула пояс и бросила все финансы на выпуск RivaTNT, наняв целый отряд высококвалифицированных специалистов из SGI. Ведь самым узким местом у RIVA 128 были драйверы, вернее их качество.
Канадская ATI также уже разрабатывала вовсю будущий RAGE 128, который должен был побить конкурента от NVIDIA. Однако серьезные ошибки и просчеты стали началом того снежного кома, в котором компания покатилась в пропасть убытков и потери авторитета. Это был 1998 год, вышла Riva TNT, 3dfx была очень озадачена этим и спешно начала что-то делать (как выясниться, тоже в спешке натворила бед), это был триумф NVIDIA.
А ATI в спешке доводила до ума свой RAGE 128, который после анонса видел только в России Константин Мартыненко (AKA Kenguru, тогдашний владелец и автор Reactor Critical) и то в ужасно сыром виде. А реально карты в продажу пошли только весной 1999 года, когда появился Riva TNT2, и потому RAGE 128 уже мало кому был интересен. Но самая большая беда этого продукта — это качество драйверов, которое было просто ниже плинтуса! Я до сих пор помню эти баталии с огрехами билинейной фильтрации, когда представители ATI упорно отказывались замечать это, а когда позже вышел RAGE 128 PRO, то, ничуть не устыдившись, гордо заявили, что в новом чипе эти огрехи исправлены.
Да, начиная с 1999 года, пути NVIDIA и ATI резко разошлись (уже NVIDIA и ATI, а не Matrox и ATI). Кстати, а что же производитель из Монреаля? Он тогда смог выпустить очень достойный ответ NVIDIA и 3dfx — G400, хотя предшественник G200 имел массу недочетов в 3D. И это стал его последний коронный шаг. Больше с тех пор, с лета 1999 года от Matrox продуктов, на равных соперничающих с продуктами конкурентов того же поколения НЕ БЫЛО! И вряд ли будет. Выход Parhelia в 2002 году — это несерьезно. Много пафоса, пиара, а карта демонстрировала параметры ускорителей предыдущего поколения, имея цену выше всех. После этой карты больше из Монреаля никаких сигналов не поступало, и это говорит о том, что трехмерных ускорителей современного уровня мы уже не получим. Максимум — это разные 2D-решения для вывода на много мониторов, этот сектор рынка и остался за Matrox. Увы, а когда-то эта фирма могла захватывать и очень приличную долю рынка видеокарт.
Так вот, пути разошлись. ATI все больше и больше отставала, и выпуск RAGE 128 PRO
ничего не дал, поскольку он также опоздал — уже вышел первый GeForce 256 от NVIDIA. Нервной попыткой нагнать конкурентов стал выход RAGE MAXX с двумя RAGE 128 PRO на карте. Однако изначально ошибочно заложенные особенности карты привели к тому, что такой продукт никак не мог работать полноценно в ОС уровня Windows NT, а уже надвигался выход Windows 2000, которым Microsoft хотела приблизить NT-операционки к простому пользователю, введя много демократичных вещей из Windows 9x, плюс полноценную поддержку Direct3D, чего ранее не было. Поэтому RAGE MAXX также провалился. Я не буду перечислять дополнительные минусы этого продукта, все равно он морально быстро умер.
2000 год. NVIDIA выпускает GeForce 2 серию. В недрах канадской компании рождается также новый продукт, который должен иметь и аппаратный T&L, и в котором ATI впервые воплотит технику экономии ПСП — HyperZ, тогда впервые появится понятие иерархического Z-буфера. Кроме того, от уже сильно отставшего Matrox компания взяла EMBM — реализация рельефного изображения через карты окружения, ведь еще в 1999 году эта технология была лицензирована MS и вышла в состав DirectX 6.0.
Казалось бы, очень сильный продукт, и ATI поднимается… Но… Во-первых, глупейшее решение по реализации в чипе всего двух пиксельных конвейеров, но с тремя(!) текстурными модулями на каждом (а в то время игр, накладывающих более двух текстур за один проход — не было, да и не предвиделось) вместо 4-х конвейеров у NVIDIA GeForce2 с двумя текстурниками на каждом; во-вторых, снова сильнейшее опоздание с выходом реальных карт (анонс прозвучал даже раньше, чем GeForce2, а карты появились только через 5 месяцев); в-третьих, снова отвратительное качество драйверов. В то время уже вышли наши первые выпуски 3DGiТогов, и читатели могут сами удостовериться, какие глюки и в каком количестве мы могли наблюдать на картах RADEON — именно так был назван новый продукт.
Это все привело к тому, что канадская фирма снова потерпела фиаско. Да, после тщательной переработки драйверов эти карты стали работать весьма сносно, но сколько уже прошло времени! Лишь выпуск очень дешевых RADEON LE помог фирме хоть как-то продать новые продукты и хоть что-то получить. Вероятно, именно в это время наконец-то до руководства компании дошло, что без сотрудничества с разработчиками игр ничего не получится! Надо создавать и даже расширять штат программистов, которые будут вплотную работать с девелоперами, и искать те или иные узкие места и глюки. Ведь NVIDIA давно уже имела аналогичный штат и давно трудилась с разработчиками.
Дальше 2001 год и выпуск RADEON 7500 и 8500. Первый — это была просто разогнанная копия RADEON, и потому успеха особого не получила, к тому же в нем по-прежнему было 6 TMU, 2 из которых в 99% игр не работали. Однако более правильная ценовая политика позволила компании улучшить спрос.
Середину 2001 года можно назвать великой вехой в истории ATI! Компания поняла свою ошибку в том, что держит в своих руках все: и выпуск чипов, и производство карт. К тому же уже ушла в мир иной 3dfx, показавшая на своем примере — что может случиться с компанией, держащейся за такой курс. И ATI объявила, что теперь будет продавать чипы сторонним фирмам. Правда, первое время получалось, что новоиспеченные партнеры получали по сути карты, а не чипы, и продавали под своей маркой.
Да, это была история. Ведь в то время после ухода 3dfx с рынка продажи отдельных чипов только одна NVIDIA осуществляла такую торговлю. Поэтому все компании-производители видеокарт были, по сути, партнерами американской фирмы. Заносчивость и спесь тогдашней NVIDIA не знала пределов, она была монополистом по продаже графических процессоров (ATI и Matrox сами варятся в собственном соку, 3dfx умерла, S3 туда же, оставался STM/PowerVR с KYRO, но он мало кому был интересен, однако даже против KYRO в свое время NVIDIA объявляла войну). И как быть фирмам, которые хотели бы у ATI покупать чипы, но при этом не потерять NVIDIA? Никак! Разбушевавшаяся и разгневанная NVIDIA ставила условия: или только у меня, или вон!
Тогда стали пачками появляться всяческие клоны. Именитые производители образовывали малоизвестные компании для производства карт на основе процессоров от ATI, чтобы только всесильная NVIDIA не узнала и не наложила бы санкции. Само собой, новоиспеченные компании и пользовались малой популярностью. Однако RADEON 8500, поддерживающий уже полноценно DirectX 8.1 (даже в большем объеме, чем у NVIDIA), был очень хорош. И быстро стал завоевывать лавры. Это стало началом «возвращения ATI в лидеры».
Но не надо думать, что NVIDIA так просто отдаст лидерство. Разумеется, нет! В то время у калифорнийской компании появилось очень хорошее подспорье — выпуск GPU для XBOX, в котором был реализован будущий GeForce4 Ti. Поэтому в ответ на начавшийся рост популярности RADEON 8500 NVIDIA выпускает этот новый продукт, и, разумеется, первый был задавлен. Всякие споры о том, что при включении анизотропии GeForce4 Ti опускается по скорости до уровня 8500, имели вялый и малоубедительный характер. К тому же, в недрах NVIDIA после покупки 3dfx вовсю шла работа над NV30, будущим GeForce FX 5800.
ATI к тому времени также могла похвастаться приобретением — они заполучили ArtX, и вот как раз новые силы, новые люди, так сказать, новая кровь, сделали свое дело…
Да, выпуск R300 AKA RADEON 9700 PRO в июле 2002 года стал просто бомбой! Новая PCB красного цвета, новый принципиально новый чип с 8-ю(!) пиксельными конвейерами, впервые 256(!) битная шина обмена с памятью! И самое главное — полноценная поддержка DirectX 9.0! Карта вышла даже раньше самого API! (надо сказать, что чуть ранее вышел Matrox Parhelia с 256-битной шиной, но там были такие маленькие скорости из-за самого GPU, что эта шина ему была просто не нужна).
Да, вот с тех пор графику от ATI можно называть уже красной. NVIDIA была настолько ошеломлена таким выпадом, что начались судорожные действия по ускорению выхода NV30, ведь в Калифорнии были уверены, что он выйдет раньше, чем новый продукт ATI. И эти действия привели к массе ошибок, в результате чего GeForce FX 5800 вышел очень поздно, и NVIDIA с ATI поменялись ролями.
Да, начался тот самый долгожданный звездный час канадской компании, она вернула себе лидерство! Более того, 9700 PRO работал на удивление хорошо и без глюков! Это сразу же оценили разработчики и взяли на вооружение именно этот продукт, чтобы делать игры с поддержкой шейдеров 2.0.
С NVIDIA сошла спесь и заносчивость, и, глядя как бывшие партнеры уже открыто перебегают к ATI, ей было уже не до угроз и принуждений. С тех пор некоторые фирмы до сих пор производят продукты на базе как NVIDIA, так и ATI.
К сожалению, с тех давних пор и до этого момента триумфа маркетинг у ATI мало поменялся, и компания, несмотря на удачу, наступила снова на «грабли», заказав у TSMC мало чипов R300, поэтому карты семейства 9700 были в дефиците. Просто очередной дурак в Торонто ошибся при планировании. Почему дурак? — Да потому что такие ошибки будут и дальше.
А вот департамент по новым продуктам для desktop все работал и работал. Стоило только NVIDIA выпустить NV30, как появился RADEON 9800, а потом и 9800XT. NVIDIA снова сделала ошибки, снабдив чипы медленными ALU, поэтому в шейдерах ее продукты были просто никакими по сравнению с ATI.
Начался период, который я бы назвал КЛОНИРОВАНИЕМ R300. Параллельно шло клонирование R200. Да, выходили RADEON 9000, потом 8500 переименовывали с 9100, так как 9000 оказался медленней, затем снабдили 9000 AGP8x и назвали… 9200, в общем, маркетологи просто из кожи лезли, чтобы замучить пользователя разбирательством — так что же лучше. Более новые карты были тормознее старых, но номера имели выше. Маразм! Но канадским специалистам этого не понять, они купались в лучах славы и все росших объемах продаж.
Точно также шло тупое повышение частот у R300, при этом продукты получали названия 9800, 9800 PRO, 9800 XT. А нового ничего в них, по сути, не было, только лишь рост частот, хотя каждое изделие представлялось с помпой как принципиально новое. Ряд технологий из 8500 уже был забыт (например, TruForm) как и EMBM, кстати, которым почти не воспользовался ни один девелопер.
Однако подлинного пика с переименовываниями и повторными продажами компания достигла уже в 2004-2005 годах. Но перед этим надо сказать, что вышел RADEON X800 (R420), а также NVIDIA сделала просто нечеловеческие усилия, и ее рывок вперед с GeForce 6800 (NV40) позволил хотя бы догнать ATI, а по технологиям в 3D и перегнать. Весной 2004 года это все случилось: ATI решила пока не внедрять шейдерную модель 3.0, ограничившись версией 2.0b, зато подняв частоты до невиданных пределов и внедрив 16 конвейеров.
Здесь следует особо отметить то, что компании бежали наперегонки друг с другом даже не в продажах, а в получении информации — что такого делает конкурент. Потому что еще в конце 2003 года NVIDIA, узнав, что R420 будет не просто очередным тюнингом R300, а иметь 12 конвейеров и т.п., отменила прежний NV40 с 8-ю конвейерами и резко приблизила наработки, которые планировались под NV45. И таким образом, NV40 вышел в свет не таким, каким его задумывали с самого начала, а по сути это был NV45 (впоследствии именно поэтому NVIDIA легко той же версии процессора, но для PCI-E дала кодовое имя NV45). ATI, выяснив, что против ее 12-ти конвейерного будущего чипа готовится столь грозное оружие, решила также изменить характеристики, и на свет вышел уже 16-ти конвейерный продукт.
Обе эти гонки, где дальновидность послана к чертям, привели к тому, что и RADEON X800 XT, и GeForce 6800 Ultra, было нереально купить. Чипов было так мало, что дефицит вырос в разы. Однако то, что новинки РАЗОМ повысили скорость в 2(!) раза, а не на традиционные 20%, резко повысило интерес к топовым ускорителям, к тому же после предыдущего скачка по скорости в 2002 году, наблюдалась стагнация, и народу уже хотелось чего-то более выдающегося.
Так вот, возвращаемся к переименованиям. Мало того, что RADEON 9200 уменьшили по частоте ядра и назвали… 9250, так и, отладив производство такого сложного чипа как R420/423, компания называет его же R480/481 (пусть это вновь разведеленный чип из заново изготовленного кристалла, но суть-то у него та же, ничего не поменялось в характеристиках). И появляются RADEON X850XT. Ради приличия компания чуть-чуть изменила частоты относительно X800XT, но разница укладывается в 5-7% производительности. Это дает право на новое имя? — Нет! Почему NVIDIA, уйдя от комплектования GeForce 6800-карт урезанными чипами NV40 к снабжению этих же карт более новыми NV41/42, не стала менять названия карт? Ведь пользователям все равно — что внутри: R423 или R480, NV40 с 12-ю конвейерами или NV41. Он видит результат. Если RADEON X800 XT PE выдает такую же скорость что и X850 XT, то за что прибавка в 50 в номере?
Теперь идем в наше время. Когда у компании трудности, и нет в срок новых продуктов, она теряет голову и начинает заниматься… (не хочу называть грубое слово). Мы помним, что этим занималась NVIDIA, плодя FX 5600XT 128bit, 5600XT 64bit, 5500 и т.д. Где карты перекрывали друг друга, никто ничего не мог понять толком… В то время у NVIDIA не было еще 6-й серии, и она страдала «фигней» (Я не боюсь такого слова). Теперь тем же страдает ATI, сделав X800GT, убивая тем самым X800, основанный на более новом дешевом чипе, хотя X800GT — калиф на час, как запасы R480 кончатся, то и все. Я уж не говорю о X550. Ведь частота ядра такая же, как у X600 PRO. Чем чипы отличаются? — Ничем. В чем смысл нового названия? Бред. Лучше бы понизили бы цену на X600 PRO и не морочили голову.
Да, вот такая невеселая получилась тема в конце. Да, компания, с блеском вышедшая в лидеры в 2002 году и позже, снова загордилась, не сменила стиль маркетинга (не выгнала в шею тех грамотеев, которые помогали компании получать убытки), и теперь пока видим стагнацию с попытками в очередной раз продать что-то старое.
Однако все же на горизонте R520 и новое семейство продуктов. Все же хочется закончить на оптимистичной ноте и пожелать ATI выйти из этого цейтнота, причем самым достойным образом. Это будет сделать очень трудно, учитывая как давно вышли новые продукты NVIDIA уже, успевшие упасть в цене. Но все же надеюсь, что у канадских стратегов хватит дальновидности, чтобы год 20-летия встретить новыми победами.
И чтобы у каждого сотрудника ATI было по такой машине! :))