Почему видеокарты настолько подорожали: пора обновляться сейчас, завтра будет ещё дороже

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Помните те времена, когда можно было купить приличную видеокарту за разумные деньги? Я вот помню, и, честно говоря, ностальгия берёт за душу. Сегодня же, открывая ценники на новенькие GPU, хочется то ли смеяться, то ли плакать. Сегодня же, открывая любой онлайн-магазин электроники, хочется протереть глаза и перепроверить курс валют — неужели цифры не врут? Увы, всё так. Стоимость современных GPU взлетела до небес, оставив позади даже самые смелые прогнозы аналитиков пятилетней давности.


Особенно остро ощущается этот рост, если посмотреть на ситуацию через призму «рублей на медианный FPS» для актуальных игр. Ещё вчера мы радовались, что можем позволить себе топовую графику в любимых тайтлах, а сегодня приходится выбирать между почкой и плавным геймплеем. И ладно бы речь шла только о флагманских моделях — даже середнячки теперь стоят как самолёт.

Но самое печальное — это то, что куда сильнее выросла планка для видеокарт «с запасом на будущее». Если раньше можно было купить, скажем, GTX 1066 и спокойно играть несколько лет, не задумываясь о том, что она может не потянуть новинки, то сегодня для такого спокойствия нужна как минимум RTX 4070. И это при том, что цена на неё кусается куда ощутимее, чем на GTX 1070 из не столь далёкого прошлого (цены выросли уж явно поболее официальной инфляции, причем кратно).

Младшие модели едва справляются с текущими играми, а что будет через год — страшно представить. Unreal Engine 5 и вовсе без зазрения совести «кладёт на лопатки» всё, что слабее RTX 4080.

Автор: GregTech (CC BY 3.0 Unported) Источник: youtu.be

Так что же произошло с рынком видеокарт? Давайте разбираться.

Закон Мура мёртв и разлагается

Знаете, что общего между законами физики и законом Мура? И те, и другие рано или поздно упираются в свой потолок. Вот и закон Мура, гласивший, что количество транзисторов на кристалле будет удваиваться каждые два года, в конце концов встретился с суровой реальностью. Примерно десять лет назад, аккурат к выходу серии GTX 10XX, мы добрались до этого самого потолка. И с тех пор закон Мура не просто мёртв — он активно разлагается, оставляя после себя шлейф растущих цен и разочарованных геймеров.

Конечно, вы можете возразить:


Постойте-ка, но ведь новые видеокарты всё ещё мощнее старых! Разве кривая прогресса куда-то делась?

…И будете отчасти правы. Да, производительность растёт, но давайте вспомним оригинальную формулировку закона Мура: «число транзисторов на кристалле равной стоимости будет удваиваться раз в два года». Ключевое здесь — «равной стоимости». А вот с этим как раз и возникли проблемы.

Чтобы закон продолжал работать, нужно было бы постоянно уменьшать размер транзисторов на кристалле одного размера или снижать процент брака при производстве, позволяя делать чипы большего размера за те же деньги. Желательно, оба варианта сразу. Но технологии упёрлись в физические ограничения — дальнейшее уменьшение размеров транзисторов становится всё сложнее и дороже, а процент выхода годных чипов если и растёт, то черепашьими темпами. В результате мы получаем ситуацию, когда за каждый новый процент производительности приходится платить всё больше и больше.

Два пути к производительности

Так как же производители умудряются выжимать тот самый рост производительности, которым они так гордятся на презентациях? Ответ прост: двумя не самыми приятными для нашего кошелька путями.

  • Первый путь — это увеличение площади чипа. Казалось бы, что тут такого? Сделали кристалл побольше, набили его транзисторами под завязку — и вуаля, производительность выросла! Но не всё так просто. Чем больше площадь чипа, тем выше вероятность брака при производстве. А ещё это означает, что с одной кремниевой пластины можно будет нарезать меньше чипов. В итоге стоимость каждого отдельного GPU взлетает до небес, а мы с вами остаёмся с пустыми кошельками и разбитыми мечтами о доступном апгрейде.
  • Второй путь не менее «весёлый» — это повышение частот и теплового пакета. Новые техпроцессы позволяют чипам работать стабильнее, что даёт возможность либо увеличить энергоэффективность для мобильных устройств, либо поднять планку производительности за счёт TDP для настольных систем. Звучит неплохо, правда? Но есть нюанс: такой подход требует более мощных систем охлаждения (вплоть до крайне дорогостоящей испарительной камеры на топовых исполнениях 4080 и почти всех 4090), усиленных подсистем питания, новых коннекторов и прочих «радостей жизни». И всё это, разумеется, совершенно бесплатно! Ой, простите, очепятка — совершенно не бесплатно. Видеокарты на 300+ Вт становятся нормой, а вместе с ними растут и ценники.
Автор: 이데일리TV (CC BY 3.0 Unported) Источник: youtu.be

А теперь вспоминаем, что проектантам приходится использовать оба подхода — и понимаем всю безблагодатность ситуации.

Бум майнинга, перешедший в бум ИИ

Если вы думали, что ситуация не может стать ещё хуже, то у меня для вас плохие новости. Помните старину Адама Смита с его теорией спроса и предложения? Так вот, последние 5-7 лет рынок GPU переживает настоящее светопреставление в этом плане. И виноват в этом не только и не столько потребительский спрос, сколько настоящий энтерпрайзный бум.

Всё началось с криптовалютного безумия. Майнеры скупали видеокарты оптом, не глядя на цены. Производители не успевали удовлетворять спрос, цены росли, а простые геймеры оказались у разбитого корыта. Казалось бы, после краха крипторынка ситуация должна была нормализоваться. Но не тут-то было! На смену майнингу пришла «нейросетевая революция», и теперь уже компании, занимающиеся искусственным интеллектом, готовы отдать любые деньги за вычислительные мощности.

Автор: 이데일리TV (CC BY 3.0 Unported) Источник: youtu.be
Дефицит по-Смиту

В результате мы имеем классическую ситуацию дефицита по Смиту: спрос значительно превышает предложение, а производственные мощности не успевают за растущими аппетитами рынка. Чипов катастрофически не хватает, и ситуация напоминает попытку заставить стиральную машинку потреблять больше воды, чем способны пропустить трубы. Только в нашем случае «трубы» — это заводы по производству полупроводников, которые, к сожалению, невозможно построить за одну ночь.

А теперь вопрос на засыпку: что делает рынок, когда всем не хватает? Правильно, взвинчивает цены до небес! И делает это с единственной целью — отсеять наименее платёжеспособных покупателей, чтобы оставшимся наконец-то начало хватать. Проблема в том, что в нашем случае самыми платёжеспособными оказываются отнюдь не геймеры, а крупные корпорации с их практически бездонными карманами.


Единственное место в мире, где делают современные чипы — кластер фабрик на Тайване. Делением почему-то не размножается.
Автор: TrickHunter (CC BY-SA 4.0) Источник: commons.wikimedia.org

В итоге получается, что «брить» будут именно нас — любителей игр и небольшие стартапы, пытающиеся запрыгнуть в уходящий поезд ИИ-революции. Крупные игроки готовы платить любые деньги за вычислительные мощности, а мы остаёмся с носом и пустым кошельком. И, к сожалению, в ближайшее время ситуация вряд ли изменится к лучшему.

Жадность Хуанга и безальтернативность Nvidia

Знаете, кто больше всех выигрывает от сложившейся ситуации? Правильно, наш старый знакомый в кожаной куртке — Дженсен Хуанг, CEO Nvidia. И, надо сказать, он умеет пользоваться моментом. Если вы думали, что альтруизм — это про него, то я вас разочарую: Хуанг — тот ещё жлоб, каких поискать надо.

В 2024 году Nvidia оказалась в поистине уникальном положении. Видеокарты нужны всем — от геймеров до разработчиков ИИ и энтузиастов. CUDA, проприетарная платформа параллельных вычислений от Nvidia, стала де-факто стандартом в индустрии. Без неё как без рук и в энтерпрайзе, и в потребительском сегменте, где люди уже вовсю пользуются плодами нейросетевой революции локально. Попробуйте запустить какую-нибудь модную нейросеть вроде Stable Diffusion на чём-то кроме карты от Nvidia — намучаетесь с костылями и велосипедами.

Это ещё SD, которую благодаря усилиям сообщества только что на чайнике запустить нельзя, вопрос в объёме сопутствующих проблем. А если надо какую-нибудь нишевую модель не на Nvidia запустить, вроде синтеза речи или «портативной» языковой?

А что же конкуренты? Intel и AMD безнадёжно отстали даже по чистой производительности, еле-еле закрывая средний сегмент. У Nvidia образовалась фактическая монополия, помноженная на дефицит и эксклюзивность CUDA — идеальные условия для того, чтобы задрать цены до небес. Но Хуанг не был бы Хуангом, если бы остановился на достигнутом: мечта стать-таки ТОП-1 по капитализации не покидает мозг старичка.

Добрый-добрый дедушка…
Автор: Dunk, GODL-India (CC BY 2.0) Источник: www.flickr.com

Он пошёл дальше, намеренно «обрезав» младшие GPU (до 4060 включительно на десктопе и до 4070 включительно в ноутбуках) по шине и видеопамяти. Теперь у этих карт нет ни малейшей перспективы на будущее. Хотите видеокарту «с запасом»? Извольте выложить 60 тысяч за RTX 4070/4080m или идите лесом. А то, что год назад она стоила 50 тысяч при более дорогом долларе — так это ваши проблемы. У нас, знаете ли, дефицит!

Неразумное расходование ресурсов GPU

Казалось бы, куда уж хуже? Но нет, есть ещё один фактор, добивающий многострадальный рынок видеокарт — бесцеремонный подход игровых разработчиков к расходованию ресурсов. Особенно этим грешат создатели AAA-проектов, которые, кажется, совсем забыли о таком понятии, как оптимизация.

Сегодня считать полигоны и дроуколлы — удел жлобов и нищебродов. Все текстуры обязательно должны быть в 4К, использовать спрайты вместо полноценных 3D-моделей — это вообще моветон и харам, даже если речь идёт о бычке в пепельнице, который мелькает на заднем плане в течение полсекунды. Ну и, конечно, зачем оптимизировать модельку бычка из магазина ассетов на сто мегабайт, если можно просто впихнуть её в игру как есть?

И, само собой, какая современная игра обойдётся без рейтрейсинга? Теперь даже тлеющий огонёк того самого бычка в пепельнице обязательно нужно обсчитать по всем законам физики света. А что, вы разве не для этого покупали видеокарту за 100+ тысяч?

UE5 такой UE5… Красиво, бесспорно, но какой ценой?
Автор: Cyberia Nova

Справедливости ради стоит отметить, что проблема касается не только GPU. Оперативная память, место на диске, нагрузка на процессор — всё это тоже страдает от неоптимизированных игр. Но по традиции сильнее всего достаётся именно видеокартам. В итоге мы имеем ситуацию, когда даже топовое железо начинает задыхаться в попытках выдать заветные 60 FPS в 2К и выше. То есть видеокарты не только дорожают — теперь для той же производительности нужен ещё и чип классом выше.

Когда всё это кончится?!

Я знаю, о чём вы сейчас думаете. «Ну хорошо, ситуация паршивая. Но когда-то ведь это наконец закончится? Когда мы снова сможем покупать видеокарты по человеческим ценам?» У меня для вас не самые приятные новости: скорее всего, никогда.

Видеокарты по $700…$2000+ — это, увы, новая норма. И, похоже, это навсегда. История знает очень мало примеров, когда после серьёзной инфляции цены возвращались к прежним значениям. Обычно происходит ровно наоборот — то, что вчера казалось дорогим, завтра будет восприниматься как норма (и хорошо если рост цен вообще замедлитс). К сожалению, есть все основания полагать, что с видеокартами произойдёт то же самое.

Есть ли хоть какая-то надежда? Теоретически, да. Вот пара факторов, которые могли бы замедлить этот безумный тренд роста цен в среднесрочной перспективе.

  1. Падение внеигрового спроса на GPU-совместимые чипы. Но давайте будем честными: в условиях нейросетевой революции, которая только набирает обороты, это примерно так же вероятно, как снегопад в Сахаре. Искусственный интеллект проникает во все сферы жизни, и спрос на вычислительные мощности будет только расти.
  2. Другой вариант — серьёзная конкуренция от AMD или Intel. Но, увы, в ближайшие 2-5 лет это больше похоже на фантастику на грани фэнтези. Обе компании серьёзно отстали от Nvidia, и чтобы догнать зелёного гиганта, им понадобится нечто большее, чем просто в меру удачная линейка GPU, как это было с Polaris. Нужен технологический прорыв, а такие вещи, как известно, по расписанию не случаются. К тому же, TSMC всё ещё одна и безальтернативна, спокойно диктуя цены при любой конкуренции.
  3. Ну и последний, самый невероятный сценарий — если разработчики игр вдруг вспомнят о таком странном понятии, как «оптимизация». Но для этого, кажется, должны вмешаться высшие силы и лично настучать по голове руководству крупных студий и движкоделов.
Скорее боги спустятся на землю, чем геймдеву объяснят, что не у всех есть 4090…
Автор: Official GDC (CC BY 2.0) Источник: www.flickr.com

К сожалению, куда вероятнее обратный сценарий. Нейросетевая революция только набирает обороты, а значит, спрос на мощные GPU будет расти как на дрожжах. Intel и AMD ещё долго не смогут составить серьёзную конкуренцию Nvidia, новых фабрик а чуда в виде внезапного прозрения игровых разработчиков ждать и вовсе не приходится.

Нам поможет только чудо

Итак, к какому же выводу я пришел? Как ни печально это признавать, но лучшее время для апгрейда — это, скорее всего, здесь и сейчас. Да, цены кусаются. Да, это больно бьёт по карману. Но завтра будет ещё дороже, а послезавтра — возможно, и вовсе в разы. Потому что все эти факторы — технологический потолок, растущий спрос, монополизм Nvidia/TSMC — они не просто складываются, а умножаются друг на друга, создавая эффект снежного кома.

Есть мнение, что даже проценты по кредиту, при всей их грабительской сущности, могут оказаться менее болезненными, чем разница в стоимости между покупкой GPU сейчас и через год-два. И даже если ситуация начнёт хоть немного нормализовываться, это произойдёт не раньше, чем через пару лет. А до тех пор нам остаётся только надеяться на чудо.

Каким могло бы быть это чудо? Например, освоение многослойных кристаллов с одновременным решением проблем их охлаждения. Это позволило бы обмануть смерть закона Мура, перейдя от плоских чипов к трёхмерным. Или, скажем, рабочая чиплетная компоновка GPU, которая позволила бы собирать мощные видеокарты с большой сумарной площадью чипа из более мелких и дешёвых в производстве кристаллов — то, что резко удешевило CPU, но пока никак не даётся GPU.

Но даже если какое-то из этих технологических чудес и случится, ждать его стоит не раньше, чем через пару лет. В лучшем случае.

А пока… что ж, добро пожаловать в дивный новый мир, где за право насладиться красотами виртуальных миров приходится платить вполне реальные и очень немаленькие деньги. Таков путь современного геймера и энтузиаста. Остаётся только смириться и затянуть пояса потуже — или начать копить на новую видеокарту уже сейчас. Или брать кредит. Кто знает, может быть, к тому моменту, как вы накопите нужную сумму, цены не вырастут вдвое ещё раз?

Изображение в превью:
Автор: GregTech (CC BY 3.0 Unported)
Источник: youtu.be