Обзор флагмана 3D-графики 2018 года — Nvidia GeForce RTX 2080 Ti

Справочные материалы:

Теоретическая часть: особенности архитектуры

После довольно длительного застоя на рынке графических процессоров, связанного с несколькими факторами, наконец-то вышло новое поколение GPU компании Nvidia, да какое — с заявленным переворотом в 3D-графике реального времени! Действительно, аппаратно ускоренной трассировки лучей многие энтузиасты ждали уже давно, так как этот метод рендеринга олицетворяет физически корректный подход к делу, просчитывая путь лучей света, в отличие от растеризации с использованием буфера глубины, к которой мы привыкли за много лет и которая лишь имитирует поведение лучей света. Для того, чтобы не рассказывать об особенностях трассировки еще раз, мы предлагаем прочитать большую подробную статью о ней.

Хотя трассировка лучей обеспечивает более высокое качество картинки по сравнению с растеризацией, она весьма требовательна к ресурсам и ее применение ограничено возможностями аппаратного обеспечения. Анонс технологии Nvidia RTX и аппаратно поддерживающих ее GPU дал разработчикам возможность начать внедрение алгоритмов, использующих трассировку лучей, что является самым значительным изменением в графике реального времени за последние годы. Со временем она полностью изменит подход к рендерингу 3D-сцен, но это произойдет постепенно. Поначалу использование трассировки будет гибридным, при сочетании трассировки лучей и растеризации, но затем дело дойдет и до полной трассировки сцены, которая станет доступной через несколько лет.

Но что предлагает Nvidia прямо сейчас? Компания анонсировала свои игровые решения линейки GeForce RTX в августе, на игровой выставке Gamescom. GPU основаны на новой архитектуре Turing, представленной еще чуть ранее — на SIGGraph 2018, когда были рассказаны лишь некоторые подробности о новинках. Все недостающие детали мы и раскроем сегодня. В линейке GeForce RTX объявлено три модели: RTX 2070, RTX 2080 и RTX 2080 Ti, они основаны на трех графических процессорах: TU106, TU104 и TU102 соответственно. Сразу бросается в глаза, что с появлением аппаратной поддержки ускорения трассировки лучей Nvidia поменяла систему наименований и видеокарт (RTX — от ray tracing, т. е. трассировка лучей), и видеочипов (TU — Turing).

Почему Nvidia решила, что аппаратную трассировку необходимо представить именно сейчас? Ведь прорывов в технологии производства кремния нет, полноценное освоение нового техпроцесса 7 нм еще не закончено, особенно если говорить о массовом производстве таких больших и сложных GPU. И возможностей для заметного повышения количества транзисторов в чипе при сохранении приемлемой площади GPU практически нет. Выбранный для производства графических процессоров линейки GeForce RTX техпроцесс 12 нм FinFET хоть и лучше 16-нанометрового, известного нам по поколению Pascal, но эти техпроцессы весьма близки по своим основным характеристикам, 12-нанометровый использует схожие параметры, обеспечивая чуть большую плотность размещения транзисторов и сниженные утечки тока.

Но компания решила воспользоваться своим лидирующим положением на рынке высокопроизводительных графических процессоров, а также фактическим отсутствием конкуренции на данном этапе (лучшие из решений пока что единственного конкурента с трудом дотягивают до GeForce GTX 1080) и выпустить новинки с поддержкой аппаратной трассировки лучей именно в этом поколении — еще до возможности массового производства больших чипов по техпроцессу 7 нм. Видимо, чувствуют свою силу, иначе бы и не пробовали.

Кроме модулей трассировки лучей, в составе новых GPU есть и аппаратные блоки для ускорения задач глубокого обучения — тензорные ядра, которые достались Turing по наследству от Volta. И надо сказать, что Nvidia идет на приличный риск, выпуская игровые решения с поддержкой двух совершенно новых для пользовательского рынка типов специализированных вычислительных ядер. Главный вопрос заключается в том, смогут ли они получить достаточную поддержку от индустрии — с использованием новых возможностей и новых типов специализированных ядер. Для этого компании нужно убедить индустрию и продать критическую массу видеокарт GeForce RTX, чтобы разработчики увидели выгоду от внедрения новых фич. Ну а мы сегодня попробуем разобраться в том, насколько хороши улучшения в новой архитектуре и что может дать покупка старшей модели — GeForce RTX 2080 Ti.

Так как новая модель видеокарты компании Nvidia основана на графическом процессоре архитектуры Turing, имеющей много общего с предыдущими архитектурами Pascal и Volta, то перед прочтением данного материала мы советуем ознакомиться с нашими ранними статьями по теме:

Графический ускоритель GeForce RTX 2080 Ti
Кодовое имя чипа TU102
Технология производства 12 нм FinFET
Количество транзисторов 18,6 млрд (у GP102 — 12 млрд)
Площадь ядра 754 мм² (у GP102 — 471 мм²)
Архитектура унифицированная, с массивом процессоров для потоковой обработки любых видов данных: вершин, пикселей и др.
Аппаратная поддержка DirectX DirectX 12, с поддержкой уровня возможностей Feature Level 12_1
Шина памяти 352-битная: 11 (из 12 физически имеющихся в GPU) независимых 32-битных контроллеров памяти с поддержкой памяти типа GDDR6
Частота графического процессора 1350 (1545/1635) МГц
Вычислительные блоки 34 потоковых мультипроцессора, включающих 4352 CUDA-ядра для целочисленных расчетов INT32 и вычислений с плавающей запятой FP16/FP32
Тензорные блоки 544 тензорных ядра для матричных вычислений INT4/INT8/FP16/FP32
Блоки трассировки лучей 68 RT-ядер для расчета пересечения лучей с треугольниками и ограничивающими объемами BVH
Блоки текстурирования 272 блока текстурной адресации и фильтрации с поддержкой FP16/FP32-компонент и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов
Блоки растровых операций (ROP) 11 (из 12 физически имеющихся в GPU) широких блоков ROP (88 пикселей) с поддержкой различных режимов сглаживания, в том числе программируемых и при FP16/FP32-форматах буфера кадра
Поддержка мониторов поддержка подключения по интерфейсам HDMI 2.0b и DisplayPort 1.4a
Спецификации референсной видеокарты GeForce RTX 2080 Ti
Частота ядра 1350 (1545/1635) МГц
Количество универсальных процессоров 4352
Количество текстурных блоков 272
Количество блоков блендинга 88
Эффективная частота памяти 14 ГГц
Тип памяти GDDR6
Шина памяти 352-бит
Объем памяти 11 ГБ
Пропускная способность памяти 616 ГБ/с
Вычислительная производительность (FP16/FP32) до 28,5/14,2 терафлопс
Производительность трассировки лучей 10 гигалучей/с
Теоретическая максимальная скорость закраски 136-144 гигапикселей/с
Теоретическая скорость выборки текстур 420-445 гигатекселей/с
Шина PCI Express 3.0
Разъемы один HDMI и три DisplayPort
Энергопотребление до 250/260 Вт
Дополнительное питание два 8-контактных разъема
Число слотов, занимаемых в системном корпусе 2
Рекомендуемая цена $999/$1199 или 95990 руб. (Founder’s Edition)

Как это стало обычным делом уже для нескольких семейств видеокарт Nvidia, линейка GeForce RTX предлагает специальные модели самой компании — так называемые Founder’s Edition. В этот раз при более высокой стоимости они обладают и более привлекательными характеристиками. Так, фабричный разгон у таких видеокарт есть изначально, а кроме этого, GeForce RTX 2080 Ti Founder’s Edition выглядят весьма солидно благодаря удачному дизайну и отличным материалам. Каждая видеокарта протестирована на стабильную работу и обеспечивается трехлетней гарантией.

Видеокарты GeForce RTX Founder’s Edition имеют кулер с испарительной камерой на всю длину печатной платы и два вентилятора для более эффективного охлаждения. Длинная испарительная камера и большой двухслотовый алюминиевый радиатор обеспечивают большую площадь рассеивания тепла. Вентиляторы отводят горячий воздух в разные стороны, и при этом работают они довольно тихо.

Система питания в GeForce RTX 2080 Ti Founders Edition также серьезно усилена: применяется 13-фазная схема iMON DrMOS (в GTX 1080 Ti Founders Edition была 7-фазная dual-FET), поддерживающая новую динамическую систему управления питанием с более тонким контролем, улучшающая разгонные возможности видеокарты, о которых мы еще поговорим далее. Для питания скоростной GDDR6-памяти установлена отдельная трехфазная схема.

Архитектурные особенности

Сегодня мы рассматриваем старшую видеокарту GeForce RTX 2080 Ti, основанную на графическом процессоре TU102. Применяемая в этой модели модификация TU102 по количеству блоков ровно вдвое больше, чем TU106, который появится в виде модели GeForce RTX 2070 чуть позднее. TU102, применяемый в новинке, имеет площадь 754 мм² и 18,6 млрд транзисторов против 610 мм² и 15,3 млрд транзисторов у топового чипа семейства Pascal — GP100.

Примерно то же самое и с остальными новыми GPU, все они по сложности чипов как бы сдвинуты на шаг: TU102 соответствует TU100, TU104 по сложности похож на TU102, а TU106 — на TU104. Так как GPU усложнились, но техпроцессы применяются очень схожие, то и по площади новые чипы заметно увеличились. Посмотрим, за счет чего графические процессоры архитектуры Turing стали сложнее:

Полный чип TU102 включает шесть кластеров Graphics Processing Cluster (GPC), 36 кластеров Texture Processing Cluster (TPC) и 72 потоковых мультипроцессора Streaming Multiprocessor (SM). Каждый из кластеров GPC имеет собственный движок растеризации и шесть кластеров TPC, каждый из которых, в свою очередь, включает два мультипроцессора SM. Все SM содержат по 64 CUDA-ядра, по 8 тензорных ядер, по 4 текстурных блока, регистровый файл 256 КБ и 96 КБ конфигурируемого L1-кэша и разделяемой памяти. Для нужд аппаратной трассировки лучей каждый мультипроцессор SM имеет также и по одному RT-ядру.

Всего в полной версии TU102 получается 4608 CUDA-ядер, 72 RT-ядра, 576 тензорных ядер и 288 блоков TMU. Графический процессор общается с памятью при помощи 12 отдельных 32-битных контроллеров, что дает 384-битную шину в целом. К каждому контроллеру памяти привязаны по восемь блоков ROP и по 512 КБ кэш-памяти второго уровня. То есть всего в чипе 96 блоков ROP и 6 МБ L2-кэша.

По структуре мультипроцессоров SM новая архитектура Turing очень схожа с Volta, и количество ядер CUDA, блоков TMU и ROP по сравнению с Pascal выросло не слишком сильно — и это при таком усложнении и физическом увеличении чипа! Но это не удивительно, ведь основную сложность привнесли новые типы вычислительных блоков: тензорные ядра и ядра ускорения трассировки лучей.

Еще были усложнены сами CUDA-ядра, в которых появилась возможность одновременного исполнения целочисленных вычислений и операций с плавающей запятой, а также серьезно увеличен объем кэш-памяти. Об этих изменениях мы поговорим далее, а пока что отметим, что при проектировании семейства Turing разработчики намеренно перенесли фокус с производительности универсальных вычислительных блоков в пользу новых специализированных блоков.

Но не следует думать, что возможности CUDA-ядер остались неизменными, их тоже значительно улучшили. По сути, потоковый мультипроцессор Turing основан на варианте Volta, из которого исключена большая часть FP64-блоков (для операций с двойной точностью), но оставлена удвоенная производительность на такт для FP16-операций (также аналогично Volta). Блоков FP64 в TU102 оставлено 144 штуки (по два на SM), они нужны только для обеспечения совместимости. А вот вторая возможность позволит увеличить скорость и в приложениях, поддерживающих вычисления со сниженной точностью, вроде некоторых игр. Разработчики уверяют, что в значительной части игровых пиксельных шейдеров можно смело снизить точность с FP32 до FP16 при сохранении достаточного качества, что также принесет некоторый прирост производительности. Со всеми подробностями работы новых SM можно ознакомиться в обзоре архитектуры Volta.

Одним из важнейших изменений потоковых мультипроцессоров является то, что в архитектуре Turing стало возможным одновременное выполнение целочисленных (INT32) команд вместе с операциями с плавающей запятой (FP32). Некоторые пишут, что в CUDA-ядрах «появились» блоки INT32, но это не совсем верно — они «появились» в составе ядер сразу, просто до архитектуры Volta одновременное исполнение целочисленных и FP-инструкций было невозможно, и эти операции запускались на выполнение по очереди. CUDA-ядра архитектуры Turing же схожи с ядрами Volta, которые позволяют исполнять INT32- и FP32-операции параллельно.

И так как игровые шейдеры, помимо операций с плавающей запятой, используют много дополнительных целочисленных операций (для адресации и выборки, специальных функций и т. п.), то это нововведение способно серьезно повысить производительность в играх. По оценкам компании Nvidia, в среднем на каждые 100 операций с плавающей запятой приходится около 36 целочисленных операций. Так что лишь это улучшение способно принести прирост скорости вычислений порядка 36%. Важно отметить, что это касается только эффективной производительности в типичных условиях, а на пиковых возможностях GPU не сказывается. То есть пусть теоретические цифры для Turing и не столь красивы, в реальности новые графические процессоры должны оказаться более эффективными.

Но почему, раз в среднем целочисленных операций лишь 36 на 100 FP-вычислений, количество блоков INT и FP одинаково? Скорее всего, это сделано для упрощения работы управляющей логики, а кроме этого, INT-блоки наверняка значительно проще FP, так что «лишнее» их количество вряд ли сильно повлияло на общую сложность GPU. Ну и задачи графических процессоров Nvidia давно не ограничиваются игровыми шейдерами, а в других применениях доля целочисленных операций вполне может быть и выше. Кстати, аналогично Volta повысился и темп выполнения инструкций для математических операций умножения-сложения с однократным округлением (fused multiply–add — FMA), требующих лишь четырех тактов по сравнению с шестью тактами на Pascal.

В новых мультипроцессорах SM была серьезно изменена и архитектура кэширования, для чего кэш первого уровня и разделяемая память были объединены (у Pascal они были раздельные). Shared-память ранее имела лучшие характеристики по пропускной способности и задержкам, а теперь пропускная способность L1-кэша выросла вдвое, снизились задержки доступа к нему вместе с одновременным увеличением емкости кэша. В новом GPU можно изменять соотношение объема L1-кэша и разделяемой памяти, выбирая из нескольких возможных конфигураций.

Кроме этого, в каждом разделе мультипроцессора SM появился L0-кэш для инструкций вместо общего буфера, а каждый кластер TPC в чипах архитектуры Turing теперь имеет вдвое больше кэш-памяти второго уровня. То есть общий объем L2-кэша вырос до 6 МБ для TU102 (у TU104 и TU106 его поменьше — 4 МБ).

Эти архитектурные изменения привели к 50%-ному улучшению производительности шейдерных процессоров при равной тактовой частоте в таких играх, как Sniper Elite 4, Deus Ex, Rise of the Tomb Raider и других. Но это не значит, что общий рост частоты кадров будет равен 50%, так как общая производительность рендеринга в играх далеко не всегда ограничена именно скоростью вычисления шейдеров.

Также были улучшены технологии сжатия информации без потерь, экономящие видеопамять и ее пропускную способность. Архитектура Turing поддерживает новые техники сжатия — по данным Nvidia, до 50% более эффективные по сравнению с алгоритмами в семействе чипов Pascal. Вместе с применением нового типа памяти GDDR6 это дает приличный прирост эффективной ПСП, так что новые решения не должны быть ограничены возможностями памяти. А при увеличении разрешения рендеринга и повышении сложности шейдеров ПСП играет важнейшую роль в обеспечении общей высокой производительности.

К слову, о памяти. Инженеры Nvidia работали совместно с производителями для обеспечения поддержки нового типа памяти — GDDR6, и все новое семейство GeForce RTX поддерживает микросхемы этого типа, имеющие пропускную способность в 14 Гбит/с и при этом на 20% более энергоэффективные по сравнению с применяемой в топовых Pascal GDDR5X-памятью. Топовый чип TU102 имеет 384-битную шину памяти (12 штук 32-битных контроллеров), но так как один из них отключен в GeForce RTX 2080 Ti, то шина памяти у него 352-битная, и на топовую карту семейства установлено 11, а не 12 ГБ.

Сама по себе GDDR6 хоть и является совершенно новым типом памяти, но слабо отличается от уже использовавшейся ранее GDDR5X. Основное ее отличие — в еще более высокой тактовой частоте при том же напряжении в 1,35 В. А от GDDR5 новый тип отличается тем, что имеет два независимых 16-битных канала с собственными шинами команд и данных — в отличие от единого 32-битного интерфейса GDDR5 и не полностью независимых каналов в GDDR5X. Это позволяет оптимизировать передачу данных, а более узкая 16-битная шина работает эффективнее.

Характеристики GDDR6 обеспечивают высокую пропускную способность памяти, которая стала значительно выше, чем была у предыдущего поколения GPU, поддерживающего типы памяти GDDR5 и GDDR5X. Рассматриваемая сегодня GeForce RTX 2080 Ti имеет ПСП на уровне 616 ГБ/с, что выше и чем у предшественников, и чем у конкурирующей видеокарты, использующей дорогую память стандарта HBM2. В будущем характеристики памяти GDDR6 будут улучшаться, сейчас ее выпускают компании Micron (скорость от 10 до 14 Гбит/с) и Samsung (14 и 16 Гбит/с).

Другие нововведения

Добавим немного информации о других нововведениях Turing, которые будут полезны и для старых, и для новых игр. К примеру, по некоторым фичам (feature level) из Direct3D 12 чипы Pascal отставали от решений AMD и даже Intel! В частности, это касается таких возможностей, как Constant Buffer Views, Unordered Access Views и Resource Heap (возможности, облегчающие работу программистов, упрощая доступ к различным ресурсам). Так вот, по этим возможностям Direct3D feature level новые GPU компании Nvidia теперь практически не отстают от конкурентов, поддерживая уровень Tier 3 для Constant Buffer Views и Unordered Access Views и Tier 2 для resource heap.

Единственная возможность D3D12, которая есть у конкурентов, но не поддерживается в Turing — PSSpecifiedStencilRefSupported: возможность вывести из пиксельного шейдера референсное значение стенсиля, иначе его можно установить только глобально для всего вызова функции отрисовки. В некоторых старых играх стенсиль использовался для отсечения источников освещения в различных регионах экрана, и эта возможность была полезна для занесения в стенсиль маски с несколькими разными значениями, чтобы каждому источнику света отрисовываться в своем проходе со стенсил-тестом. Без PSSpecifiedStencilRefSupported эту маску приходится рисовать в несколько проходов, а так можно сделать один, вычисляя значение стенсиля непосредственно в пиксельном шейдере. Вроде бы штука полезная, но в реальности не сильно важна — проходы эти несложные, и заполнение стенсиля в несколько проходов мало на что влияет при современных GPU.

Зато с остальным все в порядке. Появилась поддержка удвоенного темпа исполнения инструкций с плавающей запятой, и в том числе в Shader Model 6.2 — новой шейдерной модели DirectX 12, которая включает нативную поддержку FP16, когда вычисления производятся именно в 16-битной точности и драйвер не имеет права использовать FP32. Предыдущие GPU игнорировали установку min precision FP16, используя FP32, когда им вздумается, а в SM 6.2 шейдер может потребовать использование именно 16-битного формата.

Кроме этого, было серьезно улучшено еще одно больное место чипов Nvidia — асинхронное исполнение шейдеров, высокой эффективностью которого отличаются решения AMD. Async compute уже неплохо работал в последних чипах семейства Pascal, но в Turing эта возможность была еще улучшена. Асинхронные вычисления в новых GPU полностью переработаны, и на одном и том же шейдерном мультипроцессоре SM могут запускать и графические, и вычислительные шейдеры, как и чипы AMD.

Но и это еще не все, чем может похвастать Turing. Многие изменения в этой архитектуре нацелены на будущее. Так, Nvidia предлагает метод, позволяющий значительно снизить зависимость от мощности CPU и одновременно с этим во много раз увеличить количество объектов в сцене. Бич API/CPU overhead давно преследует ПК-игры, и хотя он частично решался в DirectX 11 (в меньшей степени) и DirectX 12 (в несколько большей, но все равно не полностью), радикально ничего не изменилось — каждый объект сцены требует нескольких вызовов функций отрисовки (draw calls), каждый из которых требует обработки на CPU, что не дает GPU показать все свои возможности.

Слишком многое сейчас зависит от производительности центрального процессора, и даже современные многопоточные модели не всегда справляются. Кроме этого, если минимизировать «вмешательство» CPU в процесс рендеринга, то можно открыть множество новых возможностей. Конкурент Nvidia при анонсе своего семейства Vega предложил возможное решение проблем — primivtive shaders, но дело не пошло дальше заявлений. Turing предлагает аналогичное решение под названием mesh shaders — это целая новая шейдерная модель, которая ответственна сразу за всю работу над геометрией, вершинами, тесселяцией и т. д.

Mesh shading заменяет вершинные и геометрические шейдеры и тесселяцию, а весь привычный вершинный конвейер заменяется аналогом вычислительных шейдеров для геометрии, которыми можно делать все, что нужно разработчику: трансформировать вершины, создавать их или убирать, используя вершинные буферы в своих целях как угодно, создавая геометрию прямо на GPU и отправляя ее на растеризацию. Естественно, такое решение может сильно снизить зависимость от мощности CPU при рендеринге сложных сцен и позволит создавать богатые виртуальные миры с огромным количеством уникальных объектов. Такой метод также позволит использовать более эффективное отбрасывание невидимой геометрии, продвинутые техники уровня детализации (LOD — level of detail) и даже процедурную генерацию геометрии.

Но столь радикальный подход требует поддержки от API — наверное, поэтому у конкурента дело дальше заявлений не пошло. Вероятно, в Microsoft работают над добавлением этой возможности, раз она востребована уже двумя основными производителями GPU, и в какой-то из будущих версий DirectX она появится. Ну а пока что ее можно использовать в OpenGL и Vulkan через расширения, а в DirectX 12 — при помощи специализированного NVAPI, который как раз и создан для внедрения возможностей новых GPU, еще не поддерживаемых в общепринятых API. Но так как это не универсальный для всех производителей GPU метод, то широкой поддержки mesh shaders в играх до обновления популярных графических API, скорее всего, не будет.

Еще одна интереснейшая возможность Turing называется Variable Rate Shading (VRS) — это шейдинг с переменным количеством сэмплов. Эта новая возможность дает разработчику контроль над тем, сколько выборок использовать в случае каждого из тайлов буфера размером 4×4 пикселя. То есть для каждого тайла изображения из 16 пикселей можно выбрать свое качество на этапе закраски пикселя — как меньшее, так и большее. Важно, что это не касается геометрии, так как буфер глубины и все остальное остается в полном разрешении.

Зачем это нужно? В кадре всегда есть участки, на которых легко можно понизить количество сэмплов закраски практически без потерь в качестве — к примеру, это части изображения, замыленные постэффектами типа Motion Blur или Depth of Field. А на каких-то участках можно, наоборот, увеличить качество закраски. И разработчик сможет задавать достаточное, по его мнению, качество шейдинга для разных участков кадра, что увеличит производительность и гибкость. Сейчас для подобных задач применяют так называемый checkerboard rendering, но он не универсален и ухудшает качество закраски для всего кадра, а с VRS можно делать это максимально тонко и точно.

Можно упрощать шейдинг тайлов в несколько раз, чуть ли не одну выборку для блока в 4×4 пикселя (такая возможность не показана на картинке, но она есть), а буфер глубины остается в полном разрешении, и даже при таком низком качестве шейдинга границы полигонов будут сохраняться в полном качестве, а не один на 16. К примеру, на картинке выше самые смазанные участки дороги рендерятся с экономией ресурсов вчетверо, остальные — вдвое, и лишь самые важные отрисовываются с максимальным качеством закраски. Так и в других случаях можно отрисовывать с меньшим качеством низкодетализированные поверхности и быстро движущиеся объекты, а в приложениях виртуальной реальности снижать качество закраски на периферии.

Кроме оптимизации производительности, эта технология дает и некоторые неочевидные сходу возможности, вроде почти бесплатного сглаживания геометрии. Для этого нужно отрисовывать кадр в вчетверо большем разрешении (как бы суперсэмплинг 2×2), но включить shading rate на 2×2 по всей сцене, что убирает стоимость вчетверо большей работы по закраске, но оставляет сглаживание геометрии в полном разрешении. Таким образом получается, что шейдеры исполняются лишь один раз на пиксель, но сглаживание получается как 4х MSAA практически бесплатно, поскольку основная работа GPU заключается именно в шейдинге. И это лишь один из вариантов использования VRS, наверняка программисты придумают и другие.

Нельзя не отметить и появление высокопроизводительного интерфейса NVLink второй версии, который уже используется в ускорителях высокопроизводительных вычислений Tesla. Топовый чип TU102 имеет два порта NVLink второго поколения, имеющие общую пропускную способность в 100 ГБ/с (к слову, в TU104 один такой порт, а TU106 лишен поддержки NVLink вовсе). Новый интерфейс заменяет разъемы SLI, а пропускной способности даже одного порта хватит для передачи кадрового буфера с разрешением 8К в режиме многочипового рендеринга AFR от одного GPU к другому, а передача буфера 4K-разрешения доступна на скоростях до 144 Гц. Два порта расширяют возможности SLI сразу до нескольких мониторов с разрешением 8K.

Такая высокая скорость передачи данных позволяет использовать локальную видеопамять соседнего GPU (присоединенного по NVLink, разумеется) практически как свою собственную, и это делается автоматически, без необходимости сложного программирования. Это будет весьма полезно в неграфических применениях и уже применяется в профессиональных приложениях с поддержкой аппаратной трассировки лучей (две видеокарты Quadro c 48 ГБ памяти каждая способны работать над сценой практически как единый GPU с 96 ГБ памяти, для чего ранее приходилось делать копии сцены в памяти обоих GPU), но в будущем это станет полезно и при более сложном взаимодействии многочиповых конфигураций в рамках возможностей DirectX 12. В отличие от SLI, быстрый обмен информацией по NVLink позволит организовать иные формы работы над кадром, чем AFR со всеми его недостатками.

Аппаратная поддержка трассировки лучей

Как стало известно из анонса архитектуры Turing и профессиональных решений линейки Quadro RTX на конференции SIGGraph, новые графические процессоры компании Nvidia, кроме ранее известных блоков, впервые включают также и специализированные RT-ядра, предназначенные для аппаратного ускорения трассировки лучей. Пожалуй, большая часть дополнительных транзисторов в новых GPU принадлежит именно к этим блокам аппаратной трассировки лучей, ведь количество традиционных исполнительных блоков выросло не слишком сильно, хотя и тензорные ядра немало повлияли на увеличение сложности GPU.

Nvidia сделала ставку на аппаратное ускорение трассировки при помощи специализированных блоков, и это большой шаг вперед для качественной графики в реальном времени. Мы уже публиковали большую подробную статью о трассировке лучей в реальном времени, гибридном подходе и его преимуществах, которые проявятся уже в ближайшее время. Настоятельно советуем ознакомиться, в этом материале мы расскажем о трассировке лучей лишь очень кратко.

Благодаря семейству GeForce RTX уже сейчас можно использовать трассировку для некоторых эффектов: качественных мягких теней (реализовано в игре Shadow of the Tomb Raider), глобального освещения (ожидается в Metro Exodus и Enlisted), реалистичных отражений (будет в Battlefield V), а также сразу нескольких эффектов одновременно (показано на примерах Assetto Corsa Competizione, Atomic Heart и Control). При этом для GPU, не имеющих аппаратных RT-ядер в своем составе, можно использовать или привычные методы растеризации, или трассировку на вычислительных шейдерах, если это будет не слишком медленно. Вот так по-разному обрабатывают трассировку лучей архитектуры Pascal и Turing:

Как видите, RT-ядро полностью принимает на себя работу по определению пересечений лучей с треугольниками. Скорее всего, графические решения без RT-ядер в своем составе будут смотреться не слишком сильно в проектах с применением трассировки лучей, ведь эти ядра специализируются исключительно на расчетах пересечения луча с треугольниками и ограничивающими объемами (BVH), оптимизирующими процесс и важнейшими для ускорения процесса трассировки.

Каждый мультипроцессор в чипах Turing содержит RT-ядро, выполняющее поиск пересечений между лучами и полигонами, а чтобы не перебирать все геометрические примитивы, в Turing используется распространенный алгоритм оптимизации — иерархия ограничивающих объемов (Bounding Volume Hierarchy — BVH). Каждый полигон сцены принадлежит к одному из объемов (коробок), помогающих наиболее быстро определить точку пересечения луча с геометрическим примитивом. При работе BVH нужно рекурсивно обойти древовидную структуру таких объемов. Сложности могут возникнуть разве что для динамически изменяемой геометрии, когда придется менять и структуру BVH.

Что касается производительности новых GPU при трассировке лучей, то публике назвали цифру в 10 гигалучей в секунду для топового решения GeForce RTX 2080 Ti. Не очень понятно, много это или мало, да и оценивать производительность в количестве обсчитываемых лучей в секунду непросто, так как скорость трассировки очень сильно зависит от сложности сцены и когерентности лучей и может отличаться в десяток раз и более. В частности, слабо когерентные лучи при обсчете отражений и преломлений требуют большего времени для расчета по сравнению с когерентными основными лучами. Так что показатели эти чисто теоретические, а сравнивать разные решения нужно в реальных сценах при одинаковых условиях.

Но Nvidia сравнила новые GPU с предыдущим поколением, и в теории они оказались до 10 раз быстрее в задачах трассировки. В реальности же разница между RTX 2080 Ti и GTX 1080 Ti будет, скорее, ближе к 4-6-кратной. Но даже это — просто отличный результат, недостижимый без применения специализированных RT-ядер и ускоряющих структур типа BVH. Так как бо́льшая часть работы при трассировке выполняется на выделенных RT-ядрах, а не CUDA-ядрах, то снижение производительности при гибридном рендеринге будет заметно ниже, чем у Pascal.

Мы уже показывали вам первые демонстрационные программы с применением трассировки лучей. Некоторые из них были более зрелищными и качественными, другие впечатляли меньше. Но о потенциальных возможностях трассировки лучей не стоит судить по первым выпущенным демонстрациям, в которых намеренно выпячивают на первый план именно эти эффекты. Картинка с трассировкой лучей всегда реалистичнее в целом, но на данном этапе массы еще готовы мириться с артефактами при расчете отражений и глобального затенения в экранном пространстве, а также другими хаками растеризации.

Игровым разработчикам очень нравится трассировка, их аппетиты растут на глазах. Создатели игры Metro Exodus сначала планировали добавить в игру лишь расчет Ambient Occlusion, добавляющий теней в основном в углах между геометрией, но затем они решили внедрить уже полноценный расчет глобального освещения GI, который выглядит впечатляюще:

Кто-то скажет, что ровно так же можно предварительно рассчитать GI и/или тени и «запечь» информацию об освещении и тенях в специальные лайтмапы, но для больших локаций с динамическим изменением погодных условий и времени суток сделать это просто невозможно! Хотя растеризация при помощи многочисленных хитрых хаков и трюков действительно добилась отличных результатов, когда во многих случаях картинка выглядит достаточно реалистично для большинства людей, все же в некоторых случаях отрисовать корректные отражения и тени при растеризации невозможно физически.

Самый явный пример — отражения объектов, которые находятся вне сцены — типичными методами отрисовки отражений без трассировки лучей отрисовать их невозможно в принципе. Также не получится сделать реалистичные мягкие тени и корректно рассчитать освещение от больших по размеру источников света (площадные источники света — area lights). Для этого пользуются разными хитростями, вроде расставления вручную большого количества точечных источников света и фейкового размытия границ теней, но это не универсальный подход, он работает только в определенных условиях и требует дополнительной работы и внимания от разработчиков. Для качественного же скачка в возможностях и улучшении качества картинки переход к гибридному рендерингу и трассировке лучей просто необходим.

Трассировку лучей можно применять дозированно, для отрисовки определенных эффектов, которые сложно сделать растеризацией. Точно такой же путь в свое время проходила киноиндустрия, в которой в конце прошлого века применялся гибридный рендеринг с одновременной растеризацией и трассировкой. А еще через 10 лет все в кино постепенно перешли к полноценной трассировке лучей. То же самое будет и в играх, этот шаг с относительно медленной трассировкой и гибридным рендерингом невозможно пропустить, так как он дает возможность подготовиться к трассировке всего и вся.

Тем более, что во многих хаках растеризации уже и так используются схожие с трассировкой методы (к примеру, можно взять самые продвинутые методы имитации глобального затенения и освещения), поэтому более активное использование трассировки в играх — лишь дело времени. Заодно она позволяет упростить работу художников по подготовке контента, избавляя от необходимости расставлять фейковые источники света для имитации глобального освещения и от некорректных отражений, которые с трассировкой будут выглядеть естественно.

Переход к полной трассировке лучей (path tracing) в киноиндустрии привел к увеличению времени работы художников непосредственно над контентом (моделированием, текстурированием, анимацией), а не над тем, как сделать неидеальные методы растеризации реалистичными. К примеру, сейчас очень много времени уходит на расставление источников света, предварительный расчет освещения и «запекание» его в статические карты освещения. При полноценной трассировке это будет не нужно вовсе, и даже сейчас подготовка карт освещения на GPU вместо CPU даст ускорение этого процесса. То есть переход на трассировку обеспечит не только улучшение картинки, но и скачок в качестве самого контента.

В большинстве игр возможности GeForce RTX будут использоваться через DirectX Raytracing (DXR) — универсальный API Microsoft. Но для GPU без аппаратной/программной поддержки трассировки лучей также можно использовать D3D12 Raytracing Fallback Layer — библиотеку, которая эмулирует DXR при помощи вычислительных шейдеров. Эта библиотека имеет схожий, хоть и отличающийся интерфейс по сравнению с DXR, и это несколько разные вещи. DXR — это API, реализуемый непосредственно в драйвере GPU, он может быть реализован как аппаратно, так и полностью программно, на тех же вычислительных шейдерах. Но это будет разный код с разной производительностью. Вообще, изначально Nvidia не планировала поддерживать DXR на своих решениях до архитектуры Volta, но теперь и видеокарты семейства Pascal работают через DXR API, а не только через D3D12 Raytracing Fallback Layer.

Тензорные ядра для интеллекта

Потребности в производительности для работы нейросетей все большего размера и сложности постоянно растут, и в архитектуре Volta добавили новый тип специализированных вычислительных ядер — тензорные ядра. Они помогают получить многократный рост производительности по обучению и инференсу больших нейронных сетей, используемых в задачах искусственного интеллекта. Операции матричного перемножения лежат в основе обучения и инференса (выводы на основе уже обученной нейросети) нейронных сетей, они используются для умножения больших матриц входных данных и весов в связанных слоях сети.

Тензорные ядра специализируются на выполнении конкретно таких перемножений, они значительно проще универсальных ядер и способны серьезно увеличить производительность таких вычислений при сохранении сравнительно небольшой сложности в транзисторах и площади. Мы подробно писали обо всем этом в обзоре вычислительной архитектуры Volta. Кроме перемножения матриц FP16, тензорные ядра в Turing умеют оперировать и с целыми числами в форматах INT8 и INT4 — с еще большей производительностью. Такая точность подходит для применения в некоторых нейросетях, не требующих высокой точности представления данных, зато скорость расчетов возрастает еще вдвое и вчетверо. Пока что экспериментов с использованием пониженной точности не очень много, но потенциал ускорения в 2-4 раза может открыть новые возможности.

Важно, что эти операции можно выполнять параллельно с CUDA-ядрами, только FP16-операции в последних использует то же самое «железо», что и тензорные ядра, поэтому FP16 нельзя исполнять параллельно на CUDA-ядрах и на тензорных. Тензорные ядра могут исполнять или тензорные инструкции, или FP16-инструкции, и в этом случае их возможности используются не полностью. Скажем, сниженная точность FP16 дает прирост в темпе вдвое по сравнению с FP32, а использование тензорной математики — в 8 раз. Но тензорные ядра — специализированные, они не очень хорошо подходят для произвольных вычислений: умеют выполнять только матричное перемножение в фиксированной форме, которое используется в нейронных сетях, но не в обычных графических применениях. Впрочем, вполне возможно, что игровые разработчики придумают и другие применения тензорам, не связанные с нейросетями.

Но и задачи с применением искусственного интеллекта (глубокое обучение) уже сейчас применяют широко, в том числе они появятся и в играх. Главное, для чего потенциально нужны тензорные ядра в GeForce RTX — для помощи все той же трассировке лучей. На начальной стадии применения аппаратной трассировки производительности хватает только для сравнительно малого количества рассчитываемых лучей на каждый пиксель, а малое количество рассчитываемых сэмплов дает весьма «шумную» картинку, которую приходится обрабатывать дополнительно (подробности читайте в нашей статье о трассировке).

В первых игровых проектах обычно применяется расчет от 1 до 3-4 лучей на пиксель, в зависимости от задачи и алгоритма. К примеру, в ожидаемой в следующем году игре Metro Exodus для расчета глобального освещения с применением трассировки используется по три луча на пиксель с расчетом одного отражения, и без дополнительной фильтрации и шумопонижения результат к применению не слишком пригоден.

Для решения этой проблемы можно использовать различные фильтры шумопонижения, улучшающие результат без необходимости увеличения количества выборок (лучей). Шумодавы очень эффективно устраняют неидеальность результата трассировки со сравнительно малым количеством выборок, и результат их работы зачастую почти не отличить от изображения, полученного с помощью в разы большего количества выборок. На данный момент в Nvidia используют различные шумодавы, в том числе основанные на работе нейросетей, которые как раз и могут быть ускорены на тензорных ядрах.

В будущем такие методы с применением ИИ будут улучшаться, они способны полностью заменить все остальные. Главное, что нужно понять: на текущем этапе применениям трассировки лучей без фильтров шумоподавления не обойтись, именно поэтому тензорные ядра обязательно нужны в помощь RT-ядрам. В играх нынешние реализации пока что не используют тензорные ядра, у Nvidia хоть и есть реализация шумоподавления при трассировке, которая использует тензорные ядра — в OptiX, но из-за скорости работы алгоритма его пока что не получается применить в играх. Но его наверняка можно упростить, чтобы использовать в том числе и в игровых проектах.

Однако использовать искусственный интеллект (ИИ) и тензорные ядра можно не только для этой задачи. Nvidia уже показывала новый метод полноэкранного сглаживания — DLSS (Deep Learning Super Sampling). Его правильнее назвать улучшителем качества картинки, потому что это не привычное сглаживание, а технология, использующая искусственный интеллект для улучшения качества отрисовки аналогично сглаживанию. Для работы DLSS нейросеть сначала «тренируют» в офлайне на тысячах изображений, полученных с применением суперсэмплинга с количеством выборок 64 штуки, а затем уже в реальном времени на тензорных ядрах исполняются вычисления (инференс), которые «дорисовывают» изображение.

То есть нейросеть на примере тысяч хорошо сглаженных изображений из конкретной игры учат «додумывать» пиксели, делая из грубой картинки сглаженную, и она затем успешно делает это уже для любого изображения из той же игры. Такой метод работает значительно быстрее любого традиционного, да еще и с лучшим качеством — в частности, вдвое быстрее, чем GPU предыдущего поколения с использованием традиционных методов сглаживания типа TAA. У DLSS пока что есть два режима: обычный DLSS и DLSS 2x. Во втором случае рендеринг осуществляется в полном разрешении, а в упрощенном DLSS используется сниженное разрешение рендеринга, но обученная нейросеть дорисовывает кадр до полного разрешения экрана. В обоих случаях DLSS дает более высокое качество и стабильность по сравнению с TAA.

К сожалению, у DLSS есть один немаловажный недостаток: для внедрения этой технологии нужна поддержка со стороны разработчиков, так как для работы метода требуются данные из буфера с векторами движения. Но таких проектов уже довольно много, на сегодняшний день есть 25 поддерживающих эту технологию игр, включая такие известные, как Final Fantasy XV, Hitman 2, PlayerUnknown’s Battlegrounds, Shadow of the Tomb Raider, Hellblade: Senua’s Sacrifice и другие.

Но и DLSS — это еще не все, для чего можно применять нейросети. Все зависит от разработчика, он может использовать мощь тензорных ядер для более «умного» игрового ИИ, улучшенной анимации (такие методы уже есть), да много чего еще можно придумать. Главное, что возможности применения нейросетей фактически безграничны, мы просто еще даже не догадываемся о том, что́ можно сделать с их помощью. Раньше производительности было слишком мало для того, чтобы применять нейросети массово и активно, а теперь, с появлением тензорных ядер в простых игровых видеокартах (пусть пока только дорогих) и возможностью их использования при помощи специального API и фреймворка Nvidia NGX (Neural Graphics Framework), это становится всего лишь делом времени.

Автоматизация разгона

Видеокарты Nvidia давно используют динамическое повышение тактовой частоты в зависимости от загрузки GPU, питания и температуры. Этот динамический разгон контролируется алгоритмом GPU Boost, постоянно отслеживающим данные от встроенных сенсоров и меняющим характеристики GPU по частоте и напряжению питания в попытках выжать максимум возможной производительности из каждого приложения. Четвертое поколение GPU Boost добавляет возможность ручного управления алгоритмом работы разгона GPU Boost.

Алгоритм работы в GPU Boost 3.0 был полностью зашит в драйвере, и пользователь никак не мог повлиять на него. А в GPU Boost 4.0 ввели возможность ручного изменения кривых для увеличения производительности. К линии температур можно добавить несколько точек, и вместо прямой теперь используется ступенчатая линия, а частота не сбрасывается до базовой сразу же, обеспечивая бо́льшую производительность при определенных температурах. Пользователь может изменить кривую самостоятельно для достижения более высокой производительности.

Кроме этого, впервые появилась такая новая возможность, как автоматизированный разгон. Это энтузиасты умеют разгонять видеокарты, но к ним относятся далеко не все пользователи, и не все могут или хотят заниматься ручным подбором характеристик GPU для повышения производительности. В Nvidia решили облегчить задачу для обычных пользователей, позволив каждому разогнать свои GPU буквально нажатием одной кнопки — при помощи Nvidia Scanner.

Nvidia Scanner запускает отдельный поток для тестирования возможностей GPU, который использует математический алгоритм, автоматически определяющий ошибки в расчетах и стабильность работы видеочипа на разных частотах. То есть то, что обычно делается энтузиастом на протяжении нескольких часов, с зависаниями, перезагрузками и прочими фокусами, теперь может сделать автоматизированный алгоритм, требующий на перебор всех возможностей не более 20 минут. Для прогрева и тестирования GPU при этом используются встроенные в чип специальные тесты. Технология закрытая, поддерживается пока только семейством GeForce RTX, и на Pascal она вряд ли заработает.

Эта возможность уже внедрена в такой известный инструмент как MSI AfterBurner. Пользователю этой утилиты доступно два основных режима: «Тест», в котором проверяется стабильность разгона GPU, и «Сканирование», когда алгоритмы Nvidia подбирают максимальные настройки разгона автоматически.

В режиме тестирования выдается результат стабильности работы в процентах (100% — полностью стабильно), а в режиме сканирования результат выводится в виде уровня разгона ядра в МГц, а также в виде измененной кривой частот/напряжения. Тестирование в MSI AfterBurner занимает около 5 минут, сканирование — 15-20 минут. В окне редактора кривой частот/напряжений можно увидеть текущие частоту и напряжение GPU, контролируя разгон. В режиме сканирования тестируется не вся кривая, а лишь несколько точек в выбранном диапазоне напряжений, в которых работает чип. Затем алгоритм находит максимально стабильный разгон для каждой из точек, повышая частоту при фиксированном напряжении. По завершении процесса OC Scanner пересылает в MSI Afterburner модифицированную кривую частот/напряжений.

Конечно, это далеко не панацея, и опытный любитель разгона выжмет из GPU еще больше. Да и автоматические средства разгона нельзя назвать абсолютно новыми, они существовали и раньше, хотя и показывали недостаточно стабильные и высокие результаты — разгон вручную практически всегда давал лучший результат. Однако, как отмечает Алексей Николайчук, автор MSI AfterBurner, технология Nvidia Scanner явно превосходит все предыдущие аналогичные средства. За время его испытаний этот инструмент ни разу не привел к краху ОС и всегда показывал стабильные (и достаточно высокие — порядка +10%-12%) частоты в результате. Да, GPU может зависать в процессе сканирования, но Nvidia Scanner всегда сам восстанавливает работоспособность и снижает частоты. Так что алгоритм реально неплохо работает и на практике.

Декодирование видеоданных и видеовыходы

Требования пользователей к поддержке устройств вывода постоянно растут — им хочется все бо́льших разрешений и максимального количества одновременно поддерживаемых мониторов. Самые продвинутые устройства имеют разрешение 8K (7680×4320 пикселей), требующее вчетверо большей пропускной способности по сравнению с 4K-разрешением (3820×2160), а энтузиасты компьютерных игр хотят максимально высокой частоты обновления информации на дисплеях — до 144 Гц и даже более.

Графические процессоры семейства Turing содержат новый блок вывода информации, поддерживающий новые дисплеи с высоким разрешением, HDR и высокую частоту обновления. В частности, видеокарты линейки GeForce RTX имеют порты DisplayPort 1.4a, позволяющие вывести информацию на 8K-монитор с частотой обновления 60 Гц с поддержкой технологии VESA Display Stream Compression (DSC) 1.2, обеспечивающей высокую степень сжатия.

Платы Founder’s Edition содержат три выхода DisplayPort 1.4a, один разъем HDMI 2.0b (с поддержкой HDCP 2.2) и один VirtualLink (USB Type-C), предназначенный для будущих шлемов виртуальной реальности. Это новый стандарт подключения VR-шлемов, обеспечивающий передачу питания и высокую пропускную способность по USB-C. Такой подход значительно облегчает подключение шлемов. VirtualLink поддерживает четыре линии High BitRate 3 (HBR3) DisplayPort и линк SuperSpeed USB 3 для отслеживания движения шлема. Естественно, что использование разъема VirtualLink/USB Type-C требует дополнительного питания — до 35 Вт в плюс к объявленным 260 Вт типичного энергопотребления у GeForce RTX 2080 Ti.

Все решения семейства Turing поддерживают два 8K-дисплея при 60 Гц (требуется по одному кабелю на каждый), такое же разрешение также можно получить при подключении через установленный USB-C. Кроме этого, все Turing поддерживают полноценный HDR в конвейере вывода информации, включая tone mapping для различных мониторов — со стандартным динамическим диапазоном и широким.

Также новые GPU имеют улучшенный кодировщик видеоданных NVENC, добавляющий поддержку компрессии данных в формате H.265 (HEVC) при разрешении 8K и 30 FPS. Новый блок NVENC снижает требования к полосе пропускания до 25% при формате HEVC и до 15% при формате H.264. Также был обновлен и декодер видеоданных NVDEC, получивший поддержку декодирования данных в формате HEVC YUV444 10-бит/12-бит HDR при 30 FPS, в формате H.264 при 8K-разрешении и в формате VP9 с 10-бит/12-бит данными.

Семейство Turing еще и улучшает качество кодирования по сравнению с предыдущим поколением Pascal и даже по сравнению с программными кодировщиками. Кодировщик в новых GPU превосходит по качеству программный кодировщик x264, использующий быстрые (fast) настройки при значительно меньшем использовании ресурсов процессора. К примеру, стриминг видео в 4K-разрешении слишком тяжел для программных методов, а аппаратное кодирование видео на Turing способно исправить положение.

Выводы по теоретической части

Возможности Turing и GeForce RTX выглядят впечатляюще, в новых GPU были улучшены уже известные нам по предыдущим архитектурам блоки, а также появились совершенно новые, с новыми возможностями. CUDA-ядра новой архитектуры получили важные улучшения, которые обещают прирост в эффективности (производительности в реальных приложениях) даже при не слишком большом увеличении количества вычислительных блоков. А поддержка нового типа памяти GDDR6 и улучшенная подсистема кэширования должны позволить вытянуть из новых GPU весь их потенциал.

Появление абсолютно новых специализированных блоков аппаратного ускорения и глубокого обучения обеспечивает совершенно новые возможности, которые только начинают раскрываться. Да, пока что мощностей даже аппаратно ускоренной трассировки лучей на GeForce RTX не хватит для полной трассировки (path tracing), но это сейчас и не нужно — для заметного улучшения качества достаточно применения гибридного рендеринга и трассировки лучей только в тех задачах, где это полезнее всего — для отрисовки реалистичных отражений и преломлений, мягких теней и настоящего GI. И вот для этого новая линейка GeForce RTX вполне подходит, становясь первенцем перехода на полную трассировку лучей когда-нибудь в будущем.

Не бывает так, чтобы сразу же стало возможным кардинальное улучшение качества рендеринга, все произойдет постепенно, но для этого на данном этапе нужно аппаратное ускорение трассировки лучей. Да, Nvidia сейчас сделала шаг в сторону от всеобщей универсализации GPU, к которой все вроде бы все шло. Трассировка лучей и глубокое обучение — новые технологии и сферы применения графических процессоров, и видения «универсальной» поддержки для них еще пока нет. Зато можно получить серьезный прирост производительности при помощи специализированных блоков (RT-ядра и тензорные), которые помогут найти правильный путь для универсализации в будущем.

Ровно так же до внедрения пиксельных и вершинных шейдеров в графике долгое время использовался фиксированный, не универсальный подход. Но со временем индустрия поняла, каким должен быть полностью программируемый GPU для растеризации, и на это ушли годы работы над специализированными блоками. Вероятно, это же самое ожидает и трассировку лучей и глубокое обучение. Но этап аппаратной поддержки в специализированных блоках позволяет ускорить процесс, раскрыть многие возможности раньше.

Спорные моменты в связи с выходом семейства GeForce RTX тоже есть. Во-первых, новинки могут не обеспечить ускорения в некоторых из существующих игр и приложений. Дело в том, что не все они смогут получить преимущество за счет улучшенных блоков CUDA, а количество этих блоков выросло не сильно. То же самое касается и текстурных блоков и блоков ROP. Не говоря уже о том, что даже нынешние GeForce GTX 1080 Ti часто упираются в CPU в разрешениях 1920×1080 и 2560×1440. Есть немалая вероятность того, что в текущих приложениях прирост производительности не оправдает ожиданий многих пользователей. Тем более, что цена новинки... не просто высока, а очень высока!

И в этом — главный спорный момент. Очень многих потенциальных покупателей смущают объявленные цены на новые решения Nvidia, и цены действительно высоки, особенно в условиях нашей страны. Конечно, всему есть объяснения: и отсутствие конкуренции со стороны AMD, и высокая себестоимость проектирования и производства новых GPU, и особенности национального ценообразования... Но кто может себе позволить отдать под 100 тысяч рублей за топовую GeForce RTX 2080 Ti или даже 64 и 48 тысяч за менее мощные варианты? Конечно, такие энтузиасты есть, и первые партии новых видеокарт уже раскуплены любителями всего лучшего и самого нового. Но так случается всегда, а вот что будет, когда первые партии закончатся, как и небедные энтузиасты?

Конечно, в Nvidia имеют право назначать любые цены, но только время покажет, были они правы с установкой таких цен или нет. В конечном итоге все решит спрос, ведь покупать новые видеокарты или нет — дело покупателей. Если те посчитают, что цена на продукт завышена, то спрос будет низкий, доход и прибыль компании Nvidia упадет и им придется снижать цены, чтобы был больший оборот при меньшей прибыли с каждой видеокарты. Но для этого нужно время, а пока что серьезного снижения цен ждать не приходится. Тем более, что решения семейства RTX 2000 действительно инновационные и обеспечивают лучшую производительность в широком круге задач плюс очень интересные новые возможности.

Особенности видеокарты

Объект исследования: ускоритель трехмерной графики (видеокарта) Nvidia GeForce RTX 2080 Ti 11 ГБ 352-битной GDDR6

Сведения о производителе: Компания Nvidia Corporation (торговая марка Nvidia) основана в 1993 году в США.Штаб-квартира в Санта-Кларе (Калифорния). Разрабатывает графические процессоры, технологии. До 1999 года основной маркой была Riva (Riva 128/TNT/TNT2), с 1999 года и по настоящее время — GeForce. В 2000 году были приобретены активы 3dfx Interactive, после чего торговые марки 3dfx/Voodoo перешли к Nvidia. Своего производства нет. Общая численность сотрудников (включая региональные офисы) — около 5000 человек.

Характеристики референс-карты

Nvidia GeForce RTX 2080 Ti 11 ГБ 352-битной GDDR6
Параметр Номинальное значение (референс)
GPU GeForce RTX 2080 Ti (TU102)
Интерфейс PCI Express x16
Частота работы GPU (ROPs), МГц 1650—1950
Частота работы памяти (физическая (эффективная)), МГц 3500 (14000)
Ширина шины обмена с памятью, бит 352
Число вычислительных блоков в GPU 68
Число операций (ALU) в блоке 64
Суммарное количество блоков ALU 4352
Число блоков текстурирования (BLF/TLF/ANIS) 272
Число блоков растеризации (ROP) 88
Размеры, мм 270×100×36
Количество слотов в системном блоке, занимаемые видеокартой 2
Цвет текстолита черный
Энергопотребление пиковое в 3D, Вт 264
Энергопотребление в режиме 2D, Вт 30
Энергопотребление в режиме «сна», Вт 11
Уровень шума в 3D (максимальная нагрузка), дБА 39,0
Уровень шума в 2D (просмотр видео), дБА 26,1
Уровень шума в 2D (в простое), дБА 26,1
Видеовыходы 1×HDMI 2.0b, 3×DisplayPort 1.4, 1×USB-C (VirtualLink)
Поддержка многопроцессорной работы SLI
Максимальное количество приемников/мониторов для одновременного вывода изображения 4
Питание: 8-контактные разъемы 2
Питание: 6-контактные разъемы 0
Максимальное разрешение/частота, Display Port 3840×2160@160 Гц (7680×4320@30 Гц)
Максимальное разрешение/частота, HDMI 3840×2160@60 Гц
Максимальное разрешение/частота, Dual-Link DVI 2560×1600@60 Гц (1920×1200@120 Гц)
Максимальное разрешение/частота, Single-Link DVI 1920×1200@60 Гц (1280×1024@85 Гц)

Память

Карта имеет 11 ГБ памяти GDDR6 SDRAM, размещенной в 11 микросхемах по 8 Гбит на лицевой стороне PCB. Микросхемы памяти Micron (GDDR6) рассчитаны на номинальную частоту работы в 3500 (14000) МГц.

Особенности карты и сравнение с предыдущим поколением

Nvidia GeForce RTX 2080 Ti (11 ГБ) Nvidia GeForce GTX 1080 Ti
вид спереди
вид сзади

PCB у карт двух поколений сильно различаются. Обе имеют 352-битную шину обмена с памятью, но микросхемы памяти размещены по-разному (в силу разных типов памяти). Также на обеих разведена шина обмена в 384 бит (PCB рассчитаны на монтаж 12 микросхем памяти суммарным объемом в 12 ГБ, просто одна микросхема не установлена).

Схема питания построена на базе 13-фазного цифрового преобразователя iMON DrMOS. Эта динамическая система управления питанием способна осуществлять мониторинг тока чаще раза в миллисекунду, что дает жесткий контроль над поступающим на ядро питанием. Это помогает GPU дольше работать на повышенных частотах.

Через утилиту EVGA Precision X1 можно не только повысить частоты работы, но и запустить Nvidia Scanner, который поможет определить безопасный максимум работы ядра и памяти, то есть самый быстрый режим работы в 3D. По причине очень сжатых сроков тестирования мы разгоном попавшей к нам в руки видеокарты не занимались, но обещаем вернуться к теме разгона при рассмотрении серийных карт на базе RTX 2080 Ti.

Еще следует отметить, что карта оснащается новым разъемом USB-C (VirtualLink) специально для работы с устройствами виртуальной реальности следующего поколения.

Охлаждение и нагрев

Главной частью кулера является большая испарительная камера, оборотная часть которой припаяна к массивному радиатору. Поверх установлен кожух с двумя вентиляторами, работающими на одинаковой частоте вращения. Микросхемы памяти и силовые транзисторы охлаждаются специальной пластиной, также жестко соединенной с основным радиатором. С оборотной стороны карта прикрывается специальной пластиной, которая обеспечивает не только жесткость печатной платы, но и дополнительное охлаждение через специальный термоинтерфейс в местах монтажа микросхем памяти и силовых элементов.

Мониторинг температурного режима с помощью MSI Afterburner (автор А. Николайчук AKA Unwinder):

После 6-часового прогона под нагрузкой максимальная температура ядра не превысила 86 градусов, что является отличным результатом для видеокарты самого топового уровня.

Максимальный нагрев — центральная область с обратной стороны печатной платы.

Шум

Методика измерения шума подразумевает, что помещение шумоизолировано и заглушено, снижены реверберации. Системный блок, в котором исследуется шум видеокарт, не имеет вентиляторов, не является источником механического шума. Фоновый уровень 18 дБА — это уровень шума в комнате и уровень шумов собственно шумомера. Измерения проводятся с расстояния 50 см от видеокарты на уровне системы охлаждения.

Режимы измерения:

  • Режим простоя в 2D: загружен интернет-браузер с сайтом iXBT.com, окно Microsoft Word, ряд интернет-коммуникаторов
  • Режим 2D с просмотром фильмов: используется SmoothVideo Project (SVP) — аппаратное декодирование со вставкой промежуточных кадров
  • Режим 3D с максимальной нагрузкой на ускоритель: используется тест FurMark

Оценка градаций уровня шума выполняется по методике, описанной здесь:

  • 28 дБА и менее: шум плохо различим уже на расстоянии одного метра от источника, даже при очень низком уровне фонового шума. Оценка: шум минимальный.
  • от 29 до 34 дБА: шум различим уже с двух метров от источника, но не особо обращает на себя внимания. С таким уровнем шума вполне можно мириться даже при долговременной работе. Оценка: шум низкий.
  • от 35 до 39 дБА: шум уверенно различается и заметно обращает на себя внимание, особенно в помещении с низким уровнем шума. Работать с таким уровнем шума можно, но спать будет затруднительно. Оценка: шум средний.
  • 40 дБА и более: такой постоянный уровень шума уже начинает раздражать, от него быстро устаешь, появляется желание выйти из комнаты или выключить прибор. Оценка: шум высокий.

В режиме простоя в 2D температура составляла 34 °C, вентиляторы вращались на частоте примерно 1500 оборотов в минуту. Шум был равен 26,1 дБА.

При просмотре фильма с аппаратным декодированием ничего не менялось — ни температура ядра, ни частота вращения вентиляторов. Разумеется, уровень шума тоже оставался прежним (26,1 дБА).

В режиме максимальной нагрузки в 3D температура достигала 86 °C. Вентиляторы при этом раскручивались до 2400 оборотов в минуту, шум вырастал до 39,0 дБА, так что данную СО можно назвать шумной, но не экстремально шумной.

Комплект поставки и упаковка

Базовый комплект поставки серийной карты должен включать в себя руководство пользователя, диск с драйверами и утилитами. С нашей референсной картой в комплекте шли лишь руководство пользователя и переходник DP-to-DVI.

Синтетические тесты

Начиная с этого обзора, мы обновили пакет синтетических тестов, но он еще экспериментальный, не устоявшийся. Так, мы бы хотели добавить больше примеров с вычислениями (compute shaders), но один из распространенных бенчмарков CompuBench просто не заработал на GeForce RTX 2080 Ti — вероятно, виновата «сырость» драйверов. В будущем мы постараемся расширить и улучшить набор синтетических тестов. Если у читателей есть четкие и обоснованные предложения — пишите их в комментариях к статье.

Из ранее использовавшихся тестов RightMark3D 2.0 мы оставили лишь несколько самых тяжелых тестов. Остальные уже изрядно устарели и на столь мощных GPU упираются в различные ограничители, не загружают работой блоки графического процессора и не показывают истинную его производительность. А вот синтетические Feature-тесты из набора 3DMark Vantage мы пока что оставили в полном составе, так как заменить их попросту нечем, хотя и они уже устарели.

Из более новых бенчмарков мы начали использовать несколько примеров, входящих в DirectX SDK и пакет SDK компании AMD (скомпилированные примеры применения D3D11 и D3D12), а также несколько тестов для измерения производительности трассировки лучей и один временный тест для сравнения производительности сглаживания методами DLSS и TAA. В качестве полусинтетического теста у нас также будет 3DMark Time Spy, помогающий определить пользу от асинхронных вычислений.

Синтетические тесты проводились на следующих видеокартах (набор для каждого бенчмарка свой):

  • GeForce RTX 2080 Ti со стандартными параметрами (сокращенно RTX 2080 Ti)
  • GeForce GTX 1080 Ti со стандартными параметрами (сокращенно GTX 1080 Ti)
  • GeForce GTX 980 Ti со стандартными параметрами (сокращенно GTX 980 Ti)
  • Radeon RX Vega 64 со стандартными параметрами (сокращенно RX Vega 64)
  • Radeon RX 580 со стандартными параметрами (сокращенно RX 580)

Для анализа производительности видеокарты GeForce RTX 2080 Ti мы взяли именно эти решения по следующим причинам. GeForce GTX 1080 Ti является прямым предшественником новинки, основанным на аналогичном по позиционированию графическом процессоре из предыдущего поколения Pascal. Видеокарта GeForce GTX 980 Ti олицетворяет топовое же позапрошлое поколение Maxwell — посмотрим, как росла производительность наиболее производительных чипов Nvidia из поколения в поколение.

У конкурирующей компании AMD выбрать что-то было непросто — у них нет конкурентоспособных продуктов, способных выступать на уровне GeForce RTX 2080 Ti, и таковых пока что не видно даже на горизонте. В итоге мы остановились на паре видеокарт разных семейств и позиционирования, хоть ни одна из них и не может быть соперником для GeForce RTX 2080 Ti. Впрочем, видеокарта Radeon RX Vega 64 в любом случае является наиболее производительным решением компании AMD, а RX 580 взята просто для поддержки и присутствует лишь в самых простых тестах.

 
Тесты Direct3D 10
 
Тесты из 3DMark Vantage
 
Тесты Direct3D 11
 
Тесты Direct3D 12
 
Тесты трассировки лучей
 
Вычислительные тесты

Выводы по синтетическим тестам

Судя по всему, новая видеокарта Nvidia GeForce RTX 2080 Ti, основанная на мощнейшем графическом процессоре TU102 с архитектурой Turing, станет наиболее производительным решением на рынке игровых видеокарт, несмотря на спорные результаты в некоторых бенчмарках. Нужно признать, что не все так радужно у новинки с синтетическими тестами, особенно старыми. Вполне возможно, что в некоторых существующих играх тоже не будет заметно влияние улучшений в вычислительных блоках, а так как их количество возросло по сравнению с Pascal не так уж и сильно, то и приросту в скорости в таких случаях взяться особо неоткуда. Именно поэтому в немалой части старых синтетических тестов GeForce RTX 2080 Ti обгоняет GTX 1080 Ti вовсе не с тем преимуществом, которое обычно ожидается от нового поколения GPU.

С другой стороны, нам совершенно понятно, что в этом поколении GPU компания Nvidia сделала ставку на абсолютно новые типы исполнительных блоков, добавив специализированные RT-ядра и тензорные ядра для ускорения трассировки лучей и задач искусственного интеллекта. Пока что в играх эти технологии практически не применяются, так что они не способны обеспечить преимущество семейству Turing прямо сейчас, но в будущем и поддержка трассировки лучей появится в большем количестве игр, и то же сглаживание методом DLSS явно получит более широкое распространение. И вот в этих задачах новинка уже весьма хороша, как показали наши тесты трассировки лучей и DLSS-тест в Final Fantasy XV.

В любом случае, новая топовая видеокарта компании Nvidia показала отличные результаты во многих синтетических тестах, выступив недостаточно уверенно лишь в некоторых из них. Но синтетику всегда нужно переносить на игры с определенным пониманием, которое говорит нам о том, что у GeForce RTX 2080 Ti есть и очень сильные, и относительно слабые стороны. В игровых приложениях все будет несколько иначе по сравнению с синтетическими тестами, и GeForce RTX 2080 Ti должна показать даже в существующих играх достаточно высокую скорость при отсутствии упора в CPU, хотя прирост по сравнению с GTX 1080 Ti может порадовать нас далеко не всегда.

Игровые тесты

Конфигурация тестового стенда

  • Компьютер на базе процессора AMD Ryzen 7 1800X (Socket AM4):
    • процессор AMD Ryzen 7 1800X (o/c 4 ГГц);
    • СО Antec Kuhler H2O 920;
    • системная плата Asus ROG Crosshair VI Hero на чипсете AMD X370;
    • оперативная память 16 ГБ (2×8 ГБ) DDR4 AMD Radeon R9 UDIMM 3200 МГц (16-18-18-39);
    • жесткий диск Seagate Barracuda 7200.14 3 ТБ SATA2;
    • блок питания Seasonic Prime 1000 W Titanium (1000 Вт);
  • операционная система Windows 10 Pro 64-битная; DirectX 12;
  • монитор Asus PG27UQ (27″);
  • драйверы AMD версии Adrenalin Edition 18.9.1;
  • драйверы Nvidia версии 399.24 (для RTX 2080 Ti — 411.51);
  • VSync отключен.

Список инструментов тестирования

Во всех играх использовалось максимальное качество графики в настройках.

  • Wolfenstein II: The New Colossus (Bethesda Softworks/MachineGames)
  • Tom Clancy’s Ghost Recon Wildlands (Ubisoft/Ubisoft)
  • Assassin’ Creed: Origins (Ubisoft/Ubisoft)
  • BattleField 1 (EA Digital Illusions CE/Electronic Arts)
  • Far Cry 5 (Ubisoft/Ubisoft)
  • Shadow Of The Tomb Raider (Eidos Montreal/Square Enix) — HDR включен
  • Total War: Warhammer II (Creative Assembly/Sega)
  • Ashes Of The Singularity (Oxide Games, Stardock Entertainment/Stardock Entertainment)

Следует отметить, что в самой новой игре Shadow Of The Tomb Raider мы использовали HDR как ключевое расширение функциональности. Исследование показало, что активация HDR оказывает незначительное действие на производительность. Визуально же мы можем увидеть некоторые отличия.

 
Визуальное наличие HDR в игре Shadow Of The Tomb Raider

Ну и, собственно, сами тесты.

 
Wolfenstein II: The New Colossus
 
Tom Clancy’s Ghost Recon Wildlands
 
Assassin’ Creed: Origins
 
BattleField 1
 
Far Cry 5
 
Shadow Of The Tomb Raider
 
Total War: Warhammer II
 
Ashes Of The Singularity

Рейтинг iXBT.com

Рейтинг ускорителей iXBT.com демонстрирует нам функциональность видеокарт друг относительно друга и нормирован по самому слабому ускорителю — GeForce GT 740 (то есть сочетание скорости и функций GT 740 приняты за 100%). Рейтинги ведутся по 20 ежемесячно исследуемым нами акселераторам в рамках проекта Лучшей видеокарты месяца. Из общего списка выбирается группа карт для анализа, куда входят RTX 2080 Ti и его конкуренты. Для расчета рейтинга полезности использованы розничные цены на середину сентября 2018 года (для RTX 2080 Ti использована рекомендованная розничная цена).

Модель ускорителя Рейтинг iXBT.com Рейтинг полезности Цена, руб.
01 RTX 2080 Ti 11 ГБ, 1650—1950/14000 3890 432 90 000
02 GTX 1080 Ti 11 ГБ, 1480—1885/11000 3170 616 51 500
03 RX Vega 64 8ГБ, 1250—1630/1890 2760 600 46 000

Преимущество новинки очевидно ,в среднем по всем играм и разрешениям прирост относительно GTX 1080 Ti получился 22,7%, а относительно RX Vega 64 — 40,9%. Однако надо понимать, что ускоритель такого уровня рассчитан на использование в максимально возможных на сегодня массовых разрешениях, то есть как минимум в 4К, а в нем прирост RTX 2080 Ti относительно GTX 1080 Ti в среднем уже выше 45%, а относительно RX Vega 64 он составляет все 60%.

Рейтинг полезности

Рейтинг полезности тех же карт получается, если показатели предыдущего рейтинга разделить на цены соответствующих ускорителей. Для ускорителей топового уровня этот рейтинг не очень показателен, такие карты не выпускаются массовыми тиражами и нацелены прежде всего на энтузиастов, а в рейтинге полезности их на голову обходят середняки и иногда даже чуть ли не бюджетные решения.

Модель ускорителя Рейтинг полезности Рейтинг iXBT.com Цена, руб.
12 GTX 1080 Ti 11 ГБ, 1480—1885/11000 616 3170 51 500
13 RX Vega 64 8ГБ, 1250—1630/1890 600 2760 46 000
18 RTX 2080 Ti 11 ГБ, 1650—1950/14000 432 3890 90 000

Полагаем, что и тут комментарии излишни.

Выводы

Nvidia GeForce RTX 2080 Ti на сегодня не только самый быстрый в мире ускоритель игрового класса, но и самый высокотехнологичный. Чтобы сравнить его с решениями предыдущего поколения, простых тестов в 3D-играх недостаточно. Если бы это был GTX 2080 Ti, то мы бы восхитились приростом производительности в старших разрешениях, расстроились из-за стартовых цен новинок — да и разошлись бы.

Однако перед нами не GTX, а RTX! Это три года работы большого коллектива над новой архитектурой, это снова позиция у руля технологий (как во времена GeForce256 в 1999 году), это очередной двигатель прогресса в 3D-играх, потому что в конце концов трассировка лучей принесет то самое улучшение графики, которого мы ждем уже не то что годами, а десятилетиями. Разумеется, новые технологии Nvidia годятся не только для игр, им есть применение и в сфере вычислений и профессиональной графики. Однако перед нами именно GeForce, а не Titan или что-то еще. А серия GeForce — это прежде всего игры. Поэтому сегодняшний материал особо интересен, ведь новшества реально помогают (во всяком случае, помогут в ближайшем будущем) разработчикам сделать игры более захватывающими в плане графики (хотя мне было достаточно походить в Shadow Of The Tomb Raider с включенным HDR, чтобы ощутить примерно такой же детский и искренний восторг от картинки, сцен, среды, какой я когда-то получил от первого Far Cry, если кто еще помнит ту первую игру с открытым пространством и шикарными тропическими пейзажами).

Если спуститься «на землю», то объявленная цена на новый ускоритель (и на всю серию RTX 2000) многих очень неприятно удивила, потому что уже много лет соблюдалась традиция: цены новых премиальных видеокарт плюс-минус равнялись начальным ценам предыдущих флагманов. Сейчас уже только ленивый не попинал Nvidia за «жадность» или за «беспардонное использование временно сложившейся монополии на рынке топовых 3D-карт». Да, к сожалению, компания AMD пока взяла тайм-аут в области дискретной графики, и следующие их решения ожидаются не ранее 2019 года (возможно, даже во второй половине), так что у Nvidia в принципе нет ограничителя в виде цен на конкурирующие продукты. Однако тут палка о двух концах. С одной стороны, надо максимально быстро «отбить» многомиллионные затраты на разработку Turing, ведь на сегодня этот проект принес лишь убытки, а продажи должны вывести его на прибыльность. С другой стороны, если заломить цены еще выше, то можно лишиться не только покупателей (они предпочтут искать GTX 1080 Ti, особенно на вторичном рынке), но и интереса разработчиков/издателей игр, которые тщательно следят за распространением новых видеокарт (какой смысл реализовывать новые технологии в играх, если мало кто сможет воспользоваться ими по причине скудной распространенности соответствующих 3D-ускорителей?). Вероятно, в Nvidia выбрали нечто среднее: поднять цены, чтобы побыстрее окупить затраты на Turing, но не поднимать их запредельно, чтобы любители 3D-игр на ПК все же смогли купить если и не RTX 2080 Ti, то RTX 2080 или RTX 2070. Плюс, нельзя забывать, что мечтания производителей жестко контролируются рынком, то есть нашим с вами спросом. Не будут покупать RTX 2080 Ti за 90 тысяч рублей (или по 1000-1200 долларов на Западе) — значит, Nvidia будет вынуждена снижать цены. Правило универсальное.

Так что желающим повозмущаться ценовой политикой можем лишь посоветовать просто подождать. По мере появления карт, по мере насыщения ими страты энтузиастов и любителей всего самого крутого и быстрого цены начнут идти вниз. Это закон рынка.

Итак, что мы имеем: RTX 2080 Ti демонстрирует серьезный прирост производительности в старших разрешениях даже в обычных (без HDR/RT) играх относительно былого флагмана GTX 1080 Ti (не говоря уж о самом быстром на сегодня продукте AMD — Radeon RX Vega64: тот отстает совсем уж радикально). Великолепный новый антиалиасинг DLSS продемонстрировал свое преимущество и по скорости, и по качеству. Плюс есть огромный задел для использования разработчиками игр технологии трассировки лучей, а также ИИ с помощью тензорных ядер (наглядный пример такой реализации — как раз DLSS). Новый ускоритель предлагает обновленный интерфейс VirtualLink для связи с устройствам виртуальной реальности нового поколения (VR никуда не делся, не умер, просто ожидается очередной скачок технологий). Если найдутся фанаты, которым будет мало даже такого ускорителя, они могут купить два и соединить их в SLI (тогда производительность в разрешении 4К должна стать просто сказочной).

Также отрадно видеть обновленный референс-дизайн карты, и вообще мы поздравляем Nvidia с выпуском этой версии Founder’s Edition. Не секрет, что компания решила более активно выводить на рынок карты под своим собственным брендом, создавая, по сути, конкуренцию своим партнерам. И не следует забывать про мечту оверклокеров средней руки (матерых, стремящихся к установке рекордов с жидким азотом и помиранием «железа», мы не считаем) — Nvidia Scanner. Технология простая, как апельсин: нажал на кнопку — и жди, оно само покрутит колесики и выдаст вам максимум скорости, ну а счет за электричество придет позже (шутка).

Выше: Nvidia GeForce RTX 2080 Ti с трассировкой лучей, тензорное ядро учитывает ветер (направление движения струй) с прогнозом, ядро самообучаемое. (Тоже шутка :)

В номинации «Оригинальный дизайн» карта Nvidia GeForce RTX 2080 Ti (Founder’s Edition) получила награду:

Благодарим компанию Nvidia Russia
и лично Ирину Шеховцову
за предоставленную на тестирование видеокарту

Также благодарим компанию Asus Russia
за предоставленный для тестирования 27-дюймовый геймерский монитор Asus ROG Swift PG27UQ формата 4K/UltraHD с IPS-матрицей и высокой частотой обновления экрана (до 144 Гц). Благодаря технологии квантовых точек он обладает расширенным цветовым охватом (DCI-P3), а поддержка стандарта HDR означает повышенную контрастность, поэтому данный монитор выдает невероятно реалистичную картинку с насыщенными цветами. Для автоматического изменения яркости экрана в соответствии с окружающими условиями имеется встроенный датчик освещенности. Внешний вид устройства можно персонализировать с помощью синхронизируемой подсветки Aura и встроенных проекционных элементов.

Для тестового стенда:
блок питания Seasonic Prime 1000 W Titanium предоставлен компанией Seasonic
модули памяти AMD Radeon R9 8 ГБ UDIMM 3200 МГц и системная плата Asus ROG Crosshair VI Hero предоставлены компанией AMD
монитор Dell UltraSharp U3011 предоставлен компанией Юлмарт

19 сентября 2018 Г.

278 комментариев

М
А где 2080ti за 90к продается? В целом карта не плохая для 1440p и 2160p.
SomeBody Else
Некоторым тупым читателям будет полезно пересчитать разницу в 4K-разрешении, о котором всегда и идёт речь при сравнении современных топовых видеокарт. Ребята, используйте мозги!
SomeBody Else
Наших «коллег с overclockers.ru» мы уважаем, но у нас свои цифры ;) Среднее по всем разрешениям считать тупо, у вас же родное разрешение монитора одно, правда? Если это FullHD, то сидите уже на своём Radeon HD 5850 и дальше… ;)))
Б
да ничего не даст. согласно табличке на 3dnews, плотность транзисторов на псевдо-12 нм даже чуть ниже на 16. в реале это просто оптимизированая 16 нм похоже, и а циферки уменьшили чтобы на фоне интела и остальных курто смотреться. а то ж у intel/GF 14, а у TSMC всего 16 — непорядок!
Иван Дурак
Не, ну точно могу сказать, что 2070 будет более-менее нормально обходить 1080, а 1070ти уж тем более, ну а простая 1070… Вот простое пояснение на примере 2080 и 1080ти, которые идут ноздря в ноздрю, за небольшим преимуществом 2080 — в 2080 прилично меньше ядер (2944)по сравнению с 1080ти (3584), ПСП памяти тоже меньше, хоть и ддр6, но 256 бит против 352 (448 против 484). Ядра стали более производительными — вот в чём дело.Так вот хоть и ядер в 1070ти больше, но не на много, а сами они хуже — тут более менее ровно, но вот по ПСП просто огромная разница в пользу 2070 (448 против 256), поскольку память у неё один в один как у 2080, тут ничуть не срезано.Это я производительность прикинул, вопросы к стоимости — это к куртке.
Иван Дурак
Приблизительно на эти проценты 2070 будет слабее старой тишки, 1080 будет ощутимо слабее. Поясню ещё раз — у 1080 320Гб/с, а у 2070 448Гб/с — эту огромную разницу в ПСП никаким танком и разгоном не отыграть, а уж с 1070 и 1070ти разница почти двукратная по этому показателю. 2070 не так уж сильно урезана от 2080 как может показаться.
Б
>GeForce RTX 2070 имеет всего 2304 ядер,

у неё 2300 fp32 ядер и 2300 int32 ядер. тогда как раньше было 2500 комбинированных. поскольку новые ядра могут работать параллельно, то скорость выше — по словам нвидии, в среднем на 36%
Б
извините, вы просто не поняли ситуацию. в 2070 — 2300 ядер одног типа и 2300 другого. ситуация совсем иная чем в 1080, так что ваши расчёты бессмсленны — сравнивать число старых и новых ядер напрямую бесполезно! всё что у нас есть — это оценки нвидии, которые скорей всего завышены
Иван Дурак
Ну вот в 2080 всего меньше, чем в 1080ти (и ядер, и псп, да и самой памяти), но она её обходит за счёт более производительных блоков, увеличенных кэшей на них и улучшенных алгоритмов сжатия. Как бы там не завышала нвидиа или ещё что, но если в нынешних играх 2080 сильнее, то в следующих отрыв будет только больше.
Ну и смотря как сравнивать, если в 720р, то не удивлюсь, что 2070 будет идти 1 в 1 с 1080, но вот чем больше будет нагрузка — тем сильнее новая будет уходить в отрыв.
Иван Дурак
Ну вы и смешной, заскриню пожалуй, не пропадайте потом)
Напомню, скорость памяти 1070ти к 2070 относится как 8 к 14 при чуть меньшем количестве, но более умных ядер 2070.
Ничего, если я потом везде этот скрин вставлять буду про равенство с 1070ти, не доползая до 1080?
Иван Дурак
Теперь и я повангую. Производительность 2070 будет ровно между 1080 и 1080ти, проигрывая старой тишке около 15%, но выигрывая те же 15% у 1080 (речь о 4к ультра)
Иван Дурак
Какой научный подход, если в 2080 на 20% меньше ядер, чем в 1080ти, ПСП ниже на 8% и памяти меньше, а по всем тестам она идёт вровень или быстрее на несколько процентов в нынешних играх? Мне вот, дураку, из этого сравнения кажется, что ядра в туринге на 20% эффективнее паскалевских, научный подход не нужен чтобы эту простую истину понять. Так вот пересчитаю 2300 ядер 2070 на старый лад с учётом +20% эффективности и получаю аналог 2764 ядер паскаля. Это больше, чем в 1080)А если ещё вспомнить куда более быструю память… (на 40% быстрее 1080 и на 75% 1070/1070ти).п.с. Зачем так позориться со своим научным подходом?
Иван Дурак
Я бы повесил постер от нового Радеона, если бы он рулил также, как в своё время 9700Pro, но купил бы среднюю модель. Тесты думаю будут через 3-4 недели.
Иван Дурак
Я вот говорю методом вангования, что 2070 будет между 1080 и 1080ти. Ваш научный метод тупым расчётам противоречит
просто дождитесь тестов и убедитесь сами, что GeForce RTX 2070 будет лишь равен GeForce 1070 Ti, иногда доползая до GeForce 1080.
Расскажите ваш научный метод, по которому заведомо более слабое железо берёт верх.
Иван Дурак
Целиком скажу следующее — Там просто чудовищный боттлнек по процессору в более низких разрешениях, время такое настало, что 1080р для топ карт стало как 640х480 когда-то. Процессоры нынешние не тянут с подготовкой кадров в таких разрешениях и видюха попросту простаивает. Я сильно удивлён, что в 1080р вообще отрыв есть. Понятно, что сидя на 1080р монике менять топ паскаль на туринг нужно быть отбитым на всю голову, но сейчас вся мощь карты видна только в 4к, где что 4 ядра, что 8, что интел, что амд — упор в видеокарту и она раскрывается на фоне предыдущих.Пару лет пройдёт, выйдут более сложные по графону игры, там и в меньшем разрешении нагрузка на видео будет выше — прирост будет выше.Из истории вспомнил, 9700про и ти4600. Так вот на момент выхода в 1024х768 быстрее была нвидиа, а в 1280х1024 и выше более мощная по чипу 9700… Прошло пару лет и 4600 сливала уже везде.
А
nVidia, если они не дураки, скорее всего, позже выпустят именно GTX 2060 и GTX 2050. В них не будет RTX и тензорных ядер. То есть, они будут полностью заточены под старые методы реализации эффектов в играх. В них, по идее, могут запихнуть больше ядер CUDA и увеличить мощность, сохранив приемлемые цены. Покупатель будет иметь выбор, для чего именно он будет использовать. Но будет это тогда, когда на рынке исчезнут видеокарты на базе GTX 10хх. По крайней мере, это было бы логично.
116719648180741125271@google
ссаной тряпкой надо гонять таких аналитиков.
А
Подскажите как Вы думаете i7-4770 сможет раскрыть потенциал RTX 2080TI на 1400p?
Иван Дурак
Моё мнение — нет. Хотя если его хорошо раскочегарить в паре с хорошей памятью, то вполне себе, 1440р всё-таки не 1080р, упор в проц уже не такой большой, но стокового точно не хватит и он будет слабым звеном.
s
Вы статью саму читали?«Если проще, то в Full HD якорем выступает процессор, который заставляет простаивать GPU часть времени, а в высоком разрешении в тестовом наборе игр пока недоступны основные фишки ядра Turing.»
А
Как не нужны фишки?) Я один из многих которым нужно все и на максимуме! Ваше мнение всего лишь Ваше… Я 2080ti возьму, средства позволяют… Лишь подожду немного посмотрю на цены…
А
Да у нас полно дураков которым что-то не нужно… Здесь тоже полно таких которым и встроенной графики достаточно.Все покажут продажи видеокарт нового поколения.А большинство может оказаться меньшинством))))
116719648180741125271@google
человеку не понравилась карта 2080ти для 4к, которая в среднем на 35% быстрее предыдущего флагмана. А в будущих играх, с учётом оптимизации, будут все +50% в 4к, относительно 1080ти. Приводит примеры в низком разрешении, говоря, что средние, какие то там 15%. Это вообще рука-лицо, на фуллхд приводить примеры для раскрытия топовых карт .(в низких разрешениях больше тестят проц, да и игра может иметь лок, к примеру 200фпс .) не понравились ему лучи и dlss ))) Так иди, и возьми амд 64, и попробуй поиграть в 4к на максималках с 60 фпс? Не получиться с 60, а получиться с 30? Пример привёл, что какое то стадо, чего то увидело в лучах в метро, смешно просто, метро не вышло, а стадо увидело. Я не сомневаюсь, что лучи нормально прикрутят к новым играм. А некоторые будут говорить, что в фуллхд небольшая разница. Кому что, а лысому расчёска.Кому надо, тот подождёт и купит. А пока, ближайших аналогов у rtx 2080ti — нет!
116719648180741125271@google
может ты бесполезный, а фишки дельными окажутся?
B
Если бы цена была немного ниже, то все бы было нормально.
s
Они ждут 300фпс на Нави в 1080р не мешайте им.
SomeBody Else
Это особенно смешно с учётом плохой многопоточной оптимизации для D3D11 у драйверов AMD ;)
SomeBody Else
Перестали ли вы пить коньяк по утрам? Да или нет?
Смешной вы. «Переходят» на DX12 разработчики, а не тестеры.
116719648180741125271@google
не переживай в 4к, изнасилует твою вегу 64 2080ти в 2 раза :)
968876406551617@facebook
В целом это первая карта которая тянет 4к нормально.
s
великолепные приросты производительности в обычных (без HDR/RT) играх относительно былого флагмана 1080 Ti (не говоря уж о самом быстром на сегодня продукте AMD — Radeon RX Vega64: тут обгоны просто феноменальны).
Смотрю я на графики, и внезапно понимаю, что божественная 1080Ti, оказывается, не особо далеко ушла от Веги. О какой феноменальности речь? О ценовой, разве что.
k
Сейчас задним числом 1080ti станет на уровне Vega.
s
Если не слабее. А потом как ни в чем не бывало будут кричать, что так всегда и было. Проходили уже с 780vs280X.
C
Рейтинги ведутся по 20 ежемесячно исследуемым нами акселераторам в рамках проекта Лучшей видеокарты месяца.
Ссылка ведет на старую версию i3D-Speed, последний обзор от декабря 17-го
O
Нормальная политика. Следующее поколение будет на 50% быстрее, цена тоже на 50%? Через лет 10 появятся объявления типа: меняю тачку на видюху 9080 тi bi mi rtx super real luchi. Или навороченный игровой комп меняю на дом.
Как то смешно и кажется что зажралась уже ИТ индустрия.
V

Ответ Oleg Stasic на комментарий
Как то смешно и кажется что зажралась уже ИТ индустрия.

Так не покупайте продукцию зажравшейся ИТ индустрии. В чем проблема? — как только продажи резко упадут — сразу цены снизят.
s
Попугаи и те обладают большим словарным запасом, чем рекламщики Nvidia.
z
Модель---------------------Цена с презентацииGeForce GTX 780-------641 eurosGeForce GTX 980-------540 euros (-16%)GeForce GTX 1080------789 euros (+ 46%)GeForce RTX 2080------849 euros (+ 8%)GeForce GTX 780 Ti----650 eurosGeForce GTX 980 Ti----739 euros (+ 15%)GeForce GTX 1080 Ti---819 euros (+ 11%)GeForce RTX 2080 Ti--1,259 euros (+54%)Спёр у немцев с компьютербазы.Вот бы в обзор сравнение цен поколений на нашей слабенькой валюте. Ух, хорошо бы зашло.
d
В нашей слабенькой валюте выглядит так:
GTX 980 — 23990 на момент презентации
GTX 1080 — 54990 (+129%)
GTX 2080 — 63990 (+16%)

GTX 980 Ti — 39990
GTX 1080 Ti — 52990 (+32%)
GTX 2080 Ti — 95990 (+81%)

Из этого можно сделать какие-то выводы?
z
Как минимум два.
1. Зарплаты лучше получать в стабильной валюте.
2. Цены на 2080 скакнули не так сильно, как все жалуются.
d
1) Лучше быть богатым и здоровым, чем бедным и больным.
2) Такой вывод сделать нельзя, потому что на момент выхода 1080 была топовой видеокартой, 1080 Ti вышла только через год, причём с изначальной ценой ниже, чем у 1080 на старте, и 1080 сразу подешевела до 45790.
z
Всегда найдётся рыба крупнее. Это уже проблема самих людей, которые гонятся за топом топов вопреки всему. Большая стоимость для них должна быть плюсом, так как такое позволить смогут себе не все.Возможно маркетологам надо было назвать RTX 2080 Ti просто Titan'ом, чтобы лишить жалующихся главного аргумента, и сделать невиноватый вид.GTX 980 — $549GTX 980 Ti — $649GTX 1080 — MSRP: $599; Founders $699GTX 1080 Ti — $699Titan Xp — $1200RTX 2080 — MSRP: $699; Founders $799RTX 2080 Ti — MSRP: $999; Founders $1199
K
Ну вы даёте… Причем здесь вечно деревяные?
Для всего Запада это 1199 долларов а не милиард тугриков как для нас. Вы погуглите СРЕДНЮЮ з\п в Европе и США.
н
после выхода 1080Ti, можно было приобрести 1080 на CU по цене примерно от 29 тыс.р.
А
Выводы уже сделаны: 2080 по цене 64 000 продается, так что не создавайте ажиотаж…
K
подаются даже в мухосрансках… Ну на пару тыщ дороже может…
Больше всего мне доставляют владельцы 1080\180 ти…
Подгорает у них жестко. Делают они упор что типа прирост не большой… Поверте БОЛЬШОЙ. И без всяких новых ништяков которые АППАРАТНО у вас не поддерживаются. А с ними вобще сказка.
DuremaR
Скажите, в чем смысл тестировать топовые видеокарты на слабом процессоре?
C
Видимо, Росстат и опросы на улицах показывают наличие значительного количества игроков, готовых обменять свой топовый процессор на менее мощный с целью вложения вырученных средств в приобретение топовой видеокарты.
V
По оценкам ..., в среднем на каждые 100 операций с плавающей запятой приходится около 36 целочисленных операций. Так что лишь это улучшение способно принести прирост скорости вычислений порядка 36%.
Можно дописать: что способно увеличить производительность на величину порядка 36%. Что, в свою очередь, способно понизить энергопотребление на величину порядка 36%.
;)
d
2X fps относительно 980ti в 1440p хоть будет в итоге — 980ti из сравнения убрали зачем-то? В 4K получится видимо ближе к 2.5X…
h
кстати, на других ресурсах в обзорах разница между 1080 ti и 2080 ti почти везде меньше, чем здесь.и еще, Founders Edition — это разогнанная версия. Уже есть обзоры на нереференсные варианты от вендоров вроде MSI, ASUS и тд и тп. Так вот у них производительность еще меньше, чем 2080 ti Founders Edition.
Иван Дурак
Намекаешь что чемоданы занесли?
V
одного просмотра демы с метро — лестницами, взглядом в помещение и пр достаточно, чтобы не хотеть больше играть в игры с обычной растеризацией больше никогда.
М
Кому и кобыла невеста:)
Dionysus
Rарта Nvidia GeForce RTX 2080 Ti (Founder’s Edition) получила награду: Epic Fail! 500 y.e это максимум. На скриншотах не заметил разницы с включённым HDR.
Relast
Сколько новое поколение хешей/солов даёт?
MoriartyII
Во что играть на такой мощи? Высокобюджетный, «графонистый» сингл теперь большая редкость
v
в God of War и последнего паука. Ну и скоро рдр2 выходит.
T
Спасибо за отличную статью!
Скажите, с прилагаемым переходником поддерживается DVI Dual Link? У меня монитор и очки с технологией 3DVision. Но сей режим поддерживается только на вышеупомянутом стандарте. Не хочется в случае покупки карты нового поколения дополнительно приобретать активный адаптер за 2к рублей.
В
Вот так надо делать «обзоры», а то некоторые неблагодарные какие-то мизерные приросты намеряли. Кстати, в Вульфе 2 на Веге сильно больше фпс, но ведь надо бабло отработать.
e
Очень спорный релиз карт. Смотрю на них как пользователь 1080ti и хорошего FullHD монитора. Заметный отрыв от предыдущего поколения только в 4к разрешении. Если монитор с меньшим разрешением и нет желания его менять в догонку к видеокарте (а цены у хорошего моника 4К ой ой как кусаются) — апгрейд нецелесообразен. Имхо только отсутствие конкуренции со стороны красных позволило Зеленым понапихать в чип ядер которые может быть будут, а может и не будут использоваться разработчиками. Первые демки, игры которые мы видим спонсируются зелеными. Если на рынке будет мало пользователей с волшебными ядрами — технология благополучно помрет. Если АМД сподобится быстро выкатить шустрый в 4К чип без излишеств типа божественных лучей — у них и тут все будет в шоколаде.
d
1080ti не «слишком» для FullHD? Или там 120-144 Гц gsync. Я вот думаю, стоит ли оно апгрейда с 980ti(maxwell) или лучше подождать снижения цен на БУ 1080ti...(для 1440p/60) 4К монитор рассмотреть можно будет со временем, но, честно говоря, не вижу особого смысла в 4К при диагоналях меньше 32-40".
s
Если вы предпочитайте 1080р то вам будет фиолетово на эти карты, спускайтесь по тихоньку в классе или отвалите денег на новый монитор. Возможно RT что то поменяет, но этого пол года ждать.

Технология не помрет, это логическая эволюция 3д графики, о которой мы будем спорить в ближайшее пару лет.
S
Конфигурация тестового стенда
жесткий диск Seagate Barracuda 7200.14 3 ТБ SATA2;

Я худею…
97928502@vkontakte
Без шумодава: 10 пикселей, разбросанных по кадру.
С шумодавом: вау, идеальная картинка! Вот бы в каждый телефон такую!
на самом деле ясно же, что технология несколько сложнее, чем просто «шумодав».
v
купиил на авито gtx 1080ti за 35к с российской гарантией. Посижу на ней лет 8, потом сменю на текущее поколение, моник все равно больше 1920*1200 не держит так что все разрешения выше не уперлись. Лет через 8 куплю моник на 16к и 200+ГЦ тогда норм будет уже
А
Посиди лет 10 на ней, потом купишь моник на 32к 400+ГЦ! Такую х… ню несете новаристч)
I
Итого: +20% к скорости против +80% к ценеЗато лучи доброты в комплекте)Слив по Рейтингу полезности даже более эпичный, чем ожидалосьТо есть за такие деньги карты просто не нужныЭто фиаско, братан ©И стоило автору предыдущей статьи, зная все эти результаты заранее, ругаться с ее комментаторами?Вопрос риторический)
l
ой да ладно, радуйтесь, полгода назад такая бодяга в виде титан ви стоила 3 килобакса
I
А 10 лет назад такого вообще не было ни за какие деньги, но это не довод

Сравнивать надо с тем, что есть сейчас, т.е. с той же 1080Ti, которая в этой же самой статье оказывается в 1,5 раза лучше по критерию цена/производительность)
l
ну, если уж если сравнивать с тем что есть, то все бы сидели на рх 560 и 1050ти :))), ибо скажем честно, на фоне полубюджетных карт топовые всегда терялись по эффективности, и чем топовей, тем больше терялись. Сейчас 2080ти — топ, вот и цена такая конская. Тем более что конкуренции нет — хуанговские славики амд не берут даже если есть что по их карману и шустрее чем нвидиа(а такого дохрена, а без денег и разработка у амд тормозит. Вот и пусть эти нетоварищи, которые массово на 470 бабло зажали в пользу 1060 3 в свое время, теперь плачут что обновляться некуда или слишком дорого, а памяти не хватает.
I
Понятно, что по кривой полезности оптимальный выбор это мид-левел и что топовое железо это всегда невыгодная сделка односительно мид-левелНо в данном случае сравнивается не топ против середины, а новый топ против старого топа, который тоже отнюдь не блистал показателями долларов за FPSИ в таком противостоянии новый топ проваливается в полтора разаИначе как желанием сбагрить запас карт 10 поколения сие чудо не объяснитьТочно пора антимонопольщикам включаться, сразу следом за расследованием на рынке памяти)
l
и что антимонопольщики сделают? Заставят нвидию поделиться с амд технологическими секретами? Так нету там никаких секретов, просто патенты, у амд свои патенты, они на основе их тоже чето варганят, вдруг внезапно амд завтра выпусят вегу 256 за 3 килобакса, че — на них антимонопольщиков напускать? Ценник есть, но никто не заставляет тебя покупать. Сиди жди, пока подешевеет. Вот если амд обанкротится, тогда… Ничего тогда не будет, потому что это пока невозможно. Могут продать бизнес графики интелу, но обанкротиться — не, точно нет. Интелу нужен по закону конкурент, и если у нвидии он формально есть (интел выпускает 70% всей графики вообще, а нвидиа с амд 30), то у интела нет — так что амд будет жить пока не появится еще какой-нибудь мощный игрок. Зря что ли интел 6 лет косметикой занимался? Ждал, пока фикусоделы сообразят как из фикуса сандибридж изобразить.
I
Могут вызскать оборотный штраф и приказать цены снизить, признав текущие монопольно завышеннымиДелается на раз в т.ч. и с теми, кто заявляет «не нравится — купите за углом», обладая 70%-ной долей рынка
l
Ну вообще то как раз антимонопольные законы привязаны к этой самой доле рынка, если я правильно разобрался тогда, когда о них узнал. Нет и не может быть с точки зрения закона рынка " топовой графики", есть рынок дискретной графики, и он разделен, заявленные 70% — это не монополия, а лидерство. Лидер ставит такие цены, чтобы отстающий имел возможность занять определенную процентную нишу, но не более того. Если бы все такие — «да плевать я хочу на эти топчики от нвидиа, буду сидеть на веге», цены бы несомненно поползли вниз, чтобы вернуть распределение в пользу нвидиа. С другой стороны — в амд тоже не дураки сидят, если какой то продукт реально бы расхватывали как горячие пирожки — отпускные цены бы подросли, опять выравнивая в пользу нвидиа. Рынок регулируется как будто производители в сговоре, безо всякого сговора, и антимонопольщики тут бессильны, разве что законы менять. Нвидиа же не отменила все остальные карты, и игроделы не сказали, что без ртх больше игр выпускать не будут, или покупайте карту за штуку баксов, или выкидывайте комп.
I
Если вы в этом всем разобрались, то вы большой молодец — ибо для самих антимонопольщиков вопрос о границах товарного рынка это один из самых сложный вопросов… оттого и не ясно, есть ли рынок «видеокарт для энтузиастов» или «дискретных видеокарт» или только вообще «встроенных или дискретных устройств отображения»… И это я про страновые и территориальные границы еще не говорю)Монополия это формально 100%, но на самом деле их почти нет нигде. По факту есть Доминирующрие субъекты, которые занимают такую долю рынка, которая позволяет им злоупотреблять своим положением. А еще бывают олигопольные рынки, на которых несколько крупных участников занимают 50-70% рынкаВ обоих случаях штрафы и принудительные меры по ценообразозанию, либо вообще принудительное разделение компаний, используются на разЕсть особенности для инновационных продуктов — там каждый новый продукт потенциально настолько особенный, что у него нет никаких субститутов и нельзя точно определить, завышена ли на него цена доминирующим субъектом или нет… Примерно этим пользуются все технологические компании при защите своих цен. Но даже несмотря на это регулярно скандалы случаются — в частности, в 2008 году та же NVidia заплатила штраф антимонпольщикам за монопольно высокие цены на карты. Не вижу ни одной причины, почему бы этой истории не повториться вновь
l
ну да, лучше бы было, что бы нвидиа зажала карты на складах, или как интел — шлифовала бы их бесконечно в тайных лабораториях в ожидании шага амд? За это антимонопольщики точно не накажут. Еще раз повторюсь — антимонопольные законы применяются при наличии доказанного сговора между производителями, или если продукт занял весомую долю рынка. 2080ти вряд ли 1% займет когда либо, да и выпустят их скорей всего хрен да нихрена. Если бы могли бы штрафовать, штрафанули бы еще за титан по 3 килобакса, ведь он то уж явно столько не стоит.
SomeBody Else

Ответ IS_live на комментарий
Итого: +20% к скорости

Там для плохо считающих в начале каждого игрового теста написано что-то типа: «Преимущество RTX 2080 Ti по сравнению с GTX 1080 Ti в 3840×2160: +52,7%»
Если же плохо считающие ещё и плохо понимают, то они обычно смотрят результаты в 1680x1050, которые лично я бы давно убрал вообще, оставив три разрешения: 1080p, 1440p и 4K.
I
Предлагаю автору, который продолжает беседу в привычном ему духе, взять калькулятор и самостоятельно посчитать, какой прирост получается по интегральному Рейтингу производительности, а не только в 4К

Справитесь с упражением или вам помочь?)
SomeBody Else
Если читатель продолжает тупить и сравнивать пр-сть топовой видеокарты за 100 тыс в разрешениях типа 1680x1050, то… такой читатель не нужен :)))
I
Нечего на зеркало пенять тому, кто продолжает хамить и не умеет в обновление методологии тестовЛучше бы ему ума-разума набраться у авторов раздела процессоров, которые за последние годы смогли и не разИ манер у них же
SomeBody Else
Лучше бы читателю пойти в сад читать раздел процессоров :)

N.B. ЭТОТ автор как раз «обновил методологию» СВОИХ тестов именно в этом обзоре. Так что про плохо понимающих автор таки был прав ;)
E
На самом, деле вопрос про разрешения очень не однозначный. Если поднять уровень графики при низком разрешении, то и HD монитора хватит. Ту самую трассировку и делают, чтобы поднять этот уровень. Про нее и орут, мол в 10 раз больше производительности нужно. Проблема людей не видящих немедленного результата на HD, не в карте, а в отсутствии игр, способных утопить 1080 там.Ну а причина этого уже совсем в других областях. ИМХО конечно.
SomeBody Else
Проблема «людей не видящих» в том, что они не способны подумать не то, что на несколько лет вперёд, а на завтра.
G
А смысл считать что-тот ниже хотя бы 2,5К, все упирается в процессор банально
I
Конечно — и потому ту же 1080Ti надо было тестировать тоже только в 2,5K и 4K. Было бы +40% Рейтинга против +80% цены — провал, но не такой эпичныйНо раз уж пока что методология тестов предполагает не только эти, но и меньшие разрешения, значит и 2080Ti надо тестировать по ней же для сравнимости результатовРовно это в статье и сделано… совершенно справедливо… и результаты налицо… +20% Рейтинга при +80% ценыА вот потом уже в комментариях началось «здесь читать, здесь не читать», причем в привычной для автора манере)
G
С таким подходом надо было запихнуть GTX 480 и в 4К показать наглядно, что RTX быстрее в 1 000 000 раз. Давайте размышлять логично, для FHD есть не менее привлекательные и гораздо более бюджетные варианты, например: 1060 или 570.
I
Нарушения логики как раз нет
В тот момент, когда была актуальна GTX 480, ее приобретали максимум для FullHD
Поэтому в то время для 3DIТОГОВ тесты делались в актуальных разрешениях от 1280х1024 до 2,5K, где эта карта была прямо сравнима с GTX 285 и GTX 580

Сейчас актуальные топовые карты берут для 2,5K и 4K
Но это же было справедливо и для 1080Ti, которую мало смысла покупать для FullHD
Тем не менее, ее для Рейтинга тестировали во всех разрешениях, в т.ч. и низких
А раз так, то и 2080Ti надо тестировать ровно так же

Чтобы быть ближе к реальности, надо _посточнно, но постепенно_ менять методологию
С одной стороны, она должна соответствовать текущему профилю потребления пользователей, а с другой обеспечивать сравнимость результатов
Это, собственно, не бином ньютона, а азы построения экспериментальных исследований
S
Не надо убирать низкие разрешения, у вас же на одном графике все карты, включая lo-end. Эти же картинки потом появятся в тестах условной 2030, для которой даже 1080p в современных играх будет непосильной нагрузкой. Может просто рейтинги считать для каждого расширения в отдельности? И, кстати, 2080 Ti целесообразна не только для 4К, но и 1080p + RTX.
l
вам не кажется, что рейтинг потерял всякий смысл, учитывая, что проц не вытягивает ничего кроме 4 к с такими картами? ЧСХ, сами тесты райзена еще черт знает когда показывали, что у него 4 к выходит лучше, потому что блоки потоков данных крупнее, а запросов меньше(карта не справляется). Чего, 2700х не дали с нормальной 470 мамкой и памятью на 3800? Хотя что уже, надо на 9900к менять, где он там уже…
l
ну вот это уже вообще спорное утверждение, которое кочует из обзора в обзор начиная еще наверно с 590/6990, если не раньше. Каждый выходивший топ выходил под лозунгом- ну вот это уже точно карта для 4к. А потом выходила новая игра, в которой обзорщики говорили — требования по графике на 4к столь велики, что текущие топы не справляются, ждем новых карт, а пока режем настройки.
l
полноценных игр с качественной трассировкой не завезли, вот завезут и посмотрим, может топчика хватит только на 720р, хахах.
S
Будет, если захочется RTX. Похоже, что при этом даже в 1080p будет еле-еле 60 FPS на максималках.
Y
В i3D-Speed хотелось бы ещё увидеть не только результаты разогнанных карт Founders Edition, но и работающих в номинальном режиме. Плохо, если для этого необходимы будут карты на чипах без буквы «А» в маркировке.Восхваление NVIDIA и объявление их новой архитектуры тем, что она
двигатель прогресса в 3D-играх, потому что в конце концов все эти «трассировки лучей» дадут то самое улучшение графики, о котором мы говорим уже не то, что годами, а десятилетиями уже.
на мой взгляд чрезмерно и абсолютно неоправданно.Авторы iXBT правда думают, что игроделы за минимальную основу для своих игр начнут брать карты только от NVIDIA за $499+? Серьёзно? А я вот думаю, что направление будущим играм задаст графика от AMD в будущих PlayStation и Xbox. Поэтому гораздо важнее то, что представит AMD в новых консолях, нежели то, что представила NVIDIA в Turing.P.S. Награда в номинации «Оригинальный дизайн» это сильно. Ведь в видеокартах, особенно новейших, это самое главное для кого-то. Производительность и функционал, вероятно, не важны) Что? Лучи, самая производительная видеокарта? Ну нафиг. Мне дизайн нравится)
Н
Уверен на 100% что rtx2080ti драйвера режут производительность на первых двух разрешениях, не может на 2к быть такая разница с fullhd если сравнивать с 1080ti
d
А где можно скачать эту reflections demo? на своей старой карточке попробовать интересно… Или ее так и нет в открытом доступе?
SomeBody Else
Вполне может быть, что и нет. Надеюсь, что выложат.
d
А вы это демо откуда взяли? Ссылку можно? Я пока не смог так просто найти ничего, кроме видео. И как оно работает интересно, если еще нет DXR — использует какой-то nvidia only API для RT?

Посмотрел обзоры 2080 FE на других ресурсах — получается тот же 1080 ti примерно (по fps в существующих играх), только дороже. Какой вообще в нем смысл на данный момент…
v
я тоже глянул уже пачку тестов… и как-то странно выглядит 2080. Как они собираются её продавать, если 1080ти на б/у будет стоить дешевле, а производительность такая же.
SomeBody Else
Ссылку, конечно же, нельзя. DXR вполне себе работает, нужно весеннее обновление Win10 и developer mode.
d
А почему же тогда SOTR не работает с RTX ON? Сделали бы хоть в developer mode возможность включить его… А щас вроде говорят, что надо осеннего обновления ждать.
SomeBody Else
Да кто ж знает. Может разработчики игры ещё не доделали и добавят поддержку позже патчем. Показанные в статье демки работают с весенним обновлением и на Turing и на Pascal.
d
А на более древних gpu, например maxwell, тоже ведь заработает? Пусть с тормозами еще круче паскаля, но по идее fallback layer позволяет запустить RT на чем угодно(c поддержкой D3D12)? Жаль, что mesh shading не будет поддерживаться в ближайшее время — похоже весьма полезная фича, в отличие от лучей :-) Asteroids демо в движении очень хорошо показывает ее в действии, рост FPS в разы…
SomeBody Else
В статье же написано, что fallback layer — это другое, под него нужно специально писать. Будут писать — будет поддерживаться. Mesh shading может и будет, если продавят, но это ещё сложнее, т.к. как его заставить работать на всех GPU?
d
Точно, пропустил про fallback, прошу прощения — теор. часть не читал целиком, т. к. думал, что она в основном повторяет первую часть, сразу перешел к самому интересному — тестам самой карты. Кстати, по поводу синт. тестов в rightmark3D, D3D10, 3D mark vantage и т. п.: а стоит ли вообще их продолжать делать? По-моему, они мало кому уже интересны, а времени и сил на них наверняка тратится прилично. Не лучше ли было еще несколько игровых тестов добавить?
SomeBody Else
Есть люди, кому они интереснее игровых. Их может и не очень много, зато этот раздел у нас уникален (не потому, что вообще никому не нужны, но потому, что массам не нужны, это да). Но тут ведь как — кроме количества есть и качество (в т.ч. и читателей ;) )
T
А во что играть, черт побери. Что толку от железа если поиграть не во что. Или это я так зажрался, а может старый стал, увы.
aspire1gig
Да, совсем старый, совсем видать замучил сарказм, ой, цирроз, тьфу ты, склероз, так его. И на третьем Джифорсе играть в шейдеры не во что было в момент выхода, и серия FX, считай, в трубу улетела, а уж сколько гневных воплей школьнегов было во время выхода карт восьмого поколения, мол где наши dx10-игры! :)P.S. ну а по сути, согласен, нонче играть не во что, один отстой и трэш кругом)
l
ага, по 2-3 игры в год выходит, таких чтобы реально хотелось играть, а не поставить, посмотреть полчаса и вырубить. Старость она такая — во всем видишь тупое клонирование давно пройденных любимых игр. А прошлый год вообще был какой то неудачный — 4 более менее удачных продолжения с различной степенью глючности, и ни одного нашумевшего нового проекта. В 16 хоть думм зажег.
А
Тоже согласен… Жду новый DOOM и METRO...Cейчас от скуки гоняю в онлайн Overwatch, ничегошная такая…
t
Что!? С каких это пор 1060 6 гигабайт уступала в играх 570?
Ну вы блин даете… А я думал серьезный вы ресурс.
Нельзя же так, с первым встречным.©
D
редактора наймите!!!

на третьем сайте уже вижу бездумную копипасту
----------------------------------------------------------

Примерно то же самое и с остальными новыми GPU, все они по сложности чипов как бы сдвинуты на шаг: TU102 соответствует TU100, TU104 по сложности похож на TU102, а TU106 — на TU104
----------------------------------------------------------


фразка натурально из пресс-релиза

и ни у кого даже не закрадывается мысли, что лажа написана.
С
Собственно в самом ходовом разрешении новая карта отстает. По данным стима это 1920x1080 а если прибавить и разрешения по ниже, то тогда 4k совсем уж выглядит не очень.
https://store.steampowered.com/hwsurvey?l=russian

Карту имеет смысл брать разве явно не сейчас. Более того, на мой взгляд, за такие деньги куда лучше потратить на шлемы виртуальной реальности или что-то подобное.
SomeBody Else
С трассировкой лучей вполне себе и для 1080p в CPU не упрётся ;)
С
Трассировки лучей в текущей реализации нет. Таким образом Ваш ответ означает признание отсутствие обратной совместимости с тем ПО которое есть. Судя по статье, переход на трассировку не делается прозрачно и требует обновление DirectX как минимум. Подозреваю, что и для включения ее в Vulcan/OpenGL потребуется изменение кода, а значит Ваш ответ не релевантен, так как новая физическая карта не должна была даже пройти регрессионного тестирования, а регресс по перфомансу явно на лицо.Согласно tomshardware новая карта дает всего лишь 26% производительности в Destiny 2Your text to link...в 4k чуть лучше — 35%. Но выше уже привели насколько разница увеличилась в цене. А ваша карта в обзоре стоит больше $1000+
SomeBody Else
Ох, до чего же вы все трудные… Трассировка лучей в DXR есть, этот API именно про неё.
С
Переформулирую вопросы:
1) Будет ли работать технология на играх 2017 года и ниже, созданных на DirectX 11 и ниже без доработок?
2) Direct X и DirectXR это разные вещи?
3) какова производительность игр 2017 года и ниже?
4) Прокомментируйте, пожалуйста, итоги сравнения tomshardware на Destiny 2, где прирост был не более 35% в Destiny2 в 4k, а на меньших разрешениях и того меньше.
SomeBody Else
Не будет, конечно. Разные. Пр-сть старых игр не интересна. Комментировать чужие рез-ты я не буду.
С
Примерно то же самое и с остальными новыми GPU, все они по сложности чипов как бы сдвинуты на шаг: TU102 соответствует TU100, TU104 по сложности похож на TU102, а TU106 — на TU104
Вы точно тут нигде не ошиблись?

По оценкам компании Nvidia, в среднем на каждые 100 операций с плавающей запятой приходится около 36 целочисленных операций. Так что лишь это улучшение способно принести прирост скорости вычислений порядка 36%.
Ошибка в арифметике. Если бы из 100 операций было 64 FP32 и 36 INT32, то параллельность дала бы прирост 36% (36/100). А так получается всего 26% (36/136).
С
И вообще редактора бы. Местами очень плохой язык. Вот, например:

Асинхронные вычисления в новых GPU полностью переработаны, и на одном и том же шейдерном мультипроцессоре SM могут запускать и графические, и вычислительные шейдеры, как и чипы AMD.
Во-первых, лишняя запятая, ломающая фразу. Во-вторых, «SM могут запускать… как и чипы AMD» — формально это не аграматично, а по факту очень криво, первое прочтение даёт нам что SM могут запускать два вида шейдеров и, в добавок, чипы AMD! Надо бы как-то переформулировать.

И такое — в каждом втором абзаце. Вроде и нет формальных ошибок, но текст очень небрежный и грязный.
SomeBody Else
Я бы посмотрел, как ретивые читатели за считанные дни сделали бы такой материал. С удовольствием бы посмотрел. Одна беда — они только трындеть горазды.
С
Редактор текст такого размера смотрит за половину рабочего дня.
SomeBody Else
Есть только одна проблема — текст был (кое-как) готов точно ко времени снятия эмбарго.
D

Ответ SomeBody Else на комментарий
Я бы посмотрел, как ретивые читатели за считанные дни сделали бы такой материал. С удовольствием бы посмотрел. Одна беда — они только трындеть горазды.

т.е. поэтому TU от GP можно не отличать?

------------------------------
как бы сдвинуты на шаг: TU102 соответствует TU100, TU104 по сложности похож на TU102, а TU106 — на TU104
---------------

и это натурально бездумная копипаста пресс-релиза ибо в третьей уже статье эта фразка
SomeBody Else
Не «из», а на каждые 100 FP32 есть ещё 36 INT32.
С
ИМЕННО! Именно это я вам и пишу. Поэтому и 26% а не 36%. Читайте внимательнее.

Я повторю, без пропусков.

Было 136 команд. 100 FP32 и 36 INT32. Так? Сами подтверждаете, что так: «на каждые 100 FP32 есть ещё 36 INT32.» 136 = 100 + 36. Они выполнялись 136 условных тактов так как ничего параллельно выполняться не могло. Так?

Теперь осталось 136 команд. Всё те же. Но INT32-команды стали бесплатными, так как спараллелились с FP32. Итого осталось 100 условных тактов выполнения. Так?

Итого экономия условных тактов (136-100)/136 = 0.26347. Или 26%.

А вы пишете по 36%.
SomeBody Else
Мы пишете плюс 36%.
Б
было 136 секунд, стало 100. где тут поризводительность +36%?
SomeBody Else
Не так. За одно и то же время выполнялось 100 инструкций, а стало — 136. Производительность +36%.
L
Отличный прирост до 50% в высоких разрешениях, что мне и требовалось. Буду брать 2080
C
Где тянул и 1080ти — оверфпс. Где не тянул 60 так же не тянет и 2080ти. Кривой и поганый по графике deus ex вообще ничо не потянет. Там разрабам руки рубить набо
theSeventh
В методичке нвидиа 2080 ти -> 1080 ти = 45% буста. Здесь точно такой же буст как в методичке. В абсолютном большинстве зарубежных обзоров буст 30-35%. Что что там про лояльные издания было? Надеюсь вам хорошо заплатили и это было не зря…
A
бедный «автор» скопипастил весь материал что дала нвидия.
Вам не стыдно?
SomeBody Else
Ну вам же не стыдно тупо врать :)))
L
Ждать прироста в 1920х1080 может только человек, ничего не понимающий в компьютерах: при таком низком разрешении и мощном GPU производительность упирается в CPU
S
Не всем очевидно. Но карточки созданы для майнеров. Весь этот фон полный треш. Кое где сабж уже называют убийцей асиков. Только вот асик ты не продашь быстро, а видеокарту вполцены пиханешь геймерам запросто при обновлении фермы.
L
Очнись — на видеокартах уже не майнят
С
А на чём майнят, например, Monero?
Andrey Vorobiev
Да… любопытно… Когда выходят обзоры по игровым тестам соперничества интегрированной графики AMD Ryzen с дешевыми дискретками — находятся люди, которые уверены, что мне AMD «заплатила». НУ просто потому, что тесты показали, что AMD — лучше. Как только в каком-то обзоре у NVIDIA лучше (например, в этом), — тут же находятся желающие посчитать — сколько NVIDIA заплатила. Я 20 лет работаю на iXBT.com, и если судить по всем воплям «а! заплатили!!» — по идее уже должно быть 10 феррари, 5 вилл на Гавайах и Багамах, ну и прочее… Ну и нафиг тогда тут вообще работать и 4 дня не спать, мучать себя, чтобы успеть к дате снятия эмбарго на обзоры? — Подумайте. Так, разминка для умников, раз трассировка лучей некоторым мозгам явно не грозит, они до сих пор вручную билинейную фильтрацию на калькуляторе считают… Но при этом самые первые «посчитать» — кому там и сколько «заплатили». Забавно. Я давно уже перестал обращать внимание на мракобесие с «заказными обзорами», но тут вот наткнулся, чего-то захотелось даже ответить. Теперь что касается «методички» от NVIDIA, якобы по которой у нас все числа получились. Гениальному автору этого утверждения я открою тайну: в «методичке» NVIDIA из используемых нами игр — только одна: Shadow Of The Tomb Raider. Остальные — все другие, которых у нас нет вообще. И еще момент: есть ряд игр, где нет встроенных бенчмарков, и где просто используется некая сцена (если она повторяемая) для прогона на разных картах/режимах с Afterburner/FRAPS. Так вот, эти сцены у разных тестеров могут быть СОВЕРШЕННО разными, и потому рез-ты по той или иной игре тоже могут быть СОВСЕМ разными, это очевидно же. Меня всегда умиляли такие выступления: «вот на сайте „тра-та-та.ком“ в игре „Лара Крофт против Трампа“ — 75 fps, а у вас — 54… Вам наверно заплатили, чтобы вы понизили скорость..» :) В целом спасибо за отзывы, мы рады отметить, что интерес к людей к топовым ускорителям есть. Раз вон сколько уже комментов по 90000-рублевой карте (если только не 100 000 рублевой). Наверно все только и ждут, чтобы купить. )))))))
Andrey Vorobiev
Дело в том, что мониторы с FreeSync2 как-то все мимо нас. Сейчас время кризисное, и покупать «железо» для обзоров очень накладно. Да и не изучал я цены на такие мониторы в том плане — есть ли бюджетные варианты, а то ведь в цикле мы тестируем именно бюджетно/офисные конфигурации. Понятно, что никто не будет покупать комп за 30000, и к нему монитор за такую же цену.
L
LFR во FreeSync 2 заставляет монитор по два раза отрисовывать кадр, делая частоту обновления экрана вдвое выше, чем fps; тормоза при этом никуда не исчезают, а вот разрывы кадра — исчезают
s
У меня несколько вопросов.
Ai Denoiser обычным людям завезут, начиная от Adobe кончая ffmpeg?
Про Nvenc что то слышно? Увеличат количество потоков?

Игровые тесты это конечно весело, но интересно как карточка себя чувствует на полупро рынке.
SomeBody Else
Мы писали обзор именно с точки зрения игроков и в подробности «полупро» даже не вдавались. Честно говоря, даже не в курсе, про доступность всех этих денойсеров, хайрезов и слоумо наверняка всё будут решать позже, пока это начальные разработки.
s
У игроков нет денег на такие карты. Это же очевидно по комментариям.
А
Есть деньги.Не нужно говорить за всех, мало того есть деньги даже на две 2080TI, и полную замену платформы если это необходимо… Кроме молодых людей, есть масса взрослых выросших в 80-90 годы, которые состоялись в жизни и готовы потратить деньги на свое развлечение…
Иван Дурак
Не ну на 1-ом райзене 4 Ггц тестить сей девайс как-то странно, поэтому неудивительно, что много где всё упёрлось в процессор. Тестирование в 1080р, где топ предыдущего то поколения не полностью раскрывается, а тут искать отрыв… да в паре с процессором для конвертирования. А вот тест в 4к мало зависит от процессора, поэтому новая карта там и раскрылась. Если уже сейчас отрыв до 50% доходит, то в будущем он будет только расти.
п.с. Хотелось бы увидеть тест этой карты с 8700К 5Ггц и оперативкой на 4000.
Иван Дурак
На оверах тоже смотрел, там вообще пожар в комментах. Кто-то из контор нас обманывает с результатами… вот ни за что не поверю в то, что 1800Х на 4000 будет быстрее 8086К на 4500. Да, как проц для рендера и мультипотоковых приложений 1800 хорош, но в играх (без стриминга и т.д.)даже ай5 на коффе будет быстрее и проверено неоднократно многими ресурсами и блогерами.Если уж 2700Х с полным фаршем по памяти (тайминги, частота) и разгоном ядер проигрывает стоковому 8700К в играх…
L
В 4к проц часть времени простаивает, и поэтому его частота в большинстве игр не влияет на результаты.Shadow of the Tomb Raider на оверклокерах выдал больший фпс, так как производительность уперлась в карту; а в Battlefield 1 при тестировании использовали разные сцены — поэтому результаты сравнить нельзя.
C
На других ресурсах разница в 4к между флагманами меньше. При том что 1080ти придушен до упора, а 2080ти разогнана в 2к. Брехней данный обзор попахивает. Везде цифры кривые. Ни одному обзору не верю
SomeBody Else
Ещё один нечитатель. Цитирую статью: «По сути, потоковый мультипроцессор Turing основан на варианте Volta, из которого исключена большая часть FP64-блоков (для операций с двойной точностью), но оставлена удвоенная производительность на такт для FP16-операций (также аналогично Volta). Блоков FP64 в TU102 оставлено 144 штуки (по два на SM), они нужны только для обеспечения совместимости.»
Хотя таким как вы стыдно не будет никогда.
Bellamy
Да что тут говорить? Топ!
Остается только дождаться 27 сентября. Надеюсь, что завезут партию тишек в FE исполнении. Если и брать то только такую.
C
«Вероятно, в Nvidia выбрали нечто среднее: поднять цены, чтобы побыстрее окупить затраты на Turing, но не поднимать их запредельно» — это не мог написать русский обзорщик, если он конечно не лицо определенной ориентации и не олигарх. это просто жесть какая-то из отдела НВ, или сказанная самим Хуангом. То есть мы еще должны благодарить НВ за низкие цены? )))) я даже комментировать этот бред не хочу. После этой фразы можно больше ничего не читать. Мужики то оказывается и не знали, что НВ выбросила новую линейку за гроши. А могли бы сделать цены и запредельными…
Т
А в чем проблема? Не нравится цена, то и не берите, зачем сразу кого-то оскорблять и причислять к олигархам, меньшинствам и пр.? Для меня цена приемлема как и для многих других (судя по продажам). Так что, если вам не нравится нвидиа из-за цен, то сделайте свой продукт, который будет не хуже 2080ti и поставьте нужную вам цену, тогда и нвидиа будет цены корректировать. А пока вы только ноете и хейтите
C
здравствуйте, вечный владелец 210GT. Я конечно понимаю, что вы никогда не покупали топ решений, а я как постоянный их владелец вам скажу — это очень дорого после 2014 года. И 2080RTX Ti — вообще не стоит своих денег ибо это пустой продукт. Никаких преимуществ по сравнению с 1080GTX Ti она не дает от слова вообще. Особенно в 4к которое она не тянет ни без RTX ни тем более с ним. Тот, кто трудом зарабатывает деньги — не привык вышвыривать их на ветер.
deM-on
DirectX 12 (в несколько большей, но все равно не полностью)
Что значит — не полностью? В DX12 можно генерировать буфер команд непосредственно на GPU, без участия CPU. Куда ж полнее?
Таким образом получается, что шейдеры исполняются лишь один раз на пиксель, но сглаживание получается как 4х MSAA практически бесплатно, поскольку основная работа GPU заключается именно в шейдинге.
Вы в курсе, что так MSAA и работает? Для пикселя глубина и coverage расчитывается N раз, а шейдер вызывается только один (за исключением ситуаций когда включен per-sample шейдинг и который превращает MSAA в SSAA)?
SomeBody Else
Визг поросят всегда очень смешной (для поросят — ЭТО ДАЛЕКО НЕ ВСЕ ЧИТАТЕЛИ САЙТА, а только такие, как вы ;)). Брызги соплей, слюней, прочей коричневой субстанции просто во все стороны: «Не верю! Вас купили! Хуанг лично приказал, что писать!»
Продолжайте веселить, у меня на вас попкорна ещё много :)))
L
А чего вы ожидаете от людей, которые утверждают, что монитор с бесплатным FreeSinc 2 способен самостоятельно рендерить кадры, которые не успевает обрабатывать GPU? Это-ж надо такое лепить на полном серьезе)))
SomeBody Else
Честно говоря, от людей я уже давно мало что жду ;)
«Бесплатный FreeSync» это вообще очень забавно, с учётом того, что ничего совсем бесплатного не бывает и что это Adaptive-Sync от VESA, по сути :)
L
Простой 2080 вам еще не закинули? С учетом цены, она кажется мне наиболее интересной.
SomeBody Else
Ещё нет, но карты и тесты будут.
d
По цене несколько выше 1080 ti (новой) имеем примерно тот же FPS в играх ± 5%, судя по тестам др. ресурсов, см. например видео gamersnexus. Так что интересность только на будущее: с учетом возможной перспективы RT, DLSS и т. п. Была бы она дешевле 1080 ti, еще можно было бы понять…
L
Если перед вами выбор: купить 1080ti, или 2080; что вы купите?
d
Ну если вопрос стоит именно так: покупать прям щас 2080 FE за 64К руб (оф. цена для России в магазине «зеленых») или новый «средний» нереференс 1080 ti за 55-60К (про цену на БУ даже не говорю), то взял бы 1080ti. У меня вопрос так не стоит: я думаю, что взять после максвелла(GTX Titan X), на котором я уже больше трех лет, для сборки нового компа и спешки нет никакой. Пока буду ждать — посмотрю как пойдет RT/DLSS и что выпустит AMD (если конечно это вообще будет в ближайшие полгода-год). В идеале я хотел конечно минимум 2X FPS по той же цене(хотя бы в $), что когда то стоила 980 ti, но пока похоже такого нет…
А
Как то Ваш выбор неочевиден… Брать 1080TI которая примерно стоит так же как и 2080… При том что у 2080 производительность и будущее явно лучше чем у 1080ti как минимум является нелогичным…
d
1080 ti все таки дешевле на 5-10К в рублях и доступна прямо щас и проблем с ней меньше, лучше всего найти ее конечно БУ вообще за 30-40. Если цена та же, что и у 2080, тогда конечно уже 2080 может иметь смысл. Производительность у нее заметно лучше только при наличии DLSS либо RT, чего на данный момент нет.
А
Так у 1080TI даже технологии такой не было и не будет от слова «совсем».Мы же говорим о всецелой логической покупке с «замахом»на будущее.Если у Вас сейчас уже есть 1080TI это одно, возможно и нет смысла покупки серии 2000.А если у Вас поколении 900 и ниже, смысл покупки виден невооруженным взглядом… А 5-10 т.р.для человека который может позволить себе 1080TI это совсем не те деньги из-за которых стоит отказаться от приобретения 2000-ой серии.
d
Ну вот у меня как раз 900 поколение (максвелл) и мне смысл не очевиден. Прямо щас у нас в одной и той же известной cети 2080 Palit(похоже копия FE) стоит 75К р, а вполне нормальный нереф 1080 ti gigabyte «всего» 57.5К, итого разница 17.5 К, а далеко не 5-10. Кстати, 2080 ti стали доступны там уже от 103.5K :) Технологии новые (RT и DLSS) пока (и возможно ближайшие пару лет) погоды не делают, только за них платить не готов столько. Когда будет разница в цене 5К, тогда и посмотрим.
А
Спешу обрадовать 2080 от 64 000 рублей уже продается! Выбор очевиден!
А
А так берите 1080ti быстрее они закончатся)))) Цены на 2000 серию снизятся)
d
Я если и возьму 1080 ti, то только БУ за 30-40 — их завались щас. Платить за паскаля столько, сколько он стоил на старте год с лишним назад(50-55), не буду — пусть «куртка» обломится. Вот если бы цены на них после выхода 20XX были снижены, как и положено, тогда другое дело. Но пока этого нет. 64К за 2080 это в рос. магазине nvidia что ли такая цена или где? Там еще ждать надо неизвестно сколько, пока доставят: 8 октября они только поставят в Россию, а потом еще сколько ждать — кто-нибудь у них заказывал? Вообще у меня спешки нет: сначала дождусь выхода процов 9900К, потом уже буду думать, какой GPU в новый комп ставить — 1080 ti, 2080 или 2080 ti.
Т
У меня была 1080, которая не раскрывала потенциала моего монитора и я решил купить 2080ti, чтоб не париться, однако разница в фпс оказалась не слишком большой, всё дело оказалось в проце (6700k), который не раскрывает 2080ti от слова совсем, да я думаю и 8700k для нее мало. Тестил свою видеокарту на новеньких 9700k и там совершенно другие цифры и то мне кажется, что она и на большее способна
d
Все правильно, но это зависит от разрешения, ваших требований к FPS и т. п. 6700К не раскрыл ее наверное в 1080p (где хочется больше 100 FPS)? Допустим в 4K наверняка и 6700К раскроет без проблем, за исключением отдельных редких моментов, где может быть будет проседать FPS из-за упора в проц, но таких не должно быть много. Я-то для новой сборки конечно хочу 9900K, но цены на него пока еще не установились, надо еще ждать. Может вообще придется отложить до IceLake, если вообще он когда-нибудь выйдетКстати, интересно было бы увидеть сравнение в играх 1080p/1440p/4K: 2080ti и 6700K/7700K/8700K/9700K/9900K. При этом замерять надо не только средний FPS, но желательно еще и 99p, а лучше графики с временем кадра увидеть. И даже такие данные не дадут полного представления на самом деле, т. к. ограниченный тестовый отрезок не вместит всех возможных мест в игре, где на самом деле может проседать fps в том числе на топовых конфигах.
Т
Монитор asus pg279q, разрешение 2560x1440, 165гц. Я его на 120гц поставил, так как:
1. Даже 2 2080ti и 9900k в бусте не дадут 170фпс при 1440p в требовательных играх для раскрытия потанцевала этого моника.
2. Поставил КС, чтобы посмотреть на видимую разницу между 60, 120, 144, 165 гц. Так вот разница между 60 и 120 — огромная, между 120 и 144 — не заметил, между 120 и 165 — мизер и то не факт, что есть, может это эффект плацебо.
С 9900k огромные проблемы, так как даже при 4,6 куллером его не охладишь, только вода, пробовал corsair h150i, на 4,6 нормально, на 4,7 — край. Пошел дальше, поставил кастомку, 5 взял, дальше экспериментировать не стал. На 4,7 норм работает
Т
Я бы сделал тест на 6700k b 2080ti, но я продал старую сборку, кроме БП и корпуса чтобы обновиться
K
Юзеры FullHD проходим мимо.
L
Юзеры FullHD так-же проходят мимо 1080
Star_Wiking
Уже который день 5-я точка АМД-ников никак потухнуть не может. Успокойтесь уже… чайку попейте что-ли. К слову о мониторах, вроде тут статья тестов видеокарты, а не монитора «онли» АМД.У меня монитор 1920х1200 что гораздо лучше «обрезанного» 1920х1080.
l
не ну по сути то обрезанный ваш, только что разрешение у него больше. Все, что меньше 16ти на9 — обрезанный. Хотя если на аватарке ваш портрет, то вы действительно можете думать, что все что не 3Х4 — от диавола:)
l
Предлагаю доработку методики получения интегрального рейтинга производительности —
1) добавить разрешение 720Х1280;
2)каждую карту тестировать 3 раза в трех последовательно возрастающих по сложности тестах;
3)стартовый уровень тестирования определять по объему и типу видеопамяти — ддр3, ддр4, объем 2 и меньше — тестировать в 720р--1080р, объем 3-5 — тестировать в 1050Х1680--1440 р, объем 6+ — тестировать в 1080р-4к.
4) результаты карт из соседних категорий приводить к единому рейтингу на основе 2 общих измерений.
K
Не понимаю, почему народ воет? +50% в 4K — мало???
Карта стоит дешевле, чем две 1080Ti, а дает более стабильную скорость на 4K. Что еще надо? Ну, цена завышена — так площадь чипа чудовищная, я вообще не понимаю, как ее хоть за 1200$ выпустили.
В общем, меня впечатлила карта, я ожидал гораздо худшего результата, так как невидия скрывала результаты на презентации, а надо было показать.

Но есть один момент. На других сайтах скорость поменьше! Так что… Даже не знаю.
d
Взять стоковую 1080 ti (да еще и с не самыми удачными частотами) против разогнанной 2080 ti FE — один результат. Взять нестоковую удачную 1080 ti (еще и с хорошим разгоном) против неразогнанной 2080 ti — другой результат. Разница вполне может быть 5-10 % в 4К. Ну и сопоставимость результатов из разных источников далеко не во всех тестах возможна, даже там, где есть встроенный бенчмарк, могут быть разные настройки качества и т. п. Я конечно больше верю в 35-40% в 4К в среднем в лучшем случае, 50% как-то слишком уж красиво :) Это не исключает того, что в отдельных специально подобранных тестах разница может быть и больше 50% в пользу 2080 ti
K
Сколько «умных» слов и брызганья слюной. Типа «ещё раз» и «немецкие обзоры». А мозг СВОЙ включить и не надеяться на забугорных дядь? А статью написать?
Молодой человек шли бы вы делать уроки. Мама знает что не тем чадо занято?
И вообще ваше «красное» сектантство ни кого не прельстит. Ну разве таких же как ВЫ.
Уважаемые «красные» уймите этого буйного так как позорит и вас и АМД в целом.
C
читал статью — подтверждаю. средний прирост среди всех самых известных мировых обзорщиков от журналов и сайтов именно 35%. 50% только на одном сайте (у нас есть близнец ixbt, то есть данная статья). Больше таких цифр — ни у кого нет даже близко. Не могут 95% врать и ошибаться.
K
Заранее??! Какой хитрый ход!)))
В таком случае есть кому Вангу заменить…
А суммировать и понимать это две большие разницы.
Ты зачем время тратил и что-то там читал?
Тут парень все просто.
Мало дождаться дров. Тут еще Мелкомягкие допиливают Винду и ДиректИкс и кучу всего в придачу. Игры с «родной» поддержкой Лучей просто еще не вышли. Работы непочатый край. А ты про «заранее». Чудак-человек.
А про статью я не просто так сказал. Ты хотя-бы ПОПРОБУЙ…
116719648180741125271@google
Про какие 22% идёт речь? В ведьмаке 3 в 4к на полных ультрах, на 1080ти -55 фпс среднее. На 2080ти — 75 среднее. 55+37% = 75. на 35% + быстрее 2080ти предыдущего флагмана 1080ти, а в будущих играх до 50 будет доходить. Ну про DLSS и RTX говорить не надо. А кому не нравиться, всегда есть выбор сидеть в 1440р на паскалях или на вегах.
А
Подскажите 2080ti раскроет i7-4770 на 1440p?
C
«кто на ком стоял»? точнее кто кого «раскроет»)))) первое или второе? До сих пор фпс даже с конфой 1080Ti упирается в некоторых играх 4к в производительность топовых ЦПУ. вы о чем? Какая 2080Ti. Цпу далеко отстали от вёдел. Тем более ваш проц. Фулхд ваш проц накроет полностью. Дальше надо тестить. Сам сижу на 4790К в стоке до сих пор. Текущие поколения от интел к апгрейду не призывают. 5ое вообще ему сливает целиком. 6- равноценно и незаметно быстрее. Так же влияние на фпс и подсистема озу конечно оказывает. Вообщем может быть скоро и сменю платформу. Но не для 1080Ti скорее всего. А для следующего поколения НВ, Может и АМД интел маленько расшевелит. А то на месте топчутся который год сорвав бинго.
Т
Нет, разница с 1080 будет минимальна. Я сам купил эту карту и теперь нужно новый проц к ней и мать. У меня 6700k который ее нихрена не тащит и я не думаю, что с 4770 будет другая история
L
+35% это хороший результат, а в некоторых играх прирост 50% и более. У новых карт я вижу только 1 минус: цена. Но, с другой стороны: 2080 по цене и производительности находится на уровне 1080ti, плюс обладает всеми новыми фичами, так-что выбор, что купить, 1080ti или 2080 — очевиден. А карты АМД вообще далеко позади
116719648180741125271@google
суммарно только тебя интересует. 2080ти — для 4к!
на низких разрешениях либо проц не будет успеваеть отрисовывать кадры, либо в игре стоит банальный лок, скажем на 200 кадров.
U
Мне интересно, а была ли хоть какая-нибудь новая видеокарта, которая бы имела какие-нибудь еще минусы, кроме цены, по сравнению с предыдущей моделью?
K
Кстати если кто-то пропустил то демка с фонтаном в конце статьи демонстрирует реализацию двух перспективных технологий — по трасировке воды и трасировке ветра. Это для последующих поколений видеокарт. Учитесь!)))
C
пока лучше всего удалась трассировка бабла в карманы хуанга и лапши на уши потенциальным покупателям…
d
А вот это еще рано судить, пока что акции зеленых просели на 2.6% сразу после опубликования обзоров, то есть разочарование и ожидание слабых продаж присутствует. То, что быстро раскупили небольшое кол-во карт по предзаказам(и до выхода обзоров), еще мало о чем говорит. Так что с баблом то может и не выйти как раз — как бы не пришлось ценник снижать… Но вообще конечно выпускать железо с новыми разрекламированными фичами на рынок еще до того, как их поддерживает хотя бы 1 игра — такого что-то не припомню раньше. Даже NV1 выходила с какими-то играми в комплекте :)
M
Шикарная статья! Спасибо огромное.
М
Где скачать рэйтресинг дему? Весь инет облазил, одни ролики ссаные, но ни одной ссылки на кач. Вы потестили значит уже есть, но нигде найти не могу, хотел бы потестить рейтресинг дему на своем ведерке.
d
Я выше уже этот вопрос задавал и похоже ответ такой — пока нету демы(star wars reflections) в открытом доступе. А почему нету? А там есть нюанс — дема настолько неинтерактивная, что даже камерой нельзя управлять. Стыдно видимо такое выкладывать… заподозрят неладное.
L
Без RTX-карты не рейтрейсинг включить в демке всё-равно не получится
d
Не, она на паскале же тоже работает с лучами, 100% — в обзорах есть сравнение с «тормозами» паскаля, 1080ti дает до 10 fps. Заработает ли на чем-то до паскаля(980, 780) — вот что проверить хочется.
S
Тестировать топовую видеокарту в паре с впятеро(!) более дешевым процессором это победа (неужели во всей редакции не нашлось ничего производительнее?)! ))) Вот тут у парней эта карточка в FHD уперлась в i7-7820X, который пришлось гнать. И даже это (почти) не помогло.
S
Странно, в помещениях RT эффект освещения какой то неестественный что ли… или это мне одному так кажется?
На открытой местности разница конечно впечатляет.
Буду ждать 2050-2060, ибо для моего 27«FHD моника этого будет более чем.
d
Не, ну когда объясняют, то вроде понимаешь, что так более правильно :) Но вот насколько это все заметно будет, если не присматриваться, большой вопрос. Опять-таки рано судить пока, в реальной «лучевой» игре могут урезать эффекты для меньшего проседания FPS и все будет уже не так красиво, как в версии для демо было, сколько раз такое случалось…
L
2050 и 2060 будут не RTX а GTX, то-есть в них будет отсутствовать аппаратное ускорение RT
Hanzo
d
Почти со всем соглашусь… Но, если это такой хитрый метод продать старые паскали по старой же цене, то даже если он и сработает (еще не факт, можно же найти их бу), то низкие продажи тьюринга то чем компенсируются? Или его много и не выпустят, а в скором времени выкатят какой-нить 7 нм ампер? Все конечно может быть, от зеленых уже любое западло не удивит
А
Может быть может быть… Но ожидать карт в этом году на 7нм точно не стоит…
Hanzo
C
этот и другие подобные ролики конечно полезны Хуангу. Вот вроде все в них хорошо. Но после их просмотра вопрос все тот же. А на хуа мне надо новое поколение Тьюринга — ответа нет!!! Графа не улучшается — авторы согласны. Производительности недостаточно у тьюринга для РТ? — недостаточно — и тут авторы согласны. Баги и мультяшность на начальном периоде — и это не отрицают. Так нахуа? ответь мне, друг мой Горацио? И прямо говориться о чем знают все — это пробный шар. Технология будет обкатана только через 2-3 поколения, причем еще надо чтобы производители процов увеличивали их мощность тоже. Пока же Хуанг нагло требует с нас деньги на новый стартап проект, который непонятно чем и когда закончится. Под видом продажи недоделанного никому не нужного продукта. Это как с пенсионера 70лет требовать отчислений на кап ремонт дома. Авось не помрет и его застанет. Щас вот будем недоделанных поделок покупать горы за немелкие деньги, чтобы через Н лет, когда играть будет совсем некогда технология хуанга не нашла спроса и загнулась? Хуанг ищи других спонсоров для своих стартапов. 500р на подброс стартапа проекта разрабам геймоделам в их работе это нифига не 50.000 которые ты хочешь за воздух Хуанг.
K
Exorcizamus te, omnis immundus spiritus, omnis satanica potestas, omnis incursio infernalis adversarii, omnis legio, omnis congregatio et secta diabolica, in nomine et virtute Domini Nostri Jesu Christi, eradicare et effugare a Dei Ecclesia, ab animabus ad imaginem Dei conditis ac pretioso divini Agni sanguine redemptis.

Был бы модером давно бы тебя баном изгнал.
d
Смешнее всего в этом ролике мне показалось объяснение «простым и понятным языком» отличий тензорных ядер от cuda ядер — слишком уж упростили и в итоге суть не совсем верно передана...(см. начиная с 4:44) Отличие CPU от GPU еще туда- сюда объяснили, хотя тоже кривовато.
v
Жалею, что не смог дождаться квадр средненьких на Тьюринге, надо было вот прямо щас карту. Очень интересно посмотреть, как в какой-нибудь T4000 всё это счастье работать будет, особенно тензорные блоки и лучесчиталки. Ну авось в след году всю линейку про- и не про- карт выкатят
L
Малограмотным хейтерам следует уяснить, что основную прибыль дает продажа бюджетных видеокарт, а топовые карты составляют несколько процентов от общих продаж, так-как покупаются только энтузиастами, которые как-раз и хотят новых технологий. На 100% уверен, что ни один из местных хейтеров и не намеревался покупать 2080ti независимо от производительности, которую она покажет, зато так приятно повозмущаться и облить грязью как саму ненавистную Nvidia, так и автора обзора.
C
я собирался. но в пределах 70-80 килорублей и с гораздой большей производительностью пусть и без Рейтрейсинга. Но то что предложил Хуанг — мне нак не надо. Я спокойно дальше буду на 1080Ти сидеть. Это поколение — мимо. Буду ждать следующее.
2865000@vkontakte
Имеет смысл взять 1080ti на авито за 30000руб. и играть еще 3 года
А
Так берите) Все только рады будут)
S
Особенно майнеры. Те точно рады слить ушатанное вполцены геймерам.
Т
Купил данную карту взамен 1080, дабы раскрыть потенциал своего монитора (asus pg279q) и не париться о всяких недостатках мощности и т.д. Однако в far cry 5 разница в фпс небольшая: 1080 выдает 47-76 фпс в разрешении 2560×1440, а 2080ti 63-98, при том что мне нужно 120+. Оказалось, что 2080ti крайне сильно зависит от процессора, мой не совсем старый и не совсем плохой 6700k её просто не тянет. Поэтому сейчас смотрю всякие тесты и обзоры дабы выбрать новый проц под данную карту. Честно говоря у меня такое ощущение, что и 9700k её не полностью раскроет. Народ помогите с подбором проца для этой карты.

Добавить комментарий