Nvidia анонсировала новое поколение графических ускорителей, а вместе с ним и третью версии своей технологии апскейла изображения, которая в новой инкарнации перестаёт быть только апскейлом и идёт дальше — становясь технологией увеличения частоты кадров, путём «дорисовки» новых кадров.
Данные технологии уже давно используются в телевизорах и видеопроигрывателях, дорисовывая кадры исходного видеоряда и повышая тем самым плавность изображения.
Инженеры Nvidia подробнее рассказали о принципах работы технологии и именно их мы сейчас проанализируем. Общий принцип технологии в случае с DLSS3 заключается в том, что видеокарта берёт 2 полноценно отрисованных кадра, генерирует между ними промежуточный кадр, применяя «магию» машинного обучения для уменьшения типовой проблемы технологии — графических артефактов, которые в случае полного предсказания итоговой картинки становятся неизбежны.
И из принципов работы сразу вытекают два очевидных недостатка:
Артефакты в конечном изображении будут неизбежны. И их количество будет зависеть от изначального количества FPS + от разницы изображения между двумя кадрами.
Для тех, кто не понимает связи, поясню подробнее: компьютер не видит изображения целиком, как видим его мы, он работает с цветами каждого конкретного пикселя. Когда стоит задача построить новый кадр на основе известных двух, компьютеру приходится смотреть на цвета одних и тех же пикселей на разных изображениях, применять к ним векторы движения и на основе этого получать примерное значение цвета этих же пикселей в промежуточном изображении. И если между кадрами цвета одних и тех же пикселей изменились не сильно или вовсе не менялись, то предсказать средний кадр весьма просто, но если приходится строить кадр между двумя практически полностью разными кадрами — задача становится невыполнимой. Вернее, она будет выполнена, но конечный результат будет очень далёк от того, каким он был бы, если бы кадр получался путём рендера. И если изначально мы имеем 60 кадров, т.е. окно в 16,6 мс для пользователя на изменение положения камеры и цвета пикселей между кадрами, то результат будет гораздо хуже, чем если изначально будет 240 кадров, когда у пользователя будет всего 4 мс на изменение цветов пикселей на экране. Соответственно конечное качество картинки при использовании DLSS будет расти от ужасного (<30 кадров) до отличного (480+ кадров) вместе с ростом начального FPS в игре, также в «спокойных» играх, вроде стратегий, где картинка на экране меняется не сильно, результат будет лучше, чем в шутерах и иных играх, где картинка постоянно меняется.
Рост задержки (времени отклика игры на действия пользователя).
Т.к. технологии нужно 2 кадра, то игре приходится вместо вывода каждого кадра по мере его готовности, ожидать построения следующего кадра и только после этого выводить предыдущий.
До DLSS3 всё было просто, больше FPS — меньше задержка — быстрее отклик игры на действия пользователя. Это была одна из причин, почему игроки «киберспортивных» дисциплин стремились увеличить FPS всеми доступными способами. И если использование DLSS2 также позволяло поднять FPS и снизить задержку, то DLSS3 приведёт к обратному результату — задержка будет расти, как и число FPS.
Поэтому при использовании DLSS3 мы получим абсурдную ситуацию, когда плавность картинки и число FPS возрастает, при этом скорость отклика игры на наши действия снижается.
По словам инженеров Nvidia, задержка при использовании связки DLSS3 + Reflex (технологии снижения задержки) будет на уровне исходной задержки без DLSS и Reflex. Т.е. окажется выше, чем просто при использовании Reflex или DLSS2, или их связки. Поэтому технология будет слабо применима к «киберспортивным» дисциплинам, где требуется максимальная скорость реакции игры на действия пользователей.
Поэтому всем, кто поддался на маркетинговые заявления Nvidia насчёт DLSS3, советую дождаться подробных тестов и адекватно оценивать новую версию технологии, морально готовясь к тому, что два описанных выше недостатка будут ей присущи и принципиально не устранимы (хотя первый и может быть со временем уменьшен).
Также стоит сказать, что технология теоретически может работать на RTX20/30 (что признали инженеры с типичной отговоркой, что «она работала бы хуже, чем на RTX40), но Nvidia пока не уделяла этому внимания, т.к. основной задачей была её разработка под новое поколение в роли.