Разбираемся, что такое G-Sync, FreeSync, V-Sync и нужны ли они вообще
Связь видеокарты с монитором и её проблемы
В идеальном случае эти два отрезка времени должны быть равны — тогда, когда на мониторе закончится старый кадр, к нему подоспеет новый кадр и они плавно пойдут друг за другом, не создавая проблем. Но видеокарта может «обгонять» монитор.
И тут необходимо понимать, что мониторы работают с определёнными частотами обновления — количеством обновления кадров в секунду. Измеряется частота обновления в герцах. Мониторы с 60 Гц обновляют картинку 60 раз за секунду, 144 Гц — 144 раза за секунду.
Возвращаясь к видеокарте и монитору — значение кадров в секунду, выходящих из видеокарты, плавает, и может быть как меньше 60, так и больше. Оба случая приводят к проблемам.
Обратный вариант: видеокарта рендерит больше кадров в секунду, чем способен показать монитор. Это приводит к тому, что на мониторе может появиться сразу несколько кадров.
Подобные разрывы бросаются в глаза, и их частое появление может вызвать тошноту, боль в глазах или головокружение. В таком случае речь идёт не просто о плавной игре, но и о здоровье человека, потому борьбе с подобным уделено большое внимание. Ниже рассмотрены методы синхронизации видеокарты и монитора, которые позволяют избавиться от подобных проблем.
Вертикальная синхронизация — дёшево и сердито
Тем не менее, не решается проблема и с кадрами, которые рендерятся дольше и из-за которых видеокарта выдаёт в секунду меньше, чем может показать монитор. Потому что V-Sync в таком случае сокращает число выводимых кадров до кратного частоте монитора. Например, если у вас монитор с 60 Гц, а видеокарта выводит 55 кадров в секунду, то V-Sync срежет выводимое число кадров до 30, чтобы картинка шла плавнее. В результате FPS падает и ощущения становятся ещё хуже.
Адаптивная синхронизация — старший брат V-Sync
Однако на практике подобный метод помогает не всегда и проблемы вертикальной синхронизации всё ещё могут встречаться.
G-Sync — дорого, но эффективно
Убирая все минусы вертикальной синхронизации (статтеринг, разрыв изображения, задержку управления), G-Sync является очень хорошим вариантом. Но, вместе с этим, очень дорогим, так как G-Sync работает только на мониторах с предустановленным чипом от Nvidia и требует повышенной мощности.
FreeSync — упрощённая G-Sync
Однако свои отличия есть. Если G-Sync продолжает работать по этому принципу на низких FPS, мониторы с FreeSync начинают использовать «традиционные» методы синхронизации, возвращая старые помехи — и статтер, и разрыв изображения, и задержку управления.
Но если G-Sync использует свой собственный чип, FreeSync работает на DisplayPort — уже разработанной до этого технологии. Говоря кратко: для FreeSync тоже нужен специальный монитор, но FreeSync-монитор будет дешевле монитора с G-Sync.
VRR и совместимость FreeSync с G-Sync
Это значительно расширяет список подходящих мониторов, а также даёт шанс, что любой монитор сможет работать с G-Sync.
Почему играть с AMD Freesync лучше, чем без него. AMD FreeSync vs Nvidia G-Sync
Трехмерные игры завораживают. Новейшие технологии погружения в виртуальное пространство практически стерли границы между рисованным и живым мирами, а о том, что наше физическое тело всё еще здесь, по эту сторону экрана, и игровые образы – лишь картинка, напоминает… отсутствие поддержки монитором AMD Freesync.
Какой бы дорогущей ни была видеокарта, каким бы шустрым ни был игровой компьютер, без этой чудо-технологии изображение будет дергаться и подвисать. Итак, разберемся, что такое AMD Freesync и почему он так важен для игр, а также сравним его с аналогом конкурента Nvidia G-Sync.
Такой же важный, как FPS
Чем выше частота смены кадров в секунду (FPS), тем лучше качество графики, тем более реалистично и плавно меняется геймплэй. Это аксиома. Когда FPS достигает 60 и выше, по логике вещей изображение должно приближаться к идеалу, ан нет: от дрожи и лагов это не спасает. И дело здесь вовсе не в криворукости разработчиков игр, а в отсутствии синхронности работы GPU (графического процессора) и монитора.
Обычные мониторы без поддержки AMD Freesync обновляют картинку с одной постоянной частотой, а GPU «рисует» каждый кадр с различной скоростью, причем разница довольно значительная. На рендеринг сложных изображений может уходить в 2-10 раз больше времени, чем простых. Если передача кадра на монитор не совпадает со временем обновления экрана (а в реальных условиях так и происходит), то вывод этого кадра задерживается до следующего обновления или его готовая часть совмещается с частями предыдущих кадров. И в том, и в другом случае на экране возникают артефакты – разрывы, дефекты и рывки изображения.
Попытки сгладить картинку при помощи V-Sync – синхронизации вертикальной развертки монитора и частоты кадров, проблему не только не решают, а усугубляют – в этом режиме к артефактам добавляется снижение FPS, а обновление экрана и скорость рендеринга все равно остаются рассогласованными.
AMD FreeSync – и есть та палочка-выручалочка, которая убирает этот камень преткновения. Она заставляет монитор обновлять картинку с той же частотой, с какой происходит отрисовка кадров. Управление синхронизацией берет на себя графический процессор AMD Radeon.
FreeSync обеспечивает плавность картинки без влияния на частоту смены кадров и значительно повышает уровень зрительного комфорта в процессе игры.
В 2017 году AMD FreeSync сделал еще один шаг в развитии – дорос до версии 2. Первое отличие второго поколения этой технологии – интеграция функционала HDR 10, который открывает разработчикам игр возможность встраивать в свои продукты функцию автонастройки дисплея – установки оптимальных параметров для конкретной игры без участия пользователя.
Кроме того, во FreeSync 2 реализована технология LFR. Она устраняет артефакты геймплэя, возникающие при низкой скорости рендеринга, путем вставки в видеоряд дополнительных сглаживающих кадров.
Какие мониторы и видеокарты поддерживают AMD FreeSync
Совместимые мониторы несложно опознать по лейблу с логотипом AMD FreeSync, который изображен на картинке в начале статьи. Сегодня их выпускают практически все производители, причем у Acer, Asus, AOC, Philips, Samsung, LG, HP и некоторых других в ассортименте не единицы, а десятки моделей таких аппаратов с разными характеристиками. Например:
Мониторов с поддержкой FreeSync 2 HDR пока не слишком много. На начало 2019 года в продажу поступило 11 моделей, среди которых:
Для работы в режиме FreeSync монитор должен подключаться к видеокарте через интерфейсы HDMI или DisplayPort 1.2a и выше – в них реализован протокол Adaptive-Sync, необходимый для управления динамической частотой обновления дисплея.
Видеокарты AMD Radeon имеют поддержку FreeSync, начиная с серии R9 3xx, в том числе R9 Nano, Fury и Fury X. Кроме того, она есть у R7 360, некоторых представителей серии R9 2xx, мобильных GPU RX 5xx и у процессоров AMD A10 со встроенным видеоядром Radeon R7 и новее.
Функционал FreeSync реализован в видеодрайвере AMD Catalyst версии 15.3 и более поздних. Драйвер выпускается для операционных систем Windows 7, 8, 8.1 и 10.
AMD FreeSync vs Nvidia G-Sync
Технология динамического изменения частоты обновления экрана есть и у конкурента AMD – компании Nvidia, и называется она G-Sync. Принцип работы FreeSync и G-Sync во многом похож, но у AMD управление синхронизацией возложено на видеопроцессор, а у Nvidia – на монитор, в который встроен специальный контроллер. Это обуславливает достоинства и недостатки обеих технологий.
Итак, за счет чего FreeSync выигрывает у G-Sync и наоборот:
Так что же лучше: FreeSync или G-Sync? Применение обеих технологий дает картинку примерно одинакового качества, поэтому назвать одну явным лидером, а вторую отстающей, увы, не получится. Графика в игре зависит от многих факторов и в большей степени – от характеристик, производительности, сочетания железа, также от свойств самой игры. Технологии улучшения графики только раскрывают заложенный в устройства потенциал. Если вам больше нравится продукция Nvidia, значит, для вас лучше G-Sync, если AMD – то FreeSync. И то, и другое однозначно неплохо, так что лучший помощник в выборе – ваш личный вкус.
Что такое G-Sync, FreeSync, V-Sync и HDMI VRR? — Разбор
Всех ПК-геймеров планеты Земля, да и консольных игроков тоже, объединяет одна проблема — вертикальные разрывы изображения. И вроде бы есть куча технологий которые решают эту проблему:
Давайте сегодня раз и навсегда разберемся в технологиях адаптивной синхронизации изображения.
Для тех кто не в курсе. А в чём собственно проблема?
Чтобы изображение появилось на экране, должно произойти, как минимум, две вещи:
Обычные мониторы работают на частоте 60 Гц, то есть способны выводить 60 кадров в секунду, а игровые на 144 Гц и выше.
А вот графический процессор живет в совершенно ином мире. В играх постоянно всё меняется: колышется листва, журчит ручеёк, враги выпрыгивают из-за угла. Каждый кадр отличается по своей сложности, поэтому на их просчет уходит разное количество времени.
Иными словами, у монитора частота кадров постоянная, а у видеокарты переменная.
Вот и выходит, что за один цикл обновления монитора видеокарта может подготовить больше одного кадра или меньше.
Из-за этого мало того что страдает плавность картинки, так еще и появляются артефакты в виде вертикальных разрывов изображения. Кстати, при просмотре фильмов тоже могут появляться такие артефакты, потому что кино снимают в 24 к/с.
V-Sync
Очевидно проблема требовала решения, и еще на заре компьютерных игр оно появилось! Название у этого решения — вертикальная синхронизация или V-Sync. Наверняка вы встречали такую опцию как в настройках видеокарты, так и в играх.
Работает эта штука достаточно топорно. Фактически она просто принуждает видеокарту выводить кадры с частотой кратной частоте обновления экрана. Например, если у вас монитор 60 Гц, то максимальное количество кадров в секунду тоже будет 60, даже если ваша видеокарта способна на большее. И в общем-то часто такое ограничение вполне уместно, если у видеокарты хватает мощи и нет просадок ниже 60 к/с, но если они есть — начинаются проблемы.
При включенной вертикальной синхронизации, следующее кратное значение — это 30 к/с. Поэтому даже если ваш фреймрейт просел фактически всего на пару кадров, вы всё равно увидите падение до 30 к/с. Такой перепад мало того, что большой и очень визуально ощутимый, так ещё и будет происходить с небольшим лагом. Поэтому если стабильного FPS в 60 к/с или 30 не достичь, то включать V-Sync вообще нет никакого смысла.
Справедливости ради, чем выше герцовка монитора, тем больше мы имеем кратных значений, на которых может работать синхронизация. Поэтому на игровых мониторах V-Sync работает куда лучше.
Но история с кратными значениями — не самая главная проблема технологии. Есть другой неочевидный недостаток: вертикальная синхронизация — увеличивает задержку ввода, то есть создаёт Input Lag.
Игра медленнее реагирует на ваши действия, всё происходит с задержками и как-то плывёт в молоке, поэтому прицелиться становится гораздо сложнее. Почему так происходит?
Это интересно, смотрите! Каждый кадр рассчитывается и выводится на экран через один и тот же конвейер. Упростим его до трёх этапов.
Ну и в чём проблема, спросите вы? Дело в том, что ЦП не берется за подготовку следующего кадра, пока предыдущий не будет выведен на экран. Поэтому ограничивая количество выводимых кадров в угоду синхронизации с дисплеем, мы фактически увеличиваем задержки с которыми обновляется состояние игры! И если в каких-то простеньких играх типа пасьянса такие вещи допустимы, то в соревновательных играх вертикальная синхронизация может стать серьёзной помехой.
G-Sync
Но переживать не стоит, так как решение появилось еще в 2013 году. Именно тогда компания NVIDIA представила свою технологию адаптивной синхронизации — G-Sync. В отличие от старой технологии, G-Sync позволяет подстраивать не видеокарту под частоту обновления монитора, а наоборот заставляет монитор менять свою частоту под видеокарту!
Представляете? Так тоже можно было!
В результате мы получаем потрясающе плавную картинку без вертикальных разрывов и задержки ввода! Просто сказка! G-Sync также работает в огромном диапазоне частот. Изначально это было от 30 до 144 Гц, а сейчас уже есть поддержка до 360 Гц и может даже выше, тут скорее всё зависит от монитора.
А если фреймрейт падает ниже 60 Гц G-Sync умеет дублировать пропущенные кадры.
Получаются сплошные плюсы и проблема решена еще в 2013 году? Так почему же мы до сих пор об этом говорим?
Ну как сказать. Во-первых, эта технология закрытая, соответственно, G-Sync работает только с карточками NVIDIA, но это пол беды.
Все волшебные функции G-Sync стали возможны благодаря специальному чипу, который необходимо встроить в монитор. Естественно, эти чипы производит тоже NVIDIA и стоят они недешево. Поэтому мониторы с поддержкой G-sync в среднем стоят на 250-300$ дороже и таких моделей очень мало. То есть получилась классная, и для 2013 года революционная технология, но не универсальная и дорогая.
VESA Adaptive Sync
Поэтому уже спустя год, в 2014, Ассоциация стандартизации Video Electronics Standards Association или VESA представила открытую технологию Adaptive Sync, которая умеет, в принципе, всё то же самое, что и G-Sync, но без дорогостоящих чипов и работает на частотах от 9 до 240 Гц! Неплохо да?
Но для внедрения технологии нужно, чтобы её поддержку внедрили в прошивку и драйвер монитора, драйвер видеокарты, операционной системы и в игры!
А также необходимо наличие DisplayPort версии не ниже 1.2a, так как технология стала частью именно Display Port. Как видите, чтобы технология взлетела, нужно было проделать много работы. И этой работой занималась компания AMD.
AMD FreeSync
В 2015 году AMD внедрили Adaptive Sync в драйвера своих видеокарт и назвали технологию FreeSync. Реализация от AMD быстро получила очень широкое распространение. Добавить поддержку FreeSync в монитор оказалось настолько дешево, что сейчас сложнее найти игровой монитор без этой фичи, чем с ней.
Но AMD не остановились на просто внедрении стандарта от VESA. Также они добавили поддержку HDMI, начиная с версии 1.4. А в 2017 выпустили FreeSync 2, в который добавилась поддержка HDR и компенсацию низкой частоты кадров, как в G-SYNC.
Кстати, чуть позже, FreeSync 2 переименовали в более элитное FreeSync Premium Pro, а обычный FreeSync для мониторов с частотой 120 Гц и выше стали называть FreeSync Premium. Хотя такие маркетинговые финты я не одобряю, но в остальном сплошной респект AMD за популяризацию стандарта.
Кстати, NVIDIA также в 2017 году добавила поддержку HDR и назвала это всё G-Sync Ultimate.
И вроде бы всё классно, в команде у красных и у зеленых есть по своей шикарной технологии. Но что делать, если у тебя видеокарта от NVIDIA, ты хочешь нормальную поддержку G-Sync, но покупать дорогущий монитор с этой технологией совсем не хочется? Или наоборот — не покупать же Radeon только потому что у тебя монитор с FreeSync?
G-Sync Compatible
Но в 2019 году NVIDIA пошли навстречу покупателям и добавили поддержку стандарта VESA Adaptive Sync в драйвера для своих видеокарт серии RTX, а также для карточки GTX 1080. А значит теперь можно легко насладиться лучшим из двух миров: взять себе карточку от NVIDIA и монитор с FreeSync по вкусу. Вот только есть проблема. Если на FreeSync мониторе не написано G-Sync Compatible — значит он не был протестирован NVIDIA на совместимость и никаких гарантий, что всё будет работать нормально, вам никто не даёт. А NVIDIA тестирует далеко не все, и далеко не самые доступные модели.
Поэтому инициативу по тестированию в свои руки взяло интернет-сообщество. Они составили табличку с огромным списком протестированных пользователями мониторов.
Причём всё будет работать и с видеокартами от NVIDIA и с Radeon. Всё потому, что VRR — это та же самая технология VESA Adaptive Sync, но теперь она стала ещё и частью стандарта HDMI 2.1. Именно таким образом адаптивная синхронизация реализована в консолях нового поколения. А также, вы удивитесь, в Xbox One S и One X. Да, в коробки текущего поколения от Microsoft VRR завезли даже раньше, чем HDMI 2.1.
Итоги
Что, в итоге спустя 6 лет после своего появления, технология Adaptive Sync стала фактически отраслевым стандартом. Захватив видеокарты от AMD и NVIDIA, телевизоры и даже интегрированная графика от Intel в 11-м поколении процессоров теперь поддерживает эту технологию. А это значит, что в светлом будущем мы будем жить без единого разрыва, по крайней мере, вертикального!
Что такое AMD FreeSync и Nvidia G-Sync
Мы уже давно привыкли к тому, что мониторы имеют фиксированную частоту развертки изображения — обычно 60 Гц. Фиксированная частота пошла еще с ЭЛТ-телевизоров, когда видеоряд имел четко заданное количество кадров в секунду — обычно 24. Но вот в играх частота кадров не является постоянной — она может изменяться в очень широких пределах, и из-за того, что частота развертки не совпадает с частотой рендеринга кадров видеокартой, в итоге и появляются разрывы изображения, что мешает комфортному игровому процессу. Это происходит из-за того, что изображение выводится на дисплей даже в том случае, если вывод части предыдущего кадра ещё не закончен полностью — оставшаяся часть буфера приходится на текущее обновление экрана. Именно поэтому каждый выведенный на монитор кадр при несовпадении частот, указанных выше, будет по сути состоять из двух кадров, отрендеренных видеокартой.
Вертикальная синхронизация
Самый простой метод решения проблемы — включение вертикальной синхронизации. Что она делает? Она выводит изображение на монитор только тогда, когда кадр полностью готов. Соответственно, если у вас монитор с 60 Гц, и видеокарта выдает больше 60 fps — вы получаете плавную картинку без единого разрыва и артефакта (при этом видеокарта не будет нагружена на 100%). Но тут уже появляется другая проблема — задержка при выводе изображения. Если монитор обновляется 60 раз в секунду, то на один кадр тратится 16.7 мс, и даже если видеокарта подготовила кадр за 5 мс — монитор все равно будет ждать оставшиеся 11 мс:
Поэтому управление становится «вязким» — при движении мышью отклик на мониторе происходит с небольшой задержкой, поэтому становится труднее позиционировать прицел в шутерах и прочих динамических играх. Еще хуже, если видеокарта не способна выдать в игре 60 fps — к примеру, если fps 50, и включена вертикальная синхронизация, то каждую секунду будет 10 кадров, в которые на экран не будет выведена новая информация, то есть каждую секунду будет 50 кадров с задержкой до 16.7 мс, и 10 кадров с задержкой в 33.4 мс — в итоге картинка будет дерганной, и играть будет невозможно.
Поэтому до недавнего времени у игроков было три варианта — или включать вертикальную синхронизацию (если fps выше 60) и мириться с не самым удобным управлением, или отключать синхронизацию, и терпеть артефакты изображения.
AMD FreeSync и Nvidia G-Sync
Разумеется, крупные компании нашли решение проблемы — они придумали принудительную синхронизацию частоты развертки и рендеринга кадра видеокартой. То есть если видеокарта сделала кадр за 5 мс — монитор выведет предыдущий кадр на 5 мс, ничего не ожидая. Если следующий кадр был отрендерен за 20 мс — монитор опять же будет держать предыдущий кадр на экране 20 мс:
Что это дает? Во-первых, так как монитор выводит полностью готовые кадры и они синхронизированы с частотой развертки, нет никаких артефактов. Во-вторых, так как монитор выводит кадр сразу же, как он был готов, ничего не ожидая, нет никакой «вязкости» управления — изображение на мониторе меняется сразу же, как только вы пошевелили мышью.
Различия между FreeSync и G-Sync
Каждый из вендоров пошел своим путем: у AMD частота развертки контролируется самой видеокартой, а монитор должен быть подключен через DisplayPort. С одной стороны, это плохо — если видеокарта не имеет аппаратной поддержки FreeSync, то вы не сможете им воспользоваться. С учетом того, что эту технологию поддерживают только чипы линейки R7 и R9 начиная с 200ых, а также линейки Fury и RX — за бортом остаются чипы линеек HD 7000, некоторые из которых вообще говоря ничем не отличаются от чипов 200ой линейки (да, банальное переименование). Мобильные версии видеокарт AMD FreeSync вообще не поддерживают, даже если они мощнее десктопных карт, в которых есть его поддержка. С другой стороны, так как по сути весь контроль идет со стороны видеокарты, монитор для FreeSync оказывается дешевле такового с G-Sync на 80-100 долларов, что вполне ощутимо.
Nvidia пошла другим путем — контроль за частотой развертки выполняет сам монитор, в который встроен специальный чип. С одной стороны, это хорошо — поддерживаются видеокарты начиная с GTX 650 Ti, а так же мобильные решения начиная с 965М. С другой стороны — чип стоит денег, поэтому мониторы с G-Sync дороже.
Так же различается и допустимые частоты развертки. У AMD это 9-240 Гц, у Nvidia — 30-144 Гц. Цифра в 9 Гц скорее вызывает улыбку (ибо это слайд-шоу), и 30 у Nvidia в принципе можно считать допустимым минимумом. А вот то, что у Nvidia ограничение на 144 Гц, уже может быть мало, так как топовые игровые мониторы имеют частоту вплоть до 240 Гц. Но, увы, пока что у AMD нет таких видеокарт, которые могут выдать в киберспортивных играх больше 200 fps, так что 240 Гц на данный момент — просто хороший запас на будущее. С другой стороны, если частота кадров в игре опускается ниже минимальной частоты развертки монитора, у AMD просто принудительно выставляется эта частота, то есть мы получаем те же проблемы, что и с вертикальной синхронизацией. Nvidia же сделали хитрее — чип G-Sync может дублировать кадры для того, чтобы попасть в рабочий диапазон частот монитора, так что никаких задержек в управлении или артефактов не будет:
Еще один плюс в сторону AMD — отсутствие небольших задержек при передаче данных на монитор, так как FreeSync использует технологию Adaptive-Sync стандарта DisplayPort для того, чтобы заранее узнать минимальную и максимальную частоту обновления монитора, поэтому передача данных не прерывается на координацию работы видеокарты с модулем G-Sync в мониторе, как у Nvidia. Однако на практике разница оказывается не больше 1-2%, так что этим можно пренебречь.
Разумеется, возникает вопрос — влияют ли технологии синхронизации кадров на производительность в играх? Ответ — нет, не влияют: разница с выключенной синхронизаций и FreeSync или G-Sync оказывается нулевой, и это понятно — по сути эти технологии не заставляют видеокарту обсчитывать больше данных — они просто выводят уже готовые данные быстрее.
В итоге — что же лучше? Как бы смешно это не звучало, но у пользователей нет выбора: те, кто пользуются продукцией «красных», вынуждены использовать FreeSync. Те, кто пользуются продукцией «зеленых», аналогично могут использовать только G-Sync. Но, в принципе, на текущий момент технологии выдают схожий результат, так что выбор действительно заключается только в производителе и мощности видеокарты.