Що таке AMD FreeSync і Nvidia G-Sync

0
141
Що таке AMD FreeSync і Nvidia G-Sync

Ми вже давно звикли до того, що монітори мають фіксовану частоту розгортки зображення — зазвичай 60 Гц. Фіксована частота пішла ще з ЕПТ-телевізорів, коли відеоряд мав чітко задану кількість кадрів в секунду — зазвичай 24. Але ось в іграх частота кадрів не є постійною — вона може змінюватися в дуже широких межах, і з-за того, що частота розгортки не збігається з частотою кадрів візуалізації відеокартою, в результаті з’являються розриви зображення, що заважає комфортному ігровому процесу. Це відбувається з-за того, що зображення виводиться на дисплей навіть у тому випадку, якщо висновок частини попереднього кадру ще не закінчений повністю — частина буфера припадає на поточне оновлення екрану. Саме тому кожен виведений на монітор кадр при розбіжності частот, зазначених вище, по суті складатися з двох кадрів, відрендерених відеокартою.

Вертикальна синхронізація

Найпростіший метод вирішення проблеми — включення вертикальної синхронізації. Що вона робить? Вона виводить зображення на монітор тільки тоді, коли кадр повністю готовий. Відповідно, якщо у вас монітор з 60 Гц, відеокарта видає більше 60 fps — ви отримуєте плавну картинку без єдиного розриву та артефакту (при цьому відеокарта не буде навантажена на 100%). Але тут вже постає інша проблема — затримка при виведенні зображення. Якщо монітор оновлюється 60 разів в секунду, то на один кадр витрачається 16.7 мс, і навіть якщо відеокарта підготувала кадр за 5 мс — монітор все одно буде чекати решту 11 мс:

Тому управління стає «вузьким» — при русі миші відгук на моніторі відбувається з невеликою затримкою, тому стає важче позиціонувати приціл в шутерах і інших динамічних іграх. Ще гірше, якщо відеокарта не здатна видати у грі 60 fps — приміром, якщо fps 50, і включена вертикальна синхронізація, то кожну секунду буде 10 кадрів, які на екран не буде виведена нова інформація, тобто кожну секунду буде 50 кадрів з затримкою до 16.7 мс, і 10 кадрів з затримкою в 33.4 мс — в результаті картинка буде дерганной, і грати буде неможливо.

Тому до недавнього часу у гравців було три варіанти — або включати вертикальну синхронізацію (якщо fps вище 60) і миритися з не самим зручним управлінням, або вимкнути синхронізацію, і терпіти артефакти зображення.

AMD FreeSync і Nvidia G-Sync

Зрозуміло, великі компанії знайшли рішення проблеми — вони придумали синхронізацію частоти розгортки і рендеринга кадру відеокартою. Тобто якщо відеокарта зробила кадр за 5 мс — монітор виведе попередній кадр на 5 мс, нічого не очікуючи. Якщо наступний кадр був отрендерен за 20 мс — монітор знову ж буде тримати попередній кадр на екрані 20 мс:
 Що це дає? По-перше, так як монітор виводить повністю готові кадри і вони синхронізовані з частотою розгортки, немає ніяких артефактів. По-друге, так як монітор виводить кадр відразу ж, як він був готовий, нічого не очікуючи, немає ніякої в’язкості управління — зображення на моніторі змінюється відразу ж, як тільки ви поворухнули мишею.

Відмінності між FreeSync і G-Sync

Кожен з вендорів пішов своїм шляхом: AMD частота розгортки контролюється самою відеокартою, а монітор повинен бути підключений через DisplayPort. З одного боку, це погано — якщо відеокарта не має апаратної підтримки FreeSync, то ви не зможете ним скористатися. З урахуванням того, що цю технологію підтримують тільки чіпи лінійки R7 і R9 починаючи з 200их, а також лінійки Fury і RX — за бортом залишаються чіпи лінійок HD 7000, деякі з яких взагалі кажучи нічим не відрізняються від чіпів 200ой лінійки (так, банальне перейменування). Мобільні версії відеокарт AMD FreeSync взагалі не підтримують, навіть якщо вони потужніші десктопних карт, в яких є його підтримка. З іншого боку, так як по суті весь контроль йде з боку відеокарти, монітор для FreeSync виявляється дешевше такого з G-Sync на 80-100 доларів, що цілком відчутно.

Nvidia пішла іншим шляхом — контроль за частотою розгортки виконує сам монітор, в який вбудований спеціальний чіп. З одного боку, це добре — підтримуються відеокарти починаючи з GTX 650 Ti, а так само мобільні рішення починаючи з 965М. З іншого боку — чіп коштує грошей, тому монітори з G-Sync дорожче.

Так само розрізняється і допустимі частоти розгортки. У AMD це 9-240 Гц, у Nvidia — 30-144 Гц. Цифра 9 Гц швидше викликає посмішку (бо це слайд-шоу), і 30 у Nvidia в принципі, можна вважати допустимим мінімумом. А ось те, що у Nvidia обмеження на 144 Гц, вже може бути мало, так як топові ігрові монітори мають частоту аж до 240 Гц. Але, на жаль, поки що в AMD немає таких відеокарт, які можуть видати в кіберспортивних іграх більше 200 fps, так що 240 Гц на даний момент — просто хороший запас на майбутнє. З іншого боку, якщо частота кадрів у грі опускається нижче мінімальної частоти розгортки монітора, у AMD просто примусово виставляється ця частота, тобто ми отримуємо ті ж проблеми, що і з вертикальною синхронізацією. Nvidia ж зробили хитріше — чіп G-Sync може дублювати кадри для того, щоб потрапити в робочий діапазон частот монітора, так що ніяких затримок в управлінні або артефактів не буде:

 Ще один плюс в бік AMD — відсутність невеликих затримок при передачі даних на монітор, так як FreeSync використовує технологію Adaptive-Sync стандарту DisplayPort для того, щоб заздалегідь дізнатися мінімальну і максимальну частоту оновлення монітора, тому передача даних не переривається на координацію роботи відеокарти з модулем G-Sync у моніторі, як у Nvidia. Однак на практиці різниця виявляється не більше 1-2%, так що цим можна знехтувати.

Зрозуміло, виникає питання — чи впливають технології синхронізації кадрів на продуктивність в іграх? Відповідь — ні, не впливають: різниця з виключеною синхронізацій і FreeSync або G-Sync виявляється нульовим, і це зрозуміло — по суті ці технології не змушують відеокарту обраховувати більше даних — вони просто виводять вже готові дані швидше.

У підсумку — що ж краще? Як би смішно це не звучало, але у користувачів немає вибору: ті, хто користуються продукцією «червоних», змушені використовувати FreeSync. Ті, хто користуються продукцією «зелених», аналогічно можуть використовувати тільки G-Sync. Але, в принципі, на поточний момент технології видають схожий результат, так що вибір дійсно полягає тільки у виробника і потужності відеокарти.

Оцініть статтю

НАПИСАТИ ВІДПОВІДЬ

Please enter your comment!
Please enter your name here