Vertikale Synchronisation

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von V-Sync)
Zur Navigation springen Zur Suche springen

Vertikale Synchronisation oder vertikale Synchronisierung, kurz VSync, ist ein Begriff aus der Computertechnik. Eine vertikale Synchronisierung verhindert bei Grafikkarten eine Aktualisierung der Bilddaten, während der Bildschirm das Bild aufbaut.

VSYNC und HSYNC (horizontale Synchronization) sind auch allgemein die (englischsprachigen) Bezeichner der Steuersignale von Anfang und Ende eines Bildes[1] sowie einer Bildzeile.[2]

Vertikale Synchronisation[Bearbeiten | Quelltext bearbeiten]

Option bei modernen Grafikkarten[Bearbeiten | Quelltext bearbeiten]

Der Bildaufbau bei Röhrenbildschirmen findet zeilenweise statt. Ein Elektronenstrahl wandert eine Zeile entlang und führt dann einen Zeilensprung durch. Wenn die Bilddaten sich während des Bildaufbaus ändern, können Darstellungsfehler, sogenannte Glitches auftreten, da das angezeigte Bild nicht mehr konsistent ist. Typische Glitches entstehen bei geraden Kanten, die sich zwischen dem Bildwechsel gedreht haben. Sie werden geknickt oder versetzt dargestellt.

Mit aktivierter vertikaler Synchronisation wartet die Grafikkarte bis zu dem Moment, an dem der Elektronenstrahl von rechts unten nach links oben springt, und aktualisiert erst dann die Bilddaten. Besonders einfach ist dieses Verhalten bei mehreren Framebuffern realisierbar. Mit aktivierter vertikaler Synchronisation werden die Buffer nicht getauscht, wenn das Bild vollständig berechnet wurde, sondern wenn der Elektronenstrahl zurückspringt.

Vertikale Synchronisation ist problematisch, wenn die Grafikkarte für die Berechnung eines neuen Bildes länger braucht als der Monitor zur Darstellung. Wenn der Monitor beispielsweise mit einer Bildwiederholfrequenz von 60 Hz arbeitet, die Grafikkarte aber nur 50 Bilder pro Sekunde berechnen kann, werden jede Sekunde wahrscheinlich 10 Aktualisierungszyklen des Monitors übergangen (kein Bild wird dargestellt). Das kann zu optischen Verspätungsrucklern führen. Im schlimmsten Fall hat die Grafikkarte kurz nach dem Rücksprung ein neues Bild berechnet, muss aber warten, bis der Monitor das mittlerweile veraltete Bild fertig dargestellt hat. Bei Spielen kann auch die Erhöhung der Latenz um einige Millisekunden (maximal 1 Frame, zum Beispiel 16,7 ms bei 60 Hz) relevant sein.

Als Programmiertechnik bei VGA-Chips[Bearbeiten | Quelltext bearbeiten]

Ältere VGA-Chips konnten nicht gleichzeitig neue Daten in den Grafikspeicher laden und ein Bild darstellen. Da das Laden neuer Daten Priorität hatte, stockte das Bild, wenn neue Daten eintrafen. Mit vertikaler Synchronisierung wurde das Bild im Hauptspeicher vorberechnet und erst in den Grafikspeicher kopiert, wenn der Elektronenstrahl des Monitors einen Rücksprung durchführte. Der Programmierer musste sich selbst um das präzise Timing kümmern, der VGA-Chip gab lediglich in einem Register die Position des Elektronenstrahls an.

Als Ansteueroption für Flüssigkristallbildschirme[Bearbeiten | Quelltext bearbeiten]

Moderne Flüssigkristallbildschirme (Flachbildschirme) verwenden im Unterschied zu Röhrenmonitoren nur eine (manchmal auch zwei) Bildwiederholfrequenzen, üblicherweise 60 Hz und 75 Hz. Daher haben Grafikkarten (oder deren Treiber) heute meist eine VSYNC-Option. Ist diese aktiviert, synchronisiert der Grafikprozessor oder -treiber das Bild mit der Bildwiederholrate des Monitors, auch wenn die Grafikkarte wesentlich höhere Bildfolgeraten bereitstellen könnte. Daher haben auch Spiele und andere Programme, die hohe Anforderungen an die Grafik stellen, teils einen Parameter VSYNC, der in den Optionen aktiviert werden kann, wenn Darstellungsprobleme auftreten, und dann an den Treiber weitergereicht wird. Ist die Grafikkarte deutlich schneller, als ein Spiel es erfordert, wird durch vertikale Synchronisation die benötigte Leistung und damit die Abwärme sowie die Stromaufnahme der Grafikkarte reduziert.

Variable Bildwiederholrate[Bearbeiten | Quelltext bearbeiten]

VESA Adaptive-Sync, Nvidia G-Sync und AMD FreeSync sind Verfahren, die Bildwiederholrate dynamisch an die Bildausgabe der Grafikkarte anzupassen. Einfach ausgedrückt folgt die Bildwiederholrate des Monitors der Ausgabegeschwindigkeit der Grafikkarte. Realisiert wird die variable Bildwiederholrate, engl. Variable Refresh-Rate (VRR), über das Blanking-Intervall als Teil der Bildlaufzeit. Das funktioniert aber nur bei speziell dafür ausgelegten Displays, weil die einzelnen Flüssigkristalle nicht bei allen, insbesondere bei zu geringen, Bildwiederholraten stabil sind.[3]

Eine variable Bildwiederholrate löst das Problem von V-Sync, dass durch die fixe Bildwiederholrate hervorgerufen wird: Da eine Grafikkarte je nach Berechnungsaufwand einer Szene immer unterschiedlich schnell Bilder liefert, müssen diese bei V-Sync an die vorgegebene Wiederholrate angepasst werden. Liefert die Grafikkarte beispielsweise mehr als 60 Einzelbilder (englisch frames) pro Sekunde, müssen einige davon weggelassen werden. Das Fehlen dieser Frames bewirkt, dass das Bild am Monitor bei horizontalen Bewegungen „zerreißt“.[4] Um dieses „Screen Tearing“ zu verhindern, haben Grafikkartentreiber ebenfalls die Funktion „V-Sync“, die die Berechnung der Bilder seitens des Grafikprozessors auf 60 Hz beschränkt, was die unerwünschten Bildeffekte weitgehend verhindert. Hinzu kommt jedoch, dass die Grafikkarte nicht in allen Szenen stabil mindestens 60 Bilder pro Sekunde liefern kann. Insbesondere wenn für die Ausgabe statt doppelter eine Dreifachpufferung benutzt wird, lässt V-Sync nur Bildraten zu, deren Vielfaches die Bildwiederholfrequenz ergeben, also 30, 20, 15 usw. Schafft eine Grafikkarte in einer bestimmten Szenenberechnung beispielsweise 56 Bilder pro Sekunde, was 56 Hz am Monitor entspräche, wird die Ausgabe mit V-Sync hingegen auf 30 Hz limitiert. Diese starre Abtastrate des Bildschirms geht somit mit möglichen Eingabeverzögerungen einher, was gerade bei Computerspielen nicht erwünscht ist.[5] Jedoch hat auch VRR Grenzen, was direkt mit den verwendeten Flüssigkristallen in einem Display zusammen hängt: Einerseits sollen diese schnell wieder in ihren Ursprungszustand zurückkehren, um hohe Bildwiederholraten zu ermöglichen. Andererseits benötigt die Gate-Spannung der Pixeltransistoren eine Mindestfrequenz, weil sie sonst durch Leckströme unter den für die exakte Ausrichtung des Flüssigkristalls notwendigen Mindestwert sinkt, was zu einem Flirren der Pixel führt.[3] Adaptive-Sync muss somit die untere Wiederholrate begrenzen – da jedoch die von der Grafikkarte gelieferte Framerate auch geringer ausfallen kann, fällt in dieser Situation die Bildausgabe aus dem VRR-Modus, was wiederum zu unerwünschten Bildeffekten führt. Eine Methode, dies zu verhindern, ist Low Framerate Compensation (LFC), das von einigen Herstellern im Scaler des Monitors unterstützt wird. Dabei wird unter der Mindestwiderholrate für die Flüssigkristalle derselbe Frame einfach ein zweites Mal dargestellt, die Wiederholfrequenz also intern verdoppelt.

Bessere Gaming-Displays bieten ab ca. 2020 meist 144 Hz oder mehr.[6] Ob und bei welchen Auflösungen die adaptive Bildwiederholrate auch bis zu diesen hohen Bildraten möglich ist, hängt von den Implementierungen der Hersteller in den jeweiligen Modellen der Monitore ab. Die obere Begrenzung bei VRR ist jedoch immer mindestens 60 Hz.

VESA Adaptive-Sync[Bearbeiten | Quelltext bearbeiten]

Bereits 2009 hatte die Video Electronics Standards Association, kurz VESA, das variable Adaptive-Sync für embedded DisplayPort (eDP) standardisiert. Mit DisplayPort 1.2a wurde die Technik 2014 auch für Desktop-Computer und Notebooks eingeführt.[3]

Nvidia G-Sync[Bearbeiten | Quelltext bearbeiten]

Nvidias G-Sync wurde im Oktober 2013 vorgestellt.[7] Die ersten Monitore waren jedoch erst im 2. Quartal 2014 verfügbar. Neben G-Sync-fähigen Monitoren, die ein eingebautes Modul verwenden, war ein externes G-Sync-Modul, das mit bestimmten Monitoren kompatibel war und nachgerüstet werden konnte, erhältlich. Der Verkauf dieses Moduls wurde aber bald eingestellt, da die Hersteller die Technik rasch fest in den Monitoren verbauten. Am 31. Mai 2015 wurde G-Sync für Notebooks vorgestellt.[8] Damit war Nvidia auf dem PC der erste Anbieter für VRR seitens Grafikkarte und Monitor.

Allerdings stand Nvidia wegen der proprietären Technik auch in der Kritik. Denn bei G-Sync müssen Monitor-Hersteller ein Modul im Monitor verbauen, das als Gegenstück zu einer G-Sync-fähigen Grafikkarte fungiert, um die variable Bildwiederholfrequenz zu steuern. Dadurch sind Monitore mit G-Sync generell etwas teurer als Monitore mit VESA Adaptive-Sync.[9] Bis 2019 war das proprietäre G-Sync daher nicht mit FreeSync bzw. Adaptive-Sync kompatibel, sodass Nvidia-Grafikkarten nur mit G-Sync-Monitoren eine adaptive Bildwiederholrate boten – und umgekehrt.

2019 öffnete Nvidia schließlich zuerst GeForce-Grafikkarten für FreeSync: Einerseits konnten diese nun, ein aktueller Treiber vorausgesetzt, auch Monitore mit Adaptive-Sync bzw. FreeSync nutzen.[10] Ist ein kompatibler FreeSync-Monitor an eine Nvidia-Grafikkarte angeschlossen, so bezeichnet Nvidia den VRR-Modus „G-Sync Compatible“, also „G-Sync-kompatibel“. Andererseits stellte Nvidia auch den Monitor-Herstellern eine neue Firmware für die integrierten G-Sync-Module zur Verfügung, damit auch die Monitore mit Adaptive-Sync bzw. FreeSync funktionieren, sodass diese umgekehrt auch mit Grafikkarten von z. B. AMD mit FreeSync funktionieren.[11]

Wie auch AMD mit FreeSync 2, setzte auf der CES 2017 auch Nvidia auf HDR-Unterstützung und kündigte erste G-Sync-Monitore damit an.[12] Die ersten Modelle mit HDR erschienen im Laufe des Jahres. 2 Jahre später auf der CES 2019 wurde G-Sync Ultimate und Compatible vorgestellt.[13]

[14] G-Sync Compatible G-Sync G-Sync Ultimate (HDR)
Grafikkarte GTX 1050 oder besser GTX 650 Ti Boost oder besser GTX 1050 oder besser
Treiber R417.71 oder höher R340.52 oder höher R396 GA2 oder höher
Betriebssystem Windows 7 / 8.1 / 10, Linux, FreeBSD, Solaris Windows 10
Videoausgabe DisplayPort 1.2 oder höher DisplayPort 1.4 oder höher

AMD FreeSync[Bearbeiten | Quelltext bearbeiten]

Der Handelsname für variable Bildwiederholraten von AMD lautet FreeSync.[15] Diese wurde in AMD-Grafikkarten nach der VESA-Spezifikation für DisplayPort 1.2a umgesetzt, sodass prinzipiell keine AMD-spezifischen Scaler-Module in Monitoren benötigt werden. FreeSync funktioniert ohnehin nur dann, wenn ein Monitor auch adaptive Bildwiederholraten bietet, wobei dies prinzipiell nur über DisplayPort 1.2a (oder neuer) bzw. über HDMI – teilweise ab HDMI 1.2, wenn vom Scaler im Monitor explizit unterstützt,[16] bzw. per HDMI VRR gem. Spezifikation HDMI 2.1 – angeschlossene Displays möglich ist.[3]

Auf der CES 2017 stellte AMD mit „FreeSync 2“ eine erste Überarbeitung vor, die zusätzlich Low Framerate Compensation im Standard vorschreibt, sowie High Dynamic Range seitens des Monitors. Um FreeSync 2 nutzen zu können, muss es jedoch auch von Computerprogrammen wie Computerspielen genutzt werden.[17]

Anders als G-Sync wird bei FreeSync dem Hersteller des Monitors überlassen, welchen Scaler diese verwenden. Dadurch ergeben sich größere Qualitätsunterschiede bei FreeSync-Monitoren als dies bei G-Sync-Monitoren der Fall ist. 2020 führte daher auch AMD verschiedene Klassen ein, um die Qualität leichter unterscheidbar zu machen: während „FreeSync“ den geringsten Qualitätskriterien entspricht, erfordert „FreeSync Premium“ die Umsetzung variabler Bildwiederholraten bis mindestens 120 Hz bei mindestens Full-HD-Auflösung, sowie die Unterstützung von Low Framerate Compensation (LFC), also eine Möglichkeit, auch bei sehr niedrigen Frameraten im VRR-Modus zu verbleiben. Zu guter Letzt wurde FreeSync 2 HDR, das zusätzlich HDR-Inhalte bietet, in „FreeSync Premium Pro“ umbenannt.[18][19]

HDMI VRR[Bearbeiten | Quelltext bearbeiten]

Im High Definition Multimedia Interface, kurz HDMI, der Version 2.1 von 2017 ist auch die Variable Refresh-Rate standardisiert. Teilweise sind aber auch Monitore bzw. Fernsehgeräte, die die Vorversion HDMI 2.0a umsetzen, gem. dieser Spezifikation HDMI-VRR-fähig.[20]

Praxis[Bearbeiten | Quelltext bearbeiten]

In der Praxis war Nvidia der Vorreiter auf Personal Computern, vor allem auf Windows-PCs, einer der weltweit wichtigsten Spieleplattformen. Die VESA hatte mit Adaptive-Sync zwar bereits seit 2009 eine derartige Technik auf dem Markt, und sie wurde vielleicht auch auf Smartphones oder Tablets eingesetzt, aber gerade auf PCs und Laptops kaum genutzt, da diese noch großteils über LVDS angebunden waren, während die adaptive Bildwiederholrate im VESA-Standard nur bei eDP-Anbindung zu haben war. Erst als 2014 die Methode auf für DisplayPort 1.2a standardisiert wurde, kam eine vergleichbare Technik von AMD auf den PC, jedoch waren Nvidia’s G-Sync und AMDs FreeSync anfangs inkompatibel. Auf HDMI wurde die Technik anfangs rückportiert, seit HDMI 2.1 von 2017 ist die Methode ebenfalls, wie zuvor schon bei DisplayPort, standardisiert.

Durch die Öffnung seitens Nvidia sind die meisten G-Sync-Monitore auch FreeSync-kompatibel, aber nicht umgekehrt. Bei zu diesem Zeitpunkt bereits vorhandenen Monitoren kam es darauf an, ob die Monitor-Hersteller die neue Firmware von Nvidia an ihre Kunden weitergegeben haben oder nicht. Moderne G-Sync-Monitore sind in der Regel immer auch VESA-Adaptive-Sync-fähig, und damit FreeSync-kompatibel. Umgekehrt funktioniert es jedoch nicht, Monitore, die zwar FreeSync-kompatibel sind, mit „echtem“ G-Sync zu betreiben – denn „G-Sync compatible“ ist gleichbedeutend mit FreeSync/Adaptive-Sync.

Auf Seite der Grafikkarten sind jene von Nvidia ab der GeForce-Treiberversion 417.71 von Mitte Jänner 2019 nun auch FreeSync-kompatibel.[21] Das war möglich, weil es sich bei FreeSync um eine reine Software-Lösung handelt: nur der angeschlossene Monitor muss Adaptive-Sync bzw. HDMI VRR bieten. Seither kann also jede Nvidia- und AMD-Grafikkarte mit einem Adaptive-Sync-Monitor im VRR-Modus betrieben werden, jedoch bleibt G-Sync Nvidia-Grafikkarten vorbehalten.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. … englisch frame genannt, für den „(Bild-)Rahmen“ …
  2. Roland Oberhammer: Echtzeit Objekterkennung auf low power embedded systems. Grin Verlag, 2008, ISBN 978-3-638-91663-9, S. 28
  3. a b c d Ulrike Kuhlmann: G-Sync, FreeSync, Adaptive-Sync: Mehr Wunsch als Wirklichkeit. In: Heise online. 21. Mai 2014. Abgerufen am 19. Februar 2024.
  4. Stefan Porteck: Scharfmacher – 4K-Monitore ab 500 Euro. In: c’t. Nr. 20/2014. Verlag Heinz Heise, 6. September 2014, ISSN 0724-8679, S. 100, Kasten „Ruckeln ausgemerzt“ (Artikel-Archiv (Paywall) [abgerufen am 19. Februar 2024]): „Rendert die Grafikkarte mehr als 60 Frames, muss der Monitor einige der Bilder verwerfen, da das nächste Bild geliefert wird, während die Monitorelektronik das aktuelle Bild noch nicht komplett ins Panel geschrieben hat. Das Fehlen einiger Frames sorgt im Spiel dafür, dass das Bild auf dem Monitor bei horizontalen Bewegungen zerreißt.“
  5. Carsten Meyer, Stephan Ehrmann: Ruckeln war gestern – Nvidias Display-Technik G-Sync. In: c’t. Nr. 22/2014. Verlag Heinz Heise, 4. Oktober 2014, S. 132 (Artikel-Archiv (Paywall) [abgerufen am 19. Februar 2024]): „V-Sync hat außerdem noch einen weiteren entscheidenden Nachteil, sofern ein Spiel Double- statt Triple-Buffering nutzt. Schafft die Grafikkarte nämlich keine 60 fps, dann lässt V-Sync nur Bildraten zu, deren Vielfache die Bildwiederholfrequenz ergeben, also 30, 20, 15 und folgend. Packt die Grafikkarte also 56 statt 60 fps, wird ihre Ausgabe trotzdem auf 30 fps limitiert. Verbessert hat Nvidia das Verhalten durch eine adaptive Technik, die V-Sync automatisch deaktiviert, sobald die Framerate unter die Bildwiederholfrequenz fällt. Dann hat man zwar keine harten Frameraten-Einschnitte mehr, dennoch bleibt die starre Abtastrate des Bildschirms bestehen und damit mögliche Eingabeverzögerungen.“
  6. Florian Müssig: Notebook-Kaufberatung – Alles, was man 2020 für den Notebook-Kauf wissen muss. In: c’t. Nr. 03/2020. Verlag Heinz Heise, 4. Oktober 2014, S. 18 ff., S. 22, Abschnitt Bildschirme (Artikel-Archiv (Paywall) [abgerufen am 20. Februar 2024]): „Allen voran sind Bildschirme zu nennen, die mit mehr als den üblichen 60 Hz Bildwiederholrate laufen. 144 Hz gehören zum guten Ton, dieser Tage kommen sogar erste Notebooks mit 240-Hz-Bildschirm in den Handel. Wenn die Panels die GPU-spezifischen Techniken G-Sync (Nvidia) oder Freesync (AMD) unterstützen – was bei 144-Hz-Panels nicht zwangsläufig der Fall ist –, dann laufen sie nicht mit einer festen Bildwiederholrate, sondern passen sie dynamisch der Framerate an, die die GPU gerade ausspuckt. Dies verhindert unschön zerrissene Bildfolgen. Grundsätzlich sind für den Effekt keine Panels mit besonders hohen Bildwiederholraten nötig: Es gibt auch Mittelklasse-Gaming-Notebooks, deren Schirme lediglich zwischen 40 und 60 Hz dynamisch arbeiten. Wer sich für G-Sync, Freesync, 144 Hz & Co. interessiert, findet das bisher nur in wenigen 15,6- oder 17,3-Zoll-Notebooks mit H-Prozessor und flotter Zusatz-GPU.“
  7. NVIDIA führt die G-SYNC-Technologie für Gaming-Monitore ein | NVIDIA. Abgerufen am 29. August 2019.
  8. G-SYNC Gets Even Better With New Features, New Monitors & Game Changing G-SYNC Notebooks. Abgerufen am 29. August 2019 (amerikanisches Englisch).
  9. Enzo: FreeSync vs G-Sync vs G-Sync Compatible: Was du wissen musst. In: PCZEIT.COM. Genesis Framework, 26. Januar 2021, abgerufen am 20. Februar 2024: „Was ist G-Sync? … Im Gegensatz zu FreeSync, dass die in den Monitoren eingebauten DisplayPort 1.2-Protokolle (und neuerdings auch HDMI) nutzt, benötigen vollwertige G-Sync-Monitore einen eigenen Verarbeitungschip, was den Preis in die Höhe treibt.“
  10. Benjamin Kraft: Nvidia erlaubt G-Sync mit FreeSync-Displays. In: Heise online. 7. Januar 2019. Abgerufen am 19. Februar 2024.; Zitat: „Mit einem neuen Treiber will Nvidia erlauben, auch FreeSync-Displays an GeForce-Grafikkarten mit variabler Bildwiederholrate zu betreiben.“.
  11. Benjamin Kraft: Nvidia öffnet G-Sync für AMD-Karten. In: Heise online. 26. November 2019. Abgerufen am 19. Februar 2024.; Zitat: „Nvidia plant offenbar, G-Sync-Monitoren per Firmware Adaptive Sync beizubringen. Damit könnten sie auch mit AMDs Radeons variable Bildwiederholraten zeigen.“.
  12. G-SYNC HDR-Monitore auf der CES 2017 enthüllt: Die ultimativen Gaming-Bildschirme sind jetzt noch besser. Abgerufen am 29. August 2019.
  13. Ankündigung: G-SYNC Compatible-Monitore und BFGD-Vorbestellungen. Abgerufen am 29. August 2019.
  14. SYSTEMANFORDERUNGEN FÜR G-SYNC HDR. Abgerufen am 29. August 2019.
  15. Tom Loske: AMD Freesync gegen Nvidia G-Sync im Test: Womit spielt es sich besser? In: PCGH. 22. März 2015, abgerufen am 20. Februar 2024: „AMDs Technik ‚Dynamic Refresh Rate‘ wird mit dem Handelsnamen Freesync vermarktet und soll die gleichen Vorteile von Nvidias G-Sync bieten.“
  16. Tarinder Sandhu: AMD announces FreeSync over HDMI. In: HEXUS.net. 8. Dezember 2015, abgerufen am 20. Februar 2024 (englisch): „On the graphics front any Radeon card outputting over HDMI 1.2, or later, will have the ability to support FreeSync over HDMI, albeit with an updated driver. AMD says it has worked with leading scaler and monitor manufacturers to bring FreeSync to the masses.“
  17. Mark Mantel: Freesync 2 mit intelligentem HDR: Engine-Support und neue Displays nötig [Update]. In: PCGH. 3. Januar 2017, abgerufen am 20. Februar 2024.
  18. Norman Wittkopf: Freesync Premium und Pro: AMD erklärt neue Güteklassen für Monitore mit VRR. In: PCGH. 7. Januar 2020, abgerufen am 20. Februar 2024: „AMD hat seinen Freesync-Standard für eine Variable Refresh Rate (VRR) bei Monitor- und TV-Displays in nunmehr drei Klassen unterteilt, wodurch Endkunden besser die gebotenen Features erkennen sollen.“
  19. Friedrich Stiemer: AMD Freesync: Die verschiedenen Abstufungen erklärt. In: PC-Welt. 21. April 2022, abgerufen am 20. Februar 2024.
  20. Friedrich Stiemer: HDMI VRR: Das steckt hinter der Displaytechnik. In: PC-Welt. 21. Januar 2021, abgerufen am 20. Februar 2024: „HDMI VRR ist im neuesten HDMI-2.1-Standard definiert. Allerdings beherrschen auch einige TV-Geräte mit HDMI-2.0b-Anschlüssen die variable Aktualisierung.“
  21. Nvidia driver unlocks FreeSync monitor support for GeForce graphics cards. 15. Januar 2019, abgerufen am 8. Oktober 2020 (englisch).