Nvidia-GeForce-900-Serie

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Nvidia-Geforce-900-Serie)
Zur Navigation springen Zur Suche springen
GeForce GTX 960 von EVGA

Die GeForce-900-Serie ist eine Serie von Desktop-Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-700-Serie. Die Serie sollte ursprünglich unter der Bezeichnung „GeForce 800“ veröffentlicht werden, aber nachdem diese Kennung für den jährlichen Release bereits bei der Nvidia GeForce M-Serie verwendet worden war, ließ Nvidia die Bezeichnung für die Desktopserie aus, um beide Reihen wieder anzugleichen.

Laut Nvidia unterstützten sämtliche Grafikkarten der GeForce-900-Serie erstmals DirectX 12 mit dem „Feature-Level 12.1“ von Microsofts Betriebssystem Windows 10.[1]

Beschreibung[Bearbeiten | Quelltext bearbeiten]

GeForce GTX 980 Ti und Titan X[Bearbeiten | Quelltext bearbeiten]

Der GM200-Grafikprozessor fungiert als High-End-Chip der GeForce-900-Serie und löste in dieser Funktion die GK110-GPU der GeForce-700-Serie ab. Der GM200 besitzt 8 Milliarden Transistoren auf einer Chipfläche von 601 mm², womit er der bis dahin größte und komplexeste Grafikprozessor am Markt war. Aus technischer Sicht stellt der GM200 mit 96 Raster-, 3072 Shader- und 192 Textureinheiten eine um 50 % vergrößerte Variante des GM204 dar.[2] Damit unterscheidet er sich aber auch maßgeblich von seinen Vorgängern: Die GF100-, GF110- oder GK110-GPUs verfügten noch über erweiterte Double-Precision-Fähigkeiten (FP64) und wurde auch auf den Profiserien Quadro und Tesla eingesetzt. Dafür waren auf dem GK110 z. B. in jedem SMX-Block zusätzlich 64 separate ALUs verbaut, wodurch dieser eine DP-Rate von 1/3 erreicht hatte. Da auf den GM200 diese separaten ALUs fehlen (sie sind vermutlich aus Platzgründen gestrichen worden, da die Produktion von Grafikprozessoren mit einer Größe von über 600 mm² aus technischen und wirtschaftlichen Gründen kaum möglich ist)[2] verfügt dieser nur über eine DP-Rate von 1/32. Da Double-Precision-Operationen für 3D-Anwendungen nicht benötigt werden, spielte dieser Aspekt im Gamingsektor keine Rolle, machte den GM200 aber ungeeignet für die Profiserien Quadro und Tesla. Deshalb wandte sich Nvidia von seiner bisherigen Strategie, einen High-End-/Enthusiasten-Chip für alle drei Serien zu entwickeln, ab, und setzte den GM200 nur für die GeForce-Serie ein. Für die Quadro- und Tesla-Serie wurde stattdessen eine verbesserte Version des GK110 entworfen, den GK210-Grafikprozessor.[3]

Am 17. März 2015 stellte Nvidia mit der GeForce GTX Titan X die erste Grafikkarte vor, die die GM200-GPU nutzt. Der GM200-400-A1 wird auf den Titan X im Vollausbau verwendet und mit einem 12 GB großen Videospeicher bestückt. Während frühere Varianten der Titan-Serie über separate Features gegenüber den restlichen GeForce-Modellen verfügten (z. B. erhöhte DP-Raten), war dies bei der Titan X aufgrund des Aufbaus der GM200-GPU nicht möglich. Stattdessen bewarb Nvidia die Titan X als „erste 4K-Grafikkarte“. Diese Bezeichnung war aber höchst irreführend, da auch frühere Grafikkarten Auflösungen von 4K darstellen konnten. Der Vorteil der Titan X war nur, dass sie erstmals ausreichend Rechenleistung besaß, um unter solchen Auflösungen auch relativ hohe Frameraten zu erreichen. So war sie unter 4K rund 40 % bis 45 % schneller als die GeForce GTX 980 und etablierte sich somit als schnellste Single-Chip-Karte auf dem Markt.[4] Bei geringeren Auflösungen nahm der Vorsprung allerdings wieder ab.[5] Trotz des hohen Listenpreises von 999 US-$, den Verbot von Eigendesignes der Boardpartner (es kam derselbe Kühler, wie bei den vorherigen Titan-Modellen zum Einsatz; er war nur dunkler eingefärbt), sowie das Fehlen extra Features, wurde die Titan X relativ positiv in der Fachpresse bewertet, bedingt durch die hohe Performance sowie durch die Vorteile der Maxwell-Architektur (DirectX 12 Support, Energieeffizienz, etc.). Am Markt verkaufte sich die Titan X auf Anhieb recht erfolgreich und konnte sogar die Verkaufszahlen des ersten Titan-Modelles zwei Jahre zuvor übertreffen, obwohl der Straßenpreis aufgrund des schwachen Eurokurses rund 25 % höher lag.[6]

Am 1. Juni 2015 folgte mit der GeForce GTX 980 Ti das zweite Modell auf Basis der GM200-GPU. Der GM200-310-A1 wurde aber nun nicht im Vollausbau genutzt; zwei der 24 Shadercluster wurden nun deaktiviert.[7] Während die Taktraten der GeForce GTX Titan X unverändert übernommen worden waren, wurde die Videospeicher noch von 12 auf 6 GB reduziert. Mit diesen Daten erzielte die GeForce GTX 980 Ti eine Performance, die nur rund 5 % geringer war, als die der Titan X. In der Praxis zeigte sich, dass der auf 6 GB halbierte Videospeicher keinerlei Bedeutung hatte (nur bei großen SLI-Konfigurationen konnte hier eine Limitierung festgestellt werden) und die zwei deaktivierten Shader-Cluster durch teilweise real höhere Boosttaktraten wieder ausgeglichen werden konnte.[7] Angesichts der nur marginal geringeren Performance, aber einen 300 bis 400 € günstigeren Straßenpreises gegenüber der Titan X, wurde die GeForce GTX 980 Ti in der Fachpresse dementsprechend positiv bewertet. Dazu trug auch bei, dass die Konkurrenzserie von AMD, die Radeon R300, zu diesem Zeitpunkt immer noch nicht auf dem Markt war und dass Nvidia wieder Eigendesignes der Boardpartner zuließ.

GeForce GTX 980 und 970[Bearbeiten | Quelltext bearbeiten]

Der GM204-Grafikprozessor war die erste GPU der GeForce-900-Serie und verwendet die „Maxwell-Architektur der zweiten Generation“. Wie bereits bei der ersten Kepler-Generation, der GeForce-600-Serie, schickt Nvidia den Performance-Chip (GM204) vor dem High-End-Chip (GM200) auf den Markt. Nachdem Nvidia genau wie AMD auf die 20-nm-Fertigung bei TSMC verzichtet hat, wird der GM204 entgegen ursprünglichen Planungen weiterhin in 28-nm-Fertigung hergestellt. Er besitzt 5,2 Milliarden Transistoren auf einer Chipfläche von 398 mm². Der grundsätzliche Aufbau ist mit dem der GM107-GPU der ersten Maxwell-Generation identisch: Die Shader-Cluster (SMM) enthalten weiterhin 128 Shader- und 8 Textureneinheiten, allerdings wurde der Level-1-Cache von 64 kByte auf 96 kByte und der Texturen-Cache von 24 kByte auf 48 kByte pro Cluster erhöht. Insgesamt besteht der GM204 aus 16 Shader-Clustern, wobei je vier Cluster an einer Raster-Engines hängen, womit der GM204 über 2048 Streamprozessoren, 128 Textureinheiten, 64 ROPs und einen 2 MB großen Level-2-Cache verfügt.[8] Neu ist dagegen die erstmalige Unterstützung des HDMI-Ausgang 2.0. Um das, im Verhältnis zu anderen GPUs dieser Klasse, kleine Speicherinterface von 256 Bit auszugleichen, führte Nvidia das Feature „Third Generation Delta Color Compression“ ein, wobei es sich um einen Bandbreitenschoner handelt, der die Speicherbelastung um rund 25 % senken soll. Nvidia führte zusammen mit dem GM204 noch zahlreiche weitere Features ein, wie zum Beispiel ein neuer Kantenglättungsmodus oder Downsampling, wobei diese nicht auf den GM204 beschränkt wurden, sondern nachträglich per Treiber auch älteren Karten zur Verfügung gestellt worden sind.

Die GeForce GTX 980 wurde von Nvidia am 19. September 2014 vorgestellt, wobei der GM204-400-A1 im Vollausbau verwendet wird. Die Karte weist gegenüber ihrem Vorgänger, der GeForce GTX 780, eine 24 % bis 30 %, der GeForce GTX 780 Ti eine 6 % bis 9 % und der AMD Radeon R9 290X eine 21 % bis 24 % höhere Performance auf.[9] Damit etablierte sich die GeForce GTX 980 als schnellste Single-GPU-Karte am Markt. Dementsprechend positiv wurde die Karte, trotz des relativ hohen Listenpreises von 549 US-$, in der Fachpresse bewertet, u. a. auch deshalb, weil die GeForce GTX 980 deutliche Vorteile im Bereich des Energieverbrauchs aufwies. Gegenüber der langsameren Radeon R9 290X verbraucht die GeForce GTX 980 unter Last 80 bis 120 Watt weniger, gegenüber der GTX 780 Ti rund 90 Watt. Der niedrige Energieverbrauch wurde auch deshalb in der Fachpresse so positiv bewertet, da solche Verbesserungen normalerweise über einen neuen Fertigungsprozess erreicht werden, der aber dieses Mal nicht zur Verfügung stand (alle Karten sind im 28-nm-Prozess bei TSMC hergestellt).

Genau wie die GeForce GTX 980 wurde am 19. September 2014 auch die GeForce GTX 970 präsentiert, wobei hier der GM204-200-A1 eingesetzt wird. Bei dieser wurden drei der 16 Shader-Cluster der GM204-GPU deaktiviert, wodurch noch 1664 Shader- und 104 Textureinheiten aktiv sind, sowie die Anzahl der Rastereinheiten von 64 auf 56 und der Level-2-Cache von 2048 kB auf 1792 kB reduziert (die letzten beiden Punkte waren bei der Markteinführung noch nicht bekannt). Damit erzielt die Karte eine rund 30 % höhere Performance gegenüber der GeForce GTX 770.[9] Gegenüber dem bei der Markteinführung gleich teurem AMD-Modell Radeon R9 290, konnte eine rund 12 % höhere Performance erreicht werden,[9] die deutlich teurere Radeon R9 290X konnte um 3 % bis 11 % überboten werden.[9] Da die Karte, wie die GeForce GTX 980, massive Vorteile im Energieverbrauch aufwies, die Konkurrenzmodelle in der Leistung bzw. im Preis-Leistungs-Verhältnis überbot, wurde die GeForce GTX 970 (zunächst) dementsprechend positiv von der Fachpresse bewertet. Nvidia trug auch mit dem heruntergesetzten Listenpreis von 329 US-$ zu der positiven Bewertung bei; die GeForce GTX 770 wurde noch mit einem Listenpreis von 399 US-$ auf dem Markt eingeführt. Im Januar 2015 wurde bekannt, dass bei der GeForce GTX 970 nur 3,5 GB des 4 GB großen Videospeichers mit höchster Geschwindigkeit verwendbar sind. Da dieser Umstand bei der Markteinführung von Nvidia nicht öffentlich kommuniziert worden war, führte dies zu entsprechend heftiger Kritik und zu einer Sammelklage in den USA (siehe Kontroverse um fehlerhafte Speicherangaben zur GeForce GTX 970). Dennoch war die GeForce GTX 970 am Markt höchst erfolgreich; so war diese z. B. im Sommer 2015 auf der Computerspiel-Vertriebsplattform Steam die am häufigsten genutzte diskrete Grafikkarte.[10]

GeForce GTX 960 und 950[Bearbeiten | Quelltext bearbeiten]

Beim GM206-Grafikprozessor handelt es sich um das Performance-Modell der Maxwell-2-Generation. Er verfügt über 2 Raster-Engines, 1024 Streamprozessor, 64 Textur- und 32 Rastereinheiten mit einem 128 Bit DDR Speicherinterface.[11] Damit handelt es sich beim GM206 praktisch gesehen um eine halbierte Version des GM204, der dafür 2,94 Milliarden Transistoren auf einer Chipfläche von 227 mm² benötigt. Die technischen Daten stellten teilweise eine Überraschung dar, da im Vorfeld mit einer höheren Anzahl an Shadereinheiten und einem 192-Bit-Speicherinterface gerechnet worden war. Entsprechenden Spekulationen widersprach Nvidia aber und gab stattdessen an, dass die GM206-GPU auf der GeForce GTX 960 im Vollausbau aktiv sei und keine weiteren Einheiten physisch vorhanden sein.[12] Die einzigen Neuerungen gegenüber dem GM204-Chip ist der Videoprozessor VP7 des GM206-Chips, wodurch dieser als erste GPU den H.265-Codec (HEVC) de- und encodieren kann, während bisherige GPUs den Codec ausschließlich encodieren können.[12] Darüber hinaus ist der HDMI-Ausgang 2.0 nun auch mit dem Kopierschutz HDCP 2.2 ausgestattet, wodurch zukünftige Blu-rays mit Ultra-HD-Auflösung (4K) abgespielt werden können.[12]

Am 22. Januar 2015 präsentierte Nvidia mit der GeForce GTX 960 die erste Karte auf Basis des GM206-Grafikprozessors. Der GM206-300-A1 wird dabei im Vollausbau genutzt, womit die GeForce GTX 960 unter FullHD im Schnitt eine 9 % höhere Performance gegenüber ihrem Vorgänger, der GeForce GTX 760, erreicht und ist damit in etwa gleich schnell, wie die AMD-Konkurrenzmodelle Radeon R9 280 und 285. Der geringe Performancegewinn gegenüber dem Vorgänger wurde in der Fachpresse durchaus kritisch gesehen, insbesondere nachdem die GeForce GTX 970 und 980 hier deutlich bessere Werte erzielen konnten. Auch wurde aufgrund der Kombination aus dem nur 2 GB großen Videospeicher und dem kleinen 128-Bit-Speicherinterface die „Zukunftsfähigkeit“ der Karte hinterfragt, da hier bei steigenden Anforderungen schnell eine Speicherlimitierung erwartet wird. Positiv gesehen wurde dagegen wieder der geringe Stromverbrauch, der bei 3D-Anwendungen bei rund 109 Watt liegt,[13] wohingegen die gleichschnellen AMD-Modelle mit 189 Watt (R9 280) bzw. 183 Watt (R9 285) beinahe das Doppelte benötigen und auch der langsamere Vorgänger mit 155 Watt hier deutlich darüber liegt. Da Nvidia erneut auf ein Referenzdesign verzichtete, konnte zunächst keine allgemeine Aussage zur Lautstärke der Karte getroffen werden, allerdings ermöglicht die geringe Verlustleistung den Boardpartner sehr leise Kühllösungen zu verbauen.

Am 20. August 2015 präsentierte Nvidia mit der GeForce GTX 950 die zweite Variante mit einem GM206-Grafikprozessors. Auf dem GM206-250-A1 sind allerdings nun zwei der acht Shader-Cluster deaktiviert, womit nur noch 768 Streamprozessoren und 48 Textureinheiten zur Verfügung stehen. Damit erreichte die GeForce GTX 950 eine Performance, die in etwa zwischen der GeForce GTX 750 Ti und der GeForce GTX 960 lag. Gegenüber dem in etwa gleich teurem AMD-Modell, der Radeon R9 270X, war die GeForce GTX 950 rund 3 % langsamer (allerdings war die Radeon R9 270X zu diesem Zeitpunkt bereits im End-of-Life-Status, d. h. sie wurde abverkauft). Im Vergleich zum eigentlichen AMD-Konkurrenten, der Radeon R7 370, konnte die GeForce GTX 950 dagegen eine rund 10 % bessere Performance aufweisen. Dennoch wurde in der Fachpresse der Listenpreis von 159 US-$ in der Regel als zu hoch angesehen und dementsprechend kritisiert.[14]

Kontroverse um fehlerhafte Speicherangaben zur GeForce GTX 970[Bearbeiten | Quelltext bearbeiten]

Anfang Januar 2015 berichteten Nutzer der GeForce GTX 970 in Internetforen, dass ihre Grafikkarte nur selten mehr als 3,5 GB Videospeicher belegt oder starke Geschwindigkeitseinbrüche auftreten, sobald die Speicherbelegung die Grenze von 3,5 GB überschritt. Daraufhin bestätigte Nvidia am 25. Januar 2015, dass die GeForce GTX 970 nur auf 3,5 des 4 GB großen Videospeichers mit höchster Geschwindigkeit zugreifen kann.[15][16] Der Grund dafür ist, dass die GM204-GPU auf der GeForce GTX 970 stärker beschnitten wurde, als ursprünglich von Nvidia angegeben. So sind nur 56 der 64 ROPs und nur sieben Achtel des Level-2-Cache aktiviert, wodurch sich der Level-2-Cache von 2048 kB auf 1792 kB reduziert.[16] Während die niedrigere Anzahl an ROPs in der Praxis kaum eine Bedeutung hat, können aufgrund des Wegfalls eines der Cache-Bereiche nicht alle acht Speichercontroller der GM204-GPU, denen jeweils ein 512-MB-Speicherbaustein zugeordnet ist, gleichzeitig genutzt werden; zwei Speichercontroller müssen sich einen Cache-Bereich und somit auch die Verbindung zum Grafikprozessor per wechselseitigem Zugriff teilen. Die Folge ist nun, dass der Speicher in zwei Bereiche aufgeteilt werden muss, auf die nur wechselseitig zugegriffen werden kann. Die Aufteilung auf der GTX 970 sieht nun vor, dass einer der beiden betroffenen Speichercontroller zusammen mit den übrigen sechs voll gecachet verwendet wird, indem ihm der zweite betroffene Speichercontroller die gemeinsame Crossbar-Anbindung und den Cache durch Brachliegen freihält.[17] Deshalb versucht der GeForce-Treiber bei der GTX 970 gezielt nur die voll gecacheten 3,5 GB des Videospeichers zu verwenden.[16] Nvidia dementierte damit auch zuvor gemachte Vermutungen, dass es sich bei dem beobachteten Speicherverhalten der GeForce GTX 970 um einen Treiber-Bug handeln würde.

Obwohl Szenarien, in denen dies zu messbaren Problemen führt, äußerst selten sind[18] löste der Umstand in der Fachpresse und in Internetforen massive Kritik aus. Die Kritik entzündete sich dabei weniger an der technischen Konfiguration der GeForce GTX 970, sondern an den festgestellten Abweichungen von den zuvor beworbenen Produkteigenschaften sowie dem zögerlichen Umgang von Nvidia mit den aufgeworfenen Fragen.[19] Einige Onlinehändler boten daraufhin selbständig Umtauschaktionen für die GeForce GTX 970 an, obwohl aus rechtlicher Sicht dazu kein Grund bestehe, da kein Produktmangel vorhanden sei. In den folgenden Wochen brachen die Verkaufszahlen der GeForce GTX 970 kurzzeitig um ca. 30 % ein.[20] In den Vereinigten Staaten wurde Ende Februar eine Sammelklage gegen Nvidia wegen der aus Sicht der Kläger irreführender Werbeaussagen eingereicht.[21] Am 24. Februar 2015 äußerte sich Nvidias CEO und Mitgründer Jen-Hsun Huang zu der Speicherproblematik. Laut Huang sei die Speicherkonfiguration der GeForce GTX 970 ein Feature, mit welchem es möglich sei, die Grafikkarte mit vier statt drei Gigabyte Grafikspeicher auszustatten.[22] Am 28. Juli 2016 erklärte sich Nvidia in den Vereinigten Staaten bereit, betroffenen Kunden eine Entschädigung von 30 US-Dollar zu zahlen. Zudem werden die Anwaltskosten in Höhe von 1,3 Millionen US-Dollar der vorausgegangenen Sammelklage von Nvidia übernommen.[23]

Datenübersicht[Bearbeiten | Quelltext bearbeiten]

Grafikprozessoren[Bearbeiten | Quelltext bearbeiten]

Grafik-
chip
Fertigung Einheiten L2-
Cache
API-Support Video-
pro-
zessor
Bus-
Schnitt-
stelle
Pro-
zess
Transi-
storen
Die-
Fläche
ROP-
Parti-
tionen
ROPs Unified-Shader Textureinheiten DirectX OpenGL OpenCL
Stream-
prozessoren
Shader-
Cluster
TAUs TMUs
GM200 28 nm 8 Mrd. 601 mm² 06 96 3072 24 192 192 3 MB 12.1 4.5 1.2 VP6 PCIe 3.0
GM204 5,2 Mrd. 398 mm² 04 64 2048 16 128 128 2 MB
GM206 2,94 Mrd. 227 mm² 02 32 1024 08 064 064 1 MB VP7

Modelldaten[Bearbeiten | Quelltext bearbeiten]

Modell Offizieller
Launch
[Anm. 1]
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 2]
Typ Aktive Einheiten Chiptakt
(MHz)[Anm. 3]
Größe
(in MB)
Takt
(in MHz)
[Anm. 3]
Typ Speicher-
interface
Rechenleistung
(in GFlops)
Polygon-
durchsatz
(in Mio.
Dreiecke/s)
Pixel-
füllrate

(GP/s)
Texel-
füllrate

(GT/s)
Speicher-
bandbreite

(in GB/s)
ROPs Shader-
Cluster
ALUs Textur-
einheiten
Standard Boost SP
(MAD)
DP
(FMA)
GeForce GTX 950 (OEM)[24] 23. Nov. 2017 GM206 32 08 1024 064 0924 2048 1250 GDDR5 128 Bit 0 0 060 80
GeForce GTX 950[25] 20. Aug. 2015 32 06 0768 048 1024 1188 2048 1650 (3300) 128 Bit 1572,9 065,5 024,6 049,2 105,6
GeForce GTX 960 (OEM)[26] 23. Nov. 2017 48 08 1280 080 0924 3072 1250 192 Bit 0 0 074 120
GeForce GTX 960[27] 22. Jan. 2015 32 08 1024 064 1127 1178 2048 1753 (3506) 128 Bit 2412 075,4 036,1 072,1 112,1
GeForce GTX 970[28] 19. Sep. 2014 GM204 56[29]
(52+4)
13 1664 104 1051 1178 4096[29]
(3584+512)
1753 (3506) 256 Bit[29]
(224+32 Bit)
3920 123 5105 061,3[16] 122,5 224
(196+28)[29]
GeForce GTX 980[30] 19. Sep. 2014 64 16 2048 128 1126 1216 4096 1753 (3506) 256 Bit 4981 156 6485 077,8 155,7 224,2
GeForce GTX 980 Ti[31] 01. Jun. 2015 GM200 96 22 2816 176 1002 1075 6144 1753 (3506) 384 Bit 6054 189 7883 094,6 189,2 336,6
GeForce GTX Titan X[32] 17. Mrz. 2015 96 24 3072 192 1002 1075 12288 1753 (3506) 384 Bit 6604 206 8600 103,2 206,4 336,6

Leistungsaufnahmedaten[Bearbeiten | Quelltext bearbeiten]

Modell Typ Verbrauch (Watt) Zusätzliche
Strom-
stecker
MGCP
[Anm. 4]
Messwerte[Anm. 5]
Idle 3D-Last
[Anm. 6]
Maximal-
last[Anm. 7]
GeForce GTX 950 GM206 090 W 09 W[13] 092 W[13] 1× 6-pin
GeForce GTX 960 120 W 10 W[13] 109 W[13]
GeForce GTX 970 GM204 145 W 12 W[13] 161 W[13] 2× 6-pin
GeForce GTX 980 165 W 12 W[13] 174 W[13]
GeForce GTX 980 Ti GM200 250 W 13 W[13] 236 W[13] 1× 6-pin
1× 8-pin
GeForce GTX Titan X 250 W 13 W[13] 240 W[13]

Anmerkungen[Bearbeiten | Quelltext bearbeiten]

  1. Mit dem angegebenen Zeitpunkt ist der Termin der öffentlichen Vorstellung angegeben, nicht der Termin der Verfügbarkeit der Modelle.
  2. Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Standardtakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
  3. a b Bei den angegeben Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der I/O-Takt (in Klammern der effektive Takt) angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
  4. Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
  5. Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
  6. Der unter 3D-Last angegebene Wert entspricht dem typischen Spieleverbrauch der Karte. Dieser ist allerdings je nach 3D-Anwendung verschieden. In der Regel wird zur Ermittlung des Wertes eine zeitgemäße 3D-Anwendung verwendet, was allerdings die Vergleichbarkeit über größere Zeiträume einschränkt.
  7. Die Maximallast wird in der Regel mit anspruchsvollen Benchmarkprogrammen ermittelt, deren Belastungen deutlich über denen von „normalen“ 3D-Anwendungen liegen.

Weblinks[Bearbeiten | Quelltext bearbeiten]

 Commons: Nvidia-GeForce-900-Serie – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. NVIDIA schlüsselt DirectX-12-Unterstützung für eigene Grafikkarten auf. hardwareLUXX, 1. Juni 2015, abgerufen am 7. Juni 2015.
  2. a b Launch-Analyse: nVidia GeForce GTX Titan X. 3DCenter.org, 18. März 2015, abgerufen am 10. Juni 2015.
  3. Tesla K80 – Dual-Kepler mit bis zu 8,7 TFLOPS für Superrechner. ComputerBase, 17. November 2014, abgerufen am 6. August 2015.
  4. GeForce GTX Titan X im Test: Nvidias 4K-Grafikkarte mit 12 GB Speicher (Seite 3). ComputerBase, 17. März 2015, abgerufen am 10. Juni 2015.
  5. GeForce GTX Titan X im Test: Nvidias 4K-Grafikkarte mit 12 GB Speicher (Seite 4). ComputerBase, 17. März 2015, abgerufen am 10. Juni 2015.
  6. GeForce GTX Titan X: Nvidias Flaggschiff verkauft sich besser als das Original. ComputerBase, 26. März 2015, abgerufen am 10. Juni 2015.
  7. a b Launch-Analyse: nVidia GeForce GTX 980 Ti. 3DCenter.org, 2. Juni 2015, abgerufen am 10. Juni 2015.
  8. Launch-Analyse: nVidia GeForce GTX 970 & 980. 3DCenter, 19. September 2014, abgerufen am 3. Februar 2015.
  9. a b c d Nvidia GeForce GTX 980 und GTX 970 im (SLI-)Test – Effizient viel Leistung (Seite 6). Computerbase, 19. September 2014, abgerufen am 3. Februar 2015.
  10. Steam Hardware-Umfrage: 1080p, zwei Kerne und Nvidia-GPU in Front. Computerbase, 12. August 2015, abgerufen am 24. September 2015.
  11. Launch-Analyse: nVidia GeForce GTX 960. 3DCenter, 23. Januar 2015, abgerufen am 3. Februar 2015.
  12. a b c Nvidia GeForce GTX 960 im Test – Maxwell für 200 Euro mit 128 Bit. Computerbase, 22. Januar 2015, abgerufen am 3. Februar 2015.
  13. a b c d e f g h i j k l m Stromverbrauch aktueller und vergangener Grafikkarten. 3DCenter.org, 23. Februar 2014, abgerufen am 7. Juni 2015.
  14. Launch-Analyse nVidia GeForce GTX 950 (Seite 2). 3DCenter.org, 23. August 2015, abgerufen am 24. September 2015.
  15. GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher. Computerbase, 25. Januar 2015, abgerufen am 5. März 2015.
  16. a b c d nVidia räumt das „3,5-GB-Problem“ der GeForce GTX 970 ein. 3DCenter, 27. Januar 2015, abgerufen am 3. Februar 2015.
  17. GeForce GTX 970: Correcting The Specs & Exploring Memory Allocation. 26. Januar 2015, abgerufen am 4. November 2015 (englisch).
  18. Die GeForce GTX 970 und der limitierte Speicher – Eine Analyse. Computerbase, 29. Januar 2015, abgerufen am 3. Februar 2015.
  19. GeForce GTX 970: Nvidia lässt Händler und Kunden im Regen stehen. Heise online, abgerufen am 29. Januar 2015.
  20. GTX 970: Verkäufe sollen im Februar stark eingebrochen sein. PC Games Hardware, 9. Juni 2015, abgerufen am 10. Juni 2015.
  21. GeForce GTX 970: Sammelklage gegen Nvidia. Heise online, 24. Februar 2015, abgerufen am 4. November 2015.
  22. Nvidia-CEO macht GTX-970-Limitierung zur neuen Funktion. Computerbase, 24. Februar 2015, abgerufen am 3. Mai 2015.
  23. Michael Günsch: Falsche Spezifikationen: Nvidia entschädigt US-Käufer der GeForce GTX 970. Abgerufen am 28. Juli 2016.
  24. NVIDIA GeForce GTX 950 (OEM). Nvidia Corporation, abgerufen am 23. November 2017.
  25. NVIDIA GeForce GTX 950. Nvidia Corporation, abgerufen am 20. August 2015.
  26. NVIDIA GeForce GTX 960 (OEM). Nvidia Corporation, abgerufen am 23. November 2017.
  27. NVIDIA GeForce GTX 960. Nvidia Corporation, abgerufen am 22. Januar 2015.
  28. NVIDIA GeForce GTX 970. Nvidia Corporation, abgerufen am 19. September 2014.
  29. a b c d Nvidia korrigiert die Spezifikationen der GeForce GTX 970. golem.de, 25. Januar 2015, abgerufen am 12. November 2015.
  30. NVIDIA GeForce GTX 980. Nvidia Corporation, abgerufen am 19. September 2014.
  31. NVIDIA GeForce GTX 980 Ti. Nvidia Corporation, abgerufen am 1. Juni 2015.
  32. NVIDIA GeForce GTX Titan X. Nvidia Corporation, abgerufen am 17. März 2015.