Nvidia-GeForce-8-Serie

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
EVGA GeForce 8800 GTX

Die GeForce-8-Serie ist eine Serie von Desktop-Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-7-Serie. Mit der GeForce-8-Serie führte Nvidia erstmals das Shadermodell 4.0 (SM 4.0) ein, mit Pixel-, Geometrie- und Vertex-Shader nach DirectX 10. Mit ca. 681 Millionen Transistoren besaß die bei Einführung schnellste GeForce-Karte „8800 GTX“ als erstes handelsübliches Grafikchipmodell über 500 Millionen Transistoren. Die GeForce-8-Serie wurde von der GeForce-9-Serie abgelöst.

Geschichte[Bearbeiten | Quelltext bearbeiten]

Nvidia G80 GPU
Nvidia NVIO-1-A3 RAMDAC

Die GeForce-8-Serie wurde im Gegensatz zur GeForce-7-Serie nicht weitestgehend aus der Vorgängerserie heraus entwickelt, sondern in vielen Punkten komplett neu erstellt. Dabei äußerte sich Nvidia bezüglich der Unterstützung der Unified-Shader-Architektur so, dass die meisten Beobachter davon ausgingen, dass diese Technologie nicht unterstützt wird. So sprach Nvidias Chefarchitekt in einem Interview, dass Nvidia einen Chip mit Unified Shader erstellen würde, „sobald es sinnvoll ist“.[1] Dass dieser bereits in der GeForce-8-Serie implementiert wurde, war bis zum Erscheinen des ersten Grafikchips G80 nicht bekannt.

Die ersten beiden Grafikkarten auf Basis der neuen Grafikprozessoren wurden am 8. November 2006 auf den Markt gebracht. Das waren die GeForce 8800 GTX mit 768 MB Grafikspeicher, sowie die GeForce 8800 GTS mit 640 MB. Bei der Performance konnten sich die Karten überraschend deutlich von der Vorgängerserie, sowie der ATI-Konkurrenz absetzen. So wies die Einkern-Grafikkarte GeForce 8800 GTS in etwa die Leistung der GeForce 7950 GX2 mit zwei GPUs auf,[2] welche bis dahin die schnellste auf dem Markt war. Im Februar 2007 folgte dann noch eine weitere Version der 8800 GTS mit einem Grafikspeicher von 320 MB und ansonsten gleichen Baudaten.

Nvidia GeForce 8600 GT mit G84-GPU

Am 17. April 2007 stellte Nvidia schließlich erste GeForce-8-Karten für Mainstream und Low-End vor, in Form der GeForce 8600 GTS, 8600 GT und der 8500 GT. Die 8600-Serie konnte die teilweise sehr hohen Erwartungen, welche vor allem durch die sehr erfolgreichen Vorgänger, der 6600-Serie und der 7600-Serie, sowie durch die hohen Leistungen der 8800-Serie geweckt wurden, nicht erfüllen, da die Leistung in Bezug auf die wichtigsten Teile der GPU nur etwa einem Viertel des High-End-Chips G80 entspricht. Im Gegensatz dazu waren die beiden Vorgänger G73 (7600) und NV43 (6600) jeweils halbierte Versionen der jeweiligen High-End-Chips.

Mit der Vorstellung der GeForce 8800 Ultra am 2. Mai 2007 drehte Nvidia wieder einmal an der Geschwindigkeitsschraube. Im Vergleich zur 8800 GTX wird dieses Modell mit höheren Taktraten ausgeliefert. Da allerdings auch ein neues Stepping Verwendung findet, handelt es sich dabei nicht um eine reine Taktratensteigerung, vielmehr ist der Prozessor generell für höhere Taktraten ausgelegt. Im Gegensatz zu den bisherigen Grafikprozessoren der GeForce-8-Serie war die 8800 Ultra bei ihrer Vorstellung nicht sofort verfügbar, sondern es wurde ein sogenannter „Papierlaunch“ durchgeführt. So konnte sie noch vor der Konkurrenzserie AMDs vorgestellt werden. Die offizielle Verfügbarkeit im Handel war von Nvidia auf den 15. Mai angegeben, vereinzelt war sie jedoch bereits kurz nach der Präsentation lieferbar.

Eine Woche später, am 9. Mai 2007, wurden dann die ersten mobilen Grafiklösungen auf Basis der GeForce 8 vorgestellt, die GeForce-8M-Serie. Präsentiert wurden allerdings zunächst nur Low-End- und Midrange-Modelle, was auf den Umstand zurückzuführen ist, dass nicht mehr besonders angepasste Grafikprozessoren, sondern „normale“ GPUs verwendet werden. High-End-Modelle würden hier jedoch zu viel Strom verbrauchen. Später folgten leistungsfähigere mobile Grafiklösungen.

Gegen die Konkurrenz in Form der Radeon HD 2400 Pro auf dem Einsteigermarkt richtete man dann am 19. Juni 2007 die GeForce 8400 GS, welche auf dem G86-Chip basierte. Auch diese Grafikkarte wurde vor der großflächigen Verfügbarkeit des Konkurrenzmodells präsentiert, was bereits bei anderen Grafikeinheiten der gesamten Serie passierte. Nvidia legte dabei den Schwerpunkt auf firmeneigene Vergleiche, um die Leistungsfähigkeit des Produktes zu dokumentieren.

Ein knappes Jahr nach der Einführung des G80 und ein halbes Jahr nach der Einführung des G84 und G86 wurde mit der Präsentation der „GeForce 8800 GT“ am 29. Oktober 2007 die Refreshgeneration eingeleitet. Die Grafikkarte basiert auf dem neu entwickelten und nun in 65 nm gefertigten G92-Grafikchip, der zwar ähnlich viele Ausführungseinheiten wie der G80 hat, von seinem Aufbau her aber eher dem G84 und G86 ähnelt. Auf dem G92 sind wie bei den G84 und G86 genau so viele Texture Addressing Units (TAUs) wie Texture Mapping Units (TMUs) vorhanden, während im G80 die TMUs und TAUs ein 2:1-Verhältnis bilden. Zudem unterstützt der G92 wie G84 und G86 die PureVideo HD-Technik der zweiten Generation. Neu eingeführt wurde mit dem G92 die PCIe-2.0-Schnittstelle, die aber zum früheren PCIe abwärts kompatibel ist. Da Nvidia die GeForce 8800 GT mit sehr hoher Texelfüllrate und Arithmetikleistung ausliefert, ist sie schneller als die ältere GeForce 8800 GTS, sofern die kleinere Bandbreite und der kleinere Speicherausbau (im Vergleich zur 640-MB-Version) nicht zum Performancelimit werden.

Am 11. Dezember 2007 stellte Nvidia zudem eine GeForce 8800 GTS mit dem neuen G92-Grafikprozessor vor, die aufgrund höherer Taktraten und mehr aktiven Einheiten die 8800 GT bzw. in einigen Anwendungen bei kleiner Auflösung auch die 8800 GTX und 8800 Ultra leistungsmäßig hinter sich lassen kann.

Ohne Ankündigung wurde im gleichen Monat zudem noch der G98-Kern auf den Markt gebracht und ist auf Grafikkarten mit der Bezeichnung „GeForce 8400 GS“ zu finden. Auch unter diesem Namen wurden bisher andere Grafikkarten verkauft, so dass eine Unterscheidung nur sehr schwer möglich ist.

Die Grafikchips konkurrieren neben der Radeon-HD-2000-Serie mit der Radeon-HD-3000-Serie von AMD, die ihrerseits DirectX 10.1 unterstützt.

Technisches[Bearbeiten | Quelltext bearbeiten]

Unified Shader[Bearbeiten | Quelltext bearbeiten]

Bei der GeForce-8-Serie kommen erstmals Unified Shader zum Einsatz. Die Evolution der Technik hat dazu geführt, dass man nicht mehr wirklich nach Quads im herkömmlichen Sinne unterscheiden kann, da es keine Rendering-Pipelines mehr gibt. Jedoch existieren weiterhin Verbundeinheiten, nämlich die Shader-Cluster und die ROP-Partitionen (Raster Operation Processor Partitionen), welche eine gute Skalierung der GeForce-8-Serie ermöglichen. Die Aufgaben der Pixelpipelines, Vertex- und Pixel-Shader aus den Rendering-Pipelines übernehmen jetzt sogenannte Streamprozessoren (SPs). Je 16 Streamprozessoren sind in einem Shader-Cluster zusammengefasst.

In einer Takteinheit kann ein Streamprozessor maximal eine Addition-Operation (ADD) und zwei Multiplikations-Operationen (MUL) durchführen. Dabei wurde bei Grafikshaderberechnungen mit einer früheren Treiberversion als dem ForceWare 158.19 keine zweite MUL-Operation ausgeführt. Mit neueren Treibern kann die zweite MUL-Berechnung zwar zu Teilen auch für Shaderberechnungen genutzt werden, jedoch müssen über die MUL-Operation weiter Sonderfunktionen ausgeführt werden. Daher wird, anders als bei vielen Verwendungen der Grafikkarte als GPGPU, die maximale Rechenleistung über die Streamprozessoren nie erreicht und liegt in der Praxis bis zu einem Drittel unter diesem Maximalwert.

Leistungsaufnahme[Bearbeiten | Quelltext bearbeiten]

Die GeForce 8800 GTX war die erste PCI-Express-Grafikkarte mit einem Grafikprozessor, die über zwei 6-Pin-Stromanschlüsse verfügte. Sie konnte den Negativrekord im höchsten Stromverbrauch bei ihrer Vorstellung für sich verbuchen und bis zur Vorstellung der GeForce 8800 Ultra halten. Die GeForce 8800 Ultra wiederum hielt diesen Negativrekord nur für kurze Zeit und zwar bis zur Vorstellung der ATI Radeon HD 2900 XT. Bei der Vorstellung der GeForce 8800 GTX wurde sie vielerorts für ihre hohe Leistungsaufnahme kritisiert, allerdings auch gelobt für ihre hohe Grafikleistung und die relativ leise Kühllösung, die allerdings zwei Slots belegt. Kritisiert wurde auch, dass der G80 keinerlei Stromsparfunktionen besitzt, so dass nicht einmal die Taktfrequenz im 2D-Modus gesenkt wird, wie das bei den Vorgängern üblich war.

Die hohe Leistungsaufnahme führt dazu, dass Nvidia für die GeForce-8800-Serie leistungsfähige Netzteile empfahl. So wurde für die GeForce 8800 GTX und GeForce 8800 Ultra ein Netzteil mit mindestens 30 Ampere auf der 12-Volt-Schiene empfohlen. Für die GeForce 8800 GTS empfahl Nvidia ein Netzteil mit 26 Ampere bei 12 Volt und einem PCIe-Stromanschluss.

Fehler im Speichermanagement[Bearbeiten | Quelltext bearbeiten]

Die Grafikkarten und mobilen Grafikchips der GeForce-8-Serie wurden mit Treibern ausgeliefert, die einen Fehler im Speichermanagement aufwiesen. Dieser von Nvidia als VRAM-Bug bezeichnete Fehler führt dazu, dass immer weiter Daten in den Grafikspeicher geladen werden, so dass dieser irgendwann überfüllt ist. Dann müssen Texturen und ähnliche Dateien ausgelagert werden, wodurch die Leistung stark abnimmt. Im Normalfall sollten vorher nicht mehr benötigte Dateien aus dem Grafikspeicher entleert werden, das passiert bei der GeForce-8-Serie nicht.

Aufgrund des hohen Speicherausbaus der ersten erschienenen Grafikkarten (640 MB bei der GeForce 8800 GTS und 768 MB bei der GeForce 8800 GTX) wurde dieser Fehler in den ersten Monaten nicht bemerkt. Erst mit dem Release der GeForce 8800 GTS mit 320 MB traten Unstimmigkeiten auf, diese Grafikkarte ist auch am stärksten von diesem Fehler betroffen. In diversen Tests lag diese Grafikkarte gegenüber älteren Grafikkarten Nvidias und Modellen AMDs mit langsameren Grafikprozessoren und nur 256 MB Speicherausbau zurück, obwohl sie technologisch überlegen war. In weiteren Tests wurde dann eindeutig festgestellt, dass die Leistungsfähigkeit stark von der Speichernutzung abhängt. Insbesondere bei den 256-MB-Modellen der GeForce 8600 GT und GTS wurden noch größere Unterschiede festgestellt, durch theoretische Überprüfungen ließ sich jedoch feststellen, dass jede Grafikkarte der GeForce-8-Serie diese Fehler besitzt.

Nvidia reagierte und versprach einen Treiber, der das Problem lösen sollte. Dieser verzögerte sich jedoch mit der Begründung, dass ein „Problem komplexer Natur“ vorliege. Ende August 2007 stellte Nvidia dann ohne weitere Ankündigung den Beta-Treiber ForceWare 163.44 bereit, dem viele Internet-Magazine unterstellten, er löse das VRAM-Problem. Das geschah meist auf Grundlage eigener Tests, nachdem die GeForce 8800 GTS mit 320 MB in getesteten Spielen deutlich schneller wurde, die GeForce 8800 GTS mit 640 MB allerdings keine Unterschiede zeigte. Wie jedoch Nvidia auf Nachfrage mitteilte, sei in diesem Treiber der Fehler nicht behoben, die Leistungssteigerungen seien auf Änderungen zurückzuführen, die den VRAM-Bug etwas abschwächten. So sei die Speicherkompression überarbeitet worden, wodurch beim Speicherüberlauf nicht mehr so viel Leistung verloren gehe. Außerdem würden in S.T.A.L.K.E.R.: Shadow of Chernobyl die Texturen anders verwaltet, was dortige Leistungssteigerungen erkläre. Laut dem Technical Marketing Analyst Nvidias, James Wang, wird der nächste offizielle Treiber die Fehler im Speichermanagement beheben.[3] Ob das tatsächlich geschehen ist, bleibt unklar.

Der G92-Grafikprozessor, der auf der GeForce 8800 GT und auf der im Dezember 2007 vorgestellten GeForce 8800 GTS zum Einsatz kommt, stellt eine Weiterentwicklung der G8x-Chipserie dar. Da er gegenüber dieser diverse Veränderungen erfahren hat, ist es möglich, dass der VRAM-Bug ebenfalls behoben wurde, Belege dafür stehen bisher aber noch aus.

Weitere Funktionen[Bearbeiten | Quelltext bearbeiten]

Sämtliche Grafikkarten der GeForce-8-Serie unterstützten die CUDA-Technik. Des Weiteren unterstützen sie eine PureVideo HD genannte Videotechnik, die das Dekodieren ganz oder teilweise dem Hauptprozessor abnehmen kann. Grafikprozessoren ohne integrierten Videoprozessor unterstützen lediglich die erste Version, alle anderen mindestens die zweite.

Grafikprozessoren[Bearbeiten | Quelltext bearbeiten]

Grafik-
chip
Fertigung Einheiten L2-
Cache
API-Support Video-
pro-
zessor
Bus-
Schnitt-
stelle
Pro-
zess
Transi-
storen
Die-
Fläche
ROP-
Parti-
tionen
ROPs Unified-Shader Textureinheiten DirectX OpenGL OpenCL
Shader-
Cluster
Stream-
prozessoren
TAUs TMUs
G80 90 nm 681 Mio. 484 mm² 6 24 8 128 32 64 96 10.0 3.3 1.1[4][5] VP1 PCIe
G84 80 nm 289 Mio. 169 mm² 2 08 2 032 16 16 64 VP2
G86 210 Mio. 115 mm² 2 08 1 016 08 08 32
G92 65 nm 754 Mio. 324 mm² 4 16 8 128 64 64 64 PCIe 2.0
G98 210 Mio. 086 mm² 1 04 1 008 08 08 64 VP3 PCI,
PCIe 2.0
GT218 40 nm 260 Mio. 057 mm² 1 04 1 016 08 08 32 11.1 VP4 PCIe 2.0

Namensgebung[Bearbeiten | Quelltext bearbeiten]

Bei der GeForce-8-Serie kommt das gleiche Bezeichnungsschema wie seit der GeForce-6-Serie zum Einsatz. Alle Grafikchips werden mit einer vierstelligen Nummer bezeichnet, die generell mit einer „8“ (für GeForce 8) beginnt. Die zweite Ziffer teilt dann die Familie in verschiedene Marktsegmente auf. Die dritte und vierte Ziffer dienen zu einer weiteren Diversifizierung. Zusätzlich zu den diskreten Grafikchips integriert Nvidia auch Grafikkerne auf Basis der GeForce-8-Serie in den Chipsätzen der Serie nForce 700, diese werden unter den Namen GeForce 8200 und GeForce 8300 vermarktet.

Nvidia GeForce 8800 Ultra
Aufteilung
Buchstabenkürzel
  • kein SuffixIGP-Variante oder Budgetversion
  • GS – Leistungsschwache Budgetversion
  • GT – „Normale“ Version (Preis-Leistungs-Verhältnis)
  • GTS – Im Mainstream-Segment, mit der GT, die leistungsfähigste Version
  • GTX – Leistungsfähiges Modell (nur im High-End-Segment)
  • Ultra – Leistungsfähigstes Modell (nur im High-End-Segment)

Dieses Schema lässt sich allerdings nur begrenzt anwenden, da Nvidia unter den Namen „GeForce 8400 GS“ und „GeForce 8800 GTS“ verschiedene Grafikkarten vermarktet. So wurde der Name der 8800 GT auch im Bezug zur neueren GeForce 8800 GTS, und nicht zu den älteren G80-basierten 8800-GTS-Varianten gewählt. Diese neuen 8800-GTS-Grafikkarten werden wegen des kleineren Speicherinterfaces an der Speichergröße von den Vorgängerkarten unterschieden.

Modelldaten[Bearbeiten | Quelltext bearbeiten]

Modell Offizieller
Launch
Grafikprozessor (GPU) Grafikspeicher
Typ Aktive Einheiten Chiptakt
(MHz)
Shader-
takt
(MHz)
Größe
(MB)
Takt
(MHz)
Typ Speicher-
interface
ROPs Shader-
Cluster
Stream-
prozessoren
TMUs TAUs
GeForce 8100[6] Mai 2008 MCP78 4 1 8 8 8 500 1200 Shared
Memory
IGP DDR2 IGP
GeForce 8200[7] Mai 2008 MCP78 4 1 8 8 8 500 1200 IGP DDR2 IGP
GeForce 8300[8] Mai 2008 MCP78 4 1 8 8 8 500 1500 IGP DDR2 IGP
GeForce 8300 GS[9] 17. Apr. 2007 G86 4 1 8 8 8 459 918 128 400 DDR2 64 Bit
GeForce 8400 GS[10] 17. Apr. 2007 G86 4 2 16 8 8 459 918 256 400 DDR2 64 Bit
GeForce 8400 GS Rev. 2[11] 4. Dez. 2007 G98 1 8 520 1230 512
GeForce 8400 GS Rev. 3[12] 12. Jul. 2010 GT218 2 16
GeForce 8400[13] 4. Dez. 2007 G98 4 1 8 8 8 540 1300 256 500 DDR2 64 Bit
GeForce 8500 GT[14] 17. Apr. 2007 G86 4 2 16 8 8 459 918 256
512
1024
400 GDDR3 128 Bit
GeForce 8600 GS[15] 17. Apr. 2007 G84 8 1 16 8 8 540 1190 512 400 DDR2 128 Bit
GeForce 8600 GT[16] 17. Apr. 2007 G84 8 2 32 16 16 540 1190 256
512
1024
700 GDDR3 128 Bit
GeForce 8600 GTS[17] 17. Apr. 2007 G84 8 2 32 16 16 675 1450 256
512
1000 GDDR3 128 Bit
GeForce 8800 GS[18] 31. Jan. 2008 G92 12 6 96 48 48 550 1375 384
768
800 GDDR3 192 Bit
GeForce 8800 GT[19] 29. Okt. 2007 G92 16 7 112 56 56 600 1500 512 900 GDDR3 256 Bit
GeForce 8800 GTS[20] 12. Feb. 2007 G80 20 6 96 48 24 513 1188 320 792 GDDR3 320 Bit
8. Nov. 2006 640
19. Nov. 2007 7 112 56 28
GeForce 8800 GTS 512[20] 11. Dez. 2007 G92 16 8 128 64 64 650 1625 512 970 GDDR3 256 Bit
GeForce 8800 GTX[20] 8. Nov. 2006 G80 24 8 128 64 32 575 1350 768 900 GDDR3 384 Bit
GeForce 8800 Ultra[20] 2. Mai 2007 G80 24 8 128 64 32 612 1500 768 1080 GDDR3 384 Bit
Hinweise
  • Die angegebenen Taktraten sind die von Nvidia empfohlenen bzw. festgelegten. Allerdings liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
  • Mit dem angegebenen Zeitpunkt ist der Termin der öffentlichen Vorstellung angegeben, nicht der Termin der Verfügbarkeit der Modelle.
  • Die Taktfrequenz des Speichers wird auch oft als doppelt so hoch angegeben. Grund dafür ist die doppelte Daten-Rate (DDR).

Leistungsdaten[Bearbeiten | Quelltext bearbeiten]

Für die jeweiligen Modelle ergeben sich folgende theoretische Leistungsdaten:

Modell Rechenleistung aller
Streamprozessoren
(GFlops)
Füllrate des Grafikprozessors Datenübertragungsrate
zum Grafikspeicher
(GB/s)
Pixel (GPixel/s) Texel (GTexel/s)
GeForce 8100 28,8 2 4 -
GeForce 8200 28,8 2 4 -
GeForce 8300 28,8 2 4 -
GeForce 8300 GS (G86) 22,0 1,8 3,6 6,4
GeForce 8400 GS (G86) 44,1 1,8 3,7 6,4
GeForce 8400 GS (G98) 29,5 2,3 4,5 6,4
GeForce 8400 GS (GT218) 59,0 2,1 4,2 6,4
GeForce 8400 31,2 2,2 4,3 8,0
GeForce 8500 GT 44,1 1,8 3,7 12,8
GeForce 8600 GS 57,1 4,3 4,3 12,8
GeForce 8600 GT 114,2 4,3 8,6 22,4
GeForce 8600 GTS 139,2 5,4 10,8 32,0
GeForce 8800 GS 396 6,6 26,4 38,4
GeForce 8800 GT 504 9,6 33,6 57,6
GeForce 8800 GTS 342,1 10,3 24,6 63,4
GeForce 8800 GTS (112 SPs) 399,2 10,3 28,7 63,4
GeForce 8800 GTS 512 624 10,4 41,6 62,1
GeForce 8800 GTX 518,4 13,8 36,8 86,4
GeForce 8800 Ultra 576 14,7 39,2 103,7
Hinweise
  • Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixelfüllrate, die Texelfüllrate und die Speicherbandbreite sind theoretische Maximalwerte. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
  • Die angegebene Rechenleistung über die Streamprozessoren bezieht sich auf die Nutzung beider MUL-Operationen, die bei Grafikshaderberechnungen nicht erreicht wird, da weitere Berechnungen ausgeführt werden müssen. Bei diesen Berechnungen liegt die Leistung der Rechenleistung über die Stream-Prozessoren daher geringer. Details finden sich im Abschnitt Unified Shader.
  • Die Rechenleistung über die Streamprozessoren ist nicht direkt mit der Leistung der ATI-Radeon-HD-2000- und -3000-Serie vergleichbar, da diese auf einer anderen Architektur aufbaut, welche anders skaliert.

Leistungsaufnahmedaten[Bearbeiten | Quelltext bearbeiten]

Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem nVidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken.

Modell Typ Verbrauch (Watt) zusätzliche
Strom-
stecker
MGCP
[21]
Messwerte
Idle 3D-Last
[22]
GeForce 8100 MCP78 k. A. k. A. k. A. keine
GeForce 8200 MCP78 k. A. k. A. k. A. keine
GeForce 8300 MCP78 k. A. k. A. k. A. keine
GeForce 8300 GS G86 040 k. A. k. A. keine
GeForce 8400 GS G86 038 k. A. k. A. keine
GeForce 8400 GS Rev. 2 G98 025 k. A. k. A. keine
GeForce 8400 GS Rev. 3 GT218 025 k. A. k. A. keine
GeForce 8400 G98 025 k. A. k. A. keine
GeForce 8500 GT G86 030 21[23] 036[23] keine
GeForce 8600 GS G84 047 k. A. k. A. keine
GeForce 8600 GT G84 047 25[23] 056[23] keine
GeForce 8600 GTS G84 060 29[23] 068[23] 1× 6-Pin
GeForce 8800 GS G92 105 k. A. k. A. 1× 6-Pin
GeForce 8800 GT G92 125 51[23] 135[23] 1× 6-Pin
GeForce 8800 GTS (320 MB) G80 146 63[23] 136[23] 1× 6-Pin
GeForce 8800 GTS G80 146 74[23] 152[23] 1× 6-Pin
GeForce 8800 GTS (112 SPs) G80 k. A. k. A. k. A. 1× 6-Pin
GeForce 8800 GTS 512 G92 143 62[23] 165[23] 1× 6-Pin
GeForce 8800 GTX G80 155 82[23] 192[23] 2× 6-Pin
GeForce 8800 Ultra G80 175 90[23] 209[23] 2× 6-Pin

Weitaus üblicher als die Messung des Verbrauchs an der Grafikkarte ist die Bestimmung der Leistungsaufnahme eines Gesamtsystems. Dazu wird ein Referenzsystem zusammengestellt, in dem die verschiedenen Grafikkarten eingebaut werden; daraufhin findet die Messung mithilfe eines Energiekostenmessgerätes oder einer vergleichbaren Apparatur direkt an der Steckdose statt. Allerdings ist die Aussagekraft der Messwerte begrenzt: Es ist nicht klar, welcher Verbrauch von der Grafikkarte stammt und was dem restlichen PC-System zuzuschreiben ist. Der Unterschied im Verbrauch zwischen Idle- und 3D-Lastbetrieb ist bei dieser Messmethode nicht nur davon abhängig, mit welchem Programm die Last erzeugt wurde; die Auslastung und Effizienz des restlichen PC-Systems inklusive Netzteil, Mainboard und Prozessor beeinflussen die gemessene Differenz ebenfalls. Da sich die getesteten Systeme in der Regel von dem eigenen PC-System zuhause unterscheiden, lassen sich die dort angegebenen Werte nicht auf das eigene System abbilden. Nur Messdaten von sonst identischen Systemen taugen (bedingt) für den Vergleich untereinander. Wegen dieser Abhängigkeit sind Gesamtsystem-Messwerte in der hiesigen Tabelle nicht aufgeführt. Da sie aber ein besseres Bild von der praktischen Leistungsaufnahme eines konkreten Systems mit einer bestimmten Grafikkarte vermitteln können, werden unter den Weblinks Webseiten aufgelistet, die solche Messungen vornahmen.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Commons: Nvidia-GeForce-8-Serie – Sammlung von Bildern, Videos und Audiodateien

Messung der Leistungsaufnahme eines Gesamtsystems

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Nvidia Chief Architect: Unified Pixel and Vertex Pipelines – The Way to Go. X-bit labs, 11. Juli 2005, archiviert vom Original (nicht mehr online verfügbar) am 20. Februar 2009; abgerufen am 1. Februar 2010 (englisch).  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.xbitlabs.com
  2. Test: nVidia GeForce 8800 GTS (SLI). ComputerBase, 22. Dezember 2006, abgerufen am 1. Februar 2010.
  3. ForceWare 163.44 behebt VRAM-Bug auf G8x (Update). ComputerBase, 28. August 2007, abgerufen am 1. Februar 2010.
  4. http://www.nvidia.de/object/win7-winvista-32bit-257.21-whql-driver-de.html OpenCL 1.0 ab Tesla-Chip G80 mit WHQL 257.21
  5. http://www.gpu-tech.org/content.php/162-Nvidia-supports-OpenCL-1.1-with-GeForce-280.19-Beta-performance-suffers OpenCL 1.1 ab Tesla-Chip G80 mit Beta 280.19
  6. GeForce 8100 mGPU. Nvidia Corporation, abgerufen am 4. Dezember 2011.
  7. GeForce 8200 mGPU. Nvidia Corporation, abgerufen am 4. Dezember 2011.
  8. GeForce 8300 mGPU. Nvidia Corporation, abgerufen am 4. Dezember 2011.
  9. Modell ist nur für den OEM-Markt vorgesehen und wird von Nvidia offiziell nicht gelistet.
  10. GeForce 8400 GS. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  11. GeForce 8400 GS Rev. 2. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  12. GeForce 8400 GS Rev. 3. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  13. GeForce 8400. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  14. GeForce 8500 GT. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  15. GeForce 8600 GS. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  16. GeForce 8600 GT. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  17. GeForce 8600 GTS. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  18. GeForce 8600 GS. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  19. GeForce 8600 GT. TechPowerUp, abgerufen am 26. Mai 2015 (englisch).
  20. a b c d GeForce 8800. Nvidia Corporation, abgerufen am 4. Dezember 2011.
  21. Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
  22. Der unter 3D-Last angegebene Wert entspricht dem typischen Spieleverbrauch der Karte. Dieser ist allerdings je nach 3D-Anwendung verschieden. In der Regel wird zur Ermittlung des Wertes eine zeitgemäße 3D-Anwendung verwendet, was allerdings die Vergleichbarkeit über größere Zeiträume einschränkt.
  23. a b c d e f g h i j k l m n o p q r Leistungsaufnahme Grafikkarten und Stromkosten. Tom's Hardware, 16. Dezember 2008, abgerufen am 23. Januar 2010.