Diskussion:Nvidia GeForce M

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Nvidia GeForce M“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Wikipedia kann rechnen^^

[Quelltext bearbeiten]

Ihe könnte wie es aussieht nicht rechnen, da die Pixelfüllrate der GTX 460M, GT555M höher ist. Hier ein Beispiel:

GT555M: 24 ROPs x 590 MHz = 14,16 GPixel/s GTX 460M: 24 ROPs x 675 MHz = 16,2 GPixel/s

Ihr rechnet als ob es 16 ROPs wären, auch sind eure Infos zu GPUs falsch. Die GT 335M oder GTS 350M/360M haben keine 16 ROPs, sie haben nur 8 ROPs, wie die Desktop GT240 (haben ja den selben Chip). Egal wo ich in Wikipedia schau, überall können die Leute net rechnen oder Infos zusammensuchen. Fragt am besten beim Hersteller nach, bevor ihr anfangt einen Artikel zu schreiben (der FALSCH ist).

Mathe scheint ja schwer zu sein, ist wohl nicht Wikipedias stärke.

1 ROP kann 1 Pexel berechnen pro Takt, da es 24 ROPs sind und 675 MHz (GTX 460M) kommt auch mehr als ca 10 GPixel/s raus. (nicht signierter Beitrag von 178.2.177.31 (Diskussion) 14:06, 15. Mai 2011 (CEST)) Beantworten

Ruhig Blut, tief durchatmen und das signieren der Beiträge nicht vergessen!
Zurück zum Thema: Wie du richtig erkannt hast, basieren die GT 335M, GTS 350M, GTS 360M und die GT 240 alle auf derselben GPU, nämlich dem GT215. In der Tat war zunächst unklar, über wie viel ROPs der GT215 verfügt, aber inzwischen hat Nvidia bestätigt, dass dieser über 16 ROPs verfügt (siehe u.a. hier).
Bei den Pixelfüllraten ist es dagegen etwas komplizierter. Bis zur Fermi-Architektur war das relativ einfach: Anzahl der ROPs x Takt = Pixelfüllrate. Nun aber ist es so, dass nicht alle ROPs pro Takt ein Pixel von den Shaderclustern zugewiesen gekommen und somit diesen auch nicht ausgeben können. Jeder Shadercluster gibt bei der Fermi-Architektur vier Pixel pro Takt weiter (beim GF100/GF110 sind es sogar nur zwei). Wenn nun die Anzahl der ROPs die Anzahl der weitergegebenen Pixel übersteigt (was häufig der Fall ist), liegt der Teil der überschüßigen ROPs brach.
Bsp GTX 460M:
Theoretisch 24 ROPs x 675 MHz = 16,2 GPixel/s
Da aber auf der GTX 460M nur vier Shadercluster aktiv sind, können diese auch nur 16 Pixel pro Takt weitergeben, deshalb:
16 aktive ROPs x 675 MHz = 10,8 GPixel/s
Der Aspekt wird u.a. hier und hier erläutert. Mfg, Defcon -- DeffiSK 15:43, 15. Mai 2011 (CEST)Beantworten

Bedeutet ja, das es nix bringt 24 ROPs zu haben? wenn die GPU nur 12 belastet. hat diese Art der ROPs überhaupt einen vorteil? bremst das irgendwie was aus im Spiel? Ich meine ich wollte ein ASUS G74SX mit GTX 560M kaufen, aber wenn das Teil in FULL HD mit AA zusammenbricht bringt es mir nix. Also bremst es die allgemeine Leistung in Spielen/hohen Auflösungen. (nicht signierter Beitrag von 178.2.177.31 (Diskussion) 16:31, 15. Mai 2011 (CEST)) Beantworten

Bei Nvidia hängt das Speicherinterface direkt mit der Anzahl der ROPs zusammen, da die Speichercontroller direkt an die ROPs gekoppelt werden. Will Nvidia kein 128 bit-Interface sondern z.B ein 192 Bit-Interface haben um die Speicherbandbreite zu erhöhen, erhöhen sie gleichzeitig die ROP-Anzahl von 16 ROPs auf 24 ROPS. Die Pixelfüllrate steigt dadurch aber nicht an, da sie in diesem Fall wie oben beschrieben von etwas anderem limitiert werden. Die AA-Leistung von Nvidias Fermi-GPUs ist unter dessen gut, da brauchst du dir keine Sorgen zu machen. Hier im Artikel wird ja auch nur die Pixel-Füllrate angegeben und nicht die AA-Sample-Füllrate. Die Pixel-Füllrate steigt durch die zusätzlichen ROPs nicht an. Da aber nun nicht die ROPs der limitierende Faktor sind, können die zusätzlichen ROPs offenbar etwas zusätzliche Performance bei hohen AA-Stufen bringen. [Daher sagt Nvidia ja auch (sieh PCGH-Artikel), dass die vergleichsweise hohe Anzahl der ROPs lediglich dazu gedacht ist, die Speicher- und Antialiasing-Leistung zu steigern.] --Juri S. 20:07, 15. Mai 2011 (CEST)Beantworten

Kleine Ergänzung: Die Performance eine Karte kann man auch nicht so einfach an der Pixelfüllrate festmachen; die Kombination aller Leistungsdaten ist relevant. Diese lassen sich wiederum auch nur innerhalb einer Generation vergleichen, gut zu erkennen an dem Sprung der GTX 285 zur GTX 480. Wenn die CPU nicht limitiert ist die GTX 480 rund 80% schneller als die GTX 285. An den Leistungsdaten lässt sich diese nicht mal ansatzweise erkennen:

  • Rechenleistung: 1345 zu 1062,7 GFlops (+27%)
  • Pixelfüllrate: 21 zu 20,7 GPixel/s (+1%)
  • Texelfüllrate: 42 zu 51,8 GTexel/s (-19%)
  • Speicherbandbreite: 177,4 zu 159 GB/s (+16%)

An dem Beispiel sollte sich recht gut erkenn lassen, dass auch die Bedeutung der einzelnen Leistungswerte bei den unterschiedlichen Architekturen verändert. (PS: Bei Wikipedia wird es nur sehr ungern gesehen, wenn man Diskussionsbeiträge nachträglich stark verändert oder löscht, auch wenn es die eigenen sind. Deshalb habe ich deinen ursprünglichen Beitrag wieder hergestellt.) mfg, -- DeffiSK 21:09, 17. Mai 2011 (CEST)Beantworten

GT520M

[Quelltext bearbeiten]

Gibt es irgendeine Quelle dafür, daß die GT520M einen GF119 enthält? Die Frage stellt sich, weil die GF119 einen massiv beschleunigten H.264 Decoder enthält, ich habe aber noch nirgends gelesen, daß diese Beschleunigung auch mit der GT520M zu beobachten ist.--Regression Tester 23:44, 24. Jun. 2011 (CEST)Beantworten

Artikel zusammenlagen?

[Quelltext bearbeiten]

Grundsätzlich gefragt, wie sinnvoll ist derzeit die Zusammenfassung aller Geforce M Modelle, egal welcher Serie, in diesem Artikel? Der große Nachteil derzeit liegt darin, dass der Artikel zum einen langsam etwas unübersichtlich geworden ist, zum anderen nur sehr unregelmäßig aktualisiert wird. Im wiki.en werden die Mobile-Modellen mit den Desktop-Modellen zusammen abgearbeitet (Bsp. 1 & Bsp. 2), was insbesondere für unerfahrene Leser von Vorteil sein kann. mfg -- DeffiSK (Diskussion) 19:53, 14. Mai 2016 (CEST)Beantworten

Techpowerup.com ist eine gute Quelle , Tabellen sind zu lang, sortable wäre auch ganz nett

[Quelltext bearbeiten]

Weil techpowerup auf eingelesenen Daten von GPU-Tools basiert, die von Rechnern an die Datenbank verschickt werden auf Wunsch des Users. API-Daten wie OpenGL-Version hängen vom installierten Treiber ab und können dann veraltet vom aktuell möglichen abweichen.

Tabellen sind zu lang und nicht sortierbar.

Einfach nochmal den Kopf der Tabelle nochmal unten anfügen. (nicht signierter Beitrag von 95.90.229.195 (Diskussion) 16:52, 27. Okt. 2016 (CEST))Beantworten