Diskussion:General Purpose Computation on Graphics Processing Unit

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 7 Jahren von 194.230.155.133 in Abschnitt AMD (ATI) Stream
Zur Navigation springen Zur Suche springen
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „General Purpose Computation on Graphics Processing Unit“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Unter Umständen kann so eine Geschwindigkeitssteigerung im Vergleich zur CPU erzielt werden.

[Quelltext bearbeiten]

Ich würde eher sagen, dass GPGPU NUR dazu da ist um eine Geschwindigkeitssteigerung zu erreichen. Diese wird nicht "unter Umständen" sondern so gut wie bei jedem Algorithmus erzielt, wenn er zur Parallelisierung angepasst wurde. (nicht signierter Beitrag von 95.115.163.97 (Diskussion) 17:00, 11. Jul 2010 (CEST))

Es gibt auch Algorithmen, die sich nicht oder nur schlecht paralellisieren lassen. Diese laufen üblicherweise auf einer CPU immer schneller als auf einer GPU. --MrBurns (Diskussion) 02:02, 18. Dez. 2012 (CET)Beantworten
PS: außerdem ist es möglich, dass der Grafikspeicher nicht ausreichend ist. In dem Fall kann zwar der Hauptspeicher benutzt werden, aber die Latenz beim Zugriff auf den Hauptspeicher über den PCIe-Bus ist deutlcih größer als wenn die CPU auf den Hauptspeicher zugreift. Wenn ausreichend viele Zugriffe auf den Hauptspeicher notwendig sind, kann das daher den eventuellen Geschwindigkeitsvorteil durch gesteigerte Paralellisierung leicht zunichte machen. --MrBurns (Diskussion) 02:33, 18. Dez. 2012 (CET)Beantworten
Ich erlaube mir hier einmal mit Praxiswissen beizutragen. Im Rahmen unserer Projekte wurde mit CUDA experimentiert und wir kamen zu dem Ergebnis, dass die extrem hohe Rechenleistung durchaus erreicht wird, aber außer für werbeträchtige Perfomancemessungen wenig praktischen Nutzen hat. Mit anderen Worten: Die Einsatzbereiche sind extrem begrenzt. Mir gefällt der Vergleich eine Kollegen, der einen Golf GTI mit einem Bugatti Veyron verglich. Letzterer erreicht eine um 170km/h höhere Endgeschwindigkeit als der Golf. Die Durchschnittsgeschwindigkeit ist jedoch gar nicht so viel höher, weil der Veyron bei dieser Geschwindigkeit alle 12 Minuten an die Tankstelle muss. Durch dieses Bremsen, tanken von 100l und wieder hochbeschleunigen gehen alle 12 Minuten rund 7 Minuten verloren.
Ähnlich ist das bei GPGPU. Zum einen müssen die Aufgaben echt parallelsisierbar und der Abhängigkeitgrad muss gering sein. Sind sie das, müssen die Daten in die GPU-konformen Datentypenmm konvertiert, das Ganze auf die GraKa hochgeladen und die Berechnugnfunktionen etabliert und verteilt werden. Das alles macht noch die CPU über den BUS. Erste jetzt legt die GPU los und wenn diese fertig ist, müssen die Ergebniss wieder durch die reguläre CPU aus dem Graphikspeicher befreit und wieder in das geläufige Datenformat zurückkonvertiert werden. Rechnet man diese Zeiten zusammen und vergleicht sie mit den Zeiten, welche die CPU brauchen würde, wenn man es mit SSE3 (und nicht mit dem numersichen CoPro macht, wie es die nvidia-Tests) macht, dann ist der Unterschied in der überwiegenden Zahl der Fälle zu marginal um den Aufwand zu betreiben. Sich damit zu brüsten, das man durch die GraKa seinen Rechner in die TerraFLOPS-Liga befördert hat, ist reine Augenwischerei! CUDA war bis Fermi Spielerei, mit Fermi konnte man etwas damit anfangen und jetzt ab Kepler wird es langsam brauchbar - vor allem weil auch die GraKas enstprechend mehr Speicher haben. Dennoch ist nach wie vor das Einsatzgebiet sehr beschränkt. Selbst Adobe Photoshop ging wieder von GPGPU weg. Ein der wenigen sinnvollen Einsatzgebiete ist die Cycles-Renderengine von Blender. 79.212.151.158 12:48, 20. Jun. 2014 (CEST)Beantworten

Unfertig

[Quelltext bearbeiten]

Nicht für ungut, aber der Artikel wirkt ein bisschen wie geschrieben von einem der das Thema noch nicht ganz durchdrungen hat; es ist alles nicht falsch, aber richtig ist es auch nicht... -- Global667 05:14, 8. Feb. 2011 (CET)Beantworten

AMD (ATI) Stream

[Quelltext bearbeiten]

Müsste der Vollständigkeit halber unter den alternativen Technologien nicht auch AMDs (ehem. ATI) Stream-Technologie genannt werden? Meines Wissens handelt es sich dabei ja auch um eine GPGPU vergleichbar mit nVidia CUDA? (nicht signierter Beitrag von 194.230.155.133 (Diskussion) 16:38, 29. Mär. 2017 (CEST))Beantworten