Diskussion:Grafikkarte/Archiv/1

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 2 Jahren von 91.64.59.86 in Abschnitt Externe Signalausgänge - USB-C fehlt?
Zur Navigation springen Zur Suche springen

Singular

Immer den Singular verwenden. Grafikkarte existiert nämlich bereits daher sollte Benutzer:Fisch dein Zusammenführung durchführen und Grafikkarten wieder löschen. --TomK32 09:48, 24. Feb. 2003 (CET)

Archivierung dieses Abschnittes wurde gewünscht von: JoBa2282 Red mit mir 15:00, 30. Sep. 2008 (CEST)

URV?

Dieser Text scheint von http://www.pckrieg.de/grafikkarten/3dfunktion4.php zu stammen! Bitte ursprünglichen Autor um Erlaubnis fragen. --Fristu 11:22, 4. Mär. 2003 (CET)

E-Mail ist raus. --Kurt Jansson 12:28, 4. Mär 2003 (CET)
Kam keine Reaktion. Werde den Text jetzt entfernen. --Kurt Jansson 04:07, 11. Apr 2003 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: JoBa2282 Red mit mir 15:00, 30. Sep. 2008 (CEST)

Alter Hut

"Die neuesten Entwicklungen im Jahre 2004 sind hier mehrfache Vertex-Shader und Pixel-Shader, Mehrfach-Antialiasing und Transform and Lighting, sowie Anisotropes Filtern." - wenn ich mich nicht völlig irre, gibt es das alles schon seit mehreren Jahren. Bereits die GeForce 256 hatte T&L auf dem Kasten. Mehrfach-Antialiasing und Anisotropes Filtern sind noch älter. --Dylac 20:06, 21. Aug 2004 (CEST)

Hersteller der drei Grafikkartentypen

Die Liste mit den drei Grafikkartentypen und deren Herstellern geht irgendwie an der Realität vorbei: Bei den Onboard-Chips fehlt der Marktführer Intel (in Büro-Computern "gehört" zum Intel-Board Intel-Onboardgrafik), evtl. sollte man hier auch noch SiS und vielleicht ATI (die machen viele der "Not-Grafikchips" in Servern) aufnehmen. Wann hat man eigentlich zuletzt was von der Firma S3 gehört? ;-) Im Business-Bereich sollten IMO die auf CAD-Anwendungen optimierten Karten erwähnt werden, die hauptsächlich von Matrox und NVidia (Quadro) stammen. --Echoray 16:55, 15. Dez 2004 (CET)

--- Sehr richtig, zudem fehlt noch der Hersteller "Gigabyte". Man sollte doch klar differenzieren zwischen den Herstellern der Chips (ATI/Nvidia/Intel/SiS) und den Unternehmen die diese Chips auf ihren Karten verbauen (MSI, DFI .... u.s.w.). /


Einige werden vielleicht die Aufführung von ATi als Hersteller vermissen und sich aber über die Aufzählung von AMD hier wundern. Der Hinweis daß ATi von AMD aufgekauft wurde, sollte hier hinzugefügt werden. Kurzform à la "AMD(=ATi)" oder so ähnlich, würde evtl. schon ausreichen. (nicht signierter Beitrag von 88.72.249.26 (Diskussion) )
Da stimme ich dir zu. Ich hab das mal gemacht. --Uncle Pain 20:53, 30. Okt. 2007 (CET)
Habe das mal etwas konkretisiert: Bei den IGPs ATI raus - da ist eine kurze & knappe aktuelle Liste, und die Chipsätze selber heißen ja nun auch AMD xxx. Der Punkt bei den Workstation-Karten ist so ungefähr OK, habe das mal noch umgebaut und auf ATI gelinkt. Aber bei den Anbietern von Grafikkarten/-chips: Beim ersteren Punkt - also Grafikkarten - ist AMD komplett rausgeflogen, dass haben sie nie gemacht genau so wenig wie Nvidia. Nur ATI hat früher, meines Wissens bis zur 9800-Serie, selber Grafikkarten herausgebracht - daher dort die Erwähnung der übernommenen Firma. Bei den Grafikchips stehen beide Firmen drinnen, soll ja anscheinend eine vollständige Liste sein. Dort stehen ja auch andere übernommene Firmen drinne, die dann sonst doppel gelistet werden. Ionenweaper 22:58, 30. Okt. 2007 (CET)

Größe des Grafikspeichers

"Die Größe des Grafikspeichers bestimmt die maximale Farbtiefe und Bildauflösung." Bei den heutigen Grafikkarten spielt die Größe des Grafikspeichers hinsichtlich Farbtiefe und Bildauflösung eigentlich kaum noch eine Rolle, weil er schlicht groß genug ist (selbst mit nur 8 MB lassen sich 1600x1200x32 darstellen). Der Grafikspeicher, der ja bei aktuellen Karten Größen von 256 MB und mehr erreicht, dient z. B. auch zur Speicherung von Texturen, das sollte noch mit rein. --217.236.34.2 20:36, 29. Apr 2005 (CEST)

ist jetzt drin --84.130.42.151 23:20, 1. Aug 2005 (CEST)

Nicht ATI hat die erste 512er Karte auf den Markt gebracht, sondern 3DLabs. -- Ralf digame 14:43, 17. Mär 2006 (CET)

Auch richtig! Is aber relativ unwichtig für diesen Artikel, sondern sollte eher in den 3DLabs-Artikel. Jedenfalls habe ich die unnötige Werbung und die Aussagen, die eh nur wenige Wochen bestand haben, entfernt. --Stickedy 16:26, 17. Mär 2006 (CET)

Integrierte Grafikchips

"Grafikkarten werden entweder als PC-Erweiterungskarten (über die Bussysteme ISA, VLB, PCI, AGP oder über PCI-Express) mit der Hauptplatine verbunden oder sie sind im Chipsatz auf der Hauptplatine vorhanden."

Integrierte Grafikchips sind ebenfalls über die Bussysteme AGP, PIC-E, ISA usw. angebunden. Bei der Definition im Artikel entsteht aber der Eindruck das diese irgendwie anders an das System angeschlossen werden. Der einzige Unterschied ist dass Arbeitsspeicehr vom System verwendet wird.

Das muss nicht unbedingt der Fall sein. Der wesentliche Unterschied ist: Grafikkarten in Onboard-Bauform gibt es nicht. Allgemein spricht man von Grafikadaptern, weil sie das Bus-System auf den Monitor-Anschluss mit Framebuffer und bei Grafikadaptern mit analogen Ausgang zusätzlich noch mit einem oder mehreren RAMDACs adaptieren. Als Bauformen gibt es sie beispielsweise in Kartenform („Grafikkarte“) und auf der Hauptplatine („onboard“). Die gleichen Deppen bezeichnen möglicherweise auch Onboard-Netzwerkadapter als Netzwerkkarte und kennen sicherlich den allgemeinen Begriff Schreibstift nicht, sondern verwenden Kugelschreiber für alles was schreibt, auch wenn es nur ein schnöder Bleistift ist. — Big-Endian 19:50, 29. Apr 2006 (CEST)
Das ist so nicht ganz richtig, da es auch komplette Grafikkarten onboard gibt. Komplett mit GPU, eigenem Speicher und einer Anbindung über AGP/PCIe. Eine derartige Ausführung wird zwar immer seltener, da die häufigste Bauform die von dir beschriebene ist, aber solche Boards werden immernoch verwendet. Im übrigen könnte man fast alle Notebooks mit dedizierte Grafik auch als onboard-Lösung beschreiben ... ;) --Wookie 13:12, 7. Dez. 2006 (CET)

CAD-Karten

Karten für CAD-Anwendungen. Diese Karten sind meist Abwandlungen der Gamerkarten... wer kommt auf sowas? Ich habe eine Wildcat mit Hardware-OpenGL, ich kenne keine Spielekarte, die so etwas besitzt... Ralf digame 14:51, 17. Mär 2006 (CET)

Alle heutigen Grafikchips beherrschen OpenGL! Du hast aber mit deinem Einwand schon teilwese recht, ich hab mal den kompletten Abschnitt des Artikels überarbeitet. War eh viel Geschmarre drin... --Stickedy 16:24, 17. Mär 2006 (CET)
Thx :-) Ich habe von Hardware zu wenig Ahnung, um das ordentlich zu machen. Ich meinte, daß meine Karte Hardware-Open-GL unterstützt, mit AutoCAD und 3DStudio kann ich die Karte direkt programmieren. DirectX läuft bei mir nicht - ich kann mir nicht vorstellen, daß da irgendwelche Verwandschaften mit Spielekarten bestehen... Ralf digame 16:58, 17. Mär 2006 (CET)
Bei den 3DLabs-Karten nicht, das stimmt! Früher war es so, dass die Profi-Karten (CAD etc.) mit extra Chips gebaut wurden, dann haben ATI und NVidia diesen Markt für sich entdeckt und ihre normalen Chips leicht abgeändert und auch für diesen Markt benutzt. Deine Karte müsste aber auch DirectX können, wenn auch mehr schlecht als recht... So wie es jetzt da steht trifts das eigentlich ganz gut denke ich. Wobei der Artikel grundsätzlich mal überarbeitet werden müsste. --Stickedy 22:36, 17. Mär 2006 (CET)

Analoge Ausgänge unterbinden??

Hallo, im Text steht Folgendes:

Auserdem ist zu erwähnen das mit zukünftigen Betriebsystemem die S-Video sowie die Analogen Monitorausgänge ganz unterbunden werden können. Demzufolge ist bei einem Kauf einer neuen Grafikkarte für ein zukünftiges System darauf zu achten, das zwingend ein DVI Anschluss vorhanden ist, welcher mit entsprechend !immer! beiligendem Adapter auch für alte Monitoren benutzt werden kann

Welche der Ausgänge gelten als "analoge"? Könnte sich vielleicht mal jemand über den Sinn dieses "Unterbindens" auslassen? Vielen Dank! -- 84.132.98.143 13:32, 24. Jun 2006 (CEST)

Die blauen Anschlüsse sind analog, die Weissen digital. Digital ist schneller als Analog, deshalb das "Unterbinden".

Das die Digitalen Anschluesse schneller sind als die Analogen wage ich stark zu bezweifeln. Fuer hohe Aufloesungen bei 60Hz braucht der DVI-Anschluss bereits beide Kanaele. Der VGA Anschluss ist bis 2048x1536 @ 85Hz und 2560 x 1600 @ 60Hz immer noch voll dabei. Also eine Grafikkarte mit 400MHz RAMDAC und einem entsprechendem Monitor wie den HP p1230, der 400MHz Pixeltakt und 140KHz mitbringt sind solche Aufloesungen auch mit VGA kein Problem. Zwar unterstuetzt der genannte Monitor die 2560x1600@60Hz zwar nicht offiziell, aber man kann ihn auch damit betreiben, flackert halt wegen der 60Hz. Das Einzige Problem am Analogen Anschluss ist die Signalqualitaet. Aber mit entsprechenden Kabeln und eine hohen Ausgabequalitaet der Grafikkarte kann man locker aktuelle TFTs in Sachen Bildwiederholrate versus Aufloesung ueberbieten.

Ich denke, er meint eher die Verzögerung bis zur Darstellung. Die ist aber beiom RAMDAC eindeutig geringer, dort beträgt sie nämlich nur 1/RAMDAC-Takt (also im Nanosekunden-Bereich, da sidch die RAMDAC-Frequenz immer im MHz-Bereich befindet), wenn VSync ausgeschaltet ist. Beim DVI beträgt sie jedoch bis zu ca. 100 Millisekunden, denn dafür müssen die Bildinformationen vom RAMDAC erst fürn DVI umkodiert werden. Bei youtube sieht man genug Videos, wo aus genau diesem Grund LCDs CRTs hinterherhinken. Allerdings lässt sich die Verzögerung bei LCDs auch durch die Verwendung des analogen ausgangs nicht verhindern, weil daqnn die analogen Signale im Monitor wieder digitalisiert werden müssen. Allerdings erzeugen LCDs teilweise selber einen lag, wahrscheinlich weuil sie das Signal erst umrecvnen müssen und eventuell filtern und weil dazu dann noch die ganz normale Verzögerung der LCD-Pixeln kommt (siehe Reaktionszeit (Flachbildschirm)). --MrBurns 01:44, 31. Jul. 2008 (CEST)
Kannst du das belegen, dass DVI 100ms Verarbeitungszeit zusätzlich braucht? TFT-Monitore arbeiten teilweise durch den internen Signalprozessor (Interpolation, Dithering, dynamische Anpassung von Kontrasten/Farben) teilweise langsamer als CRTs, da das VGA-Signal dort direkt zur Ansteuerung der Bildröhre genutzt wird.-- Wookie 11:33, 31. Jul. 2008 (CEST)
Mir fällt noch was ein: es ist gut, dass der Satz, um den in diesem Abschnitt ursprünglich diskutiert wurde aus dem Artikel entfernt wurde, weil der war reine Spekulation. --MrBurns 17:07, 31. Jul. 2008 (CEST)

DirectX 9.L

Ich habe den Abschnitt zu DirectX 9.L gelöscht, weil das Ganze nach einem haltlosen Gerücht klingt. : Wieso sollte DirectX für Vista in zwei Versionen erscheinen? Nicht einmal eine Quelle ist gegeben.

The Inquirer hat im Oktober gemeldet, dass DX9.L eine Art "DirectX10 für Windows XP" sein soll, sodass auch DX10-Anwendungen unter WinXP laufen können. Wo dann jetzt der konkrete Unterschied zwischen DX9.L und DX10 sein soll, wurde nicht ausgeführt; warum der seltsame Versionsname gewählt wurde, auch nicht. Dazu sollte angemerkt werden, dass The Inquirer den Ruf einer großen IT-Gerüchteküche hat; manchmal liegen sie richtig, oftmals aber daneben. Diese DX9.L-Geschichte ist bisher von Microsoft weder bstätigt noch dementiert worden - und spekulative Gerüchte sind in meinen Augen fehl am Platz in der Wikipedia.

Uncle Pain 11:53, 21. Dez. 2006 (CET)

Aufbau und Funktionsweise fehlen völlig

Welche Bestandteile hat eine Grafikkarte? Wie funktioniert sie? Das wäre wichtig - und fehlt komplett. Die Funktionsweise wird nur in dem etwas verloren stehenden Unterpunkt "Grafikspeicher" angedeutet. RM - 26.3.2006
(nicht signierter Beitrag von 84.185.241.146 (Diskussion) 01:18, 27. Mär. 2006 (CET)) --JoBa2282 Red mit mir 14:56, 30. Sep. 2008 (CEST)

"Windowsbeschleuniger"

Der Begriff "Windowsbeschleuniger" ist mir völlig neu. Gibt es diesen Begriff wirklich?-- Outbreak 28.09.2004

Klingt nach einem ComputerBILD-Neologismus;-) 194.95.60.65 08:34, 30. Mai 2007 (CEST)
Nö, diesen Begriff gibt es und ist nicht von der CB erfunden worden. - Appaloosa 19:22, 30. Mai 2007 (CEST)
Jo, meine S3 801/805 war schon so betitelt worden. Und die Treiber Disketten fuer Windows 3.11 hatten auch den Titel: Windows Accelerator. Und das war die Karte auch ^^ (nicht signierter Beitrag von 87.139.55.127 (Diskussion) )

Grafikkarten mit mehreren TV-Ausgängen

Hallo... Ich weiß dass die Frage hier völlig deplaziert ist, aber vllt antwortet ja trotzdem jemand. Also: Ich benötige eine Grafik- oder Videokarte mit bis zu vier TV-Ausgängen. Es sollen bis zu vier statische oder (optional) animierte Grafiken vom PC über einen Modulator auf vier verschiedene Fernsehkanäle gebracht werden. Ist jemandem hier so etwas vllt schonmal über den Weg gelaufen? Das Ganze darf auch nicht teurer sein als 300€ netto...--Leonhardt 10:50, 25. Jan. 2007 (CET)

Stromverbrauch

Grundsätzlich ein guter Ansatz, in der jetzigen Form halte ich von der Angabe jedoch nicht sonderlich viel. Bei einem Gesamtsystem kann man eigentlich nur die Differenzen vergleichen, und müsste zusätzlich noch die Angaben über Chipsätze und andere Großverbrauche hinzuschreiben, damit der Wert realistisch ist. Außerdem funktioniert die Quelle z. B. im Firefox nicht richtig, z. B. verdeckt eine Tabelle den Weiter-Button - nicht gerade die Qualität die ich mir von einer Wikipedia-Quellseite wünschen würde. Und auch die verwendeten Treiber sind irgendwie nicht ausgewogen: Während die 8600 GTS mit den neuesten Modellen getestet wird, bekommen alle anderen Karten, also die älteren Geforce-Karten und die Radeon-Modelle alte Treiber. Inwiefern nämlich neue Treiber weitere Stromsparfunktionen mitbringen, sollte man auch einmal sehen. Und Messungen zum Stromverbrauch bietet ja auch andere Websites an.

Deswegen hatte ich den Abschnitt auch erst einmal herausgenommen. Ionenweaper 11:42, 29. Apr. 2007 (CEST)

Softwareprobleme mit Grafikkarten

Was soll der Blödsinn mit dem ACPI-Anschluss? Sollte das nicht eher TV-Out heißen?

Holla. Das sind Überreste eines Vandalismus vom 14. Oktober 2006: http://de.wikipedia.org/w/index.php?title=Grafikkarte&diff=22592586&oldid=22515129 . Mal wieder ein Beweis, dass man Wikipedia nur mit einer Prise Salz genießen sollte. Ich habs korrigiert. --Echoray 13:55, 11. Mai 2007 (CEST)

Weblinks

Solche Weblinks haben durchaus einen enzyklopädischen Mehrwert für wissenshungrige Besucher und sollten unbedingt mit aufgenommen werden:

Die Links besitzen größtenteils keinen Mehrwert. --RalfRBIENE braucht Hilfe 13:19, 1. Aug. 2007 (CEST)

Latenzen-Blabla

Ich habe folgenden Satz mal rausgenommen:

Während neben der Größe dieses Speichers heute auch noch Latenzen eine wesentliche Rolle spielten, spielt die Ausführungstechnik des Speichers (die auch wesentlich die Latenzen bestimmt), heute keine Rolle mehr.

Er stimmt grammatikalisch nicht, widerspricht sich selbst und enthält keine sinnvollen Infos. --Uncle Pain 16:42, 9. Jan. 2008 (CET)

Außerdem ist es generell so, dass bei Grafikkarten der Burst-Modus viel stärker genutzt wird als beim hauptspeicher, weshalb die Latenzen nicht so ins gewicht fallen. Viel wichtiger ist die Bandbreite. Grafikspeicher hat normalerweise viel höhere Latenzen als der Hauptspeicher, selbst wenn mans in Nanosekunden (nicht in Taktzyklen) misst. --MrBurns 17:52, 9. Jan. 2008 (CET)
So ein Bloedsinn. Die Grafikarten haben seit jeher einen wesentlich schnelleren Speicher on Board als PCs. Meistens etwa doppelt so reaktionsschnell wie der aktuell verfuegbare Arbeitsspeicher fuer normale PCs. Die Reaktionszeit des RAMs bestimmt im Endeffekt, wie hoch man den RAM effektiv takten kann. Die Betohnung liegt auf "effektiv". Zu der Zeit als noch 5ns ueblich waren (200MHz REALTAKT) waren die Grafikkarten schon bei etwa 3ns. Ich glaub meine Radeon 9800XT hatte 3,3ns, wenn ich mich nicht irre. Zudem ist bei der Grafikkarte der Speicher mit 512Bit oder 256Bit aktuell angebunden, was aber nicht sagt das die Grafikkarten nun einen 512Bit Bus fuer den Zugriff auf den RAM nutzen. Es werden eher fuer je einen Speicher - Chip oder fuer eine Gruppe einzelne 64Bit Pfade benutzt. Bei der Geforce 8 GTX gut zu "sehen". Das erhoeht die Effizenz, Burst Modus wird in der Form nicht mehr genutzt weil ineffektiv. Bei DDR2 oder DDR3 auf der Grafikkarte ist eigentlich schon alles, was sich an Burst Zugriffen lohnt, ausgeschoepft. (nicht signierter Beitrag von 87.139.55.127 (Diskussion) )
Du verwechselst da die taktlänge mit der Latenz. Die Latenz ist ein vielfaches der taktlänge und wird üblicherweise als ebensolches angegeben, meistens mit der Schreibwesie CL a-b-c-d also z.B. CL 5-5-5-15, wobei die zahlen dabei für CAS-tRCD-tRP-tRAS stehen. Die taqtsächliche Zugriffszeit auf eine Speicherzelle ist nur im Burst-Modus ein Taktzyklus, das wird üblicherweise jedoch nicht als Speicherlatenz bezeichnet, sondern als Länge eines taktzyklus (bzw. 1/Taktrate). sonst hat man üblicherweise beim Erstzugriff CAS + tRCD + tRP (also in unserem beispiel 15 Taktzyklen), bei späteren zugriffen hängt es dann von der Art des Zugriffs ab, tRP fällt jedoch immer an, außer im burst-Modus. Siehe Arbeitsspeicher#Leistung_von_Speichermodulen_.28Schaltzeitverhalten_.2F_Timing.29. Zu beachten ist jedoch, dass die dortige Beschreibung (und so ziemlich jede andere, die man im netz findet) der Bedeutung der einzelnen Speichertimings stark vereinfacht sind, wie sich schon mit einfachen Benchmarks mit verschiedenen Timings zeigen lässt (z.B. hat tRP meistens den größten Einfluß, sogar größer als CAS, was sich nach dieser Beschreibung nicht erklären lässt). Wie das genau funktioniert, wissen wohl nur die JEDEC und die Hersteller von Speicher und Speichercontrollern. Und was du mit "Reaktionszeit" meinst, ist unklar, da dieser Begriff in der Speichertechnik nicht definiert ist. man sollte lieber klar definierte Begriffe wie Latenzzeit oder Taktzyklus verwenden. und selbst beim taktzyklus würd ich nicht"seit jeher" schreiben, ich bezweifle, dass der Arbeitsspeicher einer NVIDIA NV1 schneller als der Hauptspeicher war (12MHz leigen deutlich unter dem EDO-RAM-Takt von soviel ich weiß 33 MHz, nicht zu verwechseln mit der Zugriffszeit, die bei EDO-RAM mit 60 ns wohl 2 Taktzyklen lang war). --MrBurns 11:17, 13. Mär. 2008 (CET)
Ich meinte die reine Reaktionszeit des RAMs. (wie schnell er physikalisch gesehen die angeforderten daten bereitstellen kann, undeachtet der Taktfrequenz.) Je schneller er reagiert, umso hoeher kann man ihn theoretisch takten (mit vertretbaren Zugriffszeiten). Die reine Reaktionszeit des Speichers bestimmt das maximal moegliche. Den Rest habe ich da nicht mit einbezogen. Aendert aber nichts daran, das VRAM deutlich flinker ist, als der RAM des PCs.
Der NV1 hat lahmen RAM, das glaub ich eher weniger. Meine S3 801/805 von 1993 hatte bereits 50ns. Damit war sie dem RAM der damals verbreiteten Kisten ueberlegen. Ich glaub zu der Zeit gabs vielleicht 70ns im High End Bereich fuer den RAM Ausbau. Und dann auch nur FPM, EDO gabs damals noch nicht fuer den PC, wenn ich mich nicht irre... (nicht signierter Beitrag von 87.139.55.127 (Diskussion) )
Du meinst wohl diese Zeit, die bei den Daten vom Chip gerne angegeben werden. Derartige Zeiten leigen derzeit schon teilweise bei unter 1 ns (das kürzeste, was ich gelesen hab war 0,8 ns), aber das ist nicht mit der Zugriffszeit zu verwechseln. Diese Zeit gibt im Prinzip die minimale Taktzykluslänge an, für die der Speicherhersteller den Chip konzipiert hat. Die zugriffszeit ist jedoch ein ganz- oder halbzahligges Vielfaches (halbzahlig geht auch wegen DDR) dieser Zeit und mindestens um eine Größenordnung höher, bei Video-RAM ist der Unterschied wahrscheinlich sogar noch mehr als eine Größenordnung, ich schätz mal so ca. 50 ns. Nur im Burst-Modus kann in jedem Taktzyklus 1 Wort ausgelesen werden (direkt aus dem I/O-Buffer sogar 2 Wörter pro Taktzyklus wegen DDR). --MrBurns 17:26, 17. Mär. 2008 (CET)

grafikkarten emulation

in emaulatoren und virtuellen maschienen; würde ich interesant gefunden haben, (in meinem tabletPc sei nämlich die grka kaputgegangem vesa funzt noch ,deshalb kam ich auf sowas;) aber vieleich gibs das gar nicht und für artikel ist dies eine der zukunft vorweggreifende inspiration?

Ich kann mir vorstellen, dass eine Graka durchaus noch eine ausgabe erzeugen kann, selbst wenn die GPU ausgefallen ist, falls der RAMDAC und der als Framebuffer genutzte Bereich des VRAMs nicht beeinträchtigt sind. --MrBurns 03:48, 18. Jan. 2008 (CET)

Grafikkarte

Woraus besteht sie eigentlich??

Die wichtigsten Bestandteile sind GPU, VRAM, RAMDAC und Bus-Interface. Zusätzlich gibts u.A. noch Komponenten, die die elektrischen Eigenschaften regeln (z.B. Chips zur Spannungsregulierung, Widerstände und Kondensatoren) sowie einen Flash-Speicher, welcher das Video-BIOS enthält. --MrBurns 15:04, 24. Jan. 2008 (CET)

Bedeutung des Begriffes Grafikkarte

Grafikkarte und Grafikprozessor bilden keine untrennbare Einheit. Würde mich eine unterscheidende Definition deinerseits interessieren (kleine Hilfe: Denk mal an den Speicher :D)...Obiges Zitat ist es beispielsweise, wenn ich von "wenig Abstrakt" spreche. Es gab (und gibt) Computer völlig ohne Grafikprozessor beispielsweise existieren Systeme die einen Bereich des Hauptspeichers für die Anzeige des Bildschirms verwenden; hier beschränkt sich (die Grafikkarte!?) auf eine einfachen DA-Wandler - klingt komisch, is aba so. --global667


Soweit, so gut. Die allgemeine Definition ist ja eigentlich, dass eine Grafikkarte eine Einheit ist, welche die Bildschirmausgabe am Computer steuert. Diese besteht aus einem Grafikprozessor (zur Bildsynthese), Grafikspeicher (Bildsynthese, Ausgabe) und ggf. eine RAMDAC (falls nicht nur reine digitale Ausgabe). Der Grafikprozessor muss dabei keine physische Einheit sein, sondern kann auch in einen anderen Chip (z.B. Northbridge) integriert sein - wird in Zukunft wahrscheinlich eh mehr in Richtung einer GPGPU gehen, welche als Koprozessor dient und im Bedarfsfall auch als Grafikprozessor fungiert (vgl. Intel Larrabee). Die Funktionalität ist bei einer IGP und einer GPU gleich, da eine IGP nur eine andere Form einer GPU ist. Das mit dem eigenen Speicher ist so eine Sache, da es auch IGPs gibt, welche einen gewissen Bereich eigenen Speicher haben und danach per AGP (wie jede andere AGP-Grafikkarte auch) auf den Hauptspeicher des Computers zugreifen können. Die Frage ist wo man da dann die Grenze ziehen würde. Allerdings wäre ich nicht dafür sich darauf zu versteifen, da von der Funktion her hier auch kein Unterschied besteht, da alles was mit dediziertem Grafikspeicher gemacht werden kann auch mit einem Speicherbereich aus dem Hauptspeicher geht.

Von daher würde man bei einer abstrakten Betrachtung auf drei Spezialfälle einer Grafikkarte kommen: Steckkarte, integriert auf Mainboard mit eigener GPU (z.B. in Notebooks und einigen Desktops) oder integriert in Northbridge (also nur mit IGP).

Zum Thema Computer ohne Grafikprozessor: Das macht mich jetzt neugierig, denn ich kenne bis jetzt keinen Computer ohne irgendeine Form einer GPU - denn das wäre auf alle Fälle ein interessanter Aspekt, denn man imho auch sehr gut in den Artikel aufnehmen könnte.

Mich würde mal deine Meinung dazu interessieren, besonders die Einordnung von den Randfällen (eigene GPU, aber auf Mainboard; IGP mit eigenem Speicher/ ohne eigenen Speicher). Grüße, -- Wookie 14:58, 5. Okt. 2008 (CEST)

Links:
MOS Technology VIC II MOS Technology VIC Digital-Analog-Umsetzer RAMDAC
http://www.mikrocontroller.net/articles/DA-Wandler http://gymoberwil.educanet2.ch/a.hu/projektarbeit/zuse/simu.htm
Wie gesagt habe ich nicht vor den Artikel selbst zu ändern. Mir geht es vor allem um eine richtige Sicht auf die Verhältnisse. Deshalb hier ein kurzer Abriß + Links:
Der erste echte Elektronische Datenverarbeiter war der Z3 von Konrad Zuse um 1943 in Berlin. Zur Interaktion mit dem Benutzer benötigt man eine Möglichkeit die Ergebnisse nach außen zu tragen. Der Z3 hatte hierzu einige Lampen, die die EDV an und ausschalten konnte, um sich dem Benutzer mitzuteilen. Wenn man so will die erste "Grafikkarte"...
Durch die steigende Rechenleistung und Miniaturisierung ( Transistoren ) wurde es möglich komplexere Ausgaben zu produzieren. Zunächst nur Text (ASCII), später auch Pixelgrafik (z.B. C64) bis zu den heutigen 3D-Karten in denen komplexe Algorithmen direkt in die Hardware integriert werden. Das Grundprinzip ist aber immer gleich. Die digital gespeicherten Daten des Computers (Zahlen) müssen in eine analoge Form (Farbe) ungewandelt werden. Im Kern ist eine Grafikkarte immer und in erster Linie also ein DA-Wandler bezogen auf einen bestimmten Speicherbereich (RAMDAC) (mit Einzug digitaler Displays stimmt das natürlich nicht mehr ganz...). So, kein Bock mehr :D !! Gruß --global667 16:49, 5. Okt. 2008 (CEST)

Also wenn ich mir diesen Artikel anschaue, behandelt er eigentlich ausschließlich Einsteck-Grafikkarten plus in einem Nebenabsatz den Sonderfall, dass diese Elektronik mit auf die Hauptplatine integriert ist. Von der Vorgeschichte der Videoausgabe vor den Karten, wie sie im Apple II eingeführt wurden, steht hier kein Sterbenswörtchen. Dieser Bereich, den Du anscheinend vermisst, findet man eher in Artikeln wie Computergrafik und Zeichengenerator, aber das ist in der Tat noch etwas dünn. Diese Grundlagen fehlen anscheinend noch. Aber ob man sie in diesen Artikel hier einbringen sollte, erscheint mir zweifelhaft. Besser wäre einer der anderen genannten, ein anderer, auf den ich vielleicht im Augenblick nicht gekommen bin, oder ein ganz eigener Artikel Videoausgabe oder so. - Ach so, und im Zeitalter der digitalen Schnittstellen kann man sich sogar den erwähnten D/A-Wandler sparen, dann ist es von vorn bis hinten pur digital. --PeterFrankfurt 01:53, 6. Okt. 2008 (CEST)

Wenig abstrakte Widergabe des Begriffs Garfikkarte

Gedanken zu Grafikkarten jenseits von Windof, PC und 3D-Daddeldaus fehlen völlig.
(nicht signierter Beitrag von 91.3.78.137 (Diskussion) 20:38, 29. Sep. 2008 (CEST)) --JoBa2282 Red mit mir 22:17, 29. Sep. 2008 (CEST)

Wie bitte soll man diesen Kritikpunkt verstehen? Gruß --JoBa2282 Red mit mir 22:17, 29. Sep. 2008 (CEST)
Ich denke mal, ihm fehlt ein Abschnitt zur weiteren Verwendung von Grafikkarten außerhalb ihres ursprünglich gedachten Einsatzfeldes (insbesondere als GPGPU). Das stimmt dann auch. Ionenweaper 00:14, 30. Sep. 2008 (CEST)
Hab ein ... zwei Sätze zu GPGPU geschrieben und auf den entsprechenden Artikel verlinkt. Gruß --JoBa2282 Red mit mir 09:39, 30. Sep. 2008 (CEST)
Grafikkarten werden entweder als PC-Erweiterungskarten (über die Bussysteme ISA, VLB, PCI, AGP oder über PCI-Express) mit der Hauptplatine verbunden oder sie sind im Chipsatz auf der Hauptplatine vorhanden.
Wenn der Grafikprozessor DIREKT auf der Hauptplatine liegt ist es KEINE Grafikkarte. Logisch oder? Nur ein Beispiel für mein Gemecker von oben...sucht mal jemanden der echte Ahnung hat; und dann alles neu -- so ist der Artikel für die Tonne.
(nicht signierter Beitrag von 91.3.125.147 (Diskussion) 13:32, 30. Sep. 2008 (CEST)) --JoBa2282 Red mit mir 14:45, 30. Sep. 2008 (CEST)
Zwar ist eine Onboard-Lösung nicht wirklich eine "Karte" im eigentlichen Sinne, aber dennoch wird diese geläufig als eine solche bezeichnet. Statt hier in der Diskussion rumzupöpeln, könntest du auch selbst den Artikel überarbeiten, so lange deine Edits sachdienlich sind.
P.S.: Vergiss bitte hier in der Diskussion das Signieren nicht. (--~~~~)
Gruß
--JoBa2282 Red mit mir 14:45, 30. Sep. 2008 (CEST)
Pöbeln...naja. Das Wort Kritikfähigkeit scheint dir fremd. Hätte mich bei dem Thema auch gewundert ;) Ähnlich wie wissenschaftliches Schreiben. Man muß sich halt überlegen was Wikipedia sein soll und dieser Artikel hat einfach eine mangelhafte Qualität und da mich diese 3D-Fetischisten langweilt werde ich diesen Artikel auch nicht bearbeiten. Er bestätig halt voll und ganz meine Vorurteile :( .(--91.3.117.191 19:45, 1. Okt. 2008 (CEST))
Beachte hierzu auch die Diskussion ein paar Zeilen weiter oben: Diskussion:Grafikkarte#Integrierte_Grafikchips
Gruß
--JoBa2282 Red mit mir 15:11, 30. Sep. 2008 (CEST)
Grafikkarte ist eindeutig ein Begriff der (wie auch im Artikel beschrieben) eine Funktion im Computer beschreibt - ob der Grafikprozessor nun auf einer extra Steckkarte ist und per PCIe/AGP angebunden ist, oder ob er auf dem Mainboard ist und dort per PCIe/AGP angebunden ist, macht rein technisch keinen Unterschied. Nach deiner Logik dürften Notebooks dann ja auch keine Grafikkarten haben, bzw. nur dann wenn sie mit so einem MXM-Modul ausgestattet sind. @JoBa2282 - Die Diskussion liegt im Archiv Diskussion:Grafikkarte/Archiv/2006#Integrierte_Grafikchips -- Wookie 09:48, 1. Okt. 2008 (CEST)
Es kommt drauf an wie man Kritik übt. Konstruktive Kritik ist immer gern gesehen. Was aber nicht gern gesehen wird, ist Vandalismus und nicht nachvollziehbares Löschen. Das gilt auch hier in der Diskussion. Also unterlasse das bitte.
Und es gibt den einen Verantwortlichen für diesen Artikel. Es ist die Gemeinschaft, zu der auch du zählst. Wenn du also Verbesserungsvorschläge hast, dann führe sie entweder selbst durch, oder erläutere sie im Detail. Ansonsten kannst du es auch bleiben lassen. Noch ein letztes Statement zu: Ähnlich wie wissenschaftliches Schreiben - Hier könntest du auch etwas Nachhilfe vertragen, denn nach dem ganzen hin und her hier in der Diskussion ist noch immer nicht klar, was dir genau im Artikel fehlt. Von deinem ersten Satz mal ganz zu schweigen.
Gruß
--JoBa2282 Red mit mir 20:15, 1. Okt. 2008 (CEST)
Die Formulierung von Wookie erscheint mir vollkommen ok. Dann also tschüß, IP. --PeterFrankfurt 01:29, 2. Okt. 2008 (CEST)
Was ist mit dem Überarbeiten-Hinweis, den die IP in den Artikel gesetzt hat? Gruß --JoBa2282 Red mit mir 08:25, 2. Okt. 2008 (CEST)
Mir ist leider auch noch nicht klar geworden, was jetzt dem Artikel genau fehlt, außer der Kritik daran, dass im Artikel Onboard-Lösungen auch als Grafikarte bezeichnet werden. -- Wookie 08:47, 2. Okt. 2008 (CEST)
Da zu dem Überarbeiten-Hinweis keine genauen Kritikpunkte mehr gekommen sind, nehme ich den mal wieder raus. Falls jemand der Meinung ist, dass der wieder rein sollte, dann bitte unbedingt ein neues Diskussionsthema aufmachen und etwas ausführlicher werden. -- Wookie 13:28, 21. Okt. 2008 (CEST)
Grafikkarte ist eindeutig ein Begriff der (wie auch im Artikel beschrieben) eine Funktion im Computer beschreibt[...]
* Grafikkarte und Grafikprozessor bilden keine untrennbare Einheit. Würde mich eine unterscheidende Definition deinerseits interessieren (kleine Hilfe: Denk mal an den Speicher :D)...Obiges Zitat ist es beispielsweise, wenn ich von "wenig Abstrakt" spreche.
* Es gab (und gibt) Computer völlig ohne Grafikprozessor beispielsweise existieren Systeme die einen Bereich des Hauptspeichers für die Anzeige des Bildschirms verwenden; hier beschränkt sich (die Grafikkarte!?) auf eine einfachen DA-Wandler - klingt komisch, is aba so.
Es kommt drauf an wie man Kritik übt. Konstruktive Kritik ist immer gern gesehen. Was aber nicht gern gesehen wird, ist Vandalismus und nicht nachvollziehbares Löschen. Das gilt auch hier in der Diskussion. Also unterlasse das bitte.
"Vandalismus" ist eine infame Unterstellung ebenso "nicht nachvollziehbares Löschen" (die gelöschten Artikel sind jetzt zur Archivierung vorgemerkt?!). Ich denke mal ihr seit hier so 3-5 Leute die sich hier an dem Artikel festgesaugt haben und jeden mit Lügen und bösartigen Unterstellungen mundtot machen - wie es mit mir läuft - der an euren "Besitz" will. Das Problem: Wikipedia gehört euch nicht - also benehmt euch auch nicht so. --global667 05:09, 5. Okt. 2008 (CEST)
Ich bin mal so frei, und spalte die Diskussion über den Inhalt ab. Das nimmt mir hier schon wieder eine zu persönliche Ebene der Diskussion an. -- Wookie 14:58, 5. Okt. 2008 (CEST)

AXLE3D Editwar

Es gab im Artikel einen Editw<ar zwischen den Usern Pfreppi und Uncle Pain, wo es darum ging, ob AXLE3D bei den Herstellern stehen soll (Pfreppi war dafür und Uncle Pain dagegen).

Meine Meinung dazu ist, dass AXLE3D durchaus relevant ist, weil immerhin liefert google 108.000 treffer. Allerings gibt es zu dieser Marke weder auf der deutschen noch auf der englischen WP einen artikel. --MrBurns

Du hast meinen Standpunkt etwas stark verkürzt :) Ich sah und sehe keinen Sinn darin, hier nen Link zu einem AXLE3D-Artikel zu setzen, wenn der Artikel nicht existiert oder gerade einem LA ausgesetzt ist. Wenn ein solcher Artikel irgendwann tatsächlich erstellt werden sollte (und dann nicht sofort wieder nem LA zum Opfer fällt), dann ist der Link natürlich zweifellos berechtigt. Wie gesagt, ich sehe den Sinn in einem roten Link nicht so recht. Um die tatsächliche Relevanz den AXLE3D-Artikels selbst ging es mir niemals, ich habe mich auch nie an dessen Löschdiskussion beteiligt. --Uncle Pain 19:57, 21. Okt. 2008 (CEST)
Also ich denke, man kann in diesem Artikel durchaus auch Hersteller erwähnen, die keinen eigenen artikel haben. Wenn dir der Red Link nicht gefällt, kann mans ja auch ohne Link tun. mMn sind sind für eine kurze Erwähnung in einem anderen Artikel weniger hohe Relebvanzkriterien ausschalggebend als für einen eigenen Artikel. --MrBurns 20:25, 21. Okt. 2008 (CEST)
Gegen eine Erwähnung habe ich mich nie gesträubt, nur gegen einen roten Link. Ich dachte gar nicht weit genug, um zu sehen, dass ich nur entlinken müsste... mit einem kurzen Edit wäre die Sache nun aber gegessen, hoffe ich :) --Uncle Pain 20:42, 21. Okt. 2008 (CEST)
Wieso macht ihr euch eigentlich so heiß deswegen - es ist ja nicht so, dass in der Liste noch 15 weitere Grafikkartenhersteller mit einem roten Link drin sind ;-) -- Wookie 01:36, 22. Okt. 2008 (CEST)
Jetzt nicht mehr :P Ich weiß auch nicht, wo meine Augen waren, als ich AXLE3D entlinkte und die ganzen anderen roten Links übersah... --Uncle Pain 09:59, 22. Okt. 2008 (CEST)

Softwareprobleme mit Grafikkarten

Das ist doch viel zu spezifisch und hat imho nix in diesem Artikel verloren. Ausserdem ist Macrovision ein analoges Kopierschutz-System, soweit ich weiss aber leider nicht belegen kann können die Videoausgänge dieses "Störsignal" bei Bedarf mit ausgeben... Die Einschränkung des Treibers als Kopierschutz zu deklarieren ist einfach nur lächerlich. Unter Windows besteht das beschriebene Problem nicht! 217.95.207.53 22:59, 12. Nov. 2008 (CET)

kleiner Horizont

Der Autor oder die Autoren „kennen Windows und die dafür nötige Hardware“. --87.163.74.180 17:31, 9. Mär. 2009 (CET)

Was möchtest du uns damit sagen? Dass der Artikel zu Windows-spezifisch ist? --Uncle Pain 17:47, 9. Mär. 2009 (CET)
Windows„PC“ – vgl. z.B. http://sgistuff.g-lenerz.de/hardware/graphics/infinite.php#pictures --87.163.74.180 23:00, 9. Mär. 2009 (CET)
Nunja, Windows-spezifisch ist relativ, da eine Grafikkarte unter Linux, BSD oder MacOS prinzipiell nichts anderes ist. Ich würde eher sagen, dass der Artikel sich sehr stark auf Standard-Hardware auf Basis von den üblichen PC-Schnittstellen bezieht. Wenn jemand genügend Hintergrundwissen (oder Zeit) mitbringt, um den Artikel z.B. um Speziallösungen wie die Erweiterungen für Onyx-Workstations zu erweitern, dann bitte macht das - würde mich persönlich sehr interessieren. Ich kannte diese Erweiterungen bis dato z.B. überhaupt nicht. P.S. Der Artikel SGI Onyx (eng. EN:SGI Onyx) existiert auch noch nicht. -- Wookie 00:22, 10. Mär. 2009 (CET)

Grafikspeicher - Megabyte

zum Absatz Grafikspeicher aus unserem Wikipedia-Artikel Megabyte: 1 Kilobyte (kB) = 1024 Byte, 1 Megabyte (MB) = 1024 Kilobyte = 1024 · 1024 Byte = 1.048.576 Byt - ist das etwa nicht mehr der Fall? Das wäre mir ja neu! 87.245.91.33 07:10, 6. Mai 2009 (CEST)

Ach das ist die alte Geschichte mit der Basis 10 oder 2. KiB und kB. Da er mit Megabyte schreibt ist das nach den Artikel Byte zur Basis 10 und somit stimmts. In der Rechnung wird explizit auf die Verwendung zur Basis 10 hingewiesen. Die Angabe von 256 MB, 512 MB, 768 MB, ... bezieht sich aber auf die Basis 2 und somit 1024 * 1024 Byte. Mehr hierzu findest du im Artikel Byte und bei der Umfrage Benennung von Datenmengen. Gruß --JoBa2282 Red mit mir 08:11, 6. Mai 2009 (CEST)
JA, danke, diese (alte) Geschichte kenne ich ja bereits, DOCH in der Realität existiert aber nach wie vor keine einheitliche Norm und meistens ist es dann doch nur die Marketingabteilung, die statt "nur" der mickrigen 954 MB werbewirksamer ein ganzes GB anpreisen kann. Meine Frage hier wäre; wie wir in der Wikipedia damit umgehen wollen, denn wir haben hier kaum einen Grund marktschreierisch jemandem etwas vorzumachen und deswegen würde ich möglichst große Informationstiefe und Transparenz vorziehen. Und da tut man doch besser, man rechnet in den kleineren Einheiten und großen Zahlen statt umgekehrt... 87.245.91.33 11:30, 6. Mai 2009 (CEST)
Anscheinend hast du den Link "Umfrage Benennung von Datenmengen" nicht genau angeschaut. Der ist nämlich die Antwort auf deine Frage: Bei einer Umfrage hat die Mehrheit sich dafür ausgesprochen, MB & GB für die Angabe zur Basis zwei zu verwenden. Wenn jetzt hier einer mit 100000 Byte rechnet und sich auf die Basis 10 beruft kann man ihm das nicht verbieten. Falsch im eigentlich Sinne ist es nicht. Zumal noch der Hinweis zur Basis 2 erfolgt. Ansonsten gilt der Grundsatz: Mitdenken! ;) Gruß --JoBa2282 Red mit mir 13:32, 6. Mai 2009 (CEST)
Bei Halbleiterspeichern wie DRAM wird generell noch zur Basis 2 gerechnet, da sich das sonst nicht sinnvoll adressieren lässt Im Gegensatz zu den Festplatten und DVDs wo der Streit schon länger tobt, besteht der Speicher ja nur aus binären Schalgunten. Kaufst du einen Speicherbaustein (oder eine Grafikkarte) mit 1GB (was eigentlich korrekterweise als 1GiB bezeichnet sein müsste) bekommst du 1073MB (zur Basis 10). Also immer den Ball flach halten ;-) -- Wookie 11:24, 7. Mai 2009 (CEST)

Ist NVIDIA ein Grafikkarten-Hersteller?

Ich bin sowieso oft verwirrt durch jeweils ein Dutzend verschiedene aktuelle Modelle von jeweils einem Dutzend verschiedenen Herstellern ... Frage: Ist NVIDIA, anders als in der Tabelle aufgeführt, nicht auch ein Hersteller von Grafikkarten (nicht nur Chips)? Z.B. sehe ich hier die Grafikkarte GTX 460 "von NVIDIA", neben anderen, z.B. von zotac. --84.75.61.112 23:04, 31. Jan. 2011 (CET)

Nee, das ist dann schlampig ausgedrückt. Wie Du leicht ergoogeln kannst, ist die GTX 460 von GeForce, und das ist der Kartenhersteller, und darauf werden die NVIDIA-Chips verwendet. --PeterFrankfurt 03:34, 1. Feb. 2011 (CET)
Das hingegen kann ich nicht recht glauben. GeForce ist doch einfach ein Markenname von Nvidia, und zwar für ihre wichtigste Grafikkarten-Produktlinie. --84.75.61.112 16:19, 1. Feb. 2011 (CET)
Upps, ich nehme alles zurück, da haben wir ja sogar einen eigenen Artikel drüber. --PeterFrankfurt 02:24, 2. Feb. 2011 (CET)

Überarbeitungswürdig

Ich finde Deutsch u.o. Schreibstil sind teilweise noch stark überarbeitungswürdig. "was dann meist den Spaß am Anschauen verdirbt" z.B.

H. K. (nicht signierter Beitrag von 92.228.209.114 (Diskussion) 17:11, 29. Mai 2010 (CEST))

Abhilfe ist wie immer einfach: besser machen. --PeterFrankfurt 01:55, 30. Mai 2010 (CEST)

GPGPU

Mir fehlen hier die Angaben zu den Möglichkeiten die moderne Grafikkarten jenseits der Grafikberechnung zur Verfügungen stellen. Stichwort: OpenCL CUDA GPGPU -- Global667 19:28, 8. Feb. 2011 (CET)

Nee, das ist woanders, nämlich unter Grafikprozessor abgehandelt (der ja verlinkt ist), und man soll bei sowas nicht doppelt moppeln. Andererseits reicht das ja auch tatsächlich bis auf Kartenbasis, dass man nur wegen der Rechenpower gleich zwei oder gar vier Grafikkarten in einen Rechner stopft. Mal schaun, wie man das formulieren könnte. --PeterFrankfurt 02:11, 9. Feb. 2011 (CET)
ja aber man kann auch bei anderen seiten gucken wegen dem zeug. (nicht signierter Beitrag von 92.252.73.90 (Diskussion) 12:35, 13. Sep. 2011 (CEST))

Sprachwahl

"...und werden daher vor allem in billigen und Büro-PCs eingesetzt." Also dieser Satz sollte mal zum Überdenken anleiten. Sie werden nicht in billigen Systemen eingesetzt, sondern dort, wo einfach keine aufwändige 3D Graphik benötigt wird - und dies sind alles andere als billig. So werden diese Chips vor allem in Bereichen eingesetzt, wo Kühlung ein Problem darstellt - z.B. in aus sterilitätsgründen hermetisch abgeschlossenen medizinischen Systemen. Dort setzt man aufgrund der einfachen Tauschbarkeit und der Zuverlässigkeit auf OnBoard-Lösungen. Jeder Steckkartenkontakt wäre eine potentielle Ausfallquelle. Da auf einer Herz/Lungen-Maschine eher selten CS gespielt wird, braucht es keine aufwändige Graphik - ne HLM ist aber jetzt nicht gerade billig. Die fänder folgende Formulierung zielführender: "und werden daher vornehmlich in Bereichen mit geringeren Graphikanforderungen eingesetzt." Dies umfass damit auch die preisgünstigeren PCs. Bitte: Es gibt auch noch eine andere Nutzung als Computerspiele. Thomas Merbold (17:22, 12. Jun. 2011 (CEST), Datum/Uhrzeit nachträglich eingefügt, siehe Hilfe:Signatur)

So, ich habe mal versucht, diesen guten Hinweis umzusetzen, und dann gleich etwas ausführlicher: wenn schon, denn schon. --PeterFrankfurt 03:28, 13. Jun. 2011 (CEST)

Nummernlogik der Treiberversionen

Ich habe jetzt auf verschiedenen PCs mit verschiedenen GraKa (Intel, Nvidia, ..) die Treiberversionen gesehen - und alle lauen ähnlich wie "6.14.12.5721". Ist das ein System dahinter? (nicht signierter Beitrag von 194.204.66.37 (Diskussion) 16:50, 5. Okt. 2011 (CEST))

Bei NVIDIA ist es bei den aktuellen Treibern soviel ich weiß so: die fangen immer mit 6.14.1 an und die restlichen 5 Ziffern stehen für die Treiberversion, die NVIDIA angibt (z.B. auf der NVIDIA-Webseite oder in der NVIDIA-Systemsteuerung). Diese Ziffern wären bei dir 2.5721, was also 257.21 entspricht. Allerdings denke ich nicht, dass die Treibernummerierung enzyklopädissche Relevanz hat. --MrBurns 18:15, 22. Feb. 2012 (CET)

Falsche Angaben und Irrelevanz

Demnächst erscheinen erste größere Produktionen auf Basis der Frostbite Engine 2 etwa Battlefield 3, die nur noch DirectX 11 unterstützen.[3][4] Ältere Grafikkarten sowie das Betriebssystem Windows XP werden damit ausgeschlossen.


Erstens ist Battlefield 3 schon längst erschienen, zweitens läuft es auch unter DirectX 10. Unter DirectX9 jedoch nicht mehr, deshalb ist der zweite Satz noch richtig.

Ich würde es ja gerne ändern, allerdings stellt sich bei mir die Relevanzfrage dieser Aussage.


Man könnte auch Spiele aufzählen, die unter DirectX 8 noch laufen, unter DirectX 7 jedoch nicht mehr und somit auch ältere Grafikkarten ausschließen. So eine Besonderheit ist der Sprung von DirectX 10 zu 11 dann doch nicht. Sinnvoll wäre hier wohl eher ein Vermerk, dass DirectX - Versionen nicht abwärts kompatibel, aber durchaus aufwärts kompatibel sind. -- Geon (Diskussion) 11:29, 16. Mär. 2012 (CET)

Durchgeschleift oder durchgeschliffen?

Hi, check das mal bitte (bin nicht registriert) "durch die das Grafiksignal der im System verbauten 2D-Grafikkarte durchgeschleift wurde" sollte das Signal nicht lieber durchgeschliffen worden sein?

Der Begriff kommt von Schleife, nicht von Schliff -> Durchgeschleift ist richtig. --Echoray (Diskussion) 09:00, 5. Mai 2012 (CEST)

Durchgenudelt (nicht signierter Beitrag von 178.26.200.152 (Diskussion) 13:32, 14. Jan. 2013 (CET))

Ursprung des Begriffs "Windows-Beschleuniger"

Darüber steht folgendes im Artikel:

Diese Funktionen beschleunigten vor allem das Verschieben der Fenster (Windows) der grafischen Benutzeroberfläche, daher der Name.

Die Beschreibung ist zwar technisch korrekt, aber trotzdem glaube ich eher, dass der begriff eher von Microsoft Windows kommt, weil das damals die am weitesten verbreitet GUI war (DOS Shell und ähnliche Programme sind keine GUIs, sondern eine TUIs).

Wenn es keine Quelle dafür gibt, dass mit "Windows" fenster gemeint waren und nicht MS Windows, sollte also der obige Satz entfernt werden. --MrBurns (Diskussion) 18:39, 2. Okt. 2012 (CEST)

PS: mir ist gerade eingefallen, dass wenn Fenster gemeint wären, es ja wohl eher "Window Beschleuniger" heißen würde (bzw. auf Englisch "Window Accelerator" statt "Windows Accelerator"). --MrBurns (Diskussion) 20:51, 2. Okt. 2012 (CEST)

Die Treiber von Grafikkarten nicht mit dem "Windows Update" aktualisieren!

Ich weis zwar nicht ob die folgende Sache für den Artikel von Bedeutung ist, aber ich wollte es trotzdem mal ansprechen. Die Firmennamen müssen dann natürlich weggelassen werden (Werbung).

Nur damit es zu keinem Missverständnis kommt: Nicht mein Erfahrungsbericht soll in den Artikel, sondern nur ein Hinweis, dass man die Treiber von Grafikkarten nur mit den Treiberdownloads der Hersteller aktualisieren soll und nicht mit dem "Windows Update", weil es da ja ganz offensichtlich zu Fehlern in der Installation kommen kann.

Die Treiber von Grafikkarten nicht mit dem "Windows Update" aktualisieren!

Die Treiber von Grafikkarten sollten nicht mit dem "Windows Update" aktualisiert werden, weil es sonst nach einem Update passieren kann, dass Spiele und andere grafisch aufwändige Anwendungen plötzlich nicht mehr funktionieren.

Beispiel:

Anfang April 2013 habe ich mir mit dem "Windows Update" die aktuelle Version des Treibers für meine Grafikkarte - eine "NVIDIA GeForce 8600 GT" - heruntergeladen. Nach der Installation musste ich dann leider die Feststellung machen, dass sich alle meine Spiele nicht mehr starten ließen. Dass gleiche galt auch für "Google Earth", sowie für meine Videosoftware "Pinnacle Studio Ultimate".

Die Lösung:

Ich habe die Internetseite des Herstellers meiner Grafikkarte aufgerufen und dort die inzwischen aktuellere Version des Treibers heruntergeladen. Dieser 149 Megabyte große Treiber, brachte dann auch gleich sein eigenes Installationsprogramm mit. Um die alte und fehlerhafte Version des Treibers komplett loszuwerden, habe ich dann nicht die Option "Automatische Installation" gewählt, sondern "Benutzerdefinierte Installation". Dort habe ich die Einstellungen "Alte Installation komplett entfernen", sowie "Vollständige Installation" gewählt. Nach der Installation musste ich meinen Computer - wie üblich - neu starten und danach gab es zum Glück keine Probleme mehr. Alle Programme funktionierten wie sie sollten. --Martin38524 (Diskussion) 12:31, 24. Apr. 2013 (CEST)

Ich würde meine Grafikkartentreibher auch nicht mit Windows Update updaten, aber um sowas in den Artikel einzubauen braucht man reputable Quellen, dass das nicht empfehlenswert ist, einzelne Erfahrungsberichte reichen da nicht. --MrBurns (Diskussion) 22:23, 29. Apr. 2013 (CEST)

Werbung?

Sollte aus dem Abschnitt Onboard der Hinweis auf den Intel i5 nicht entfernt werden? Er trägt nicht zum Verständnis bei und ist eigentlich nur Werbung. --178.191.106.104 18:27, 13. Feb. 2013 (CET)

Finde ich nicht, da der nur als Beispiel auf geführt ist. --Isenherz (Diskussion) 14:00, 29. Okt. 2013 (CET)

Grafikkarten Grafikprobleme

Hallo

Habe eine GFORCE 640. Bin mir leider nicht sicher wie ich die optimale Einstellung bekomme. Bei The Witcher 2 erreiche ich nicht einmal den standart. Nun spiele ich Arma 3 und gestern hab ich es auf ein fliesendes Spielerlebnis geschafft inkl. sehr schöner Grafik. Heute war der Traum dann aber schon wieder zu ende. Ich bin am verzweifeln. Könnte ein Profi vielleicht mal eine Liste erstellen mit all den Begriffen und derer Auswirkungen?? Denn das automatische Grafik Programm funktioniert ja nicht einmal annähernd so gut wie es möglich wäre, es scheitert also genau da wo man eigentlich suchen müsste. Was für eine Schande wenn Hersteller einem nur eine Neue als die richtige Einstellung aufzwingen wollen. Manchmal habe ich nöcher die Vermutung es wird absichtlich VERCHRAUBT um mehr SPEICHER zu fressen usw.

HILFE BITTE!

Die Diskussionsseiten sind kein Beratungsforum (WP:WWNI). z.B. hier findet man was über die 3D-Einstellungen in der NVIDIA-Systemsteuerung. --MrBurns (Diskussion) 16:35, 22. Jul. 2013 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --MrBurns (Diskussion) 16:35, 22. Jul. 2013 (CEST)

Hey Danke genau das habe ich gesucht dein Link kannst du ja gleich Gross hier hinein schreiben oder als seperaten Link :) (nicht signierter Beitrag von 91.138.6.19 (Diskussion) 15:28, 22. Jul. 2013 (CEST))

Diagramm bei Hersteller

Sollen wir nicht vielleicht ein Diagramm der Marktanteile bei dem Abschnitt Hersteller einfügen? --Isenherz (Diskussion) 14:02, 29. Okt. 2013 (CET)

"aktuelle Spiele"

Mittlerweile sind die Grafiklösungen von AMD und Intel jedoch bereits leistungsfähig genug, um aktuelle Spiele auf zumindest geringen Details zu spielen.

mMn ist diese formulierung zu schwammig für eine Enzyklopädie. Es macht schon einen großen Unterschied, ob man mit einem aktuellen Spiel eines wie Fussball Manager 14 oder eines wie Crysis 3 meint. --MrBurns (Diskussion) 07:18, 11. Jan. 2014 (CET)

Schließe mich dieser Sichtweise an. Selbst bestimmte Spiele, die schon 8 Jahre auf dem Buckel haben (z.B. Flight Simulator X) wird man mit einer integrierten Graphiklösung wie Intel HD Graphics nicht anständig zum laufen bringen. Nach meinen ungedarften Vergleichen liegt unsere HD4000 Graphics der CPU ungefähr auf dem Level einer GeForce 7300 und somit in etwa bei 2,5 MT/s. Um z.B. den FSX brauchbar bei normalen Graphikeinstellungen nutzen zu können, sind 8 MT/s notwendig, Spaß macht es ab 15 MT/s, full Graphics nicht unter 35 MT/s. Aber mit Sicherheit wird ein überzeugter Intelianer mit entsprechend synthetischen Benchmarks das Gegenteil herrechnen können. 79.212.177.72 22:51, 18. Jun. 2014 (CEST)
Begriffe wie "mittlerweile", "aktuelle", "heutige" und andere Angaben mit diffusem Zeitbezug haben in einem Schriftwerk ohne dedizierte Zeitangabe (Bücher, Lexika, etc. im Gegensatz zu einer Zeitschrift, die ein Datum trägt) nichts, aber auch gar nichts verloren. Was ist ein aktuelles Spiel - diese Antwort wird zwei Monaten später anders ausfallen. Insofern sind nackte Zahlen, die als Vergleichswert herhalten können, deutlich sinnvoller - so wie sie in der Antwort über mir stehen. Man mag über die tatsächlichen Werte vorzüglich streiten können - dennoch ermöglichen sie eine quantitive Abschätzung wenn man sich der Tatsache bewußt, das die besseren Modelle der Graphikkartenindustrie im Jahre 2017 die 200MT/s hinter sich gelassen haben. 79.212.128.173 06:57, 14. Nov. 2017 (CET)

Der Artikel ist ein "Desaster"

Hi :)

Warum muss da Apple reingequetscht werden? Was hat Apple mit Grafikkarten zu tun? Ich wette, wenn wir genauer suchen, werden wir auch in aelteren Rechnern Konzepte einer Grafikkarte erkennen koennen. Denn Apples Microcomputer ist nicht der Erste mit einem Bussystem. Apple hat hier also komplett keinen Belang, außer um bei gewissen Leuten eine Beule in der Hose zu provozieren. Auch bitte mal die ganzen Formulierungen ueberarbeiten.

Die Grafikbeschleunigung ist schon wesentlich laenger verfuegbar, bei Grafikkarten fuer den PC setze sie aber schon ab 1989 an, mit Erscheinen des i860. Ich waere aber auch hier vorsichtig, denn es findet sich vielleicht ein Hersteller, der bereits vorher mit solchen Moeglichkeiten auf der x86 Plattform experimentiert hat.

Und die Entwicklung zur GPU duerfte so gesehen schon mit Erscheinen der Ersten Grafikkarte angefangen haben. Ist also Nonsens. Die erste richtige -wo sich auch die Formulierung aenderte- GPU kam mit programmierbaren Shadern. Alles davor hat mit einer GPU -im heutigem Sinne- nichts zu tun. Die Entwicklung an sich begann mit T&L und Vertex Shadern. T&L als Konzept kam uebrigends schon wesentlich frueher als man denkt. Die geforce von nvidia machte es erst salonreif. Hier muesste man Google bemuehen. In Wirklichkeit jedoch gibt es GPUs in der Definition schon seit 1989. Hier waere wieder der i860 zu nennen, der als Prozessor auf Grafikkarten untergebracht wurde. Dieser war eine eigenstaendige CPU.

Um es kurz zu fassen: Anfang der 90iger verbreiteten sich Windows Beschleuniger. Mitte der Neunziger kamen primitive 3D-Beschleuniger auf den Endkundenmarkt. Ende der Neunziger konnten Grafikkarten vermehrt CPU-intensive Aufgaben abladen (T&L) >> Geforce 2 (Vertex Shader) und Anfang 2000, beginnend mit der Geforce 3/ Radeon 8500 wurden dann Pixel-Shader im Endkundenmarkt eingefuehrt. Gut ausformuliert waere diese Definition korrekter.

Gruß, FfFCMAD (nicht signierter Beitrag von 87.139.55.127 (Diskussion) 13:23, 26. Aug. 2015 (CEST))

Die nach meinem Kenntnisstand erste Lösung mit "Beschleunigung" für die Intel x86 Architektur war die 8514A aus dem Jahre 1987. Die erste GPU war die GeForce 256 - alles davor waren reine Graphikchips und noch keinte GPUs. Eine CPU, die für den Betrieb einer Graphikkarte genutzt wird, ist damit immernoch eine CPU und keine GPU. Leider wird auch auf der Wikipedia dieses Thema mehr und mehr verschwommen dargestellt und sogar der ET4000 als GPU bezeichnet. Dies mag auch daran liegen, dass der signifikante Unterschied nicht so ganz einfach darzustellen ist. Die ersten Ansätze einer GPU befinden sich im Copper der Commodore Amiga in Form von sogenannten Copperlisten. Während bei einem Graphikchip wie z.B. Nvidia bis einschl. Riva TNT die Berechnung der Projektion und der Texturen inzwischen durch die Graphiklösung übernommen wurde, so war es auch der TNT (NV5) noch nicht möglich eigenen Code auszuführen - sie stellte nur extrem leistungsfähige Funktionen zur Verfügung, welche über die CPU genutzt werden konnten. Beispiel eines Würfels mit einer Lichtquelle und Kameradefinition:
  • NV5: Bestimmung der Translationsmatrix durch die CPU auch Basis von Kameraposition; Übertragen der Objektgeometrie sowie der Matrix unter Nutzung der Tranformationsfunktion des NV5. die Objektdaten landen damit transformiert im Graphikspeicher; Korrektur der Texturen unter Berücksichtigung des Beleuchtungsvektors und Übertragung der korrigierten Textur an die Graphikkarte. Auslösen des Renderings
  • NV10: Übertragung der Objektrohdaten, Lichtquellendefinitionen und die Rohtexturen an den Graphikspeicher; Auslösen des Renderings durch Übergabe einer Kameradefinition. Die gesamten notwendigen Transformationen und Projektionen übernimmt der NV10 ohne Zutun der CPU.
Die Entscheidung ob die Tranformationen und das Beleuchtungsmodell CPU oder GPU gesteuert sind, übernahm für den Programmier transparent DirectX - ab Version 7 war es dazu in der Lage. Bei OpenGL ist die Übergabe der Kontrolle an die GPU eine Treibereigenschaft 79.212.128.173 07:39, 14. Nov. 2017 (CET)

Orienbtiert euch doch einfach am englischem Artikel.

https://en.wikipedia.org/wiki/Video_card (nicht signierter Beitrag von 87.139.55.127 (Diskussion) 14:45, 26. Aug. 2015 (CEST))

Kostenaufwand

Der ganze Artikel ist von technisch fachkundigen Autoren geschrieben, die die Fachtermini beherrschen. Allerdings stellen sich einem die Nackenhaare beim Wort Kostenaufwand. Das gibt es nicht. Es gibt Kosten und es gibt Aufwand - aber nicht wahlweise. Hier korrekt wäre: Aufwand. Lässt sich das gelegentlich verbessern? 2003:F7:AF14:7E00:91FA:63A6:522A:E6ED 00:28, 9. Okt. 2020 (CEST) D. May

GraKa

Eine IP hat gestern Nacht mehrfach unbelegt in der Einleitung „IT-Jargon“ ergänzt, wonach auch die Bezeichnung „GraKa“ geläufig sein soll [1]. Da ich bereits mit Hinweis auf WP:Q und WP:WWNI revertiert und die IP auch vergeblich persönlich angesprochen habe, nun zunächst hier zur Vermeidung eines Edit-Wars: Ich halte das für irrelevant in der Einleitung, zumal das ein persönlicher Eindruck und kein allgemein etablierter Begriff zu sein scheint. Andere Meinungen? --Johannnes89 (Diskussion) 09:27, 29. Dez. 2020 (CET)

Ich habe diese Abkürzung nie genutzt, kenne sie aber. Ich wusste nicht, dass das irgendeinen Stellenwert hat, außer vielleicht einen lokalen, bei Einzelnen beliebte Art, die das nicht nur bei der Grafikkarte, sondern bei allen möglichen (und unmöglichen) Worten machen: sie abkürzen.
Dennoch, dies habe ich dazu gefunden: Die Audio-Enzyklopädie: Ein Nachschlagewerk für Tontechniker, Seite 869: "GraKa | Umgangssprachlich für Grafikkarte"
Meiner Meinung nach kann man das dennoch getrost wieder entfernen, denn diese umgangssprachliche Verwendung blieb meiner Einschätzung nach wirklich nur eine Randerscheinung... Die meisten Menschen sagen und schreiben "Grafikkarte", nicht "Gra-Ka"...
Andreas 13:44, 29. Dez. 2020 (CET)
Wurde inzwischen auch ohne mein Zutun administrativ entfernt inkl. Artikelschutz [2]. --Johannnes89 (Diskussion) 13:48, 29. Dez. 2020 (CET)
Gut. (+1) ‣Andreas 13:51, 29. Dez. 2020 (CET)

Windows-Beschleuniger

Ich habe eine Frage zu dem Rotlink Windows-Beschleuniger: Gibt es dafür Quellen? (Abseits von Werbung...)

Ich kann mich erinnern, und habe dies auch in Forumsbeiträgen gefunden, dass z.B die Grafikkarte Tseng ET4000/W32 (Ende der 1990er, die Zeit von Windows 95) als ein "Windows-Beschleuniger" beworben wurde. (Die Karte war aber auch unter DOS und Linux brauchbar und schneller, als so manch andere zu dieser Zeit.) In seriösen Zeitschriften, allen voran der c’t des Heise-Verlags, lese ich indes immer etwas von Grafik-BeschleunigernBsp. #1, #2 oder von 3D-BeschleunigernBsp. #1, #2, #3. Manchmal auch Hardware-Beschleuniger oder Video-Beschleuniger (oder detailierter MPEG2-Beschleuniger etc.). Korrekterweise ist auch oft von "Beschleunigungsfunktionen" die Rede.Bsp.

Für eine Aufklärung, ob es "Windows-Beschleuniger" tatsächlich gab, oder ob das reine Werbung war (ja, unter Windows hat eine schnellere Grafikkarte Vorteile...), wäre ich dankbar...

Andreas 21:23, 25. Okt. 2021 (CEST)

Externe Signalausgänge - USB-C fehlt?

Die RTX2080Ti hat einen USB-C Ausgang, und ich glaube etliche andere Nvidia-Karten haben das auch. --91.64.59.86 19:20, 20. Mär. 2022 (CET)

Soweit ich mich erinnere, handelt es sich dabei um VirtualLink und nicht direkt um USB-C. Ist aber technisch kompaktibel zu USB-C, so dass USB-C-Geräte angeschlossen werden können. So war jedenfalls damals die Spezirfikation von Seiten NVIDIA zu der Karte. --Natsu Dragoneel (Diskussion) 19:29, 20. Mär. 2022 (CET)
@Natsu Dragoneel: In jedem Fall sollte das im Artikel gelistet werden, zusammen mit den anderen Ausgängen. --91.64.59.86 19:34, 20. Mär. 2022 (CET)