Computermonitor

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Ein Computermonitor ist ein Bildschirm, der primär zum Anschluss an einen Computer gedacht ist. Insbesondere in den Jahren zwischen 1985 und 2005 entwickelten sich Fernsehgeräte und Computermonitore sehr weit auseinander (Qualität, Bildraten, Signale, Pegel, Stecker), seit 2010 wachsen diese wieder zusammen.

IBM 2250, eine Vektor-Display-Terminal mit Lichtgriffel-Unterstützung aus dem Jahr 1969
17-Zoll-Computer-Röhrenmonitor aus dem Jahr 2006 (Samsung 793DF)
19-Zoll-TFT-Bildschirm aus dem Jahr 2007 (LG L194WT)

Geschichte[Bearbeiten]

Ausgabegeräte der Anfangszeit[Bearbeiten]

In der Anfangszeit der Computer gab es keine Computer-Monitore und auch keine Computer-Tastaturen und -Mäuse. Eingabe und Ausgabe erfolgte über Lochkarten(stapel) oder Lochstreifen. Diese wurde mit Lochkartenstanzern (oder Lochstreifenstanzern) erstellt. Drucker (eigentlich Fernschreiber) sorgten schließlich für die Ausgabe der Daten, die auf den Lochkarten oder -streifen gespeichert waren oder vielmehr aus diesen Daten errechnet wurden (Listenausgabe).

Computerterminals[Bearbeiten]

Anfang der 1970er tauchten zunehmend Computerterminals auf. Typische Vertreter waren z. B. die IBM 3270-Terminals oder VT100-Terminals, an die ANSI.SYS unter MSDOS noch erinnert. Der Umweg über Lochkarten und Bänder verschwand, man konnte mit Hilfe solcher Terminals direkt mit einem Computer kommunizieren. Als charakteristische Eigenschaft blieb, dass die Kommunikation immer noch gewisse Ähnlichkeiten mit Fernschreibern und Lochstreifen hatten. Sie wurden meist, analog zu Fernschreibern, seriell mit Text- und Steuerzeichen angesteuert. Eingaben wurden gesammelt dem Zentralcomputer (mit seiner kostbaren Rechenzeit) übermittelt.

Als Monitore selbst kamen meist weiße, grüne oder orange Monochrommonitore zum Einsatz. Die Terminals hatten meist 80 oder 132 Zeichen je Zeile bei 24 oder 43 Zeilen. Die Auflösung lag zwischen 240 bis 350 Zeilen, Bildraten bei 50 oder 60 Hz, häufig mit nachleuchtendem Phosphor, um das Flimmern durch den Bildrasteraufbau zu minimieren.

Aufkommende Heimcomputer, Anfänge des PCs[Bearbeiten]

Für Heimcomputer griff man auf vorhandene Technik zurück – den heimischen Fernseher. Etwas besser waren spezielle Computermonitore. Die Darstellungsqualität hängt dabei auch von der benutzten Schnittstelle zwischen Computer und Fernseher ab; in aufsteigender Reihenfolge:

  • Ansteuerung über einen HF-Modulator. Üblich sind maximal 40 Zeichen pro Zeile.
  • Ansteuerung mittels FBAS-Signal über einen Video-Eingang, der u. a. auch für Videorecorder gedacht war.
  • Ansteuerung mittels getrenntem Farb- und Helligkeitssignal (S-Video).
  • Ansteuerung mittels RGB-Signal (meist über SCART).

Je weiter unten in der Liste das Verfahren steht, desto weniger – der eigentlich nur für die Fernsehübertragung via Antenne notwendigen – Signalverarbeitungsstufen sind bei der Übertragung involviert; dementsprechend entfällt die jeweils innewohnende Limitierung der Signalqualität durch Bandbreitenbegrenzung oder Modulationsartefakte. Allerdings war zu Beginn der Heimcomputer-Ära am vorhandenen Fernseher ein anderer Eingang als der für das HF-Signal (Antenneneingang) nicht selbstverständlich, weshalb über den HF-Modulator praktisch jeder Fernseher für die Ausgabe geeignet ist. Auf der anderen Seite basiert das Bildsignal vieler Heimcomputer gar nicht auf einem RGB-Signal; sie erzeugen direkt ein FBAS- oder S-Video-Signal, weswegen dort ein RGB-Monitor nicht genutzt werden kann.

Aufkommen von hochauflösenden Computermonitoren[Bearbeiten]

Sowohl für Heimcomputer wie den C64 wie auch für Büro-Computer wie die IBM-PCs gab es Computermonitore. Während der folgenden Jahrzehnte entwickelten sich die Darstellungsstandards bei der IT-Technik beständig weiter, während aufgrund der bestehenden Normen der Fernsehübertragung dort (abseits von Detailverbesserungen) praktisch kein Fortschritt stattfand. Dies führte dazu, dass sich über knapp 20 Jahre Computermonitore und Fernseher extrem auseinanderentwickelten. Mit dem ersten Schritt weg vom fernsehkompatiblem Heimcomputer war die Darstellung eines Computerbildes auf einem Fernseher praktisch unmöglich. Die Fortschritte im Bereich der Digitaltechnik ermöglichten später jedoch vergleichsweise einfach eine qualitativ gute Normenwandlung. Dadurch können einerseits Fernsehsignale aus Computerbilddaten erzeugt werden, zum anderen war das eine Voraussetzung für die Weiterentwicklung von Fernsehnormen unter Beibehaltung von Abwärts- und Aufwärtskompatibilität, wodurch sich Computer- und Fernsehtechnik wieder aufeinanderzuentwickeln.

Flachbildschirme, digitale Schnittstellen[Bearbeiten]

Um das Jahr 2000 tauchten sowohl im Computer- wie im Fernsehbereich Flachbildschirme auf. Bei Fernsehern kamen am Anfang Plasmabildschirme zum Einsatz, bei Computern Flüssigkristallbildschirme (LCD) mit Dünnfilmtransistoren (TFT). Mit DVI bei Computern und HDMI bei Fernsehern wurden sehr ähnliche Standards der Ansteuerung von Displays entwickelt.

Anschlüsse[Bearbeiten]

TV und Heimcomputer[Bearbeiten]

Im Bereich der Heimcomputer kommen die zu ihrer Hochzeit in den 1980er-Jahren üblichen Verbindungstechniken für Trägerfrequenzsignale (via HF-Modulator), Video- und RGB-Signale zum Einsatz (z. B. Belling-Lee-Steckerverbinder, BNC-, Cinch-, DIN- oder SCART-Stecker).

Monitore[Bearbeiten]

Die Übertragung von Videosignalen wechselte mehrfach.

  • Ära 1: Videosignale wurden genauso wie beim Fernsehgerät analog übertragen. Beliebig viele Farben konnten übertragen werden. Synchronisation wird mit dem Helligkeitskanal bzw. mit dem Grünkanal übertragen.
  • Ära 2: Der IBM-PC favorisierte die digitale Übertragung mit getrennter Übertragung der Synchronsignale.
    • Monochrom-Monitore wurden über zwei Signale angesteuert (Video, Intensity) und zwei Synchronsignale (HSync+ und VSync−)
    • Color Graphics Adapter-Monitore über vier Signale (Red, Green, Blue, Intensity) und zwei Synchronsignale (HSync+ und VSync−)
    • Enhanced Graphics Array-Monitore über sechs Signale (Red, Green, Blue, Red-Intensity, Green-Intensity, Blue-Intensity) und zwei Synchronsignale (HSync+ und VSync−)
  • Ära 3: Beim Video Graphics Array wurde von IBM pro Farbe (Rot, Grün, Blau) wieder nur eine Leitung verwendet, über die die Intensität analog übertragen wurde. Dabei wurden bis zu 218 Farben unterstützt. Die beiden Synchronsignale blieben erhalten.
  • Ära 4: Digitale Übertragung von analogen Signalen als digitale Daten über 1 oder 2 Leitungen. Synchronsignale als spezielle Codeworte im digitalen Datenstrom.
  • Ära 5: In Ära 4 wird das Signal mit dem exakten Timing aus Ära 3 übertragen. Man löst sich auch von dieser Gewohnheit und überträgt Videodaten als asynchrone Pakete.

Synchronsignale[Bearbeiten]

Computermonitore benötigen meist separat übertragene Synchronsignale (HSYNC + VSYNC). Selten werden beide Signale zusammen übertragen (CSYNC). Das Übertragen mit dem Helligskeitssignal (YUV) oder Sync-on-Green, der Standard bei Video, wird nicht verwendet.

Flachbildschirme[Bearbeiten]

Digital Visual Interface[Bearbeiten]

Digital Visual Interface (DVI) ist eine Schnittstelle zur Übertragung von Videodaten. Im PC-Bereich entwickelte sich DVI zu einem Standard für den Anschluss von TFT-Monitoren an die Grafikkarte eines Rechners. DVI beinhaltet die gleichzeitige Ausgabe von analogen (DVI-A oder DVI-I) wie digitalen Video-Signalen (DVI-D und DVI-I). DVI ist in weiten Bereichen kompatibel zum später entstandenen HDMI.

High Definition Multimedia Interface[Bearbeiten]

High Definition Multimedia Interface (HDMI) ist eine ab Mitte 2003 entwickelte Schnittstelle für die volldigitale Übertragung von Audio- und Video-Daten in der Unterhaltungselektronik. Sie vereinheitlicht existierende Verfahren, erhöht gegenüber diesen die Qualitätsmerkmale, und bietet außerdem auch ein zusammenhängendes Kopierschutz-Konzept (DRM).

DisplayPort[Bearbeiten]

DisplayPort (DP) ist ein durch die VESA genormter universeller und lizenzfreier Verbindungsstandard für die Übertragung von Bild- und Tonsignalen. Anwendungsbereiche sind im Wesentlichen der Anschluss von Bildschirmen und Fernsehgeräten an Computern und ähnlichen Geräten.

Quo vadis[Bearbeiten]

Der Weg ist klar vorgezeichnet hin zu einer allgemeinen Schnittstelle, die sowohl zur Stromversorgung wie zur Datenübertragung wie auch zur Ausgabe von Videodaten erlaubt. Siehe USB 3.1 mit Stecker Typ C, Mobile High-Definition Link (MHL) und Thunderbolt.

Analoges TV[Bearbeiten]

Serial Digital Interface[Bearbeiten]

Das Serial Digital Interface (SDI) ist eine serielle digitale Schnittstelle, primär zur Übertragung von unkomprimierten und unverschlüsselten Videodaten über Koaxialkabel oder Lichtwellenleiter. Es kommt hauptsächlich im Bereich professioneller Fernsehstudios und Fernsehsendern zum Einsatz.

Die SDI-Schnittstelle wird von der Society of Motion Picture and Television Engineers (SMPTE) spezifiziert, und stellt eine Weiterentwicklung der analogen Videostandards wie dem PAL beziehungsweise NTSC-Verfahren dar.

Technische Typen nach Art des Bilddarstellungsverfahrens[Bearbeiten]

Rasterdisplays vs. Vektordisplays[Bearbeiten]

Rasterdisplay überstreichen den gesamten Bildschirm in einem festen Raster. Der Elektronenstrahl wird je nach Darstellung hell- oder dunkelgetastet.

Hauptartikel: Vektorbildschirm

Vektorbildschirme arbeiten ähnlich einem Plotter. Es können schlecht Flächen, aber sehr gut Linien dargestellt werden. Ab einer gewissen Komplexität der Darstellung flimmert das Bild zunehmend, da das Zeichnen zu lange dauert und weniger als 40 Mal das Bild pro Sekunde geschrieben werden kann.

Röhrenmonitore[Bearbeiten]

Flachdisplays: Flüssigkristallbildschirme (oder auch Plasma-Displays)[Bearbeiten]

Hauptartikel: Flüssigkristallanzeige

Während neuere LCD-Computermonitore und HDTV-Monitor ausnahmslos quadratische Pixel besitzen, gibt es bei alten LCD-Computermonitoren und SDTV-Bildschirmen sowohl quadratische wie nichtquadratische Pixel. Nichtquadratische Pixel waren bei frühen CGA- und EGA-Laptop-Displays üblich. SDTV-Monitore orientierten sich häufig an der ITU-R BT.601 und hatten horizontal 352, 704 oder 720 Pixel. Weder bei 4:3 noch bei 16:9 noch bei PAL noch bei NTSC waren dann die Pixel quadratisch.

Datenübertragung[Bearbeiten]

Der Anschluss beim TFT-Monitor ist nicht nur eine Frage der Kompatibilität, sondern auch der Qualität des Bildes. DVI ist eine digitale Schnittstelle für Grafikkarten und Monitore (Digital Visual Interface). VGA ist die analoge Schnittstelle. Die Grafikdaten werden im PC digital verarbeitet, die dann in der Grafikkarte in analoge Signale umgewandelt werden.

Die folgenden beiden Sätze bedürfen bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Ein TFT-Monitor benötigt digitale Signale zur Darstellung der Bilder. Wird jetzt ein TFT-Monitor über einen VGA-Anschluss betrieben, muss im Monitor ein Analog-Digital-Wandler das analoge Signal in ein digitales Signal übersetzen. Durch die Umwandlung wird die Qualität des Bildes je nach verwendeten Bauelementen mehr oder weniger gedämpft. Leichte Unschärfe und Flimmern können die Folge sein. Die beste Kombination ist eine Grafikkarte mit digitalem DVI-Ausgang und ein Monitor mit DVI-Eingang.

Per DVI-VGA-Adapter kann auch ein TFT-Monitor, der lediglich einen VGA-Anschluss besitzt, an einer Grafikkarte mit DVI-Anschluss betrieben werden, jedoch wird bei diesem Verfahren das Bild weiterhin analog übertragen.

Standardauflösungen[Bearbeiten]

Im Bereich existieren sowohl Grafikstandards, wie auch typische Auflösungen für Grafikmodi, wobei die meisten über die VESA standardisiert sind.

Die Bildschirme sind werksseitig auf ein Gamma von 2,2 und eine Farbtemperatur von 6500 K justiert. Mittels Farbmanagement-Software lassen sich diese Werte (soweit darstellbar) anpassen.

Flachbildschirme kennen wie Röhrenbildschirme mit Kathodenstrahlröhre eine maximale und minimale darstellbare Bildschirmauflösung. Während bei einem Röhrenmonitor keine Auflösung genau über die native Lochmaske passt und daher alle Auflösungen entsprechend unscharf wiedergegeben werden. Die meisten anderen Auflösungen müssen interpoliert werden, und erscheinen daher weniger scharf. Ausnahmen sind Auflösungen, die in Höhe und Breite Teiler der Maximalauflösung darstellen und bei denen daher keine Zwischenpixel interpoliert werden müssen, wie etwa die Hälfte oder ein Viertel der nativen Auflösung. Die native Auflösung wird in der Typenbeschreibung des Monitors angegeben.

Als Desktop-Bildschirmauflösung des Betriebssystems ist daher heute die native (= maximale) Bildschirmauflösung des verwendeten Flachbild-Monitors besonders zu empfehlen. Moderne Betriebssysteme übernehmen die Skalierung der Bildschirmdarstellung in die gewünschte Darstellungsgröße selbst, und ermöglichen der Grafikkarte so, den Flachbildschirm in seiner nativen Auflösung anzusteuern.

Bildschirmmaße[Bearbeiten]

Bei TFT-Monitoren wird die exakte Bildschirmdiagonale angegeben. Bei früheren Röhrenmonitoren wurde die (nicht vollständig nutzbare) Diagonale des Glaskolbens angegeben. Diese Diagonale war etwa 2,5 bis 4 cm größer als die wirklich nutzbare Diagonale.

Das Seitenverhältnis bei Röhrenmonitoren war fast(?) ausnahmslos 4:3. Bei Flachdisplays war dies anfangs auch so. 17-Zoll- und 19-Zoll-Geräte gab es meist mit 1280×1024er Auflösung und einem Seitenverhältnis von 5:4. Ab dem Aufkommen von 24-Zoll-Geräten um die Jahrtausendwende kamen 16:10 und seit 2008 16:9-Geräte dazu. Letztere haben mittlerweile einen Marktanteil von etwa 90 Prozent.

Eine weitere Größe war bei Röhrengeräten die maximale Zeilenfrequenz bzw. die maximale Bildfrequenz bei gegebener Auflösung. Seit der Ära TFT ist diese von geringerer Bedeutung geworden und beträgt meist 60 Hz. Flimmern hat nichts mehr mit der Auffrischrate des Bildinhalts zu tun.

Bekannte Hersteller von Computermonitoren[Bearbeiten]

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]