Bayer-Sensor

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Eine Bayer-Matrix

Als Bayer-Sensor bezeichnet man einen Fotosensor, der – ähnlich einem Schachbrett – mit einem Farbfilter überzogen ist, welcher meist zu 50 % aus Grün und je 25 % aus Rot und Blau besteht. Grün ist in der Flächenzuweisung (somit in der Auflösungsfähigkeit) privilegiert, da Grün (bzw. der Grün-Anteil in Grautönen) im menschlichen Auge den größten Beitrag zur Helligkeitswahrnehmung und somit auch zur Kontrast- und Schärfe-Wahrnehmung leistet: 72 % der Helligkeits- und Kontrastwahrnehmung von Grautönen wird durch dessen Grünanteil verursacht, dagegen leistet Rot nur 21 % und Blau nur 7 %. Zudem ist Grün, als die mittlere Farbe im Farbspektrum, diejenige, für die Objektive i. d. R. die höchste Abbildungsleistung (Schärfe, Auflösung) liefern.

Nach diesem Konzept der Bayer-Matrix (engl. Bayer-Pattern) arbeiten fast alle gebräuchlichen CCD-Sensoren in digitalen Foto- und Filmkameras. Das Konzept dieses Sensortyps steht im Gegensatz zum Konzept der Foveon-X3-Direktbildsensoren. Vergleiche auch Super-CCD-Sensor.

Die „Bayer-Matrix“ oder „Bayer-Filter“ ist nach ihrem Erfinder Bryce E. Bayer benannt, der am 5. März 1975 das Patent im Namen der Eastman Kodak Company in den USA einreichte (Patent US3971065: Color imaging array.).

Funktionsweise und Aufbau[Bearbeiten]

Bildsensor (CCD) aus einer Digitalkamera mit auf dem Chip aufgebrachten Farbfilter

Die lichtempfindlichen Zellen einer einzelnen Fotozelle auf dem Halbleiter können nur Helligkeitswerte erfassen. Um Farbinformationen zu erhalten, wird vor jeder einzelnen Zelle ein winziger Farbfilter in einer der drei Grundfarben Rot, Grün oder Blau aufgebracht. Die Filter sind beispielsweise in den ungeraden Zeilen in der Folge Grün-Rot und in den geraden Zeile in der Folge Blau-Grün aufgebracht. Jeder Farbpunkt (Pixel) liefert entsprechend nur Informationen für eine einzige Farbkomponente an dieser Stelle, so dass für ein vollständiges Bild mit denselben Abmessungen die jeweils benachbarten Pixel derselben Farbe zur Farbinterpolation herangezogen werden müssen. Für Grün werden somit 50 % der Pixel errechnet, bei Blau und Rot sind es jeweils 75 % der Fläche (oder in einer Zeile 50 % und in der Folgezeile 100 % der Zeile), die durch Berechnung gefüllt werden müssen. Bei der Farbinterpolation geht man davon aus, dass es im Bild zwischen zwei benachbarten Pixeln gleicher Farbe nur zu geringen Farbunterschieden kommt und somit die Grauwerte der Pixel stochastisch nicht unabhängig voneinander sind. Dies muss natürlich nicht auf jedes Bildmotiv zutreffen. Daher besitzt der Bayersensor unter der Betrachtung eines artefaktfreien Bildes streng genommen nur ein Viertel der scheinbaren Auflösung.

Solche Sensoren haben außerdem fast immer weitere Pixel, die sich am Rand der Sensorfläche befinden und in der Regel geschwärzt sind, um damit auch während des Betriebs unter Belichtung das temperaturabhängige Grundrauschen des Sensors bestimmen und rechentechnisch berücksichtigen zu können, also z. B. zur Berechnung eines Ausgleichswerts („offset“) für die Auswertung der anderen Pixel. Darüber hinaus lassen sich diese Pixel aber auch z. B. zur Erkennung extremer Überbelichtung, etwa durch zu lange Integrationszeit (= Belichtungszeit) der Sensorelemente, verwenden. Für den normalen Kameraanwender jedoch sind sie ohne Bedeutung, da der Abgleichvorgang automatisch abläuft und je nach Modell ggf. schon direkt auf dem Sensor realisiert wird.

Interpolation[Bearbeiten]

Die erwähnte Interpolation (englisch Demosaicing) kann auf verschiedene Arten durchgeführt werden. Einfache Verfahren interpolieren den Farbwert aus den Pixeln gleicher Farbe in der Nachbarschaft. Da dieses Vorgehen vor allem senkrecht zu Kanten problematisch ist, versuchen andere Verfahren, die Interpolation gerade bevorzugt entlang von, anstatt senkrecht zu, Kanten durchzuführen. Wieder andere Algorithmen beruhen auf der Annahme, dass der Farbton einer Fläche im Bild auch bei sich ändernden Lichtverhältnissen relativ konstant ist, wodurch die Farbkanäle dann stark miteinander korrelieren. Daher wird zuerst der grüne Kanal interpoliert, um danach den roten und den blauen Kanal so zu interpolieren, dass die jeweiligen Farbverhältnisse Rot-Grün beziehungsweise Blau-Grün konstant sind.[1] Es existieren noch weitere Verfahren, die andere Annahmen über den Bildinhalt machen und von diesen ausgehend versuchen, die fehlenden Farbwerte zu berechnen. Mit 5×5-Matrixfiltern wird z. B. ein geglättetes Bild erzeugt, das anschließend nochmals geschärft wird.

Probleme (Bildfehler, oft als Interpolationsartefakte bezeichnet) können entstehen, wenn die vom Algorithmus getroffenen Annahmen in einer konkreten Aufnahme verletzt sind. Beispielsweise ist die oben genannte, von vielen höheren Algorithmen ausgenutzte Annahme, dass die Farbebenen korrelieren, nicht mehr durchgängig richtig, wenn aufgrund von chromatischen Aberrationen handelsüblicher Objektive die Farbebenen in den Randbereichen gegeneinander verschoben sind.

Ein weiteres herausforderndes Problem sind Streifenmuster mit einer Streifenbreite entsprechend ca. der eines einzelnen Pixels, beispielsweise ein Lattenzaun in einer passenden Entfernung. Da ein durch ein solches Motiv erzeugtes Bayer-Rohbild-Muster sowohl durch horizontale als auch durch vertikale Lattenzäune (unterschiedlicher Farben) erzeugt worden sein könnte, muss der Algorithmus eine Entscheidung treffen, ob es sich um eine horizontale oder eine vertikale Struktur handelt, und welche Farbkombinationen als wie plausibel bewertet werden sollen. Da der Algorithmus nicht über menschliches Motiv-Weltwissen verfügt, kommt es dann oft zu zufälligen Entscheidungen, somit zu Fehlentscheidungen. Beispielsweise kann ein solcher Lattenzaun dann fälschlich als eine zufällige Mischung von horizontalen und vertikalen Abschnitten, somit ähnlich wie ein Labyrinth, verkehrt dargestellt werden.

Gegeben sei z.B. ein Motiv-Ausschnitt, innerhalb dessen alle roten Pixel leuchten und von den grünen nur diejenigen in den roten Spalten. Zu dieser Abbildung würden folgende Motive gleichermaßen passen:

  • ein vertikaler Lattenzaun mit weißen Latten vor schwarzem Hintergrund
  • ein vertikaler Lattenzaun mit gelben Latten vor schwarzem Hintergrund
  • ein vertikaler Lattenzaun mit weißen Latten vor rotem Hintergrund
  • ein vertikaler Lattenzaun mit gelben Latten vor rotem Hintergrund
  • ein horizontaler Lattenzaun mit roten Latten vor grünem Hintergrund
  • ein horizontaler Lattenzaun mit roten Latten vor gelbem Hintergrund
  • ein horizontaler Lattenzaun mit violetten Latten vor grünem Hintergrund
  • ein horizontaler Lattenzaun mit violetten Latten vor gelbem Hintergrund
  • sowie alle denkbaren Lattenzaun- oder Gitter-Motive, die eine beliebige Mischung aus den obengenannten Möglichkeiten sind.

In diesem einfachen theoretischen Beispiel könnte ein Algorithmus z.B. die Variante mit der geringsten Gesamt-Farbigkeit bevorzugen, somit vertikale weiße Latten vor schwarzem Hintergrund annehmen. In der Praxis stimmen die Struktur-Ausrichtungen jedoch kaum exakt mit dem Bayer-Raster überein, so dass bei einem solchen Lattenzaun-Motiv keine Schwarz-Weiß-Option zur Auswahl stünde, sondern mehrere Alternativen mit ähnlicher Farbigkeits-Plausibilität um den Vorzug konkurrieren, und es zu Zufallsentscheidungen kommt.

Diese Probleme werden allerdings umso mehr abgemildert, als die Auflösung moderner Sensoren die Auflösung von Objektiven erreichen oder sogar übersteigen könnte, insbes. bei Verwendung von Zoom-Objektiven, oder Objektiven der Einstiegspreisklasse. Da die Auflösungs-Grenze von Objektiven (im Gegensatz zu Sensoren) nicht festgelegt ist, sondern als eine Kontrast-Grenze definiert ist, bedeutet dies, dass fein-detaillierte Motivausschnitte mit einer hohen Artefakt-Neigung von solchen Objektiven nur noch mit einem sehr geringen Kontrast auf dem Sensor abgebildet werden können. Somit haben auch Interpolationsartefakte solcher Motivausschnitte einen sehr geringen Kontrast und wirken sich weniger störend aus.

Bearbeitungsbeispiel[Bearbeiten]

Ein Beispiel einer Bayer-Bild-Rekonstruktion mit Software. Die Bilder sind der Darstellung wegen um den Faktor 10 vergrößert dargestellt.

Alternative Entwicklungen[Bearbeiten]

Eine XTrans-Matrix

Kodak hatte mit verschiedensten Pixel-Anordnungen mit zusätzlichen „weißen“ Pixeln experimentiert. Auch Sony hatte bei einigen Modellen „weiße“ Pixel eingebaut und zum Beispiel 2003 bei der Sony DSC-F 828 einen Bildsensor mit zwei verschiedenen Grüntönen verwendet (RGEB = red (rot) / green (grün) / emerald (smaragdgrün) / blue (blau)).[2]

Eine Bayer-Variante wurde entwickelt, bei der die beiden Grün-Pixel eines 2×2-Blocks jeweils unterschiedliche Farbfilter (für leicht unterschiedliche Grüntöne) hatten. Diese Variante wurde beispielsweise in der Canon EOS 7D und von anderen Herstellern zeitweise verbaut.

Einen anderen Ansatz hat Fujifilm mit seiner 2012 auf den Markt gebrachten Kamera Fujifilm X-Pro1 vorgestellt: Die RGB-Pixel wurden in einem anderen Verhältnis und einer anderen Anordnung (XTrans) auf dem Sensor verteilt, so dass sich zum einen die Strecke bis zur nächsten Pixelwiederholung im Durchschnitt verlängert, dafür aber auch jedes Farbpixel in jeder Zeile und Spalte vorkommt. Da rote und blaue Pixel nun nicht mehr genau 2, sondern im Durchschnitt 2,23 Längeneinheiten von ihrem nächsten gleichfarbigen Nachbarn entfernt sind, ist die Auflösung der Rot- und Blau-Ebene dabei allerdings etwa 10 Prozent reduziert, paradoxerweise aber auch die grüne Auflösung. Denn jedes grüne Pixel innerhalb eines grünen 2×2-Quadrates hat hier zwar weiterhin, wie beim Bayer-Muster, stets genau 4 grüne Nachbarn, allerdings nun ungleichmäßig verteilt: 2 nähere und 2 fernere.

Da die mathematischen Forschungen zu Farbmuster-Interpolations-Algorithmen regelmäßig von einem klassischen Bayer-Muster ausgehen, können solche alternativen Farbmuster-Ideen von der Qualität neuerer algorithmischer Ansätze nicht profitieren und sind demzufolge in der Qualität der Umsetzung in ein Vollfarbbild durch Rohbild-Konvertierungs-Software benachteiligt.

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Uwe Furtner: Farbverarbeitung mit Bayer-Mosaic-Sensoren (PDF; 350 kB) Matrix Vision GmbH. 31. August 2001. Abgerufen am 27. Dezember 2010.
  2. Sony-Digitalkamera DSC-F 828 mit Vierfarbchip – Besser als die anderen, test.de (März 2003), online abgerufen am 2. Oktober 2012