Active Pixel Sensor

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Ein Active Pixel Sensor (APS, dt. aktiver Pixelsensor) ist ein Halbleiterdetektor zur Lichtmessung, der in CMOS-Technik gefertigt ist und deshalb oft als CMOS-Sensor bezeichnet wird. Im Gegensatz zum ebenfalls in CMOS-Technik hergestellten Passive Pixel Sensor enthält jedes Bildelement eine Verstärkerschaltung zum Signalauslesen.

Durch die Verwendung der CMOS-Technik wird es möglich, weitere Funktionen in den Sensorchip zu integrieren, wie beispielsweise die Belichtungskontrolle, die Kontrastkorrektur oder die Analog-Digital-Wandlung.

Einer der ersten CMOS-APS, eine Entwicklung der NASA

Funktionsprinzip[Bearbeiten]

Prinzipbild eines einzelnen Pixels in einem AP-Sensor

Die einfachste Realisierung eines integrierenden APS-Bildelementes besteht aus einer Photodiode, die in Sperrrichtung betrieben wird, als photosensitivem Element und drei n-Kanal-MOSFETs (Feldeffekttransistoren). Zu Beginn der Belichtungsmessung wird die Spannung über der Photodiode mittels des Rücksetz-Transistors auf einen definierten Anfangswert gesetzt, hier \text{VDD}-U_\text{th}, wobei U_\mathrm{th} die Schwellenspannung des Transistors ist. Während der nachfolgenden Helligkeitsmessung wird die Sperrschichtkapazität der Photodiode durch den Photostrom entladen. Die Spannung über der Photodiode sinkt dabei proportional zur Bestrahlungsstärke und zur Belichtungszeit. Nach Ablauf der Belichtungszeit wird dieser Spannungswert ausgelesen und einer analogen Nachverarbeitung oder sofort einem Analog-Digital-Wandler zugeführt. Dafür besitzt jedes Bildelement einen Verstärker-Transistor, der mittels des Auswahl-Transistors zumeist spaltenweise auf eine für alle Bildelemente einer Zeile gemeinsame Ausleseleitung geschaltet wird.

Gegenüber CCD-Sensoren besteht dabei der Vorteil, dass die Elektronik direkt das Spannungssignal jedes einzelnen Pixels auslesen kann, ohne die Ladungen verschieben zu müssen, was eine deutlich geringere Neigung zum Blooming zur Folge hat. Der Nachteil ist, dass sich zwischen den lichtempfindlichen Photodioden viel Elektronik befindet, die selbst nicht lichtempfindlich ist, was bei gleicher Chipfläche ursprünglich zu einer im Verhältnis zur CCD-Technik kleineren Lichtempfindlichkeit führte. Da die notwendige Integrationsdichte, um mit CCD konkurrenzfähig zu sein, noch nicht erreicht war, war diese Technik in den 1970er und 1980er Jahren noch bedeutungslos.

Geschichte[Bearbeiten]

Active Pixel Sensors wurden in den 1990er Jahren von Eric Fossum am Jet Propulsion Laboratory erfunden.

Wegen der anfänglich nur schlecht verkleinerbaren Ausleseelektronik lag der Füllfaktor, also der Anteil der lichtempfindlichen Fläche an der Gesamtfläche eines Pixels, bei nur 30 Prozent, das heißt, die Ladungsausbeute war gering (somit auch die erzielbare Signalstärke), was zu einem schlechten Signal-Rausch-Verhältnis führte und sich in starkem Bildrauschen bei schlechter Lichtempfindlichkeit äußerte. Diese Nachteile wurden erst später durch intensive Weiterentwicklung in der Miniaturisierung der CMOS-Technik und durch den Einsatz von Mikrolinsen über jedem Bildelement, die das gesamte einfallende Licht auf den lichtempfindlichen Teil lenken, reduziert.[1]

Anwendungsgebiete[Bearbeiten]

AP-Sensoren werden als Bildsensoren in digitalen Fotoapparaten und Videokameras eingesetzt. Sie kommen heute in verschiedenen digitalen Spiegelreflexkameras zum Einsatz. In Mobiltelefonen mit Kamerafunktion kommen praktisch ausschließlich solche Sensoren zum Einsatz.

In Camcordern werden momentan fast ausschließlich CCD-Sensoren eingesetzt, jedoch hat Sony 2005 den HDR-HC1 veröffentlicht, einen High-Definition-Video-Camcorder, der einen AP-Sensor verwendet. AP-Sensoren finden auch in vielen Industriekameras Verwendung. Die Münchener Firma ARRI brachte 2004 mit der D-20 eine Videokamera heraus, die einen AP-Sensor mit einer Bildauflösung von 2880×1620 Pixel verwendet. Seine Größe entspricht der aktiven Bildfläche eines 35-mm-Films, was den Einsatz von generischen Filmkameraobjektiven erlauben und die Schärfentiefe der Bilder an die des Filmes angleichen soll. Mitunter wird für jede Grundfarbe ein eigener CMOS Sensor verbaut (sog. 3MOS-Sensor), sodass auch bei geringerer Helligkeit eine größere Farbsättigung erreicht wird.

Eine Spezialform der CMOS-Bildsensoren stellen die Photodioden-Arrays dar, die quasi ein n×1-CMOS-Bildsensor sind. Sie werden in der Regel nur in Embedded-Anwendungen, das heißt, Anwendungen, bei denen das Bild nicht von Menschen betrachtet oder ausgewertet wird, verwendet. Beispiele dafür sind Barcodelesegeräte und Winkelsensoren.

Farbbildsensoren[Bearbeiten]

Zur Aufnahme eines Farbbildes sind zumindest drei Wellenlängenbereiche des Lichtes separat aufzuzeichnen, üblicherweise den Grundfarben Rot, Grün und Blau zugeordnet. Dies geschieht bei Verwendung eines Sensors häufig durch ein den Pixeln überlagertes Farbfiltermosaik, wie dem Bayer-Muster (engl. "Bayer Pattern"). Im Gegensatz zu CCD-Sensoren kann man bei CMOS-Sensoren diese Farbtrennung auch in demselben Pixel durchführen, indem drei Photodioden übereinander gestapelt werden, die aufgrund unterschiedlicher Eindringtiefe der verschiedenen Lichtwellenlängen von unterschiedlichen Farben erreicht werden. Kommerziell werden derartige Sensoren von der Firma Sigma unter der Bezeichnung Foveon X3 in Digitalkameras eingesetzt. Eine alternative Bauform mit der Bezeichnung Transverse Field Detector wird erforscht.[2][3]

Unterschiede zu CCD-Sensoren[Bearbeiten]

Anfangs erhoffte man sich eine günstige Produktion bei einem größeren Produktionsvolumen, unter der Annahme, dass die Sensoren ohne Umrüstung auf den für hohe Stückzahlen ausgelegten Fertigungsstraßen gefertigt werden könnten und so einen geringeren Fertigungsaufwand pro Chip verursachen würden. Dies hat sich nicht bestätigt (Stand 2001).[4] Jedoch können und werden in Chips mit Active-Pixel-Sensoren häufig Teile der Peripherieschaltung, wie Analog-Digital-Wandler, Takterzeugung, zeitliche Ablaufsteuerung und Spannungspegelanpassung, integriert, was kompaktere und insgesamt kostengünstige Systeme erlaubt.[4]

Ein prinzipieller Vorteil von APS liegt in dem in jedem Pixel vorhandenen Verstärker, so dass nicht einzelne Verstärker wie bei CCD für mehrere Pixel genutzt werden müssen. Dadurch kann bei einer gegebenen Pixelrate jeder Verstärker mit einer geringeren Bandbreite und somit geringerem Eigenrauschen betrieben werden. So erreichen im Jahr 2013 AP-Sensoren ein Eingangsrauschen von 1-2 Photonen bei einer Bildabtastung von über vierhundert Megapixel pro Sekunde, wobei die Sensoren 4-10 MPixel umfassen und eine Quanteneffizienz von über 70% aufweisen.[5][6] Überwiegt nur ein Aspekt, können jedoch CCD vorteilhaft sein: Zur Detektion weniger Photonen mit sehr geringem Rauschen werden EMCCD verwendet; CCD können mit Quanteneffizienzen nahe hundert Prozent in einem begrenzten Spektralbereich hergestellt werden, und ihr geringer Dunkelstrom resultiert in einem kleinen Bildrauschen bei sehr langen Belichtungszeiten.

Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Die fraglichen Angaben werden daher möglicherweise demnächst entfernt. Bitte hilf der Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst. Näheres ist eventuell auf der Diskussionsseite oder in der Versionsgeschichte angegeben. Bitte entferne zuletzt diese Warnmarkierung.

CMOS-Bildsensoren besitzen oft eine höhere Empfindlichkeit im NIR-Bereich (engl. near infra-red, kurzwellige Infrarotstrahlung) als CCD-Sensoren. Bei vielen CMOS-Sensoren liegt das Empfindlichkeitsmaximum im NIR-Bereich (> 650 nm), während CCD-Sensoren das Maximum im sichtbaren Bereich (grünes Licht, 550 nm) besitzen.

Die nachfolgende Auflistung der Vor- und Nachteile von CMOS-Sensoren im Vergleich zu CCD-Sensoren bezieht sich auf allgemeine Aussagen von Standardbauelementen. Spezialisierte Sensoren können in beiden Techniken deutlich abweichende Eigenschaften aufweisen.

Vorteile (der CMOS-Sensoren):

  • Geringerer Stromverbrauch
  • Geringere (Geräte-) Baugröße, durch Integration der Auswertelogik auf demselben Chip (System on a Chip)
  • Manche Verarbeitungsschritte können gleich im Pixelverstärker vorgenommen werden, z. B. Logarithmierung beim HDRC-Sensor (engl. high dynamic range CMOS).
  • Durch separate Verarbeitung jedes Pixels (Umwandlung von Ladungen in Spannungen):
    • Sehr hohe Bildraten im Vergleich zu einem CCD gleicher Größe (schnelle Vorschau-Ansicht, Videofunktion)
    • Flexibler auszulesen durch direkte Adressierung (Binning, mehrfaches Auslesen, gleichzeitiges Auslesen mehrerer Pixel)
    • Stark begrenzter Blooming-Effekt

Nachteile:

  • separate Umwandlung der Ladung in Spannung für jedes Pixel und Integration der Auswertelogik führt zu:
    • größeren Empfindlichkeitsunterschieden zwischen den Pixeln (Uniformität) durch Fertigungstoleranzen, was bei Bayer-Sensoren zu einem stärkeren Farbrauschen führt, und
    • einem geringeren Füllfaktor (Verhältnis der lichtempfindlichen zur gesamten Pixelfläche), mit der Folge einer insgesamt schlechteren Lichtempfindlichkeit.

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Bruce G. Batchelor: Cameras. In Machine Vision Handbook, Springer-Verlag 2012, ISBN 978-1-84996-168-4, S. 383
  2. YouTube: Transverse Field Detector
  3. Eric R Fossum: Comment on Transverse Field Detector
  4. a b Dave Litwiller: CCD vs. CMOS: Facts and Fiction (PDF; 395 kB). In: Photonics Spectra. Nr. 1, 2001, S. 154–158.
  5. Vu, Paul; Fowler, Boyd; Liu, Chiao; Mims, Steve; Balicki, Janusz; Bartkovjak, Peter; Do, Hung; Li, Wang: High-performance CMOS image sensors at BAE SYSTEMS Imaging Solutions, 2012SPIE.8453E..0DV
  6. Junichi Nakamura: High-resolution, high-frame rate CMOS image sensors for high-end DSC/DVC applications, Aptina (vgl.: Chipworks 6th Annual Image Sensors Conference, Blog, 2013)