Eigengesichter

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Eigengesichter (engl. auch Eigenfaces genannt) sind das Resultat eines Verfahren des maschinellen Sehens, das zur Gesichtserkennung verwandt wird und auf der Hauptkomponentenanalyse basiert. Entwickelt wurde das Verfahren von Matthew Turk und Alex Pentland.

Geschichte des Verfahrens[Bearbeiten | Quelltext bearbeiten]

Die Eigengesichter basieren auf einem Verfahren von Sirovich und Kirby, mit dem effizient Gesichter komprimiert und wiederhergestellt werden können. Das geschieht mit Hilfe einiger Hauptkomponenten aus der Hauptkomponentenanalyse.

Beschreibung des Verfahrens[Bearbeiten | Quelltext bearbeiten]

Trainingsbilder der Gesichter werden in lexikografischer Reihenfolge eingelesen und in Vektoren der Länge gespeichert (Z.Bsp wenn die Bilder aus Pixeln bestehen).

Eigengesichter-Beispiele

Aus dem Trainingsset wird ein Durchschnittsgesicht gebildet:

.

Von jedem wird ein Differenzgesicht gebildet:

.

Mit Hilfe der Differenzbilder wird eine Kovarianzmatrix erstellt:

wobei ist. Die Eigenvektoren der Matrix sind die Hauptkomponenten, die wegen ihres gesichtsähnlichen Aussehens von Turk und Pentland als Eigengesichter benannt wurden. Das Berechnen der Eigenvektoren aus ist in der Regel aus zwei Gründen nicht ohne Weiteres möglich. Erstens gilt, dass , was schon bei Bildern der Größe eine Kovarianzmatrix der Größe erzeugt, dessen Eigenvektoren sich nicht in zufriedenstellender Zeit berechnen lassen. Zweitens gilt im Allgemeinen, dass . Weil nun im speziellen Fall der Berechnung von Eigengesichtern in der Regel gilt, das Trainingsset also weniger Bilder enthält als jedes Bild Pixel enthält, hat keinen vollen Rang und dementsprechend sind einige "Eigenvektoren" gleich dem Nullvektor. In der Regel gibt es exakt wichtige Eigenvektoren. Statt diese nun mit extremen Rechenaufwand anhand von zu berechnen, werden die Eigenvektoren einer neuen Matrix berechnet:

Die Eigenvektoren von lassen sich in einem Bruchteil der Zeit berechnen, da viel kleinere Dimension als hat. Bei einem Trainingsset von Bildern der Größe hat nur noch die Größe , anstatt der ursprünglichen Größe von . Die Berechnung der Eigenvektoren von auf zu verlagern gilt aufgrund des Folgenden:

Sei die Eigenwertzerlegung von , gegeben durch

gesucht. Weil eine zu große Matrix ist, betrachten wir stattdessen die Eigenwertzerlegung von :

Bei linksseitiger Multiplikation der Gleichung mit ergibt sich

Sei nun , so ergibt sich aus der Eigenwertzerlegung von eindeutig die gesuchte Eigenwertzerlegung von . Die somit erhaltenen Vektoren sind die Eigenvektoren von , wobei uns nur die 's mit den höchsten Eigenwerten interessieren. Die 's müssen orthonormal sein, d. h. sie müssen noch normalisiert werden.

Anwendung[Bearbeiten | Quelltext bearbeiten]

Mit Hilfe der ermittelten Eigengesichter können Bilder in den Gesichtsraum projiziert werden (das Bild wird in seine Eigengesicht-Komponenten zerlegt).

Der so erhaltene Vektor kann von einem Mustererkennungs-Algorithmus für eine Gesichtswiedererkennung benutzt werden.

Eigenbilder[Bearbeiten | Quelltext bearbeiten]

Das Konzept von Eigengesichtern lässt sich problemlos verallgemeinern auf alle andere Arten von Bildern. Man spricht im allgemeinen Fall dann von Eigenbildern (englisch: eigenimages). Beispielsweise können aus einer Menge an Bildern, die dasselbe Objekt aus verschiedenen Blickwinkeln, Distanzen und Lichtverhältnissen zeigt, die Eigenbilder extrahiert werden um eine möglichst transformationsinvariante Objektrepräsentation zu erzeugen, die dann für top-down Objekterkennungsalgorithmen wie Template Matching oder Drahtgittermodelle benutzt werden kann. Ein anderes Beispiel wäre eine Sequenz an Bildern, die zeigt wie eine bestimmte Szene sich auf der Retina hin und her bewegt (aufgrund von Mikrosakkaden). Auch hier zeigen die Eigenbilder die besonders invarianten Bestandteile der Szene. [1]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • M. Turk, A. Pentland: Eigenfaces for Recognition. In: Journal of Cognitive Neuroscience, Vol. 3, No. 1, Winter 1991, S. 71-86, cs.ucsb.edu (PDF; 10,2 MB).
  • L. Sirovich, M. Kirby: Low-Dimensional procedure for the characterization of human faces. In: Journal of the Optical Society of America A, 4(3), 1987, S. 519-524.
  • M. Kirby, L. Sirovich: Application of the karhunen-loeve procedure for the characterization of human faces. In: IEEE Transactions on Pattern Analysis and Machine Intelligence, 12(1), Jan. 1990, S. 103–108.

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Hebbian Learning of Hand-Centred Represenations in a Hierarchical Neural Network Model of the Primate Visual System (PLOS ONE, May 2017, PDF)