Google-Matrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Ausschnitt aus der Google-Matrix der englischsprachigen Wikipedia-Artikel (2009)

Die Google-Matrix ist eine quadratische Matrix, die bei der Konstruktion des PageRank-Algorithmus entsteht. Da sie oftmals sehr groß ist (mit vielen Millionen Zeilen und Spalten), sind die numerischen und algebraischen Eigenschaften dieser Matrix für die schnelle und exakte Bestimmbarkeit der PageRanks von großer Bedeutung.

Definition[Bearbeiten]

Die normierte Google-Matrix eines Netzwerks oder gerichteten Graphen mit n Knoten ist die reelle  n \times n -Matrix

P := d \left(L+\tfrac{1}{n}w\mathbf{1}^T \right)+ (1-d) \tfrac{1}{n}\mathbf{1}\!\cdot\!\mathbf{1}^T.

Die einzelnen Komponenten der Google-Matrix sind dabei folgendermaßen definiert:

  • Die Linkmatrix  L ist die zeilenweise auf 1 normierte Adjazenzmatrix A = (a_{ij}) des untersuchten Graphen:

l_{ij}:=
\begin{cases}
\frac{1}{c_i} & \text{falls} \; a_{ij}=1 \\
0 & \text{sonst}
\end{cases}
wobei c_i der Ausgangsgrad des Knotens i ist, also die Anzahl der Kanten, die den Knoten i verlassen.
  • Der Vektor  w ist komponentenweise definiert als

w_i=\begin{cases}
1 & \text{falls} \; c_i=0  \\
0 & \text{sonst}
\end{cases}
Er enthält also genau dann eine Eins, wenn der Ausgangsgrad einer Seite bzw. eines Knotens null ist. Diese Knoten werden auch dangling nodes genannt. In der Literatur gibt es verschiedene Methoden, diese Knoten zu behandeln,[1] die hier behandelte ist die häufigste.
  •  d ist eine reelle Zahl zwischen 0 und 1, die Dämpfungsfaktor genannt wird
  •  \mathbf{1} ist ein Einsvektor der Länge n, also ein Vektor, der nur Einsen als Einträge hat. Damit ist die Matrix  \mathbf{1}\!\cdot\!\mathbf{1}^T genau die Einsmatrix.

Eigenschaften[Bearbeiten]

PageRank[Bearbeiten]

Zur Berechnung der PageRanks ist man insbesondere an der Existenz und Vielfachheit von Linkseigenvektoren der Matrix  P interessiert. Diese entsprechen genau den gewöhnlichen Eigenvektoren der Matrix  P^T zum Eigenwert 1. Interpretiert man das Eigenwertproblem

 P^Tx=x

als Berechnung der stationären Verteilung einer Markow-Kette, so ist der Vektor x ein stochastischer Vektor bestehend aus den PageRanks. Damit reduziert sich das Eigenvektorproblem zu dem linearen Gleichungssystem

 \left(I-d \left( L+\tfrac{1}{n}w\mathbf{1}^T \right)^T \right)x = (1-d) \tfrac{1}{n}\mathbf{1} .

Um dieses lineare Gleichungssystem effizient lösen zu können, stellt sich die Frage nach der Regularität der Matrix und ihrer Konditionszahl.

Normen[Bearbeiten]

Sowohl die Matrix  L als auch die Matrix  \tfrac{1}{n}w\mathbf{1}^T sind im Allgemeinen nur substochastisch. Addiert man beide, so erhält man eine zeilenstochastische Matrix, da sich die Nichtnullzeilen der Matrizen ergänzen. Da auch  \tfrac{1}{n}\mathbf{1}\!\cdot\!\mathbf{1}^T zeilenstochastisch ist (streng genommen sogar doppelt-stochastisch) und durch den Dämpfungsparameter nur Konvexkombinationen gebildet werden (bezüglich derer die stochastischen Matrizen abgeschlossen sind) ist die Google-Matrix ebenfalls eine zeilenstochastische Matrix. Damit gilt für die Zeilensummennorm der Google-Matrix

 \Vert P \Vert_\infty=1

und damit auch für die Spaltensummennorm der Transponierten

 \Vert P^T \Vert_1=1.

Eigenvektoren und Eigenwerte[Bearbeiten]

Die Existenz eines Eigenvektors von  P^T zum Eigenwert 1 folgt direkt daraus, dass die Matrix eine stochastische Matrix ist. Dass 1 sogar betragsgrößter positiver Eigenwert ist, zu dem ein einfacher strikt positiver Eigenvektor existiert, folgt aus dem Satz von Perron-Frobenius, da  P^T >0 gilt. Wichtig ist hier, dass erst die Einführung des Dämpfungsparameters die Positivität der Matrix und damit die Lösbarkeit des Eigenwertproblems garantiert.

Des Weiteren lässt sich noch zeigen, dass  |\lambda_i|\leq d für alle anderen Eigenwerte gilt.[2] Die Separation der Eigenwerte wird also nur durch den Dämpfungsparameter bestimmt. Damit ist für viele der numerischen Verfahren zur Eigenwertberechnung, wie beispielsweise die Potenzmethode, eine gute Konvergenzgeschwindigkeit garantiert, so lange der Dämpfungsfaktor nicht zu nahe an 1 gewählt wird. Normalerweise gilt  d \approx 0.85 .

Regularität und Kondition[Bearbeiten]

Da

 \Vert d(L+\tfrac{1}{n}w\mathbf{1}^T)^T \Vert_1=d<1

gilt, liefert die Neumann-Reihe die Invertierbarkeit der Matrix

 K:=(I-d(L+\tfrac{1}{n}w\mathbf{1}^T)^T) .

Somit ist das Problem als lineares Gleichungssystem lösbar. Gleichzeitig gilt auch für die Norm der Inversen

 \Vert K^{-1} \Vert_1\leq \frac{1}{1-d}

und damit für die Konditionszahl die Abschätzung

 \kappa_1=\Vert K \Vert_1 \Vert K^{-1}\Vert_1 \leq \frac{1+d}{1-d} .

Somit ist nur die Wahl des Dämpfungsparameters für die Kondition verantwortlich und sollte wieder nicht zu nahe an 1 gewählt werden.

Numerische Berechnung des Eigenvektors[Bearbeiten]

Der betragsgrößte Eigenvektor der Google-Matrix wird normalerweise mittels der Potenzmethode näherungsweise bestimmt. Dabei wird ausgehend von einer Startnäherung b_0 in jedem Iterationsschritt das Matrix-Vektor-Produkt der Google-Matrix mit der aktuellen Näherung des Eigenvektors b_k gebildet. In jedem Iterationsschritt ist demnach

 P^Tb_k= dL^Tb_k + d\tfrac{1}{n}\mathbf{1}w^Tb_k +(1-d)\tfrac{1}{n}\mathbf{1}

zu berechnen. Ist die Startnäherung ein stochastischer Vektor, dann ist auch jeder folgende Näherungsvektor stochastisch. Nachdem die Eigenwerte der Google-Matrix gut separiert sind, ist eine langsame Konvergenzgeschwindigkeit der Potenzmethode ausgeschlossen.

Bei der Berechnung kann die spezielle Struktur der Google-Matrix ausgenutzt werden. Die Linkmatrix L^T ist in der Regel extrem dünn besetzt, das heißt fast alle ihre Einträge sind null. Dadurch kann sie zum einen sehr platzsparend gespeichert werden und zum anderen sehr effizient mit einem Vektor multipliziert werden. Auch der Vektor  w ist in der Regel dünn besetzt, wodurch sich der Term \mathbf{1}w^Tb_k ebenfalls sehr schnell berechnen lässt.

Beispiel[Bearbeiten]

Der im Beispiel behandelte gerichtete Graph

Betrachtet man als Beispiel den rechts stehenden gerichteten Graphen mit 8 Knoten, so sind die Knoten 5 und 6 dangling nodes. Dann ist die zeilenweise normierte Adjazenzmatrix

 
L=
\begin{bmatrix}
         0   &      0 &   1  &       0 &        0  &       0  &       0   &      0\\
    0.5      &   0     &    0     &    0     &    0 &   0.5      &   0      &   0\\
         0  &       0   &      0  &  0.5  &  0.5  &         0     &    0    &     0\\
         0   & 0.5    &     0    &     0   &      0    &     0    & 0.5       &  0\\
         0   &      0  &       0    &     0     &    0     &    0    &     0     &    0\\
         0    &     0    &     0      &   0      &   0      &   0    &     0     &    0\\
         0     &    0     &    0    &     0   &      0    &     0   &      0   & 1\\
         0     &    0      &   0     &    0      &   0     &    0   & 1      &   0\\
\end{bmatrix}

und der Vektor

w= \begin{bmatrix}  0 & 0 & 0 & 0 & 1 & 1 & 0 & 0\end{bmatrix}^T .

Dann ist mit der obigen Konstruktion und einem Dämpfungsparameter von  d=0.8

 P= 
\frac{1}{40}

\begin{bmatrix}
    1   &  1  &  33   &  1  &   1 &    1 &    1    & 1 \\
    17   &  1  &   1  &   1  &   1  &  17   &  1 &    1\\
     1   &  1  &   1  &  17  &  17  &   1  &   1  &   1\\
     1   & 17  &   1  &   1   &  1  &   1   & 17  &   1\\
     5  &   5  &   5  &   5  &   5  &   5   &  5  &   5\\
     5  &   5  &   5  &   5  &   5   &  5  &   5  &   5\\
     1  &   1  &   1  &   1  &   1  &   1   &  1  &  33\\
     1   &  1  &   1  &   1  &   1  &   1  &  33  &   1 
\end{bmatrix}

Der Eigenvektor von  P^T zum Eigenwert 1 ist dann

 x=  ( 0.0675,    0.0701,    0.0934,  0.0768,    0.0768,   0.0675,  0.2825,  0.2654)^T .

Damit haben die Knoten 7 und 8 die höchsten PageRanks (0.2825 und 0.2654) und die Knoten 1 und 6 die niedrigsten (je 0.0675). Der betragszweite Eigenwert ist  \lambda_2=-0.8 , die obige Abschätzung ist also scharf. Des Weiteren ist die Konditionszahl

 \kappa_1=9=\frac{1+0.8}{1-0.8} ,

auch diese Abschätzung ist also scharf.

Einzelnachweise[Bearbeiten]

  1. Deeper Inside PageRank Amy N. Langville und Carl D. Meyer. Abgerufen am 30. August 2013.
  2. T.H. Haveliwala und S.D. Kamvar The Second Eigenvalue of the Google Matrix Technischer Report, Stanford University, 2003. Abgerufen am 30. August 2013.

Literatur[Bearbeiten]

  •  Peter Knabner, Wolf Barth: Lineare Algebra. Grundlagen und Anwendungen (= Springer-Lehrbuch). 1. Auflage. Springer, Berlin 2012, ISBN 978-3-642-32185-6 (996 Seiten).