Rényi-Entropie

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Informationstheorie ist die Rényi-Entropie (benannt nach Alfréd Rényi) eine Verallgemeinerung der Shannon-Entropie. Die Rényi-Entropie gehört zu der Familie von Funktionen, die zum Quantifizieren der Mannigfaltigkeit, Ungewissheit oder Zufälligkeit eines Systems dienen.

Die Rényi-Entropie der Ordnung α, wobei α > 0, ist definiert als:

H_\alpha(X) = \frac{1}{1-\alpha}\log_2\Bigg(\sum_{i=1}^n p_i^\alpha\Bigg)

Hierbei ist X eine Zufallsvariable mit Wertebereich {x1, x2 ... xn} und pi die Wahrscheinlichkeit, dass X=xi. Wenn die Wahrscheinlichkeiten pi alle gleich sind, dann ist Hα(X)=log2 n, unabhängig von α. Andernfalls sind die Entropien monoton fallend als eine Funktion von α.

Hier einige Einzelfälle:

H_0 (X) = \log_2 n = \log_2 |X|,\,

welche der Logarithmus der Mächtigkeit von X ist, der manchmal auch die „Hartley-Entropie“ von X genannt wird.

Nähert sich die Grenze von \alpha gegen 1 (L’Hôpital) so ergibt sich:

H_1 (X) = - \sum_{i=1}^n p_i \log_2 p_i

das der „Shannon-Entropie/Informationsentropie“ entspricht.

Weiter

H_2 (X) = - \log_2 \sum_{i=1}^n p_i^2

das der „Korrelationsentropie“ entspricht. Der Grenzwert von H_\alpha für \alpha \rightarrow \infty ist

H_\infty (X) = - \log_2 \sup_{i=1..n} p_i

und wird auch Min-Entropie genannt, da es der kleinste Wert von H_\alpha ist.

Die Rényi-Entropien sind in der Ökologie und Statistik als Indizes der Vielfältigkeit wichtig. Sie führen auch zu einem Spektrum von Indizes der Fraktalen Dimension.