„Äquivokation“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[ungesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
LA+
Ausbau, Möglicherweise Verständlichkeit verbessert
Zeile 4: Zeile 4:


----
----
Der Begriff '''Äquivokation''' bezeichnet im Rahmen der [[Informationstheorie]] diejenige Information, welche bei der Übertragung über einen [[Kanal (Informationstheorie)|Kanal]] zwischen einer Informationsquelle (Sender) und einer Informationssenke (Empfänger) verloren geht. Der Begriff der Information ist in diesem Zusammenhang als [[Informationsgehalt]] zu verstehen und geht auf [[Claude Shannon]] zurück welcher die theoretischen Grundlagen dazu in den 1940 Jahre legte.


Der abstrakte Begriff eines Informationskanals kann sich in praktischen Realisierungen über den Ort, beispielsweise eine [[Funkverbindung|Funkstrecke]] zwischen zwei Punkten, oder über die Zeit, beispielsweise in Form eines [[Datenspeicher]]s, erstrecken.


== Definition ==
Äquivokation ist, im Rahmen der Informationstechnik, diejenige Information welche bei der Übertragung über einen Kanal verloren geht.
[[Datei:Entroy XY.png|thumb|right|Modell eines Kanals mit Quelle H(X) und Senke H(Y) und der Äquivokation H(X<nowiki>|</nowiki>Y)]]
Die mathematische Definition des Informationsgehalts ist eng an die [[Entropie (Informationstheorie)|Entropiefunktion]] <math>H(A)</math> gekoppelt, wobei die Zufallsvariable <math>A</math> die Menge aller möglichen Symbole im Übertragungskanal beschreibt. Eine Informationsquelle sendet nun, wie in rechter Abbildung dargestellt, <math>H(X)</math> über einen Kanal zur Informationsquelle welche <math>H(Y)</math> empfängt. <math>Y</math> kann zu <math>X</math> zufolge einer am Kanal eingebrachten Fehlinformation <math>H(Y|X)</math> bzw. zufolge der am Kanal auftretenden Äquivokation <math>H(X|Y)</math> unterschiedlich sein. Die Schreibweise <math>H(A|B)</math> steht für die [[Bedingte Entropie|bedingte Entropie]] mit den beiden Zufallsvariablen <math>A, B</math>.


Als bedingte Entropiefunktion <math>H(X|Y)</math> lässt sich die Äquivokation, mit <math>I(X; Y)</math> der Traninformation zwischen Quelle und Senke, zu:
=== Definition ===


:<math> H(X|Y) = H(X) - I(X; Y)</math>
Ihre mathematische Definition lautet wie folgt:


Als eine [[Wahrscheinlichkeitsfunktion]] <math>P(.)</math> lässt sich die Äquivokation mit dem [[Logarithmus]] zur Basis 2 ausdrücken als:
<math>-\sum_i \sum_j P(x_i,y_i) \log_2 P(x_i | y_j)</math>


:<math>-\sum_i \sum_j P(x_i,y_i) \log_2 P(x_i | y_j)</math>
=== Quellen ===

* Jürgen Lindner: ''Informationsübertragung'', Springer Verlag, Berlin Heidelberg 2005, S. 313; ISBN 3-540-21400-3
== Quellen ==
*{{Literatur
|Autor = Jürgen Lindner
|Titel = Informationsübertragung
|Verlag = Springer Verlag | Ort = Berlin Heidelberg | Jahr = 2005 | Seiten = Seite 313 | ISBN = 3-540-21400-3 }}


[[Kategorie:Informationstheorie]]
[[Kategorie:Informationstheorie]]

[[en:Equivocation (information theory)]]

Version vom 20. Juli 2010, 21:08 Uhr

Dieser Artikel wurde zur Löschung vorgeschlagen.

Falls du Autor des Artikels bist, lies dir bitte durch, was ein Löschantrag bedeutet, und entferne diesen Hinweis nicht.
Zur Löschdiskussion

Begründung:

Begründung:Völlig unverständlich + irgendwelche wirren Zeichen = die OMA wendet sich mit Grausen ab. --WB 12:30, 20. Jul. 2010 (CEST)


Der Begriff Äquivokation bezeichnet im Rahmen der Informationstheorie diejenige Information, welche bei der Übertragung über einen Kanal zwischen einer Informationsquelle (Sender) und einer Informationssenke (Empfänger) verloren geht. Der Begriff der Information ist in diesem Zusammenhang als Informationsgehalt zu verstehen und geht auf Claude Shannon zurück welcher die theoretischen Grundlagen dazu in den 1940 Jahre legte.

Der abstrakte Begriff eines Informationskanals kann sich in praktischen Realisierungen über den Ort, beispielsweise eine Funkstrecke zwischen zwei Punkten, oder über die Zeit, beispielsweise in Form eines Datenspeichers, erstrecken.

Definition

Modell eines Kanals mit Quelle H(X) und Senke H(Y) und der Äquivokation H(X|Y)

Die mathematische Definition des Informationsgehalts ist eng an die Entropiefunktion gekoppelt, wobei die Zufallsvariable die Menge aller möglichen Symbole im Übertragungskanal beschreibt. Eine Informationsquelle sendet nun, wie in rechter Abbildung dargestellt, über einen Kanal zur Informationsquelle welche empfängt. kann zu zufolge einer am Kanal eingebrachten Fehlinformation bzw. zufolge der am Kanal auftretenden Äquivokation unterschiedlich sein. Die Schreibweise steht für die bedingte Entropie mit den beiden Zufallsvariablen .

Als bedingte Entropiefunktion lässt sich die Äquivokation, mit der Traninformation zwischen Quelle und Senke, zu:

Als eine Wahrscheinlichkeitsfunktion lässt sich die Äquivokation mit dem Logarithmus zur Basis 2 ausdrücken als:

Quellen

  • Jürgen Lindner: Informationsübertragung. Springer Verlag, Berlin Heidelberg 2005, ISBN 3-540-21400-3, S. 313.