Kanalkapazität

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Kanalkapazität ist Teil der informationstheoretischen Beschreibung eines Übertragungskanals. Sie gibt die höchste Bitrate an, mit der Informationen über einen Kanal gerade noch fehlerfrei übertragen werden können.[1]

Claude Shannon und Ralph Hartley zeigten in Form des Shannon-Hartley-Gesetzes, dass sich die theoretische Kanalkapazität durch geeignete Kodierung näherungsweise erreichen lässt.

Definition[Bearbeiten]

Allgemeiner Übertragungskanal

Die Kanalkapazität C für einen diskreten, gedächtnisfreien Kanal ist das Supremum aller fehlerfrei in einer Zeitspanne \tau übertragbaren Symbole. Dabei wird zwischen dem Informationsgehalt der gesendeten Symbole X und der empfangenen Symbole Y unterschieden. Der Unterschied ergibt sich:

  1. durch Störungen, welche am Übertragungskanal auf die Symbole einwirken und diese verfälschen,
  2. durch den Umstand, dass eine gesendete Information am Übertragungskanal verloren gehen kann.

Mathematisch lässt sich durch die Entropiefunktion I(·), welche die wechselseitige Information beschreibt, für diese beiden Fälle ausdrücken als:

I(X; Y) = H(X) - H(X|Y) = H(Y) - H(Y|X)

Die Kanalkapazität C lässt sich als jenes Maximum angeben:

C = \frac{1}{\tau} \max_{p(X)} I(X; Y)

Arten von Übertragungskanälen[Bearbeiten]

Die Kanalkapazität ist abhängig von der Art des Übertragungskanals. Im Folgenden wird für wichtige Modelle von Übertragungskanälen die Kanalkapazität dargestellt.

Binärer symmetrischer Kanal[Bearbeiten]

Der binäre Übertragungskanal stellt einen wertdiskreten Übertragungskanal dar, somit ist dessen maximale Kanalkapazität auf ein Bit limitiert. Der Kanal kann nur die zwei Symbole (Zustände) annehmen welche mit 0 oder 1 bezeichnet werden. Somit kann die Kanalkapazität bei diesem Kanalmodell nur im Intervall 0 bis 1 liegen.

Die Kanalkapazität dieses binären symmetrischen Kanals, im Englischen auch als Binary Symmetric Channel (BSC) bezeichnet, ist:

 C = 1 - H(p) = 1 + p \cdot \log_2 p + ( 1 - p ) \cdot \log_2 (1 - p) ,

wobei H(p) die binäre Entropiefunktion darstellt:

H(p) = - ( p \cdot \log_2 p + ( 1 - p ) \cdot \log_2 (1 - p))

und p die Fehlerwahrscheinlichkeit ist.

Für die Extremwerte der Fehlerwahrscheinlichkeit von p = 1 oder p = 0 ist die Kapazität eins und somit maximal. Wobei im ersten Fall der Übertragskanal einen Inverter darstellt. Im Fall p = 0 liegt ein fehlerfreier binärer Übertragungskanal vor. Für p = 0,5 ist die Kanalkapazität C = 0, also minimal. In diesem Fall wird der BSC zu einer idealen Rauschquelle und keine Informationsübertragung kann erfolgen.

Binärer Auslöschungskanal[Bearbeiten]

Auch der binäre Auslöschungskanal stellt einen wertdiskreten Übertragungskanal dar, dessen Kanalkapazität ist:

 C = 1 - p

mit der Fehlerwahrscheinlichkeit p. Die Kanalkapazität ist bei diesem Kanal maximal für p = 0, wo keinerlei Auslöschung erfolgt. Sie ist minimal für p = 1 wo jegliche Information ausgelöscht wird und keinerlei Informationsübertragung möglich ist.

AWGN-Kanal[Bearbeiten]

Der AWGN-Kanal stellt einen wertkontinuierlichen Übertragungskanal dar, welcher als Störgröße additives weißes gaußsches Rauschen (AWGN) aufweist. Aufgrund der wertkontinuierlichen Kanaleigenschaft können im Prinzip unendlich viele Symbole vorkommen, welche allerdings durch die Störgröße unter Umständen nicht mehr sicher voneinander unterschieden werden können. Die sich daraus ergebende Kanalkapazität C des AWGN-Kanals ist:

 C = B \cdot \log_2 \left( 1 + \frac{S}{N} \right)

Dabei ist der Ausdruck S/N das Signal-Rausch-Verhältnis, abgekürzt als SNR bezeichnet, zwischen der zu übertragenden Information und des am Kanal auftretenden, additiven weißen gaußschen Rauschens. Für eine maximale Kanalkapazität ist es notwendig, dass das SNR maximal wird. Im Grenzfall eines Kanals mit S/N → ∞ kann durch den Umstand einer unendlich großen Symbolmenge auch eine unendlich hohe Kanalkapazität erreicht werden - dieser Grenzfall ist allerdings praktisch durch immer vorhandene Störquellen nicht erreichbar.

Abgrenzung[Bearbeiten]

Um zur Übertragungsrate zu gelangen, werden in zeitlicher Abfolge unterschiedliche Symbole über den Kanal übertragen. Diese zeitliche Abfolge von unterschiedlichen Symbolen ergibt eine Symbolrate, welche von der Frequenz abhängt und spektral eine bestimmte Bandbreite belegt. Die Übertragungsrate R ergibt sich dann aus der Symbolrate und dem Wert wie viele Bits an Information pro Symbol transportiert wird. Der Wert wie viele Bits pro Symbol übertragen werden, hängt direkt von der Kanalkapazität und somit vom jeweiligen Kanal ab.

Literaturquellen[Bearbeiten]

  •  André Neubauer, Jürgen Freudenberger, Volker Kühn: Coding Theory. Algorithms, Architectures, and Applications. John Wiley & Son, Chichester 2007, ISBN 978-0-470-02861-2.

Einzelnachweise[Bearbeiten]

  1. Thomas Cover: Information Theory, S. 184, 2. Auflage, John Wiley & Sons, 2012, ISBN 978-0471241959.