Shannon (Einheit)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Shannon (abgekürzt Sh) ist die nach dem amerikanischen Mathematiker und Begründer der Informationstheorie Claude Elwood Shannon benannte Einheit für den Informationsgehalt einer Nachricht. Die Einheit Shannon ist identisch mit der in der Realität häufiger verwendeten Einheit Bit (großgeschrieben – im Gegensatz zu bit, das ein binäres Symbol bezeichnet).

Ein Shannon (1 Sh) ist eine Einheit für das Maß an Information in einer Nachricht. Dabei wird die Nachricht durch eine Zeichenmenge sowie durch die Wahrscheinlichkeiten pi, mit denen die einzelnen Zeichen in der Nachricht auftauchen, beschrieben. Eine solche Nachricht besitzt nach Definition den folgenden, in Shannon gemessenen, Informationsgehalt von

Die Einheit Sh ergibt sich aus der von Claude Shannon begründeten Informationstheorie und entspricht der Entropie der betreffenden Nachrichtenquelle und in der Biometrie dem Shannon-Index einer Population unterschiedlicher Spezies.

  • Das einfachste Beispiel: Eine einmalige Nachricht aus dem Zeichenvorrat , wobei beide Zeichen mit der Wahrscheinlichkeit von je 0,5 auftreten, hat den Informationsgehalt .
  • Wenn der Zeichenvorrat aus zehn Zeichen, etwa besteht, wobei wieder alle Zeichen mit gleicher Wahrscheinlichkeit auftreten, dann beträgt der Informationsgehalt . Das kann man so interpretieren, dass man auf jeden Fall mit einer 4-bit-Kodierung auskommt, um solche Nachrichten zu übertragen (dies wird etwa durch den BCD-Code realisiert), dass dabei aber noch Redundanz vorhanden ist. Beim BCD-Code äußert sich diese Redundanz so, dass von den 16 unterschiedlichen Zeichen, die mit diesem Code dargestellt werden können, nur 10 wirklich auftreten.

Begriffsfestlegungen zu Einheiten des Entscheidungsgehalts in der Informationstheorie findet man in den internationalen Normen IEC 60027-3 und ISO 2382-16. Dort ist neben der auf dem Logarithmus zur Basis 2 beruhenden Einheit Shannon noch das auf dem Zehner-Logarithmus beruhende Hartley (Einheitenzeichen: Hart) und die auf dem natürlichen Logarithmus beruhende natürliche Informationseinheit (Einheitenzeichen: nat) erklärt.

„Der Versuch der International Organization for Standardization (ISO) 1975 die Einheit Bit durch die Shannon-Einheit zu ersetzen, […] war rückblickend betrachtet nicht sehr erfolgreich.“

Walter Umstätter[1]
  • Johann Blieberger, Bernd Burgstaller, Gerhard Helge Schildt: Informatik – Grundlagen. 4. Auflage, Springer Verlag, Wien 2002, ISBN 978-3-211-83710-8.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Nachrichten für Dokumentation 49 (4), 1998, S. 221–224.