Bitfehlerhäufigkeit

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Bitfehlerhäufigkeit (BFH) ist ein Maß der Nachrichtentechnik für die Qualität der Übertragung über einen Kanal oder einer digitalen Übertragungsstrecke

Andere Bezeichnungen für Bitfehlerhäufigkeit sind Bitfehlerrate (BFR) und bit error rate (BER) (mit der Dimension „Anzahl der Fehler pro Zeiteinheit“). Das einheitenlose Bitfehlerverhältnis (engl. bit error ratio) ist hingegen der Fehlerquotient, der aus der Anzahl der in einem beliebigen Zeitintervall fehlerhaft empfangenen Bits (Bitfehler) und der Anzahl im gleichen Zeitintervall insgesamt empfangener Bits berechnet wird. Handelt es sich um gespeicherte Bits auf einem Speichermedium, wird nicht ein definiertes Zeitintervall zugrunde gelegt, sondern eine definierte Speichergröße.

Beispiel: Ein Bitfehlerverhältnis von 3·10−6 bedeutet, dass von 1 Million übertragener oder gespeicherter Bits durchschnittlich 3 Bits falsch sein können. Die Messung zur Ermittlung des Bitfehlerverhältnisses auf Übertragungsstrecken wird BER-Test oder BERT genannt. Sie wird gewöhnlich mit Hilfe von Prüfbitmustern durchgeführt, die von einem Messgerät gesendet und nach der Übertragung wieder empfangen und verglichen werden.

In vielen Veröffentlichungen wird in Anlehnung an den englischen Begriff bit error rate (BER) für eine Bitfehlerhäufigkeit der Begriff Bitfehlerrate bevorzugt. In vielen Dokumentationen (inklusive der Handbücher von Antennenmessgeräten) wird die Bitfehlerrate mit dem Bitfehlerverhältnis verwechselt. So bedeutet bei digitalen TV-Übertragungen „BER“ grundsätzlich „Bit Error Ratio“ und damit das Bitfehlerverhältnis.

Im Gegensatz zur Bitfehlerrate beschreibt die Bitfehlerwahrscheinlichkeit (engl. bit error probability, BEP) eine durch theoretische Überlegungen berechnete Wahrscheinlichkeit für das Auftreten eines Bitfehlers. Geschlossene Berechnungen von Bitfehlerwahrscheinlichkeiten sind meist nur für idealisierte Szenarien möglich, werden aber häufig verwendet, um aufwendige Simulationen zu ersetzen und Grenzen der Leistungsfähigkeit von nachrichtentechnischen Systemen zu bestimmen.

Excessive Bit Error Rate, abgekürzt exBER, (auf deutsch: sehr hohe Bitfehlerrate) ist eine Fehlerdefinition, die in der Synchronen Digitalen Hierarchie und der Plesiochronen Digitalen Hierarchie verwendet wird.

Sie ist für die Dienstgüte der Datenkommunikation das am meisten verbreitete quantitative Merkmal. Die genaue Definition des Fehlers ist von Technik und Bitrate abhängig. Beispielsweise ist es üblich, bei 1 Bitfehler auf 1000 übertragenen Bits den Fehler exBER als erreicht zu bezeichnen. Die Sekunden, in denen mindestens ein exBER aufgetreten ist, werden gewöhnlich in einer MIB aufgezeichnet und gezählt. Mit solchen Zählern kann die Qualität einer Datenkommunikation während der Benutzungszeit definiert gemessen werden.

Eine ähnliche Definition ist Signal degraded (SD). Die Fehlerschwelle von „Signal degraded“ wird gewöhnlich bei 1 Bitfehler auf 1 Million übertragene Bits erreicht. Bei Bitraten von 150 Mbit/s und höher liegen auch die Fehlerschwellen von exBER und SD um einige Zehnerpotenzen höher. Für Standleitungen in Deutschland ist der Fehler exBER das vertragsmäßig festgelegte Kriterium für einen Ausfall der Standleitung.

Messverfahren[Bearbeiten]

Das Messen der Bitfehlerhäufigkeit erfordert eine hochwertige Bezugsinformation. Das können beispielsweise sein

  • ein Vergleich einer mitempfangenen Prüfinformation,
  • eine idealisierte modellhafte Sollinformation,
  • eine Bewertung des empfangenen Leistungsspektrums,
  • eine Bewertung gegenüber einem bekannten Prüfsignal,
  • eine fehlerfreie unabhängige Referenzinformation oder
  • eine Vergleich über eine hinreichend lange Messdauer mit wiederkehrenden Informationen

In jedem Fall muss eine verlässliche Bezugsgröße herangezogen werden.[1]

Beispiel[Bearbeiten]

Bitfehlerhäufigkeit als Funktion von Eb/N0.

Bezieht man das Signal-Rausch-Verhältnis auf ein Informationsbit, erhält man das Bitenergie-Rauschleistungsdichte-Verhältnis \frac{E_b}{N_0}, das Verhältnis von der für ein Informationsbit aufgewendeten Energie Eb zu der spektralen Rauschleistungsdichte N0.

Mit steigendem Rauschen, d.h. abnehmendem Eb/N0, steigt die Bitfehlerrate. Weiterhin hängt die BER vom Codierverfahren ab. 16-PSK oder 8-PSK besitzen eine höhere Informationsdichte als beispielsweise 2-PSK und benötigen einen höheren Signal-Rauschabstand. Vorwärtsfehlerkorrekturverfahren senken die erforderliche Signalgüte.

Die Abbildung listet für verschiedene leistungsbegrenzte Kodierverfahren die Fehlerhäufigkeit in Abhängigkeit von Eb/N0 (dargestellt in dB) auf. Beispielsweise beträgt bei einem Bitfehlerverhältnis von 10-4 das Verhältnis Eb/N0 für BPSK etwa 8 dB, mit der FEC-Kodierung Faltungscodes decodiert mit dem Viterbi-Algorithmus etwa 4 dB. Eine zusätzliche Reed-Solomon-Kodierung reduziert das minimal benötigte Eb/N0 auf weniger als 3 dB. Die senkrechte Linie in der Abbildung kennzeichnet das Shannon-Limit, das nicht unterschritten werden kann.

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Bit Error Rate: Fundamental Concepts and Measurement Issues