Bit

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Gigabit)
Wechseln zu: Navigation, Suche
Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Bit (Begriffsklärung) aufgeführt.

Der Begriff Bit (binary digit) wird in der Informatik, der Informationstechnik, der Nachrichtentechnik sowie verwandten Fachgebieten in folgenden Bedeutungen verwendet:

  • als Maßeinheit für den Informationsgehalt (siehe auch Shannon, Nit, Ban). Dabei ist 1 bit der Informationsgehalt, der in einer Auswahl aus zwei gleich wahrscheinlichen Möglichkeiten enthalten ist. Der Informationsgehalt kann ein beliebiger reeller, nicht negativer Wert sein.
  • als Maßeinheit für die Datenmenge digital repräsentierter (gespeicherter, übertragener) Daten. Die Datenmenge ist der maximale Informationsgehalt von Daten mit gleich großer Repräsentation. Das Maximum stellt sich ein, falls alle möglichen Zustände gleich wahrscheinlich sind. Das Maximum ist ein ganzzahliges Vielfaches von 1 bit. Es ist die Anzahl der für die Darstellung verwendeten binären Elementarzustände.
  • als Bezeichnung für eine Stelle einer Binärzahl (üblicherweise „0“ und „1“) oder allgemeiner für eine bestimmte Stelle aus einer Gruppe binärer Stellen.

Wortherkunft[Bearbeiten]

Der Begriff Bit ist eine Wortkreuzung aus binary digit, englisch für Binärziffer. Er wurde von dem Mathematiker John W. Tukey vermutlich 1946, nach anderen Quellen schon 1943, vorgeschlagen. Schriftlich wurde der Begriff zum ersten Mal 1948 auf Seite eins von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication[1] erwähnt. Die Bits als Wahrheitswerte verwendete George Boole als Erster.

Schreibweise[Bearbeiten]

Die Maßeinheit heißt „Bit“ und hat „bit“ als Einheitenzeichen;[2] das alternative „b“[3] ist ungebräuchlich. So wie man „100-Meter-Lauf“ und „100-m-Lauf“ schreiben kann, wird auch „32-Bit-Register“ und „32-bit-Register“ geschrieben. Insbesondere für die Angabe von Datenraten sind Einheitenvorsätze gebräuchlich, z. B. Mbit/s für Millionen Bit pro Sekunde.

Datenmengen werden dagegen meist in der Einheit Byte angegeben, 1 Byte = 8 bit. Zur Mehrdeutigkeit von Einheitenvorsätzen siehe Binärpräfixe.

Die Einheit wird nur im Singular verwendet, während der Plural für bestimmte „Bits“ einer Gruppe verwendet wird.

Darstellung von Bits[Bearbeiten]

Digitaltechnik[Bearbeiten]

Anzahl der Bits Anzahl der Zustände
1 2
2 4
3 8
4 16
5 32
6 64
7 128
8 256
9 512
10 1024
11 2048
12 4096
13 8192
14 16.384
15 32.768
16 65.536
24 16.777.216
32 4.294.967.296
(≈4,3 Milliarden)
64 18.446.744.073.709.551.616
(≈18,4 Trillionen)

Jede Information ist an einen Informationsträger gebunden. Ein Informationsträger, der sich in genau einem von zwei Zuständen befinden kann, kann die Datenmenge 1 Bit darstellen. Folgende beispielhafte Sachverhalte können also eine Datenmenge von einem Bit darstellen:

  • Die Stellung eines Schalters mit zwei Zuständen, zum Beispiel eines Lichtschalters mit den Stellungen Ein oder Aus.
  • Der Schaltzustand eines Transistors, „geringer Widerstand oder „hoher Widerstand“.
  • Das Vorhandensein einer Spannung, die größer oder kleiner als ein vorgegebener Wert ist.
  • Eine Variable, welche einen von zwei Werten, zum Beispiel 1 oder 0, die logischen Wahrheitswerte wahr oder falsch, true oder false, high oder low, H oder L enthalten kann.

1 Bit stellt 2 Zustände dar. Der Wert eines oder mehrerer Bits wird in der Informatik allgemein als Zustand bezeichnet. In einem solchen Zustand kann ein physikalisches Element sich befinden, zum Beispiel der erwähnte Transistor. Werden mehrere solcher physikalischen Elemente zu einer Einheit zusammengesetzt, hängt der Gesamtzustand dieser Einheit von den Zuständen aller einzelnen Elemente ab.

Binärdarstellung; Bits und Bytes[Bearbeiten]

Mit n Bits lassen sich 2n verschiedene Zustände darstellen. Mit beispielsweise zwei Bits können 2² = 4 verschiedene Zustände repräsentiert werden, nämlich 00, 01, 10 und 11. Mit vier Bits können 16 verschiedene Zustände dargestellt werden, mit acht Bits 256, und so weiter. Jedes zusätzliche Bit verdoppelt die Anzahl der möglichen darstellbaren Zustände, wie an der nebenstehenden Tabelle abgelesen werden kann.

  • für Busbreiten und die Verarbeitungsbreite auf Chipebene

Quantität und Qualität[Bearbeiten]

Bitfehler und Vorwärtsfehlerkorrektur[Bearbeiten]

Wenn sich Bits aufgrund von Störungen ändern, spricht man von einem Bitfehler.

Beispiele:

  • zwei 64-Bit-Zahlen sind ungleich, wenn sie sich auch nur im niederwertigsten Bit unterscheiden. Das führt zum Beispiel zu einem Vertrauensproblem, wenn zwei digitalisierte Fingerabdrücke verglichen werden, und das Programm nicht so geschrieben ist, dass es mit kleinen Unterschieden „intelligent“ umgehen kann.
  • eine ausführbare Datei wird meist unbrauchbar, wenn auch nur ein Bit „kippt“, wenn also aus einer 0 fälschlich eine 1 wird oder umgekehrt.
  • Nur ein einziger Fehler in der Bitfolge eines 2048 Bit langen Schlüssels zu einem verschlüsselten Text führt unweigerlich dazu, dass sich der Text nicht mehr entschlüsseln lässt (siehe Kryptologie).
  • Bitfehler auf Audio-CDs können toleriert werden und führen maximal zu Geräuschfehlern; auf Daten-CDs sind sie fatal, weshalb diese zusätzliche Fehler-Korrektur-Codes enthalten (siehe auch Fehlerkorrekturverfahren).

So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, in sicherheitsrelevanten Systemen wie etwa in der Raumfahrt sogar für Leben oder Tod.

Der Tatsache, dass nur ein falsches Bit ausreicht, um unerwartete Ergebnisse zu produzieren, kann man dadurch begegnen, dass man Informationen redundant kodiert. Die einfachste Art der redundanten Codierung zur Fehlererkennung besteht darin, einem Datenblock als Prüfsumme die binäre Quersumme, das so genannte Paritätsbit hinzuzufügen. Die Paritätsprüfung erlaubt es festzustellen, wenn ein einzelnes Bit im Block falsch übertragen wurde. Ist ein Fehler aufgetreten, kann der Empfänger eine Neuübermittlung anfordern (so etwa im Transmission Control Protocol).

Wenn mehr als ein redundantes Bit pro Datenblock hinzugefügt wird, spricht man von Vorwärtsfehlerkorrektur (englisch: forward error correction, FEC); sie wird bei manchen Datenträgern und bei vielen Datenübertragungsverfahren eingesetzt und erlaubt es, fehlerhaft ausgelesene beziehungsweise empfangene Bits zu korrigieren, solange die Bitfehlerhäufigkeit unterhalb einer kritischen Schwelle bleibt. Das einfachste Verfahren zur Fehlerkorrektur sind sogenannte Wiederholungs-Codes (englisch repetition codes), bei denen jedes Bit mehrmals, zum Beispiel dreimal, übertragen wird. Kippt nur eines der drei Bits, kann das ursprüngliche Bit durch Mehrheitsentscheid wiederhergestellt werden. In der Praxis werden deutlich effizientere Verfahren verwendet, so wird auf einer CD beispielsweise jedes Byte über eine Strecke von 2 cm verteilt und mit anderen Bytes zusammen als Reed-Solomon-Code abgespeichert, so dass beliebige 1-mm-Streifen einer CD fehlen können und dennoch die ganze Information vorhanden ist. Der Preis für die Vorwärtsfehlerkorrektur ist der Speicherplatz (oder die Datenrate) für die redundanten Bits – der Speicherplatz von CDs wäre ohne solche Maßnahmen etwa 17 Prozent größer, Netzwerke 40 Prozent schneller, Mobiltelefone 200 Prozent leistungsstärker, bei den letzten beiden unterschiedlich je nach Typ.

Datenkompression[Bearbeiten]

Oft enthalten die kodierten Informationen selbst Redundanz. Durch verschiedenartige Kompressionsverfahren kann die entsprechende Information auf wesentlich weniger Speicherplatz untergebracht werden. Siehe dazu auch Entropiekodierung.

Je nach Art der Information ist dabei auch eine verlustbehaftete Kompression möglich, die zusätzlich den Speicherbedarf verringert. Der Informationsverlust wird dabei als (relativ) unwesentlich betrachtet – das ist vor allem bei Bild- und Tondaten möglich.

Signale[Bearbeiten]

Zum Beschreiben, Lesen oder Adressieren von Speicherzellen sind Signalleitungen notwendig. Hier wird mit definierten Signalpegeln gearbeitet. Ein Signalpegel hat zwangsläufig mehr als zwei Wertebereiche. Hinzu kommt das zeitliche Verhalten.

Binärbereich

Theoretisch gibt es fünf Pegelbereiche (Anmerkung: in dieser Aufzählung wird davon ausgegangen, dass positive Logik verwendet wird).

  1. Der Bereich unterhalb des Bereiches, dem eine logische Null zugeordnet ist. Dieser Bereich soll schaltungsmäßig vermieden werden, ist aber im Fehlerfall möglich. Eventuell ist mit diesem Bereich auch eine Zerstörung der Schaltung verbunden.
  2. Der Bereich, dem eine logische Null zugeordnet ist.
  3. Der Bereich, der zwischen dem Bereich „logische Null“ und „logische Eins“ liegt. Es ist nicht möglich, einen solchen „undefinierten“ Bereich zu vermeiden. Man kann schaltungstechnisch dafür sorgen, dass dieser Zustand nur kurzzeitig auftritt. Zu diesem Zeitpunkt ist das Signal „nicht gültig“.
  4. Der Bereich, dem eine logische Eins zugeordnet ist.
  5. Der Bereich oberhalb des Bereiches, dem eine logische Eins zugeordnet ist. Dieser Bereich soll schaltungsmäßig vermieden werden, ist aber im Fehlerfall möglich. Eventuell ist mit diesem Bereich auch eine Zerstörung der Schaltung verbunden.

Jedem Bit wird eine Zeitdauer zugeordnet. Beim Wechsel von einem Null- auf Eins-Pegel oder umgekehrt entstehen steile Flanken. Wechselt der Zustand nicht, fehlt die Flanke und der lesende Baustein kann nur aus der Zeitdauer darauf schließen, dass jetzt mehrere gleichwertige Bits übertragen werden. Dafür müssen Sender und Empfänger im gleichen Takt arbeiten. Die Bits werden nacheinander (seriell) übertragen.

Bezogen auf dieses zeitliche Verhalten sind dann Aussagen wie z. B. 1½ Stoppbits zu verstehen. ½ Bit kann es definitionsgemäß nicht geben. Ein Signal mit einer Taktdauer von ½ hingegen ist möglich.

Qubits in der Quanteninformationstheorie[Bearbeiten]

Hauptartikel: Qubit

Das Quantenbit (kurz Qubit genannt) bildet in der Quanteninformationstheorie die Grundlage für Quantencomputer und die Quantenkryptografie. Das Qubit spielt dabei die analoge Rolle zum klassischen Bit bei herkömmlichen Computern: Es dient als kleinstmögliche Speichereinheit und definiert gleichzeitig als Zweizustands-Quantensystem ein Maß für die Quanteninformation. Hierbei bezieht sich „Zweizustand“ nicht auf die Zahl der Zustände, sondern auf genau zwei verschiedene Zustände, die bei einer Messung sicher unterschieden werden.

Allgemeine Definition[Bearbeiten]

Gegeben sei ein System aus n\in\N Elementen mit jeweils b\in\N möglichen Zuständen. Das System kann folglich b^n mögliche Zustände abbilden. Die Entropie S des Systems berechnet sich aus

e^S = b^n,

wobei e die Eulersche Zahl ist. Durch Umformung erhält man den Zusammenhang

S = n \log b.

Das Bit ist also der Logarithmus der Basis und die Maßeinheit für die Entropie S.[4]

Bits in Dualsystemen[Bearbeiten]

In einem Dualsystem mit der Basis b=2 entspricht ein Bit dem Logarithmus von 2.

Allerdings ist in der Informationstheorie im Umgang mit Dualsystemen eine abgewandelte Definition der Entropie mit dem Logarithmus zur Basis 2 gebräuchlich, welche mit \Eta (Eta) bezeichnet wird:

\Eta = n \log_2 b = \frac{S}{\log 2}.

Ein Bit entspricht hierbei \log_2 2 = 1.

Beispiel[Bearbeiten]

Gegeben sei ein Oktett, also n=8 Elemente wobei jedes Element b=2 mögliche Zustände besitzt. Die Entropie des Oktetts ist daher

S = n \log b = 8 \log 2 = 8\,\text{Bit}

bzw.

\Eta = n \log_2 b = 8 \log 2 = 8 = 8\,\text{Bit}

Trivia[Bearbeiten]

Im Januar 2012 gelang es, 1 Bit (2 Zustände) in einer genauen Menge von 12 Eisenatomen zu speichern, die bisher geringste noch notwendige physische Speichermenge. Dabei konnte eine stabile Anordnung der Atome für mindestens 17 Stunden nahe dem absoluten Nullpunkt der Temperatur nachgewiesen werden.[5]

Theoretisch lassen sich dadurch wesentlich höhere Speicherdichten als in konventionellen Systemen realisieren, welche mindestens eine Million Atome zur Speicherung eines Bit benötigen.

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]

 Wiktionary: Bit – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
 Wikibooks: Über das Wesen der Information – Lern- und Lehrmaterialien

Einzelnachweise[Bearbeiten]

  1. Claude Elwood Shannon: A Mathematical Theory of Communication. In: Bell System Technical Journal, Band 27, S. 379–423 und 623–656, Juli und Oktober 1948. (PDF)
  2. IEC 60027-2, Ed. 3.0, (2005–2008): Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics.
  3. nach IEEE 1541 und IEEE 260.1
  4. Leonard Susskind: Modern Physics: Statistical Mechanics. Stanford University, abgerufen am 27. Februar 2013.
  5. Science, Bd. 335, S. 196, doi:10.1126/science.1214131