Nit (Informationseinheit)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Nit, auch als Nat oder als Naperian Digit bzw. nepit bezeichnet, ist eine selten gebräuchliche, dimensionslose Einheit zur quantitativen Angabe von Entscheidungsgehalten in der Informationstheorie. Die Bezeichnung Nat ist in der Norm IEC 60027-3 oder ISO 2382-16 festgelegt. Die Bezeichnung leitet sich vom Namen eines Entwicklers logarithmischer Rechenregeln, John Napier, ab. Im Gegensatz zum Bit basiert das Nit nicht auf dem dualen, sondern auf dem natürlichen Logarithmus, also auf der Basis e statt der Basis 2.

Es gilt:

\ln(p)\mbox{ nit}\mathrel{\widehat{=}}\log_2(p)\mbox{ bit}\,\!

Ein Nit entspricht damit 1/ln(2) Bit, dies sind etwa 1,44 Bit. Das ergibt sich aus folgender Rechnung:

1\mbox{ nit}={\log_2(p)\over\ln(p)}\mbox{ bit}={1\over\ln2}\mbox{ bit}\ \approx\ 1{,}44\mbox{ bit}

Eine Anwendung dieser Einheit findet sich dort, wo in Ökonometrie[1] Entropien basierend auf dem natürlichen Logarithmus berechnet werden. In der Regel werden Entropiemaße wie zum Beispiel der Theil-Index heute jedoch ohne irgendeine Einheit angegeben.

Natürliche Informationseinheit[Bearbeiten]

Werden n sich gegenseitig ausschließende Ereignisse betrachtet, nennt man den Logarithmus von n Entscheidungsgehalt. Wählt man hierfür den natürlichen Logarithmus zur Basis e, schreibt man hinter den Zahlenwert das Einheitenzeichen Nit bzw. Nat und die so erhaltene Zahl gibt den Entscheidungsgehalt in natürlichen Informationseinheiten an.

Zusammenhang[Bearbeiten]

Analoge Definitionen führen bei Verwendung des Logarithmus zur Basis 2 zur Shannon-Einheit, ausgedrückt in der Einheit Bit, und im Falle des Zehner-Logarithmus zur Hartley-Einheit, ausgedrückt in der selten gebrauchten Einheit Ban.

Literatur[Bearbeiten]

  •  Fazlollah M. Reza: An Introduction to Information Theory. Dover Publications, New York 1995, ISBN 0-48668210-2.

Quellen[Bearbeiten]

  1. Henri Theil: Principles of Econometrics, 1971, S.637ff, ISBN 978-0471858454