Information

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von )
Zur Navigation springen Zur Suche springen
Das „i“ ist international ein Symbol für Information im Tourismus und verwandten Gebieten

Information ist in der Informationstheorie das Wissen, das ein Absender einem Empfänger über einen Informationskanal vermittelt. Die Information kann dabei die Form von Signalen oder Code annehmen. Der Informationskanal ist in vielen Fällen ein Medium. Beim Empfänger führt die Information zu einem Zuwachs an Wissen.

Information kann bewusst als Nachricht oder Botschaft von einem Sender an einen Empfänger übermittelt oder auch unbewusst transportiert werden und durch die Wahrnehmung von Form und Eigenschaft eines Objektes auffallen. Information erhält ihren Wert durch die Interpretation des Gesamtgeschehens auf verschiedenen Ebenen durch den Empfänger der Information. Sender oder Empfänger können nicht nur Personen/Menschen, sondern auch (höherentwickelte) Tiere oder künstliche Systeme (wie Maschinen oder Computer/Computerprogramme) sein.

Da der Begriff der Information häufig definiert worden ist, werden einige klassische Definitionsansätze vorgestellt, die zugleich den verschiedenen Bedeutungen der Information entsprechen:[1]

  • Die Definition „Information ist die Teilmenge von Wissen, die von einer bestimmten Person oder Gruppe in einer konkreten Situation benötigt wird und häufig nicht explizit vorhanden ist“ stellt besonders den Bedarf und den Neuigkeitswert aus Sicht des Empfängers (Nutzers) in den Mittelpunkt.
  • „Information ist die Verringerung von Ungewissheit aufgrund von fachlichen Informationsprozessen“ ist primär auf den Vermittlungsprozess, also die Tätigkeit des Senders bezogen.
  • Harald H. Zimmermann vertritt einen nutzerorientierten Ansatz, der die handlungsrelevante Wissensveränderung in den Mittelpunkt stellt: „Information ist der (geglückte) Transfer von Wissen,“ ist also das (neue) Wissen, das beim Rezipienten zu einer Veränderung des bisherigen Wissens führt. Im engeren Sinne ist es das Wissen, das einem Menschen (oder einer Institution) zuvor fehlte, um bei einem aktuellen Problem eine sachgerechte Entscheidung zu treffen.
  • Mit „Information ist Wissen in Aktion“ macht Rainer Kuhlen den Handlungsaspekt von Information deutlich.

In verschiedenen Zusammenhängen lassen sich in der Literatur weitere Definitionen für Information finden:

  • In[2] wird ‚Information‘ vereinfacht mit „Derjenige Anteil einer Nachricht, der für den Empfänger neu ist“ definiert.
  • In[3] darf die Nachricht nicht redundant sein (Neuigkeitswert) und muss darüber hinaus relevant sein (Pragmatik).
  • Im bibliothekarischen Grundwissen wird Information als die von den verschiedenen Medien übertragenen Inhalte bezeichnet.[4]

‚Information‘ wird im Sprachgebrauch auch als allgemeine Bezeichnung für Daten benutzt, beide Ausdrücke werden oft als gleichbedeutend (synonym) angenommen.[5][6][7][8] Daraus entstanden auch Ausdrücke wie Informationstechnik, Informationsfluss usw. – die sich aber meist auf Daten beziehen. So ist der Begriff ‚Informationsverarbeitung‘ nur sinnvoll, wenn Information als Variante von Datum und Nachricht verstanden wird.[6] Doch wird Information auch als höhere Ordnung den Daten gegenübergestellt – aus denen sie sich zusammensetzt.[6]

Daneben ist die Bezeichnung „Information“ (auch im Plural) ein Oberbegriff für zahlreiche Unterlagen/Ausdrücke mit situationsbezogen konkreteren Bedeutungen und Bezeichnungen; Beispiele sind Hinweis, Auskunft, Bericht, Meldung usw.[5][9]

Bedeutungsschwerpunkte

[Bearbeiten | Quelltext bearbeiten]

Der Ausdruck „Information“ wird im Detail mit unterschiedlichen, jedoch eng miteinander in Beziehung stehenden Bedeutungen angewendet. Nach[1] wird er verwendet:

  • für die Tätigkeit des Informierens.
  • Weiterhin kann Information den Informationskanal bedeuten.
  • Darüber hinaus kann in einem auf den Empfänger bezogenen Verständnis von Information diese die beabsichtigte und zu erzielende (Wissens-) Veränderung beim Empfänger sein.
  • Schließlich kann Information in Bezug auf die eigentliche Botschaft verstanden werden [die wohl meistverwendete Bedeutung]. Dieses Verständnis hängt mit dem des Prozesses zusammen, meint jedoch nicht den (physikalischen) Kommunikationskanal, sondern vielmehr das, was über diesen versendet wird.

Näheres dazu siehe auch unten beschriebene Beispiele.

Energie, Materie und Information stellen die drei wichtigsten Grundbegriffe der Natur- und Ingenieurwissenschaften dar. Für die Informatik, die sich als die Wissenschaft von der systematischen Verarbeitung von Information versteht, ist der Begriff Information von zentraler Bedeutung; trotzdem ist er bisher kaum präzisiert worden. Über sie lässt sich manches aussagen.“(nach[10] und[1])

  • Sie dient dem Zweck der Wissensvermehrung des bzw. der potenziellen oder tatsächlichen Nutzer bzw. reduziert deren Nichtwissen (Entropie) – gegebenenfalls zur Verwirklichung eines bestimmten Vorhabens oder einer Handlung („aktionsprägend“), z. B. eine Entscheidung zu treffen.
  • Sie ist dann für uns „von Wert“, wenn sie unsere Kenntnis über die Welt erweitert: Sie vermittelt einen Unterschied, News is what’s different.[11]
  • Ist sie Voraussetzung für bestimmte Handlungen, so wird sie oft initiativ vom Empfänger angefordert oder ‚abgerufen‘.
  • Ihre Menge kann der Empfänger entsprechend seinem Erkenntnisinteresse reduzieren (z. B. „filtern“, nur teilweise nutzen) oder mithilfe anderer Informationen erweitern oder verknüpfen.
  • Information benötigt keinen fixierten Träger. Nicht das Informationsmedium ist die Information, sondern das, was das Medium „transportiert“.
  • Sie ist „dialogisch“, also sender- und nutzerbezogen – und damit kommunikationsabhängig: Ohne funktionierenden Kommunikationskanal erreicht die vom Sender abgeschickte Information den Empfänger nicht.
  • Sie entsteht durch Übertragung von Materie (mikroskopisch und makroskopisch), von Energie oder von Impulsen. Den Menschen erreicht sie über die Sinnesorgane sowie im chemisch biologischen Sinne über Rezeptoren und Nerven.
  • Information ist beliebig oft kopierbar, sie kennt keine Originale.
  • Information altert nicht; gleichwohl kann sie inaktuell werden – und wird dann z. B. durch eine neue Information ersetzt (Preis einer Ware)
  • Information ist fast beliebig kombinierbar. Man kann ihr nicht ansehen, ob ihre Teile zueinander gehören; Manipulationen sind also beliebig möglich.
  • Information lässt sich stark komprimieren – aber auch inhaltsleer auswalzen.

In erweitertem Sinn zählen auch die Kriterien, die die Qualität einer Information bestimmen, zu den Eigenschaften, die eine Information aufweisen kann/soll. Dies sind zum Beispiel: Zweckorientiertheit, Wahrheit/Richtigkeit, Vollständigkeit, Konsistenz (widerspruchsfrei), Glaubwürdigkeit und Prüfbarkeit, Aktualität.

Info-Box auf der Staumauer-Krone der Kölnbreinsperre im österreichischen Maltatal. Hier wird Information zur Zerstreuung und Erbauung versprochen.

Die folgenden Beispiele erläutern ausführlich Wesensmerkmale von Informationen:

  • Verkehrsschild (z. B. Pfeilwegweiser Nr. 418) an einer Straßenkreuzung: Die Angabe A-Stadt 12 km wird durch den visuellen Transport („Informationskanal“) des wahrgenommenen Schilds – seines Textes, der Farbe und seiner Form (Richtungspfeil) – an den (interessierten) Verkehrsteilnehmer zur Information, bestehend aus dem Code (Buchstaben und so weiter), der Syntax (Wörter, Entfernungsangabe, Pfeilrichtung) und der Semantik (zeigt nach …). Sie erweitert dessen Wissen und reduziert seine Unkenntnis (Wo geht es hin? Wie weit ist es noch? Rechts oder links abbiegen? …). Reines „Sehen“ dieses Schilds (als Medium) oder gar dessen Nichtwahrnehmung macht das Schild und seinen Inhalt ebenso wenig zur Information wie wenn das Schild in einer Schublade läge.
  • Buch/Zeitung: Der Leser nimmt zahlreiche Informationen als Erweiterung seines Wissens auf. Dies tut er nach bewusstem Suchen (Sachbuch, Lexikon) oder einfach durch Lesen (interessantes Neues auch im Roman), in beiden Fällen gegebenenfalls nur auszugsweise. Information tritt also häufig nicht als singulärer Begriff auf, sondern erreicht uns oft in großen Mengen (auch in Nachrichtensendungen usw.). Sie entsteht zufällig durch Wahrnehmung oder gezielt auf Initiative des Empfängers oder Senders.

Weitere Beispiele:

  • Informationsboxen im Tourismus: Die Audio-Box (als Informationskanal) gibt hörbare Signale von sich, die dem Betrachter zweckorientiert (über dieses Bauwerk) Wissen vermitteln.
  • Preise für ein Produkt im Schaufenster: Preisangaben sind „Daten“, die bei Wahrnehmung durch interessierte Passanten für diese zur Information werden.
  • Uhrzeit: Die Uhr als Medium zeigt „Daten“ in einer bestimmten Form (Code; digital, analog) an. Zur Information wird die Uhrzeit für einen an der Uhrzeit interessierten Betrachter; sie hat für ihn eine Bedeutung.

Struktur und Bedeutung

[Bearbeiten | Quelltext bearbeiten]

Eine Sichtweise geht vom Informationsträger aus. Die Frage, welche Struktur sich innerhalb dieses Trägers feststellen lässt, wird untersucht. Ein anderer Ansatz bemüht sich zu verstehen, welche Bedeutung dem zukommt, was man dann (irgendwie) diesem Informationsträger entnommen hat.

Die erste Sichtweise hat ihre Wurzeln in der Nachrichtentechnik, die zweite in der Kognitionswissenschaft, der Sprachwissenschaft oder allgemein in der Geisteswissenschaft. Eine nachrichtentechnisch erkennbare Struktur (beispielsweise Lichtpulse, die in einer zeitlichen Reihenfolge auf einzelne Zellen in der Netzhaut treffen) muss in einem komplexen Dekodierungsprozess in eine Bedeutung übersetzt werden.

Wo hier die reine Strukturinformation aufhört und beginnt, eine Bedeutungsinformation zu werden, wo also in diesem Dekodierungsprozess die Grenze zum Bewusstsein zu ziehen ist, ist eine der spannenden Fragen der Informations- und Kognitionswissenschaften.

Aus diesen Betrachtungen ergeben sich vier Ebenen, unter denen der Begriff der Information heute allgemein betrachtet wird. Diese sind

  1. Codierung
  2. Syntax
  3. Semantik
  4. Pragmatik

Rechenberg[12] nennt dabei im Konntext der technischen Informationsverarbeitung explizit die Ebenen Syntax und Semantik als relevant[12]:321 und erweitert um die Ebene der Prakgmatik, aber nur bei Betrachtung aus dem Kontext der Semiotik. Weiter[12]:322 nennt er nur implizit die Ebene der Codierung, wenn er zwischen Kanalcodierung und höheren, syntaktischen Komprimierungsverfahren unterscheidet.

Werner[13] hingegen unterscheidet explizit nur zwischen Syntax-Semantik-Pragmatik.

Diese Ebenen steigern sich im Hinblick auf den Bedeutungsgehalt der Information. Sie spiegeln dabei auch die oben erwähnten theoretischen Angriffspunkte wider, wobei die Codierungsebene der Sichtweise der Nachrichtentechnik nahekommt, die Syntaxebene die Sichtweise der Linguistik oder die der Theorie der formalen Sprachen wiedergibt, die semantische Ebene Ansätze aus der Semiotik oder Semantik integriert, und die Pragmatik eher auf Konzepte der Kognitionswissenschaften zurückgreift.

Die vier Ebenen sollen an der Zeichenfolge „ES IST WARM“ erläutert werden:

Die Betrachtungsebene „Codierung“ bedeutet diesbezüglich: Die Erscheinungsform, in der die (potenzielle) Information ihre(n) Empfänger erreichen, muss identifiziert und das Wahrgenommene ‚dekodiert‘ werden können. Die Information „Es ist warm“ kann beispielsweise schriftlich (etwa als Teil eines Zeitungsartikels) oder akustisch (über den Informationskanal <Stimme, Schallfrequenz, Ohren>) übermittelt werden; jeweils bestehend aus Zeichen oder Lauten einer bestimmten Sprache. Auch die Anzeige an einem Thermometer (analoge Darstellung in Säulenform oder in Form einer numerischen Gradanzeige) und sogar die absolute Temperatur selbst könnten in diesem Zusammenhang Code(-formate) sein, die „Es ist warm“ transportieren. Andere Codebeispiele wären ein Binärcode, mit dem solche Buchstaben oder eine Gradangabe zwischen zwei Computerprogrammen fließen – oder (optisch/akustisch empfangene) Morsezeichen usw. Ohne Kenntnis des Codes kann das „nur Wahrgenommene“ nicht interpretiert werden und ist empfängerbezogen keine ‚Information‘.

Die Zeichenfolge „ES IST WARM“ ist zu kurz für eine statistische Betrachtung. Bei längeren Texten wird aber klar, dass nicht alle Elemente der Zeichenfolge (Buchstaben) gleich häufig vorkommen. Gewisse Buchstaben wie etwa e und t – in unserem Beispiel aber s – sind häufiger als andere. Diese Tatsache kann bei der Informationsübertragung genutzt werden, um Übertragungszeit zu sparen. Als Beispiel seien die Huffman-Codes erwähnt. Sie stellen ein Verfahren dar, mit dem Information effizient übermittelt und gespeichert werden kann. Viele weitere Verfahren existieren.

Syntaktische Ebene der Information

[Bearbeiten | Quelltext bearbeiten]

Auf der syntaktischen Ebene wird Information nur als Struktur gesehen, die es zu übermitteln gilt. Der Inhalt der Information ist hierbei im Wesentlichen uninteressant. Beispielsweise könnte das Problem darin bestehen, das Bild einer Kamera auf einen Monitor zu übertragen. Das Übertragungssystem interessiert sich dabei beispielsweise nicht dafür, ob es das Bild überhaupt wert ist, übertragen zu werden (Einbrecher macht sich am Fenster zu schaffen) oder nicht (Katze läuft am Fenstersims entlang), oder ob überhaupt etwas zu erkennen ist (auch das Bild einer komplett unscharf eingestellten Kamera wird vollständig übertragen, obwohl es da eigentlich nichts Erkennbares zu sehen gibt). Der Informationsgehalt ist dabei ein Maß für die maximale Effizienz, mit der die Information verlustfrei übertragen werden kann.

Unterscheidbarkeit und Informationsgehalt

[Bearbeiten | Quelltext bearbeiten]

Grundprinzip der syntaktischen Information ist die Unterscheidbarkeit: Information enthält, was unterschieden werden kann, und unterschieden werden kann, was gemessen werden kann. Eine Unterscheidung setzt jedoch mindestens zwei unterschiedliche Möglichkeiten voraus.

Gibt es genau zwei Möglichkeiten, so lässt sich die Unterscheidung mit einer einzigen Ja-/Nein-Frage klären. Beispiel: Angenommen, auf einer Speisekarte gibt es nur zwei Gerichte, Schnitzel und Spaghetti. Wir wissen, eines der beiden Gerichte hat der Gast bestellt. Um herauszufinden, welches er bestellt hat, braucht man ihm nur eine einzige Frage zu stellen: „Haben Sie Schnitzel bestellt?“ Lautet die Antwort „Ja“, so hat er ein Schnitzel bestellt, lautet die Antwort „Nein“, so hat er Spaghetti bestellt.

Sind hingegen mehr als zwei Möglichkeiten vorhanden, so kann man dennoch mittels Ja-/Nein-Fragen herausfinden, welche Alternative zutrifft. Eine einfache Möglichkeit wäre, einfach der Reihenfolge nach alle Gerichte abzufragen. Jedoch ist das eine recht ineffiziente Methode: Wenn der Gast noch keine Bestellung aufgegeben hat, braucht man sehr viele Fragen, um es herauszufinden. Effizienter ist es, wenn man beispielsweise erst fragt: „Haben Sie bereits bestellt?“, um dann konkreter zu werden, „War es ein Gericht mit Fleisch?“, „War es Schweinefleisch?“, sodass schließlich nur noch wenige Alternativen übrig bleiben („War es Schweineschnitzel?“, „Schweinebraten?“, „Schweinshaxe?“). Die Reihenfolge der Fragen spiegelt die Wertigkeit der Bits in einer derartig kodierten Nachricht wider. Der Informationsgehalt einer Nachricht entspricht der Anzahl der Ja-/Nein-Fragen, die man bei einer idealen Fragestrategie braucht, um sie zu rekonstruieren.

Auch die Wahrscheinlichkeiten spielen bei einer optimalen Fragestrategie eine Rolle: Wenn man beispielsweise weiß, dass die Hälfte aller Gäste Schweineschnitzel bestellt, so ist es sicher sinnvoll, erst einmal nach Schweineschnitzel zu fragen, bevor man den Rest der Karte durchgeht.

Interessant ist hierbei, dass zwar vordergründig keinerlei semantische oder pragmatische Informationen verwendet werden, diese jedoch implizit in Form der Wahrscheinlichkeit eingehen. Beispielsweise ist die Tatsache, dass 50 Prozent der Gäste Schweineschnitzel bestellen, nicht aus der Speisekarte zu erkennen; es ist eine pragmatische Information. Und dass man normalerweise nicht nach der Bestellung von „Wir wünschen Ihnen einen guten Appetit“ fragt, folgt aus der semantischen Information, dass dies keine Speise ist, und es daher höchst unwahrscheinlich ist, dass jemand dies bestellt.

Binarisierung und die Wahrscheinlichkeit von Zeichen

[Bearbeiten | Quelltext bearbeiten]

Die Zeichenfolge „ES IST WARM“ enthält nur Großbuchstaben. Wenn wir davon ausgehen, dass wir nur Großbuchstaben zur Verfügung hätten (also 27 Buchstaben einschließlich Leerzeichen), so können wir an jeder der elf Stellen der obigen Nachricht eines der 27 Zeichen setzen. Jede Stelle der Nachricht muss also 27 mögliche Zustände abbilden können.

Am Beispiel eines Binärcodes soll dies erläutert werden: Jedes Zeichen wird durch eine Folge von Bits dargestellt. Ein Bit unterscheidet nur zwischen zwei möglichen Zuständen, die man als eins und null festlegen kann. Um 27 verschiedene Zustände darstellen zu können, benötigt man mehrere Bits, in diesem Fall wären es fünf; man könnte damit 2 hoch 5 = 32 Zustände unterscheiden. Die Festlegungen für einen solchen Code könnten (fiktiv) wie folgt aussehen:

  A=00001  B=00010  C=00011  D=00100  E=00101  F=00110  G=00111
  H=01000  I=01001  J=01010  K=01011  L=01100  M=01101  N=01110
  O=01111  P=10000  Q=10001  R=10010  S=10011  T=10100  U=10101
  V=10110  W=10111  X=11000  Y=11001  Z=11010  <LZ>=11100 (Leerzeichen)

Unsere Nachricht hieße dann

             „00101_10011_11100_01001_10011_10100_11100_10111_00001_10010_01101“  *)
entspricht:     E     S    <LZ>   I     S     T    <LZ>   W     A     R     M

*) Die Leerstellen (_) sind nur aus Gründen der besseren Lesbarkeit eingefügt. Ob sie (oder andere Trennzeichen) in der Nachricht enthalten sind, wäre in den Vereinbarungen zum Format des Datentransfers festzulegen. Ggf. würde die Nachricht nur aus 11 direkt aufeinanderfolgenden 5-Bit-Kombinationen, also 55 Bits bestehen.

Die Codierung jedes Buchstabens mit je 5 Bits müsste nicht die allein gültige sein. Im Rahmen der klassischen Informationstheorie wird nämlich die Informationssequenz aus statistischer Sicht betrachtet. So kann berücksichtigt werden, wie häufig ein bestimmtes Zeichen des Zeichenvorrats verwendet wird, mit anderen Worten, wie wahrscheinlich sein Auftreten ist. So ist beispielsweise der Buchstabe „E“ in der Deutschen Sprache häufiger als der Buchstabe „Y“.

Berücksichtigt man diese Auftretenswahrscheinlichkeit der Zeichen im Zeichenvorrat, so kann man die Anzahl der benötigten Ja-/Nein-Entscheidungen, die zum Erkennen eines Zeichens notwendig sind, je nach Zeichen unterschiedlich groß machen. Eine solche Codierung nennt man auch Entropiekodierung. Damit benötigt man, um ein häufig auftretendes Zeichen zu codieren, weniger Bits, als für ein selten auftretendes Zeichen. Ein Zeichen hat also einen umso höheren Informationsgehalt (benötigt zur Erkennung eine höhere Anzahl an 'atomaren’ Entscheidungseinheiten, an Bits), je seltener es auftritt. Zusätzlich müsste in diesem Fall z. B. vereinbart (und als Code dargestellt) sein, wie/woran die Bitanzahl des jeweiligen Zeichens erkennbar ist.

Semantische Ebene der Information

[Bearbeiten | Quelltext bearbeiten]

Strukturierte, syntaktische Informationen werden erst verwertbar, indem sie gelesen und interpretiert werden. Das heißt, zur Strukturebene muss die Bedeutungsebene hinzukommen. Dazu muss ein bestimmtes Bezugssystem angelegt werden, um die Strukturen in eine Bedeutung überführen zu können. Dieses Bezugssystem bezeichnet man als Code. Im obigen Beispiel muss man also wissen, was „warm“ bedeutet.

Jedoch ist die Überführung von Syntax in Semantik selten so direkt; in der Regel wird die Information über sehr viele unterschiedliche Codes immer höherer semantischer Ebene verarbeitet: Dabei wird auf den unterschiedlichen semantischen Ebenen wiederum Informationsverarbeitung auf strukturell-syntaktischer Ebene geleistet: Die Lichtpulse, die gerade auf ihre Netzhaut treffen, werden dort von Nervenzellen registriert (Bedeutung für die Nervenzelle), an das Gehirn weitergeleitet, in einen räumlichen Zusammenhang gebracht, als Buchstaben erkannt, zu Worten zusammengefügt. Während dieser ganzen Zeit werden Nervenimpulse (also Strukturinformationen) von einer Gehirnzelle zur nächsten „geschossen“, bis sich auf diese Weise in ihrem Bewusstsein die durch Worte nur unzureichend wiedergebbaren Begriffe für „warm“, „jetzt“, und „hier“ zu formen beginnen, die dann im Zusammenhang eine Bedeutung haben: Sie wissen jetzt, dass es bei diesen Worten um die Feststellung geht, dass es warm (und nicht etwa kalt) ist.

Zusammengefasst:

  • Strukturinformation wird in einem Dekodierungsprozess in Semantik (Bedeutung) überführt.
  • Dabei wird Strukturinformation stufenweise über Codes in andere Strukturinformation überführt, wobei sich auf den unterschiedlichen semantischen Stufen jeweils Bedeutung für das verarbeitende System entwickelt.

Pragmatische Ebene der Information

[Bearbeiten | Quelltext bearbeiten]

Diese kommt dem umgangssprachlichen Informationsbegriff am nächsten. Die Aussage, dass es warm ist (die wir nun semantisch richtig interpretiert haben; wir wissen, was diese Botschaft uns sagen will), hat echten Informationscharakter, wenn wir uns mittags um zwölf nach einer durchzechten Nacht noch halb schlaftrunken überlegen, was wir anziehen sollen, und uns die Freundin mit den Worten „es ist warm“ davon abhält, in den Rollkragenpullover zu schlüpfen. Der pragmatische Informationsgehalt der – semantisch exakt gleichen – Aussage ist aber gleich null, wenn wir bereits im T-Shirt auf dem Balkon sitzen und schwitzen. Diese Mitteilung bietet uns nichts Neues und ist daher nicht informativ.

In diesem Zusammenhang bezeichnet der Begriff Granularität (Kommunikationswissenschaft) das qualitative Maß der „Passgenauigkeit“ einer Information aus der Perspektive des Empfängers.

Smalltalk ist eine Art des Informationsaustausches, bei dem die offensichtlich über die Sprache ausgetauschten semantischen Informationen so gut wie keine pragmatische Information darstellen – wichtig sind hier die Körpersignale, deren Semantik (Freundlichkeit, Abneigung) wir erkennen und pragmatisch (mag er/sie mich?) verwerten können.

In diesem pragmatischen Sinne ist wesentliches Kriterium von Information, dass sie das Subjekt, das die Information aufnimmt, verändert, was konkret bedeutet, dass sich die Information, die potentiell dem Subjekt entnommen werden kann, verändert.

Zusammengefasst:

  • Information ermöglicht die Verringerung von Ungewissheit, kann aber auch die Ungewissheit vergrößern, wenn sie an Volumen zunimmt, widersprüchlich ist und die Auswertbarkeit in der gegebenen Zeit und Kostenrahmen nicht möglich ist.
  • Information ist übertragbar; in Form von Daten bzw. Signalen.
  • Information ist ein Ereignis, das den Zustand des Empfängers bzw. Systems verändern kann. Hierzu muss sie vom Empfänger „verstanden“ werden.

In diesem pragmatischen Sinne ist „Information“ ein Kernbegriff der Wirtschaftsinformatik und der mit ihr verwandten Betriebswirtschaftslehre (Information als Produktionsfaktor, Information als wirtschaftliches Gut). Kurz gesagt: Information ist Reduktion von Ungewissheit.

Bezüge zwischen den Ebenen

[Bearbeiten | Quelltext bearbeiten]

Wenn man das Phänomen Information betrachtet, sind die vier Ebenen im Zusammenhang zu betrachten. Damit Information stattfindet, sind Vereinbarungen auf allen vier Ebenen notwendig.

Auch stellt die semantische Verarbeitung (beispielsweise das Zusammenfassen von Buchstaben zu Wörtern) wiederum syntaktische Information (nämlich eine Abfolge von Wortsymbolen) her. Letztlich definiert sich auch die pragmatische Ebene nicht zuletzt dadurch, dass sie selbst neue Information syntaktischer Natur schaffen muss (sonst hätte die Information keine Wirkung entfaltet). Aufgrund des engen Zusammenspiels zwischen semantischen Dekodierungsprozess und Wirkentfaltung in der Pragmatik, die beide wiederum syntaktische Informationen als End- und Zwischenprodukte generieren, werden manchmal diese beiden Ebenen auch zur Semantopragmatik verschmolzen.

Das Wesentliche an Information ist die Eigenschaft, Veränderungen im empfangenden System hervorzurufen. Da es bislang keine anerkannte einheitliche Theorie der „Information“ gibt, sondern lediglich unterschiedliche Modelle, steht eine eindeutige Definition des Begriffs „Information“ noch nicht zur Verfügung, wenngleich auch eine nicht anerkannte Definition[14] bereits zur formalen Beschreibung des Experimentiervorgangs führen konnte.[15]

Erklärungsansätze für den Begriff der Information kommen sowohl aus geistes- und sozialwissenschaftlicher Richtung (Semantik, Semiotik, Philosophie, Kommunikationswissenschaft usw.), als auch aus naturwissenschaftlicher Richtung (Physik, Kybernetik, Nachrichtentechnik, Informatik usw.). Die unterschiedlichen Ansätze decken sich nicht, haben aber Überschneidungen.

Einer der wesentlichen Unterschiede zwischen geisteswissenschaftlichen und naturwissenschaftlichen Modellen besteht darin, dass für die Naturwissenschaft bereits in einer Wechselwirkung subatomarer Teilchen ein Informationsaustausch gesehen wird (vgl. z. B. das Einstein-Podolsky-Rosen-Paradoxon, von dem das klassische Zitat Einsteins über eine „spukhafte Fernwirkung“[16] herrührt, weil hier zwei Teilchen scheinbar instantan Information auszutauschen scheinen, statt mit Lichtgeschwindigkeit, wie Einstein dies vorhersagt.)

Der naturwissenschaftliche Begriff von „Information“ ist eng verknüpft mit dem Konzept der Entropie (d. h. dem zweiten Hauptsatz der Thermodynamik). Hieraus ergeben sich zahlreiche Konsequenzen, entsprechend den zahlreichen Konsequenzen, die sich aus dem zweiten Hauptsatz der Thermodynamik ergeben. (Eine der möglichen Konsequenzen lautet: Als Gegenstand der Naturwissenschaften wird unter Information ein potenziell oder tatsächlich vorhandenes nutzbares Muster von Materie oder Energieformen verstanden. Information ist hier, was sich aus dem Zustand eines Systems für die Zustände anderer Systeme ableiten lässt.)

Dieses naturwissenschaftliche Verständnis steht im Widerspruch zu dem Informationsbegriff, der von den Geisteswissenschaften herrührt, sowie den alltäglichen Sprachgebrauch dominiert.

Sowohl die Geisteswissenschaften als auch der Begriff von „Information“ im täglichen Gebrauch tendieren zu einem Verständnis, für das dem Begriff der „Bedeutung“ eine tragende Rolle zukommt. Die „Bedeutung“ ist hier eine intrinsische Eigenschaft von Information, womit außerdem die Existenz eines (potentiellen) Empfängers impliziert wird, für den sich der Bedeutungsinhalt entfaltet.

Die gängigen Kommunikationsmodelle basieren auf diesem Konzept. Somit gehen sowohl die meisten geisteswissenschaftlichen Konzepte als auch das weitläufige Verständnis im täglichen Sprachgebrauch davon aus, dass Information immer eine funktionale Bedeutung hat, im Gegensatz zum naturwissenschaftlichen Verständnis, in dem weder Funktion noch Bedeutung zwingend konstitutive Eigenschaften von Information sind.

Als Terminus in der mathematischen Informationstheorie bezieht sich Information auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (beispielsweise einer Folge von Buchstaben) aus einer festgelegten Menge (beispielsweise dem Alphabet). Durch diese Festlegung wird Information zu einem berechenbaren Maß für die Wahrscheinlichkeit zukünftiger Ereignisse in einem technischen System. Claude Elwood Shannon (1948) konzipierte die mathematische Theorie der Information ursprünglich nicht für den Bereich menschlichen Handelns und menschlicher Kommunikation, sondern für die technische Optimierung von Übertragungskapazitäten.

Im Bereich des menschlichen Handelns wird unter Information ein Wissen (genauer: das Ergebnis eines Erfahrungsprozesses) verstanden, dem in der jeweiligen aktuellen Situation Bedeutung und Geltung beigemessen wird. In diesem Zusammenhang wird die Rede von „Information“ oder „sich informieren“ mit einer Beseitigung oder Verkleinerung von Ungewissheit verbunden, die durch Auskunft, Aufklärung, Mitteilung, Benachrichtigung oder durch Kenntnis über Gegenstände und Phänomene geschieht. Bestandteil des Informationsbegriffs ist dabei häufig Wiedererkennbarkeit sowie ein Neuigkeitsgehalt.

In der Algorithmischen Informationstheorie wurde ein Maß entwickelt, mit dem man die Komplexität von Strukturen bestimmen kann, z. B. der Komplexität von Zeichenketten. Dies kann unter gewissen Voraussetzungen auch als Maß für die Information angewendet werden, das in einigen Aspekten Vorteile gegenüber dem von Shannon hat.

Kommunikationsmodell der Information

[Bearbeiten | Quelltext bearbeiten]

Das Verständnis der syntaktischen Ebene war lange Zeit gekennzeichnet durch das Sender-Empfänger-Modell: Ein Sender will eine Information dem Empfänger mitteilen. Dazu codiert er seine Information nach bestimmten Prinzipien (beispielsweise als Abfolge von Nullen und Einsen nach dem oben erwähnten Prinzip) in einen Informationsträger, der Empfänger wertet diesen Informationsträger aus, denn auch er kennt den Code, und erhält dadurch die Information (siehe auch: Kommunikation).[17]

Nicht immer ist jedoch ein menschlicher Sender vorhanden, der uns etwas mitteilen will. Ein typisches Beispiel ist die Messung: Dem physikalischen System ist es, bildlich gesprochen, völlig egal, was Menschen von ihm denken. Das Ziel der Messung ist eine Informationsübertragung vom gemessenen System zu dem, der die Messung durchführt (man misst, um etwas über das gemessene System zu erfahren).

Ein Beispiel ist die Geschwindigkeitsmessung per Radarfalle: Das Auto hat keine Intention, seine Geschwindigkeit zu verraten (und der Autofahrer meist auch nicht). Dennoch gewinnt der Polizist durch die Messung Information über die Geschwindigkeit. Für die Gewinnung der Information wird ein physikalisches Gesetz genutzt (der Doppler-Effekt), das von einem Ingenieur aufgegriffen wurde, um das Gerät zu konstruieren. Die Polizei setzt das Gerät ein und veranlasst somit, dass Information erzeugt wird. Die unmittelbare Erzeugung von Information hingegen wird damit an ein Gerät delegiert. Urheber der Information ist aber auch an dieser Stelle der Mensch. Das Radarmessgerät wurde entwickelt und die gewonnenen Messergebnisse werden dann automatisch, in einem vom Menschen vorgegebenen Code, angezeigt, aufgezeichnet oder übertragen.

Auch viele Tiere sind zur Kommunikation – sowohl als Sender wie auch als Empfänger – fähig. Diese ist zwar in der Hauptsache zur Kommunikation mit Artgenossen (Gefahrruf usw.) gedacht, kann aber teilweise auch vom Menschen genutzt werden.

Zusammengefasst:

  • Damit Information für den Menschen erkennbar wird, muss Materie oder Energie eine Struktur aufweisen.
  • Syntaktisch entspricht Information der Auftretenswahrscheinlichkeit eines bestimmten Symbols innerhalb eines definierten Dekodierungsschemas
  • Information ist im Kommunikationsmodell eine räumliche oder zeitliche Folge physikalischer Signale, die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten auftreten.
  • Der Informationsgehalt einer Nachricht ergibt sich aus der Anzahl der Ja-/Nein-Möglichkeiten, für die in der Nachricht einer der Werte festgelegt ist.

Informationstransport, Entstehung und Vernichtung

[Bearbeiten | Quelltext bearbeiten]

Information, die an Materie als Informationsträger gebunden ist, kann auf bzw. durch elektromagnetische Wellen übertragen werden. Diese Information kann, da masselos, dann im Prinzip mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird die Information eines bestimmten Schriftstückes mit der Geschwindigkeit elektrischer Signale über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen.

Allgemeiner: Um Informationen zu transportieren, ist ein Informationsträger nötig.

Information kann nicht generell weitergegeben werden, ohne dadurch weniger zu werden. Das Ausmaß des Verlustes hängt von den physikalischen Randbedingungen ab. Gemäß Shannon kann bei einer Übertragung nicht mehr Information aus einem Kanal entnommen werden als auf der Senderseite hineingegeben wird. Beim Weitergeben oder Kopieren von Information wird nicht die Menge der Information verdoppelt, sondern die gleiche Information liegt anschließend redundant vor.

In einem thermodynamisch als geschlossen anzusehenden System wird Information letztlich vernichtet, spätestens beim Wärmetod des Universums. In einem thermodynamisch offenen System kann Information weitergegeben werden, informationstragende Strukturen können sogar spontan entstehen. Beispiele sind eine Vielzahl von theoretisch und experimentell untersuchten dissipativen Strukturen. Besonders Spin-Systeme (Spin = Drehimpuls atomarer und subatomarer Teilchen), insbesondere die sogenannten Spin-Gläser bzw. Ising-Modelle, sind sehr oft untersucht worden, nicht zuletzt wegen ihrer Relevanz für die Theorie neuronaler Netze. Viele Experimente zeigen, dass in Ising-Gläsern spontan Strukturen entstehen können, die wegen der gequantelten Natur des Spins sogar schon als in digitalisierter Form vorliegende Information interpretiert werden können, welche z. B. die Entstehungsbedingungen der Struktur in codierter Form enthält.

Der Begriff in verschiedenen Wissenschaften/Fachrichtungen

[Bearbeiten | Quelltext bearbeiten]

Information ist ein weitläufig verwendeter und schwer abzugrenzender Begriff. Verschiedene Wissenschaften (Struktur- und Geisteswissenschaften) betrachten die Information als ihr Arbeitsgebiet, namentlich die Informatik, die Informationstheorie und die Informationswissenschaft, die Nachrichtentechnik, die Informationsökonomik und die Semiotik, sie kann ein mathematischer, philosophischer oder empirischer (etwa soziologischer) Begriff sein.

Erst in jüngster Zeit gibt es Bestrebungen, die einzelnen Ansätze zu verbinden und zu einem allgemeingültigen Informationsbegriff zu kommen. Entsprechende Literatur findet sich derzeit meist unter dem Stichwort Philosophie (etwa im Bereich Erkenntnistheorie). Von einer vereinheitlichten, allgemein akzeptierten Theorie der Information kann vorläufig noch nicht gesprochen werden.

Im allgemeinen Sprachgebrauch sowie in einigen Wissenschaften (Semiotik, Informationswissenschaften) wird „Information“ mit „Bedeutung“ oder „übertragenem Wissen“ gleichgesetzt. Eine andere Sichtweise des Begriffes, die heute beispielsweise in der Computertechnik von großer praktischer Bedeutung ist, stammt aus der Nachrichtentechnik. Die wegweisende Theorie dort ist die von Claude Shannon; er betrachtet die statistischen Aspekte der Zeichen in einem Code, der Information repräsentiert. Die Bedeutung der Information geht bei Shannon nur implizit in den Wahrscheinlichkeiten der verwendeten Zeichen ein, die letztlich nur unter Zuhilfenahme eines Menschen bestimmt werden könne, da nur der Mensch in der Lage sei, die Bedeutung eines Codes bewusst zu erfassen und dabei sinnvollen von nicht sinnvollem Code unterscheiden könne. Das unmittelbare Ziel seiner Überlegungen ist die optimale Übertragung von Information in einem Nachrichtenkanal (Telefonie, Funktechnik).

Der Begriff Information und andere Begriffe aus der Informationstheorie werden oftmals im alltäglichen Sprachgebrauch und auch in den Naturwissenschaften in einer metaphorischen Weise benutzt. Eine direkte Übernahme des Begriffes Information in naturwissenschaftliche Theorien, so wie er in den Ingenieurwissenschaften benutzt wird, wird jedoch von einigen Wissenschaftstheoretikern als unzulässig abgelehnt.[18] So warnte beispielsweise der Wissenschaftsphilosoph Wolfgang Stegmüller vor einem Wiederaufleben des Neovitalismus durch unangemessenen Gebrauch informationstheoretischer Begriffe in der Biologie. Es kann jedoch nicht ausgeschlossen werden, dass in Zukunft der naturwissenschaftliche Strukturbegriff und der Informationsbegriff aufeinander zurückgeführt werden können. So untersuchen etwa die Neuroinformatik und die Computational Neuroscience die Beziehung neuronaler Strukturen des Gehirns sowie dessen Fähigkeit, Information zu verarbeiten.

Zum Abschluss sollen hier die einzelnen Fach- und Forschungsrichtungen zu Wort kommen, die je ihr eigenes Verständnis der Information haben. Deutlich wird dabei der jeweilige Ansatz auf den unterschiedlichen, oben geschilderten Ebenen zwischen der reinen Syntax bis zur Pragmatik, teilweise auch mit der besonderen Betonung des Transportcharakters von Information.

Die Semiotik definiert Daten als potenzielle Information. In der Semiotik werden Daten heute in die Sigmatik-Ebene eingeordnet. In älterer Literatur sind sie oft noch als zweckorientiertes Wissen definiert, also zweckorientierte Daten, die das Wissen erweitern.

Informationswissenschaft

[Bearbeiten | Quelltext bearbeiten]

Die Informationswissenschaft verwendet den Begriff der Information ähnlich zum semiotischen Ansatz. Für sie sind die Begriffe Wissen und Information von zentraler Bedeutung. Information ist dabei Wissenstransfer beziehungsweise „Wissen in Aktion“. Sie entsteht in diesem Sinne immer nur punktuell – wenn für eine konkrete Problemlösung Wissen (eine bestimmte Wissenseinheit) benötigt/bereitgestellt wird. Diese Wissenseinheit geht als ‚Information‘ aus einem Wissensvorrat in einen anderen über, beispielsweise aus einer Datenbank in den Wissensvorrat eines Menschen. Wissen wird intern repräsentiert (siehe auch Wissensrepräsentation), Information wird – zum besseren Verständnis für den Informationssuchenden – präsentiert (siehe auch Informationsvisualisierung).

Dokumentations- und Ordnungslehre

[Bearbeiten | Quelltext bearbeiten]

Wilhelm Gaus schreibt in seinem Werk Dokumentations- und Ordnungslehre[19], dass Information unter verschiedenen Aspekten betrachtet werden kann.

  1. Struktur = structure approach
  2. Erkenntnis = knowledge approach
  3. Signal = signal approach
  4. Nachricht = message approach
  5. verstandene Nachricht = meaning approach
  6. Wissensvermehrung = effect approach
  7. Vorgang = process approach

Aus kartellrechtlicher Perspektive kann Information als „jeder Umstand, der dem Wahrnehmenden einen Erkenntnisgewinn ermöglicht“ definiert werden.[20] Ein Informationsaustausch kann „jeder direkte oder indirekte Informationsfluss zwischen Unternehmen über das Marktgeschehen“ sein, wobei das Marktgeschehen „alle Aktivitäten, Ereignisse, Prozesse und Interdependenzen, welche die Beschaffenheit eines Marktes tangieren, betreffen oder beeinflussen können“ umfasst.[21]

Information als Wirtschaftsgut

[Bearbeiten | Quelltext bearbeiten]

Information kann als wirtschaftliches Gut angesehen werden, da Information im Unternehmen durch Einsatz anderer Produktionsfaktoren (Menschen, Computer, Software, Kommunikation usw.) produziert, oder von außen angekauft werden kann. Information hat somit einen Wert, der handelbar ist. Der Wert ergibt sich aus dem Nutzen der Information und den Kosten zur Produktion, Bereitstellung und Weiterleitung. Problematisch hierbei ist, dass der potenzielle Käufer den Wert der Information nicht immer im Voraus kennt und sie teilweise erst nachdem er sie erworben hat, bewerten kann (sog. Informationsparadoxon). Bereits der angestrebte Handel mit Information ist dabei mit dem Problem asymmetrischer Information behaftet.

Weiterhin kann man Information auch als Produktionsfaktor verstehen. Information wird somit nicht nur konsumtiv genutzt, sondern kann auch produktiv verwendet werden.

Information als Veränderung

[Bearbeiten | Quelltext bearbeiten]

Nach den Arbeiten des Berliner Informatikers Peter Rüdiger: „Information ist eine Veränderung konkreter Quantität und Dauer.“

Eine Definition der Information über Veränderung bedeutet eine Beschreibung der Information über physikalische Auswirkung. Wird eine einfache Veränderung als ein mathematisches Element betrachtet, das einen Zustandswechsel herbeiführt, so lässt sich beweisen, dass eine Menge solcher Elemente, die Zustandswechsel am selben „Objekt“ herbeiführen und Eigenschaften wie Zusammenhang und Wiederholbarkeit aufweisen, eine mathematische Gruppe darstellen, die als Information bzgl. des Objekts deklariert wird. Diese Gruppe erlaubt eine Längenbestimmung, die für Optimierungen verwendet werden kann, denn da Veränderung Folge physikalischer Wirkung ist, gilt auch das Variationsprinzip der geringsten Wirkung.[22]

Eine weitere mathematische Beschreibung, die auf der Natur der Veränderung beruht, ist die Beschreibung von Jan Kåhre: The Law of Diminishing Information.[23]

Bewegung ist auch Veränderung. Eine (weitere) Definition der Information über Veränderung erfolgt deshalb über Bewegungsunterschied (Informationsbewegung) und Unterschiedsbewegung (Ruhepotentialität): „Information existiert nur in der Bewegung, die immer eine komplementäre, relative Bewegung ist“.[24]

Verwandte Begriffe

[Bearbeiten | Quelltext bearbeiten]

Information wird auch synonym für Nachricht, Auskunft, Belehrung, Aufklärung verwendet, zum Teil auch für Medien wie Zeitungsartikel, Internet-Seiten, E-Mails, Telefonate, Berichte (Quartals-, Projekt-, Geschäftsbericht), Prospekte und Broschüren, Fahrpläne, Wetterberichte u. v. a. m. – die aber i. e. S. nur die „Träger von Informationen“, nicht die Information selbst sind. Diese Beispiele zeigen die weite Verbreitung und grundlegende Bedeutung des Begriffs Information in nahezu allen (Lebens-)Bereichen.

Siehe auch: Information und Kommunikation

In einem engen Zusammenhang steht auch die (menschliche) Kommunikation: Die Kommunizierbarkeit gilt als eine wesentliche Eigenschaft von Information, und jegliche Kommunikation setzt Information voraus.

Daten sind nur Darstellungen/Angaben über Sachverhalte und Vorgänge, die in der Form bestimmter Zeichen/Symbole auf bestimmten Datenträgern existieren. Aus ihnen kann (bei Menschen durch kognitive Tätigkeiten des Empfängers) „Information“ werden, zweckbezogenes Wissen, das man beim Handeln im Hinblick auf gesetzte Ziele benötigt. Dies geschieht, indem wahrgenommene Daten „intraindividuell“ (vom jeweiligen Individuum) semantisiert und weitere Operationen (wie z. B. Schlussfolgerungen) ausgeführt werden. Anhand gleicher Daten können also unterschiedliche Informationen gewonnen werden. Die Begriffe Information und Daten sind also eng miteinander verwandt.

Der Begriff der Information ist eng verknüpft mit Fragestellungen im Themenkomplex Wissen. Dazu gehört insbesondere das Problem der Definition von Komplexität, die sich über die algorithmische Tiefe eines informationsverarbeitenden Prozesses beschreiben lässt. Weiterhin zählen hierzu Betrachtungen über den Unterschied zwischen Zufall und Ordnung sowie der Begriff der Unterscheidbarkeit und der Relevanz.

siehe auch: Wissensmanagement, Geistiges Eigentum

  • Christoph Arndt: Information Measures – Information and its Description in Science and Engineering. In: Signals and Communication Technology. Springer, Berlin 2004, ISBN 3-540-40855-X.
  • Wilhelm Gaus: Dokumentations- und Ordnungslehre – Theorie und Praxis des Information Retrieval. In: eXamen.press. 5. Auflage. Springer, Berlin 2005, ISBN 3-540-27518-5.
  • Andreas Holzinger: Basiswissen IT/Informatik. Band 1: Informationstechnik. Vogel, Würzburg 2002. ISBN 3-8023-1897-8
  • Martin Werner: Information und Codierung. Vieweg+Teubner, Wiesbaden 2008. ISBN 978-3-8348-0232-3

Informationstheorie

[Bearbeiten | Quelltext bearbeiten]
  • Herbert Klimant, Rudi Piotraschke, Dagmar Schönfeld: Informations- und Kodierungstheorie. Teubner Verlag., Wiesbaden/Stuttgart 2003, ISBN 3-519-23003-8.
  • Holger Lyre: Informationstheorie. Wilhelm Fink Verlag., Paderborn/München 2002, ISBN 3-7705-3446-8.
  • Keith Devlin: Infos und Infone. Die mathematische Struktur der Information. Birkhäuser Verlag., Basel/Schweiz 1996, ISBN 3-7643-2703-0.
  • Jan Kåhre: The Mathematical Theory of Information, Springer, Berlin 2002, ISBN 1-4020-7064-0.
  • Peter Rechenberg: Zum Informationsbegriff der Informationstheorie, in: Informatik-Spektrum (2003) 26: 317 - 326.
  • Norbert Bischof: Struktur und Bedeutung. Eine Einführung in die Systemtheorie für Psychologen, Biologen und Sozialwissenschaftler zum Selbststudium und für den Gruppenunterricht. 2., korrigierte Auflage. Bern: Hans Huber, 1998. ISBN 3-456-83080-7.

Populärwissenschaftliche Bücher zur Information

[Bearbeiten | Quelltext bearbeiten]

Siehe auch unter Weblinks die Bibliographie von Floridi 2005

Commons: Information – Album mit Bildern, Videos und Audiodateien
Wiktionary: Information – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
Wikibooks: Information – Lern- und Lehrmaterialien

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b c Fachrichtung Informationswissenschaft: Definition: Information. uni-saarland.de, abgerufen am 21. Februar 2017.
  2. Gabler Wirtschaftslexikon: Information
  3. Rechenberg, Peter.: Informatik-Handbuch. 4., aktualisierte und erw. Auflage. Hanser, München 2006, ISBN 3-446-40185-7, S. 214.
  4. Saur, K. G., Verlag: Bibliothekarisches Grundwissen. De Gruyter Saur, Berlin 2016, ISBN 978-3-11-032145-6, S. 6.
  5. a b Duden Rechtschreibung: Stichwort Information, inkl. Synonyme
  6. a b c Verlag K.G. Saur 2004: Grundlagen der praktischen Information und Dokumentation S. 684 Kap. E1 Information in der Informatik - mit weiteren Definitionen und Lexika-Verweisen
  7. woxikon
  8. Duden: Information als Synonym für Daten
  9. woxikon: individuelle Bedeutungen und Bezeichnungen für Information
  10. DUDEN Informatik, ISBN 3-411-05232-5
  11. John Bogart, Lokalredakteur der US-amerikanischen Zeitung Sun, 1880, zitiert in Walther von La Roche: Einführung in den praktischen Journalismus, Berlin 2008, S. 71
  12. a b c Peter Rechenberg: Zum Informationsbegriff der Informationstheorie. In: Springer-Verlag GmbH Deutschland (Hrsg.): Informatik-Spektrum. Nr. 26, 2003, ISSN 0170-6012, S. 317 - 326, doi:10.1007/s00287-003-0329-x.
  13. Martin Werner: Information und Codierung. Hrsg.: Vieweg+Teubner. Wiesbaden 2008, ISBN 978-3-8348-0232-3, S. 1, doi:10.1007/978-3-8348-9550-9.
  14. Definition der Information Bevier FF, bussole InformationsVerlag 2000/2005
  15. 7-Schritt-Evaluierung (via Index am Ende des PDF; 3,4 MB) Bevier FF, bussole InformationsVerlag, 1999/2012
  16. Max Born, Albert Einstein: Albert Einstein, Max Born. Briefwechsel 1916–1955. München (Nymphenburger) 1955, S. 210.
  17. Werner Zorn: "Über den unscharfen Gebrauch von Grundbegriffen in der Informatik" in Tagungsband zur "19. DFN-Arbeitstagung über Kommunikationsnetze" in Düsseldorf 2004, Hrsg. von Knop, Haverkamp, Jessen, GI Lector Notes in Informatics, 2005, S. 13–37
  18. W. Stegmüller: „Hauptströmungen der Gegenwartsphilosophie“, Bd. 2
  19. Wilhelm Gaus: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information-Retrieval. 5., überarbeitete Auflage. Springer, Berlin 2005, ISBN 978-3-540-23818-8, S. 29–25.
  20. Manuel Thomas: Grenzen des horizontalen Informationsaustausches im deutschen und europäischen Kartellrecht. In: Internationale Göttinger Reihe Rechtswissenschaften. Band 83. Cuvillier Verlag, Göttingen 2018, ISBN 978-3-7369-9866-7, S. 32–33.
  21. Manuel Thomas: Grenzen des horizontalen Informationsaustausches im deutschen und europäischen Kartellrecht. In: Internationale Göttinger Reihe Rechtswissenschaften. Band 83. Cuvillier Verlag, Göttingen 2018, ISBN 978-3-7369-9866-7, S. 45–46.
  22. Bussole.de: Die Definition der Information und die Folgen
  23. matheorie.de: The Mathematical Theory of Information
  24. Jerg Haas: Die Kybernetik der Natur: Komplementarität, ISBN 3-8311-1019-0