Information (Physik)
Dieser Artikel wurde zur Löschung vorgeschlagen.
Falls Du Autor des Artikels bist, lies Dir bitte durch, was ein Löschantrag bedeutet, und entferne diesen Hinweis nicht. | |
Begründung: Bereits in 2019 deutete die Diskussion darauf hin, dass dieser Artikel gelöscht werden sollte. Seit dem gab es nur minimale Änderungen. Der Löschung wurde von den Redakteuren der QS Physik nicht widersprochen. --Martin Renneke (Diskussion) 19:17, 28. Feb. 2021 (CET) |
In der statistischen Physik ist die fehlende Information eines Systems die Information, die benötigt wird, um zu beschreiben, in welchem Zustand sich ein System befindet. Sie ist die gewichtete Summe der Logarithmen der Zustandswahrscheinlichkeiten
wobei die die Wahrscheinlichkeiten der Zustände des Systems sind.
Als Informationsentropie wird die fehlende Information bezeichnet, die beschreibt, in welchem Zustand sich ein willkürlich herausgegriffener Repräsentant eines Ensembles befindet.
Setzt man , so ergibt sich der Informationsgehalt aus der Informationstheorie in der Einheit Shannon. In der Statistischen Physik benutzt man die Boltzmann-Konstante als Proportionalitätsfaktor, weil dann die Informationsentropie eines Ensembles mit der thermodynamischen Entropie übereinstimmt.
Das Gleichgewichtssystem ist in diesem Sprachgebrauch das System mit dem Maximum an fehlender Information.
Mikrokanonisches Ensemble[Bearbeiten | Quelltext bearbeiten]
Im mikrokanonischen Ensemble sind alle Zustände gleich häufig vertreten. Gibt es für den makroskopischen Zustand , bei dem z. B. die Energie, die Teilchenzahl und das Volumen sind, eine Anzahl mikroskopischer Zustände, so sind folglich die Energieniveaus mit den Wahrscheinlichkeiten vertreten.
Die Informationsentropie beträgt dann
beziehungsweise für eine bestimmte Energie
Kanonisches Ensemble[Bearbeiten | Quelltext bearbeiten]
Für das kanonische Ensemble sind die Wahrscheinlichkeiten für verschiedene Energien . Und die Informationsentropie beträgt
wobei die Freie Energie und die Innere Energie sind.
Literatur[Bearbeiten | Quelltext bearbeiten]
- Kerson Huang: Introduction to Statistical Physics. CRC Press, Boca Raton 2010, ISBN 978-1-4200-7902-9.
- W. Dieterich, Oliver Schlotterer: Statistische Mechanik. (PDF; 2,4 MB) Vorlesung im WS 2004/5. Fachbereich Physik, Universität Konstanz, Februar 2009, S. 57–61, abgerufen am 21. Januar 2012.
- Horst Völz: Das ist Information. Shaker Verlag, Aachen 2017. ISBN 978-3-8440-5587-0.
- Horst Völz: Weltbeschreibung. Raum, Zeit, Temperatur und Information – Aspekte, Standpunkte, Debatten. Shaker Verlag, Aachen 2018, ISBN 978-3-8440-6323-3.
- Wolfgang Raible: “Information”, Ein Schlüsselbegriff für Natur- und Kulturwissenschaften. (PDF; 1,43 MB) Kolloqium an der Universität Freiburg. Heidelberger Akademie der Wissenschaften, 16. Mai 2009, S. 4, abgerufen am 2. März 2021.