Entropie

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel beschreibt die Entropie im Bereich Thermodynamik. Für andere Bedeutungen siehe Entropie (Begriffsklärung).
Physikalische Größe
Name Entropie
Formelzeichen der Größe S
Größen- und
Einheitensystem
Einheit Dimension
SI J·K−1 L2·M·T−2·Θ−1
Beim Schmelzen von Eis wird die geordnete Eiskristallstruktur in eine ungeordnete Bewegung einzelner Wassermoleküle überführt: Die Entropie des Wassers im Eiswürfel nimmt dabei zu (Rudolf Clausius 1862)

Die Entropie (altgr. Kunstwort ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße. Ihre SI-Einheit ist Joule pro Kelvin, also J/K.

Die in einem System vorhandene Entropie ändert sich bei Aufnahme oder Abgabe von Wärme. In einem abgeschlossenen System, bei dem es keinen Wärme- oder Materieaustausch mit der Umgebung gibt, kann die Entropie nach dem zweiten Hauptsatz der Thermodynamik nicht abnehmen. Mit anderen Worten: Entropie kann nicht vernichtet werden. Es kann im System jedoch Entropie entstehen. Prozesse, bei denen dies geschieht, werden als irreversibel bezeichnet, d. h. sie sind – ohne äußeres Zutun – unumkehrbar. Entropie entsteht z. B. dadurch, dass mechanische Energie durch Reibung in thermische Energie umgewandelt wird. Da die Umkehrung dieses Prozesses nicht möglich ist, spricht man auch von einer „Energieentwertung“.

In der statistischen Mechanik stellt die Entropie ein Maß für die Zahl der zugänglichen, energetisch gleichwertigen Mikrozustände dar. Makrozustände höherer Entropie haben mehr Mikrozustände und sind statistisch wahrscheinlicher als Zustände niedrigerer Entropie. Folglich strebt ein sich selbst überlassenes System stets nach einem Zustand höherer Entropie. Diese Interpretation des Entropiebegriffs wird häufig ungenau dadurch ausgedrückt, dass Entropie als ein „Maß für Unordnung“ angesehen wird. Besser ist es, die Entropie als ein „Maß für das Unwissen über die mikroskopische Struktur“ zu begreifen.

Ein einfacher Zugang zur Entropie[Bearbeiten]

Ein einfacher Zugang zur Entropie baut darauf auf, sich die Entropie als eine mengenartige Größe vorzustellen, die fließen oder in Körpern enthalten sein kann: Von zwei ansonsten gleichen Körpern enthält derjenige mehr Entropie, dessen Temperatur höher ist. Stehen zwei Körper unterschiedlicher Temperatur miteinander in Kontakt, so fließt Entropie vom wärmeren zum kälteren Körper; dadurch gleichen sich auch die Temperaturen der beiden Körper an. Fügt man zwei Körper zusammen, so addieren sich die Entropien beider Teile; die Entropie ist also eine extensive Größe.[1][2]

Als mengenartige Größe ist die Entropie zum Beispiel mit der elektrischen Ladung vergleichbar: Ein geladener Kondensator enthält elektrische Ladung, aber auch elektrische Energie. Beim Entladevorgang fließt über den Stromkreis nicht nur elektrische Ladung von der einen Kondensatorplatte auf die andere, sondern es fließt auch Energie vom Kondensator zu einem Verbraucher, wo sie in andere Energieformen umgewandelt werden kann. Entsprechend wird bei der Wärmeübertragung von einem heißen auf einen kalten Körper außer der thermischen Energie noch eine andere mengenartige Größe übertragen: die Entropie. Genauso wie der Potentialunterschied zwischen den Kondensatorplatten – sprich: die elektrische Spannung – den elektrischen Strom antreibt, sorgt der Temperaturunterschied zwischen den beiden Reservoirs für einen Entropiestrom. Befindet sich zwischen den beiden Körpern eine Wärmekraftmaschine, so kann ein Teil der Wärme in eine andere Energieform umgewandelt werden. Die Wärmeübertragung lässt sich also rein formal analog zu einem elektrischen Stromkreis beschreiben.[1][3]

Eine Energieübertragung – also die Arbeit \mathrm d W oder die Wärme \mathrm d Q – lässt sich als das Produkt aus der Änderung einer mengenartigen extensiven Größe mit einer konjugierten intensiven Größe schreiben. Beispiele für solche Paare sind die elektrische Ladung q und das elektrischen Potential \varphi, oder das Volumen und der (negative) Druck eines Gases. Wächst die extensive Größe, so steigt dadurch auch die intensive Größe. Fügt man beispielsweise einer Kondensatorplatte mit dem Potential \varphi die Ladungsmenge \mathrm d q zu, so verrichtet man an der Kondensatorplatte die Arbeit \mathrm d W = \varphi \, \mathrm d q. Das erhöht wiederum das Potential der Platte. Entsprechendes gilt auch für andere Größenpaare. Für thermische Vorgänge entspricht nun die Temperatur dem Potential und die Entropie der Ladung: Wenn man einem Körper die Entropiemenge \mathrm d S hinzufügt, wird die Wärme \mathrm d Q = T \, \mathrm d S übertragen und es steigt die Temperatur T.[1]

Im Gegensatz zu anderen mengenartigen Größen ist die Entropie keine Erhaltungsgröße. Nach dem zweiten Hauptsatz der Thermodynamik kann sie nicht vernichtet, aber sehr wohl erzeugt werden. Es gilt also \Delta S \geq 0. Solange in einem abgeschlossenen System die Entropie gleich bleibt (\Delta S = 0), sind alle Vorgänge, die sich in dem System abspielen, umkehrbar (= reversibel). Sobald jedoch Entropie erzeugt wird (\Delta S > 0), was z. B. durch Reibung, durch Erwärmung eines ohmschen Widerstandes oder durch Mischungsvorgänge geschehen kann, gibt es ohne äußeres Zutun kein Zurück mehr. Man spricht dann von irreversiblen Vorgängen.

Eine weitere Besonderheit der Entropie ist, dass man einem Körper nicht beliebig viel Entropie entziehen kann. Während man der Platte eines Kondensators Ladung zuführen und wegnehmen kann, wodurch das Potential positiv oder negativ wird, so gibt es für die Entropieentnahme eine natürliche Grenze, nämlich den absoluten Nullpunkt der Temperatur. Diesem Punkt kann man sich zwar beliebig nähern. Man kann ihn jedoch auch mit stärksten Bemühungen nie erreichen. Insbesondere kann die absolute Temperatur nie negativ werden. Auch diese Besonderheit hat einen Namen, es ist der dritte Hauptsatz der Thermodynamik.

Geschichtlicher Überblick[Bearbeiten]

In der Geschichte der Physik gab es lange Zeit eine Auseinandersetzung über die Bedeutung des Wärmebegriffs: Die eine Seite vertrat die Theorie, dass die vis viva (= Lebendige Kraft = kinetische Energie) der Atome alleine Grund für die Wärmeerscheinungen sei; die andere behauptete, dass die Wärme eine Substanz sei, der man den Namen Caloricum (französisch calorique, englisch caloric) gab.

Antoine Laurent de Lavoisier unterschied 1789 chaleur (Wärme) von calorique (Caloricum). Das Caloricum war für ihn unter anderem eine abstoßende Kraft zwischen den Atomen eines Festkörpers; wenn dem Festkörper eine ausreichende Menge des Caloricums gegeben würde, so würde er flüssig und später auch gasförmig.[4] Zusammen mit Pierre Simon Laplace konstruierte er einen Eiskalorimeter. Lavoisier und Laplace wollten sich aber nicht darauf festlegen, ob sie die vis viva oder die Caloricum-Substanz für die Wärmeerscheinungen verantwortlich machten.[5] Joseph Black unterschied temperature von der quantity of heat, u.a. anhand der latenten Wärme beim Schmelzen. Er bemerkte, dass die Wärmemenge mit dem aus einem Kessel entweichenden Dampf mittransportiert werden müsse.[6][7]

Benjamin Thompson, Reichsgraf von Rumford untersuchte in seiner Münchner Zeit 1798 die Temperatur von Spänen, die beim Bohren von Kanonenrohren entstehen. Aufgrund der beliebig großen Wärmemenge, die dabei aus der mechanischen Bohrarbeit umgesetzt werden konnte, zweifelte er daran, dass das Caloricum eine (erhaltene) Substanz sein könnte, wodurch er den Vertretern der vis-viva-Theorie Auftrieb gab.[8][7]

Der Namensgeber des Carnot-Prozesses, Nicolas Léonard Sadi Carnot, schrieb 1824, dass die Kraft einer Dampfmaschine nicht am Verbrauch von calorique liegt, sondern an ihrem Transport von einem warmen Körper auf einen kalten.[9] Mit den Experimenten von Robert Mayer und James Prescott Joule wurde Anfang der 1840er Jahre gezeigt, dass sich mechanische Arbeit in Wärme umwandeln ließ. Dies war die Grundlage für den Energieerhaltungssatz, also den ersten Hauptsatz.

Weitere 20 Jahre später stellte Rudolf Clausius fest, dass bei einer Übertragung der Energieform Wärme auch eine andere mengenartige Größe fließen muss. Diese Größe machte er für die Disgregation beim Schmelzen verantwortlich und nannte sie Entropie.[10][11] Hugh Longbourne Callendar arbeitete 1911 heraus, dass Clausius' Entropie dem calorique von Lavoisier und Carnot entspricht.[12][1]

In der Statistischen Physik entstand eine Definition als Logarithmus der Wahrscheinlichkeit

S = k_\mathrm{B} \log\,p.

Die Entropie ist also im Wesentlichen eine statistisch definierte Größe und kann so in vielen Kontexten sinnvoll verwendet werden. Unbeschadet dessen können Definitionen in den Einzeldisziplinen unterschiedlich sein. So nutzte Norbert Wiener den Begriff der Entropie ebenso zur Beschreibung von Informationsphänomenen wie Claude Elwood Shannon, allerdings mit unterschiedlichem Vorzeichen. Dass sich die Konvention von Shannon durchgesetzt hat, ist vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben. Es wird aber aus diesem Beispiel deutlich, dass bei einer interdisziplinären Anwendung des Entropiebegriffes mindestens Vorsicht und eine genaue Quellenanalyse geboten ist.[13]

Zusammenhänge zwischen Entropie und Information ergaben sich schon im 19. Jahrhundert durch Diskussion des Maxwellschen Dämons, einem Gedankenexperiment, das im Rahmen der Miniaturisierung im Computerzeitalter aktuell wurde. Die Informatik betrachtet abstrakte Informationen ohne direkten Bezug zur physikalischen Realisation mit der Shannonschen Informationsentropie, die der statistischen Interpretation entspricht.

Klassische Thermodynamik[Bearbeiten]

In der Thermodynamik kann ein System auf zwei Arten mit seiner Umgebung Energie austauschen: in Form von Wärme und Arbeit, wobei abhängig vom System und der Prozessführung verschiedene Varianten der Arbeit existieren, u. a. Volumenarbeit, chemische Arbeit und magnetische Arbeit. Im Zuge eines solchen Energieaustauschs ändert sich die Entropie sowohl des Systems als auch der Umgebung. Nur wenn die globale Summe der Entropieänderungen positiv ist erfolgt die Änderung spontan.

Grundlagen[Bearbeiten]

Die Entropie S (Einheit J/K) ist eine extensive Zustandsgröße eines physikalischen Systems und verhält sich bei Vereinigung mehrerer Systeme additiv wie auch das Volumen, die Elektrische Ladung oder die Stoffmenge. Der deutsche Physiker Rudolf Clausius führte diesen Begriff 1865 zur Beschreibung von Kreisprozessen ein. Dividiert man durch die Masse des Systems, erhält man die spezifische Entropie s mit der Einheit J/(kg·K) als intensive Zustandsgröße.

Das Differential \mathrm{d}S ist nach Clausius bei reversiblen Vorgängen das Verhältnis von übertragener Wärme \delta Q_{\rm rev} und absoluter Temperatur T:

{\rm d}S = \frac{\delta Q_{\rm rev}}{T} \qquad  (1)

Diese Entropieänderung ist bei Wärmezufuhr positiv, bei Wärmeabfuhr negativ. In dieser Schreibweise wird ein nicht-kursives \mathrm d benutzt, um hervorzuheben, dass es sich um ein vollständiges Differential handelt, im Gegensatz zu \delta Q, das kein vollständiges Differential sein kann, weil Q eine Prozessgröße ist. In diesem Zusammenhang spielt also die reziproke absolute Temperatur die Rolle eines „integrierenden Bewertungsfaktors“, der aus der reversibel zu- oder abgeführten Wärme, einem – mathematisch gesehen – unvollständigen Differential, ein zugehöriges vollständiges Differential \mathrm{d}S macht.[14] Dadurch ist die Änderung der Entropie bei reversiblen Prozessen – im Gegensatz zur zu- oder abgeführten Wärme – wegunabhängig.

Insofern kann man die Entropie bei reversibler Prozessführung auch als die „mit \tfrac 1 T bewertete Wärmeenergie“ definieren. Weiter unten wird das Problem behandelt, wieweit die Energie T\,\mathrm{d}S in Arbeit umgewandelt werden kann.

Clausius behandelte aber auch irreversible Prozesse. Und zwar zeigte er, dass in einem isolierten thermodynamischen System die Entropie folgende Ungleichung erfüllt:

\qquad {\rm d}{S} \ge 0 \qquad (2),

wobei das Gleichheitszeichen nur bei reversiblen Prozessen gilt.

Man kann ein nicht-isoliertes System, wie es in (1) behandelt wird, immer zu einem isolierten System erweitern, und zwar durch Addition eines Zusatzes. Dabei entspricht die ebenfalls additive Zusatzentropie einer reversiblen Wärmeänderung. Aus Gleichung (2) folgt also, dass bei irreversibler Wärmeänderung in (1) anstatt des Gleichheitszeichens das Größerzeichen gilt, und zwar selbst dann, wenn die Wärme nicht zugeführt, sondern abgeführt wird. Das Größerzeichen ist auch bei negativen Zahlen sinnvoll. Dem entspräche also die in vielen Lehrbüchern noch übliche Schreibweise

{\rm d}S \ge \frac{\delta Q}{T} \qquad  (3a, \text{veraltet})

Auch hier gilt das Gleichheitszeichen nur bei reversiblen Prozessen. Diese veraltete Schreibweise ist unpräzise: Man unterscheidet heute genauer zwischen der transportierten Entropie (erste Ungleichung: In isolierten Systemen kann keine Wärme über die Systemgrenzen transportiert werden) und der produzierten Entropie (zweite Ungleichung). Man fasst beide Ungleichungen zu einer Gleichung zusammen, die allgemein gilt:

\mathrm{d}S = \frac{\delta Q}{T} + \frac{\delta W_{\rm diss.,\,\,inn.}}{T} \qquad (3)

Dabei ist \delta W_{\rm diss.,\,\,inn.} die innerhalb des Systems dissipierte Arbeit. Sie ist immer positiv ist, da sie dem System zugeführt wird (z. B. Reibungsarbeit). Auch diese dissipativen Prozesse treten als Wärme in Erscheinung und tragen zur Entropieänderung bei. Beispielsweise spricht man beim Ohmschen Widerstand in der Elektrizitätslehre von der erzeugten „Jouleschen Wärme“. Der „integrierende Nenner“ T tritt in beiden Termen auf. Um präzise zu vergleichen, muss man aber stets angeben, auf welchen Ausgangszustand genau sich die Änderungen beziehen.

Gleichung (3) ist eine Form des zweiten Hauptsatzes der Thermodynamik. Das Differential \mathrm{d}S existiert allerdings nur für quasi-statische Zustandsänderungen. Das bedeutet, dass eine Folge von Zuständen messtechnisch erfasst werden können muss, und zwar Zustände mit nur geringen Ungleichgewichten. Sind nur Anfangs- und Endzustand bekannt, kann unter Umständen (z. B. bei idealen Gasen) auch ein Ersatzprozess zur Berechnung verwendet werden. Wie dies geschieht, wird in dem Anwendungsbeispiel zum Expansionsversuch von Gay-Lussac erklärt.

Aus dem ersten Hauptsatz der Thermodynamik

\Delta U = W + Q

folgt, dass das Produkt (Q =)\, T\Delta S den nicht verwerteten Anteil („Abwärme“) bei der isothermen Erzeugung von Arbeit W aus vorhandener innerer Energie \Delta U darstellt. Der Maximalwert dieser Arbeit ist die sogenannte Freie Energie

\Delta F = \Delta U - T \Delta S.

Dies ist eine äquivalente Form des 2. Hauptsatzes.

Eine Konsequenz dessen ist die Unmöglichkeit eines Perpetuum Mobile 2. Art. Clausius formulierte:

„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“

Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Wäre es nämlich möglich, einen solchen Kreisprozess zu konstruieren, dann könnte man dem warmen Reservoir unentwegt Energie entnehmen und damit Arbeit verrichten. Die dissipierte Arbeit würde dann dem kalten Reservoir zugeführt und käme über den erwähnten Kreisprozess wieder dem warmen Reservoir zugute. Äquivalent dazu ist die Formulierung von William Thomson, dem späteren Lord Kelvin:

„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.“

Ein idealer, jederzeit umkehrbarer Prozess ohne Reibungsverluste wird auch reversibel genannt. Oft bleibt die Entropie während eines Prozesses unverändert, \Delta S = 0, bekanntes Beispiel ist die adiabate Kompression und Expansion im Zyklus einer Carnot-Maschine. Man nennt Zustandsänderungen mit konstanter Entropie auch isentrop, allerdings sind nicht alle isentropen Zustandsänderungen adiabatisch. Ist ein Prozess adiabatisch und reversibel, folgt jedoch stets, dass er auch isentrop ist.

Wird in einem Kreisprozess bei der Temperatur T_{\rm h} die Wärme Q_{\rm h} aufgenommen und die Wärmemenge Q_{\rm l} bei T_{\rm l} wieder abgegeben, und erfolgen Wärmeaufnahme und Abgabe reversibel, so gilt, dass sich die Entropie dabei nicht ändert:

\oint {\rm dS}=0;     oder   \frac{Q_{\rm h}}{T_{\rm h}} = \frac{Q_{\rm l}}{T_{\rm l}}\,,.

Daraus lassen sich die maximale verrichtete Arbeit W = Q_{\rm h} - Q_{\rm l} und der maximale Wirkungsgrad \eta (der so genannte Carnotsche Wirkungsgrad) ableiten:

\eta = \frac {W}{Q_{\rm h}} = \frac{T_{\rm h} - T_{\rm l} }{T_{\rm h}}\,.

Der carnotsche Wirkungsgrad stellt für alle Wärmekraftmaschinen das Maximum an Arbeitsausbeute dar. Reale Maschinen haben meistens einen erheblich geringeren Wirkungsgrad. Bei ihnen wird ein Teil der theoretisch verfügbaren Arbeit dissipiert, z. B. durch Reibung. Folglich entsteht in einer realen Maschine Entropie und es wird mehr Wärme an das kalte Reservoir abgeführt als notwendig. Sie arbeitet also irreversibel.

Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie einer perfekt kristallinen Substanz, bei der beispielsweise keine Spinentartung auftritt, am absoluten Nullpunkt als Null fest:

S(T=0) \equiv 0\,.

Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen Temperaturen verschwindet, und vor allem, dass der absolute Temperaturnullpunkt nicht erreichbar ist (das gilt auch bei Spinentartung).

Partielle Ableitungen der Entropie[Bearbeiten]

Aus dem 2. Hauptsatz folgen auch die vielfach benötigten Aussagen über die partiellen Ableitungen der Entropie, z. B. nach der Temperatur T bzw. nach dem Volumen V eines flüssigen oder gasförmigen nichtmagnetischen Systems. Mit dem zweiten Hauptsatz gilt ja zunächst, dass bei reversiblen Zustandsänderungen \mathrm dS=\frac{\delta Q_{\mathrm{reversibel}}}{T} ist. Zusammen mit dem ersten Hauptsatz folgt daraus \mathrm dS=\frac{\mathrm dU -\delta W}{T}, weil nach dem ersten Hauptsatz für die Innere Energie U gilt, dass die Summe der dem betrachteten System zugeführten Arbeit \delta W und der zugeführten Wärme \delta Q - einzeln keine Zustandsfunktionen! - eine Zustandsfunktion ergibt, eben die „Innere Energie“ des Systems. Dabei wurde vorausgesetzt, dass die Änderungen von Volumen und Temperatur adiabatisch-langsam erfolgen, sodass keine irreversiblen Prozesse erzeugt werden.

Also

\mathrm dS=\frac{1}{T}{\frac{\partial U(T,V)}{\partial V} }{\mathrm d V}+\frac{1}{T}\frac{\partial (U(T,V)+p\cdot V(T))}{\partial T} \mathrm d T,

wobei \delta W=-p\mathrm dV eingesetzt wurde.

\Rightarrow\frac{\partial S}{\partial V}=\frac{1}{T}{\frac{\partial U(T,V)}{\partial V} } bzw.
\frac{\partial S}{\partial T}=\frac{1}{T}\frac{\partial (U(T,V)+p\cdot V(T))}{\partial T}.

Ähnliche Beziehungen ergeben sich, wenn das System außer von der Dichte bzw. vom Volumen noch von weiteren Variablen abhängt, z. B. noch von elektrischen oder magnetischen Momenten.

Aus dem 3. Hauptsatz folgt nunmehr, dass sowohl \frac{\partial S}{\partial T} als auch vor allem \frac{\partial S}{\partial V} für T\to 0 verschwinden müssen, und zwar hinreichend rasch, was (wie man zeigen kann) nur erfüllt ist, wenn für tiefe Temperaturen nicht die klassische Physik, sondern die Quantenphysik gilt.

Statistische Physik[Bearbeiten]

Um 1880 konnte Ludwig Boltzmann mit der von ihm und James Maxwell begründeten statistischen Physik auf mikroskopischer Ebene die Entropie erklären. In der statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzter Systeme wie Atome und Moleküle, erklärt. Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der zum System zählenden Teilchen. Ein solcher Mikrozustand (\vec{q},\vec{p}\,) ist demnach ein Punkt in einem 6N-dimensionalen Raum, der in diesem Zusammenhang Phasenraum genannt wird. Die kanonischen Gleichungen der klassischen Mechanik beschreiben die zeitliche Evolution des Systems, die Phasentrajektorie.

Alle unter gegebenen makroskopischen Randbedingungen, wie z. B. Gesamtenergie E, Volumen V und Teilchenzahl N, erreichbaren Phasenpunkte bilden ein zusammenhängendes Phasenraumvolumen \Omega. Die Entropie ist ein Maß für das unter bestimmten makroskopischen Randbedingungen zugängliche Phasenraumvolumen, also für die Zahl der zugänglichen Zustände. Je größer die Entropie ist, desto unbestimmter ist der mikroskopische Zustand, desto weniger Informationen sind über das System bekannt. Das grundlegende Postulat der statistischen Physik besagt, dass jeder der zugänglichen Mikrozustände eines vollständig abgeschlossenen Systems im Gleichgewicht mit gleicher Wahrscheinlichkeit auftritt und somit die Entropie maximal ist (siehe: Maximum-Entropie-Methode, Mikrokanonisches Ensemble).

Die Entropie ist proportional zum Logarithmus des zugänglichen Phasenraumvolumens (bzw. quantenmechanisch: der Zahl der zugänglichen Zustände) und berechnet sich im Internationalen Einheitensystem (SI) aus

S = k_\mathrm{B} \log\,\Omega

in der Einheit J/K. Um diese Rechnung konkret ausführen zu können, müssen also zunächst die makroskopischen Observablen des betrachteten Systems bekannt sein. Die Konstante k_\mathrm{B} wird in Anerkennung der Leistungen Ludwig Boltzmanns bei der Entwicklung der statistischen Theorie als Boltzmann-Konstante bezeichnet, er selbst hat ihren Wert jedoch nicht bestimmt.

Entropie als 'Maß der Unordnung'[Bearbeiten]

Das Bild stellt vereinfacht die Zustände eines Systems dar, bei dem vier Atome jeweils entweder auf der rechten oder der linken Seite eines Behälters sein können. Die Spalten sind nach der Gesamtzahl der Teilchen auf der rechten bzw. linken Seite sortiert. W gibt dabei die Anzahl der Möglichkeiten in der jeweiligen Kategorie an.

Eine sehr geläufige, aber auch sehr umstrittene Definition der Entropie ist es, sie als Maß der Unordnung zu bezeichnen, siehe z. B. das Chemiebuch von Holleman-Wiberg.[15] Insbesondere beim Betrachten des Bechers im Beispiel über Mischentropie sieht das rechte Bild mit der vollständigen Vermischung für die meisten ordentlicher aus, als das linke mit den Schlieren, weshalb es dann unverständlich erscheint, das als den unordentlicheren Zustand mit höherer Entropie zu bezeichnen.

Diese Definition lässt sich allerdings anhand des rechts stehenden Bildes mit den bisherigen Definitionen in Einklang bringen. Das Bild stellt einen Behälter dar, in dem sich vier Atome befinden, die entweder auf der rechten, oder auf der linken Seite des Behälters sein können. Wenn man annimmt, dass alle 16 Zustände gleich wahrscheinlich sind, so sind die Wahrscheinlichkeiten, für die einzelnen Spalten gerade mit p=W/16 gegeben, wobei das W aus dem Bild gerade die Anzahl der Zustände in den jeweiligen Spalten bezeichnet.

Nehmen wir nun an, dass wir makroskopisch unterscheiden könnten, wie viele Atome sich auf der linken Seite befinden. Die erste Spalte hat N=4 Atome links, die zweite hat N=3 Atome links usw. Die Wahrscheinlichkeit p(N=4), dass sich alle vier Atome auf der linken Seite befinden, wäre als Beispiel daher gerade p(N=4)=1/16, während die mittlere Spalte eine höhere Wahrscheinlichkeit von p(N=2)\,=\,6/16 besitzt. Mit der Formel S = k_\mathrm{B} \log\,p hat der makroskopische Zustand mit N=2 also die höchste Entropie.

In diesem Bild erkennt man nun aber auch deutlich, dass die erste und letzte Spalte ordentlicher sind als die dazwischenliegenden Fälle mit höherer Entropie. Es können nun folgende Feststellungen gemacht werden: wenn alle 16 Zustände gleich wahrscheinlich sind, und man beginnt mit dem Zustand N=4, so ist es sehr wahrscheinlich, bei der nächsten Betrachtung einen der Zustände höherer Entropie vorzufinden. Allerdings kann das System auch von der mittleren Spalte in die erste oder letzte übergehen; es ist nur unwahrscheinlicher, den Zustand N=4 mit niedriger Entropie vorzufinden als den Zustand mit N=2. In diesem rein statistischen Sinne kann das System also auch spontan in einen Zustand niedrigerer Entropie wechseln, es ist nur unwahrscheinlich, dass er das tut.

Dies ist immer noch der Fall, wenn man 10^{23} Atome in einem Behälter betrachtet. Die Wahrscheinlichkeit, dass diese spontan in den Zustand niedrigerer Entropie wechseln, bei dem sich alle Atome links befinden ist nicht auszuschließen, aber sehr unwahrscheinlich.

Anwendungsbeispiele[Bearbeiten]

Mischung von warmem und kaltem Wasser[Bearbeiten]

In einem System, welches mit seiner Umgebung weder Masse noch Energie austauscht, kann die Entropie niemals spontan abnehmen. Beispiel: Ein Kilogramm Wasser besitzt bei 10 °C die Entropie S = 151\ \mathrm{J/K}, bei 20 °C S = 297\ \mathrm{J/K}, bei 30 °C S = 437\ \mathrm{J/K}. 1 kg kaltes Wasser (10 °C) und 1 kg warmes Wasser (30 °C) können bei Berührung spontan in den Zustand 2 kg lauwarmes Wasser (20 °C) übergehen, weil die Entropie des Anfangszustandes (151 J/K + 437 J/K = 588 J/K) kleiner ist als die Entropie des Endzustandes (297 J/K + 297 J/K = 594 J/K). Die spontane Umkehrung dieses Vorganges ist nicht möglich, weil sich hierbei die Entropie des aus 2 kg Wasser bestehenden Systems von 594 J/K auf 588 J/K verringern müsste, was dem zweiten Hauptsatz der Thermodynamik widerspräche.

Messbarkeit der Entropie[Bearbeiten]

Da wir oben festgestellt haben, dass die Entropie dem Caloricum von Lavoisier entspricht, so liegt es nahe zur Messung der Entropie auf den von ihm und Laplace entwickelten Eiskalorimeter zurückzugreifen: Man stelle sich vor, man will die Entropien miteinander vergleichen, die in zwei verschiedenen Gegenständen bei Raumtemperatur enthalten sind. Man legt nun den ersten Gegenstand in einen Behälter mit Eiswürfeln, die um 0°C haben. Beim Abkühlen des Gegenstandes schmilzt ein Teil des Eises, bis ein thermisches Gleichgewicht erreicht ist. Misst man nun das Volumen des geschmolzenen Wassers, so kann man es mit dem Volumen von Wasser vergleichen, das nach erneutem Füllen des Behälters mit Eiswürfeln vom zweiten Gegenstand geschmolzen wird.[16]

Natürlich birgt dieses Verfahren sowohl praktische als auch theoretische Schwierigkeiten: ein Teil des geschmolzenen Wassers wird in den Eiswürfeln enthalten sein. Es kann sein, dass der Gegenstand soviel Entropie enthält, dass er mehrere Behälter Eis schmelzen kann. Aber insbesondere wird damit nur die Entropie gemessen, die beim Abkühlen auf den Schmelzpunkt des Wassers aus dem Gegenstand abgeführt wird, nicht diejenige, die in ihm insgesamt enthalten ist (das würde eine schrittweise Abkühlung auf den absoluten Nullpunkt voraussetzen).

Dennoch kann man sich in Analogie zu diesem Eiskalorimeter durchaus praktikable Lösungen zur Messung von erzeugten Energien z. B. bei chemischen Reaktionen entwickeln. Wenn man weiß, dass eine bestimmte Menge Entropie notwendig ist, damit sich ein Metallstab von 1 m bei einer bestimmten Referenztemperatur auf 1,001 m ausdehnt, so muss man nur genügend dieser Metallstäbe haben (oder denselben wieder in den Ausgangszustand mit Referenztemperatur bringen), und kann dann messen, wie viele Metallstäbe notwendig sind, um z. B. ein Reagenzglas nach einer chemischen Reaktion wieder auf die Referenztemperatur zu bringen.[17]

Mischungsentropie [Bearbeiten]

Die Mischungsentropie charakterisiert den „gut durchmischten“ Zwei-Flüssigkeits-Zustand im rechten Glas

Das Bild rechts zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine gleichmäßige Färbung an.

Die Entropie ist ein Maß für Unwissenheit. Als Maß für Unordnung muss man genau auf die Begrifflichkeit achten. So ist im Bildbeispiel die Flüssigkeit im rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Mithin ist dort die Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten Glas überall im Wasser verteilt ist. Das linke Bild sagt uns mehr. Wir können Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist, oder Bereiche, die frei sind von Farbe.

Die Mischungsentropie lässt sich berechnen. Josiah Willard Gibbs wies auf den Widerspruch hin, dass der Entropiezuwachs auch auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird (Gibbssches Paradoxon).

Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die, wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind nur auf wenige Bereiche konzentriert. Im rechten Bild können sie sich im gesamten Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Lauf der Zeit dieser Gleichverteilung zustrebt.[18]

Expansionsversuch von Gay-Lussac[Bearbeiten]

Überströmversuch von Gay-Lussac. Der Versuch mit einem idealen Gas in einem abgeschlossenen System zeigt, dass sich nach dem Druck- und Temperaturausgleich die Anfangstemperatur einstellt (t_2 = t_1). Da sich die innere Energie nicht ändern konnte, kann im Umkehrschluss gefolgert werden, dass die innere Energie einer bestimmten Menge des idealen Gases nur temperaturabhängig, nicht aber druck- oder volumenabhängig ist.

Die nebenstehende Abbildung zeigt das Überströmexperiment von Gay-Lussac. Das Experiment zeigt, dass beim Überströmen eines idealen Gases in ein größeres Volumen keine Temperaturänderung stattfindet; d. h., die innere Energie des Gases hat sich nicht verändert (\mathrm{d}U=0). Wie groß ist nun die Entropieänderung in dem beschriebenen Versuch? Da die Entropie eine Zustandsgröße ist, ist sie wegunabhängig. Anstatt den Hahn zu öffnen, kann man sich auch vorstellen, dass das Gas langsam expandiert, indem es eine Trennwand nach rechts schiebt. Für eine infinitesimale Verschiebung vergrößert sich das Volumen um \mathrm{d}V, die Entropie steigt um \mathrm{d}S = \delta Q / T. Aus dem ersten Hauptsatz  \mathrm{d}U = \delta Q + \delta W folgt mit \mathrm{d}U = 0 und \delta W = -p \mathrm{d}V, da ausschließlich Volumenarbeit verrichtet wird:

\mathrm{d}S = \frac{p}{T} \mathrm{d}V

Aus der Zustandsgleichung für ideale Gase (N\, ist die Anzahl der Gasatome):

p=\frac{k_\mathrm{B}NT}{V}

folgt:

\mathrm{d}S = \frac{k_\mathrm{B}N}{V} \mathrm{d}V.

Hieraus ergibt sich durch Integration sofort:

\Delta S= \int_{S_1}^{S_2} \mathrm{d}S 
  = \int_{V_1}^{V_2} \frac{k_\mathrm{B} N}{V} \mathrm{d}V
  = k_\mathrm{B} N \log\,(V_2/V_1).

Für ein Mol eines Gases ergibt sich bei Verdopplung des Volumens

\Delta S = N_\mathrm{A} \cdot k_\mathrm{B} \log\,2 = 5{,}76\,\mathrm{J/K}.

Motor[Bearbeiten]

Clausius fand heraus, dass man mit einem Kreisprozess eine gegebene Wärmemenge desto besser in Arbeit umwandeln kann, je höher die Temperatur ist, bei der sie der Maschine zugeführt wird (siehe Carnot-Wirkungsgrad). Am Beispiel des Motors wird die chemische Energie des Kraftstoffs durch die Verbrennung dem Motor bei ca. 2000–2500 °C zugeführt und verlässt ihn wieder zu je etwa einem Drittel bei ca. 800 °C durch die Abgase, bei ca. 50 °C durch den Kühler sowie über die Räder. Mit Hilfe der Gleichungen von Clausius kann man nun vorhersagen, wie viel der Kreisprozess des Motors maximal erbringen könnte. Die zugeführte Energie hat dabei eine geringe Entropie, während die Abwärme eine hohe Entropie hat. Aus der Differenz lässt sich die mögliche Arbeit berechnen.

Entropiezunahme bei Expansion, statistisch[Bearbeiten]

Die Entropie eines Makrozustands lässt sich auch über sein statistisches Gewicht W (die Anzahl seiner Mikrozustände) ermitteln. Sind n\, Moleküle auf zwei Raumhälften so verteilt, dass sich in der einen Hälfte n_1 und in der anderen n_2 Moleküle befinden, dann ist das statistische Gewicht

W(n_1, n_2) = \frac{n!}{n_1!\,n_2!}

und die Entropie dieses Zustands  S(n_1, n_2) = k_\mathrm{B}\cdot \log\,W. Befindet sich ein ganzes Mol (n = N_\mathrm{A}) in einer Hälfte (und in der anderen nichts), dann ist

W(N_\mathrm{A},0) = \frac{N_\mathrm{A}!}{N_\mathrm{A}!\,0!} = 1

und die Entropie

S(N_\mathrm{A}, 0) = k_\mathrm{B} \cdot \log\,1 = 0 .

Bei gleichmäßiger Aufteilung wird

W\left(\frac{N_\mathrm{A}}{2}, \frac{N_\mathrm{A}}{2}\right) = \frac{6\cdot10^{23}!}{3\cdot10^{23}! \,3\cdot10^{23}!} .

Die Fakultät kann man mit der Stirling-Formel annähern, wobei man sich auf n! \approx n^n beschränken kann. Der Logarithmus von n^n ist n\cdot \log\,n. Damit wird

\log\,(6\cdot10^{23}!) \approx 6\cdot10^{23}\cdot \log\,(6\cdot10^{23})

und

\log\,\left[W\left(\frac{N_\mathrm{A}}{2},\frac{N_\mathrm{A}}{2}\right)\right]\approx6\cdot10^{23}\cdot \log\,(6\cdot10^{23})- 2\cdot3\cdot10^{23}\cdot \log\,(3\cdot10^{23}) = 6\cdot10^{23}\cdot(\log\,6 - \log\,3) .

Mit k_\mathrm{B} = 1{,}3807 \cdot 10^{-23}\,\mathrm{J/K} und N_\mathrm{A} = 6{,}0220 \cdot 10^{23}\,\mathrm{Mol}^{-1} erhält man für die Entropie nach der Expansion

S = k_\mathrm{B} \cdot \log\,\left[W\left(\frac{N_\mathrm{A}}{2},\frac{N_\mathrm{A}}{2}\right)\right] = 5{,}76\,\mathrm{J/K}, wie aus der thermodynamischen Rechnung.

Biomembranen[Bearbeiten]

Gibt man Lipide, bei Lebewesen beispielsweise als Bausteine der Biomembranen vorkommend, in Wasser, so bilden sich spontan geschlossene Membranstrukturen, sogenannte Vesikel. Da hier Temperatur und Druck gegeben sind (Wärmebad und Druckensemble) ist das thermodynamische Potential, das ein Minimum anstrebt die freie Enthalpie \Delta G = \Delta H - T\Delta S. Die Enthalpie \Delta H lässt sich experimentell nachweisen, ist also messbar und ist positiv. Da der Prozess spontan abläuft, muss aber \Delta G negativ sein; d. h., die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend, da die Entropie meistens dafür verantwortlich ist, dass sich Stoffe vermischen (Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen Wasserstoffbrückenbindungen aus, die ständig fluktuieren und somit einen hohen Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide entsteht bei Lösung in Wasser ein größerer Bereich, in dem keine Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung treibt. Letztlich ist diese Eigenschaft auch mit für die schlechte Löslichkeit vieler unpolarer Stoffe verantwortlich, die die Bildung von Wasserstoffbrückenbindungen stören.

Berechnung und Verwendung tabellierter Entropiewerte[Bearbeiten]

Die molare Entropie Smol bei einer bestimmten Temperatur T2 und bei konstantem Druck p erhält man mit Hilfe der molaren Wärmekapazität cp(T) durch Integration vom absoluten Nullpunkt bis zur aktuellen Temperatur:

S_{\mathrm{mol}} = \int_{0}^{T2}  \frac {c_p}{T}\ dT = \int_{0}^{T2} c_p\ d(\log\,T)

Dazu kommen noch Entropieanteile bei Phasenübergängen. Nach Planck wird die Entropie ideal kristallisierter, reiner Festkörper am absoluten Nullpunkt gleich null gesetzt (Gemische oder frustrierte Kristalle behalten dagegen eine Restentropie). Unter Standardbedingungen spricht man von der Standardentropie S0. Auch nach der statistischen Betrachtungsweise hängen Entropiewert und Wärmekapazität miteinander zusammen: Eine hohe Wärmekapazität bedeutet, dass ein Molekül viel Energie speichern kann, und das kann z. B. auf einer großen Zahl niedrig liegender und daher leicht erreichbarer Energieniveaus beruhen. Entsprechend viele unterschiedliche Verteilungsmöglichkeiten auf diese Niveaus gibt es dann auch für die Moleküle und das führt auch auf einen hohen Entropiewert für den wahrscheinlichsten Zustand.

In elektrochemischen Reaktionen ergibt sich die Reaktionsentropie ∆S aus der gemessene Änderung von dE (elektromotorische Kraft) mit der Temperatur:

\Delta S = z \cdot F\cdot \bigg (\frac{dE}{dT} \bigg)_p (z = Ladungszahl, F = Faraday-Konstante)

Die Entropieänderung bei idealen Mischungen erhält man mit Hilfe der Molenbrüche xi der beteiligten Substanzen:

\Delta S_{\mathrm{id}}\ =\ -R\cdot \sum_{i=1}^k x_i\cdot \log\,x_i

wobei sich in realen Mischungen noch eine Zusatzentropie durch die Veränderung der zwischenmolekularen Kräfte beim Mischen ergibt.

Entstehen bei einer chemischen Reaktion neue Moleküle, dann tritt die höchste Entropie in einem ganz bestimmten Gleichgewichtszustand auf, bei dem sich die Moleküle sowohl auf die Edukt- wie auch auf die Produktniveaus verteilen können. Über die folgende Beziehung, in der die Differenzen der Standard-Entropiewerte ∆S0 der beteiligten Substanzen eine wesentliche Rolle spielen, kann die Gleichgewichtskonstante K berechnet werden:

\log\,K = - \frac{\Delta H^0 -T \cdot \Delta S^0}{RT}

(das ∆ bedeutet in diesem Fall die Änderung der Größe bei vollständigem Reaktionsablauf). Woran man bei einem spontanen Vorgang (z. B. chemischen Reaktionen, Lösungs- und Mischungsvorgängen, Einstellung von Phasengleichgewichten und deren Temperaturabhängigkeit, Osmose u. a.) die Intensität dieses Vorgangs abschätzen kann, das ist die Zunahme der gesamten Entropie zwischen Anfangs- und Gleichgewichtszustand, die der Reaktanten und die der Umgebung zusammengenommen (→ chemisches Gleichgewicht). Die spontane Zunahme der Entropie wiederum ist eine Folge der ständigen Bewegung der Moleküle.

Kurz: Die Standard-Entropie von Stoffen kann aus dem Verlauf der Wärmekapazität mit der Temperatur berechnet werden. Die Kenntnis tabellierter Entropiewerte ermöglicht (zusammen mit den Reaktionsenthalpien) die Voraussage des chemischen Gleichgewichts.

Quantenmechanik[Bearbeiten]

In der Quantenstatistik ist ein Mikrozustand (auch reiner Zustand genannt) gegeben durch einen Vektor |n\rangle im Hilbertraum \mathcal{H} des Systems. Typischerweise ist dieser Raum 1023 dimensional und steht demnach für genauso viele Teilchen. Dies orientiert sich an der Avogadro-Konstanten, welche gleich der Zahl 6{,}022 \cdot 10^{23} ist. Den zugehörigen Makrozustand beschreibt man durch einen statistischen Operator, der auch als Dichteoperator bezeichnet wird.

Dieser enthält alle Informationen über das System, die durch eine ideale Messung zugänglich sind (das ist viel weniger als bei dem reinen Zustand |n\rangle, dem Mikrozustand). Der Makrozustand ist klassisch gegeben durch ein Ensemble von Mikrozuständen, die mit |n\rangle als „typische makroskopische Werte“ bestimmte Erhaltungsgrößen gemein haben, wie z. B. Energie, Volumen und Teilchenzahl. Die Verteilung der Mikrozustände im Phasenraum ist klassisch durch eine Verteilungsfunktion gegeben. An deren Stelle tritt in der quantenmechanischen Beschreibung der Dichteoperator:

\rho = \sum_i p_i |i\rangle\langle i|.

p_i ist die Wahrscheinlichkeit, dass sich das betrachtete System im „reinen“ quantenmechanischen Zustand |i\rangle befindet falls die Zustände |i\rangle alle orthogonal sind. Dabei ist jetzt die Zahl der betrachteten Freiheitsgrade gewöhnlich viel kleiner als  3\cdot 10^{23}\,.

Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen Zustandsgemisch ist gegeben durch eine Spurbildung:

\langle A \rangle = \operatorname{Tr}\,\left(\rho A\right).

Die Spur eines Operators ist folgendermaßen definiert: \operatorname{Tr}\,(A)=\sum\nolimits_{m}\langle m|A|m\rangle für eine beliebige (vollständige) Basis \left\{ |m\rangle\right\}.

Von-Neumann-Entropie [Bearbeiten]

Die von-Neumann Entropie ist definiert als:

S = - \operatorname{Tr} \left(\rho\log\,\rho\right).

Multipliziert man diese dimensionslose von-Neumann-Entropie mit der Boltzmann-Konstanten, so erhält man eine Entropie mit der gewöhnlichen Einheit.

Die Entropie ist über die Wahrscheinlichkeiten der einzelnen reinen quantenmechanischen Zustände |i\rangle im Makrozustand gegeben durch

 S = -k_\mathrm{B} \langle \log\, \rho \rangle = - k_\mathrm{B} \operatorname{Tr} \left(\rho \log\, \rho\right) = - k_\mathrm{B} \sum_{i} p_i \log\,p_i \qquad (*),

wobei p_i die Wahrscheinlichkeit ist, im i-ten Mikrozustand zu sein. kB ist die Boltzmann-Konstante. Die Wahrscheinlichkeiten p_i können Werte zwischen 0 und 1 annehmen, somit ist p_i \log\,p_i\leq 0 und die Entropie S=-k_{\mathrm{B}} \sum\nolimits_{i}p_{i} \log\,p_{i}\geq0 positiv semidefinit. Für reine Zustände ist beispielsweise p1=1, p2=…=pn=0, und folglich die Entropie Null, da einerseits ln(1)=0 und andererseits x·ln x→0 für x→0. Von Null verschiedene Werte der Entropie erhält man durch „Erhöhung der Unkenntnis“ des Systemzustandes:

Als Beispiel nehmen wir ein Spinsystem mit 4 Elektronen. Spin und magnetisches Moment sind bekanntlich antiparallel; das magnetische Moment \mu eines nach unten zeigenden Spins besitzt im äußeren Magnetfeld B die Energie -\mu B. Die Grundzustandenergie E_0 des Systems soll insgesamt -2\mu B sein, was auf folgende vier Zustände führt:

[\uparrow \downarrow \downarrow \downarrow]\,, \quad [\downarrow \uparrow \downarrow \downarrow]\,, \quad [\downarrow \downarrow \uparrow \downarrow]\,, \quad [\downarrow \downarrow \downarrow \uparrow]\,.

Daraus folgt, dass die Spinentartung \Omega = 4\, ist -  p_1=p_2=p_3=p_4=1/4\, - und wie oben auch hier S(T=0)=k_{\mathrm{B}} \cdot\log\,\Omega gilt.

Die obige allgemeine Formel, (*), ist bis auf einen konstanten Faktor (der Ausdruck k_\mathrm{B} \cdot \log\,\dots wird durch den dualen Logarithmus ld … ersetzt, den Logarithmus zur Basis 2) identisch mit der Formel für die Shannon'sche Informationsentropie. Das bedeutet, die physikalische Entropie ist auch ein Maß für die Information, die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.

S=-k_{\mathrm{B}} \sum_{i}p_{i} \log\,p_{i} = -k_\mathrm{B}\sum_{i}p_{i}\frac{\operatorname{ld}\,{p_{i}}}{\operatorname{ld}\,{e}}=\frac{k_{B}}{\operatorname{ld}\,{e}}S_{\text{Shannon}}

Eigenschaften der statistischen Entropie eines quantenmechanischen Zustandes[Bearbeiten]

Seien \rho\, und \tilde{\rho} Dichteoperatoren auf dem Hilbertraum \mathcal{H}.

S(\rho) = -k_\mathrm{B} \operatorname{Tr}\left(\rho \log\,\rho\right) \leq -k_\mathrm{B} \operatorname{Tr}\left(\rho \log\,\tilde{\rho}\right)
S(U \rho U^\dagger)=S(\rho)
  • Minimum
S(\rho)\geq 0
Minimum wird bei reinen Zuständen \rho = |\Psi\rangle\langle \Psi| angenommen
  • Maximum
S(\rho)\leq k_\mathrm{B} \log\,(\operatorname{dim}\mathcal{H})
Maximum wird angenommen, wenn alle möglichen Zustandsvektoren mit gleicher Wahrscheinlichkeit 1/\operatorname{dim} \mathcal{H} auftreten
S\left(\lambda\rho+(1-\lambda)\tilde{\rho}\right)\geq\lambda S(\rho)+\left(1-\lambda\right)S\left(\tilde{\rho}\right)   mit   0 \leq \lambda \leq 1
Sei \rho\, Dichteoperator auf \mathcal{H}=\mathcal{H}_{a}\otimes\mathcal{H}_{b}   und   \rho_a\, bzw. \rho_b\, reduzierte Dichteoperatoren auf \mathcal{H}_{a} bzw. \mathcal{H}_{b}
|S(\rho_{a})-S(\rho_{b})|\leq S(\rho)\leq S(\rho_{a})+S(\rho_{b})

Bekenstein-Hawking-Entropie von Schwarzen Löchern[Bearbeiten]

Hauptartikel: Bekenstein-Hawking-Entropie

Jacob Bekenstein[19] stellte in seiner Doktorarbeit Ähnlichkeiten zwischen der Physik Schwarzer Löcher und der Thermodynamik heraus. Unter anderem verglich er den Zweiten Hauptsatz der Thermodynamik \Delta S \geq 0 damit, dass die Oberfläche von Schwarzen Löchern mit einfallender Materie anscheinend immer anwächst und keine Materie entweichen kann. Es ergab sich als Formel für die Entropie

S_\mathrm{SL} = \frac{k_\mathrm{B} c^3\,A}{4 \hbar G}.

Dabei ist G die Gravitationskonstante, c die Lichtgeschwindigkeit und k_\mathrm{B} die Boltzmannkonstante.

Stephen Hawking kritisierte daran, dass damit das Schwarze Loch auch eine Temperatur besitzen müsse. Ein Körper mit einer nicht verschwindenden Temperatur emittiert jedoch eine Schwarzkörperstrahlung, die der Annahme widerspricht, dass aus dem Schwarzen Loch nichts mehr entweicht. Hawking löste dieses Paradoxon durch die Entdeckung der nach ihm benannten Hawking-Strahlung auf: In der quantenmechanischen Beschreibung des Vakuums sind ständig Vakuumfluktuationen aus Teilchen-Antiteilchen-Paaren vorhanden. Wenn bei einer Paarbildung knapp außerhalb des Ereignishorizonts eines der beiden Partnerteilchen vom Schwarzen Loch „eingefangen“ wird, das andere aber entkommt, entspricht dies physikalisch einer thermischen Strahlung des schwarzen Lochs.[20]

Das Schwarze Loch kann sich auflösen, wenn die Energie der abgestrahlten Hawking-Strahlung (durch die die Masse des Schwarzen Lochs abnimmt) für einen ausreichend langen Zeitraum den Energieinhalt der einfallenden Materie übersteigt.[21]

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Skripte
Lehrbücher und Übersichtsartikel
  •  Klaus Stierstadt, Günther Fischer: Thermodynamik: Von der Mikrophysik zur Makrophysik (Kap. 5). Springer, Berlin, New York 2010, ISBN 9783642050978 (eingeschränkte Vorschau in der Google-Buchsuche).
  • R. Frigg, C. Werndl: Entropy – A Guide for the Perplexed (PDF; 301 kB). In: C. Beisbart, S. Hartmann (Hrsg.): Probabilities in Physics. Oxford University Press, Oxford 2010. (Überblick über die verschiedenen Entropiebegriffe und deren Verknüpfungen)
  • G. Adam, O. Hittmair: Wärmetheorie. 4. Auflage. Vieweg, Braunschweig 1992, ISBN 3-528-33311-1.
  • Richard Becker: Theorie der Wärme. 3., erg. Auflage. Springer, 1985, ISBN 3-540-15383-7.
  • Arieh Ben-Naim: Statistical Thermodynamics Based on Information: A Farewell to Entropy. 2008, ISBN 978-981-270-707-9.
  • Johan Diedrich Fast: Entropie. Huethig, 1982, ISBN 3-87145-299-8.
  • Ulrich Nickel, Lehrbuch der Thermodynamik. Eine verständliche Einführung. 2. Auflage. PhysChem, 2011, ISBN 978-3-937744-06-3.
  • E. P. Hassel, T. V. Vasiltsova, T. Strenziok: Einführung in die Technische Thermodynamik. FVTR GmbH, Rostock 2010, ISBN 978-3-941554-02-3.
  • Arnold Sommerfeld: Vorlesungen über theoretische Physik – Thermodynamik und Statistik. Nachdruck der 2. Auflage. Harri Deutsch, 1988, ISBN 3-87144-378-6.
  • Andre Thess: Das Entropieprinzip – Thermodynamik für Unzufriedene. Oldenbourg-Wissenschaftsverlag, 2007, ISBN 978-3-486-58428-8.
  • Wolfgang Glöckner, Walter Jansen, Hans Joachim Bader (Hrsg.): Handbuch der experimentellen Chemie. Sekundarstufe II. Band 7: Mark Baumann: Chemische Energetik. Aulis Verlag Deubner, Köln 2007, ISBN 978-3-7614-2385-1.
Populärwissenschaftliche Darstellungen
  • Arieh Ben-Naim: Entropy Demystified – The Second Law Reduced to Plain Common Sense. World Scientific, Expanded Ed., New Jersey 2008, ISBN 978-981-283-225-2. (populärwissenschaftliche, aber exakte Erklärung auf Grundlage der statistischen Physik).
  • H. Dieter Zeh: Entropie. Fischer, Stuttgart 2005, ISBN 3-596-16127-4.
  • Jeremy Rifkin, Ted Howard: Entropy: A New World View. Viking Press, New York 1980 (dt.: Entropie: Ein neues Weltbild. Hofmann & Campe, Hamburg 1984).

Weblinks[Bearbeiten]

 Commons: Entropie – Sammlung von Bildern, Videos und Audiodateien
  Wikiquote: Entropie – Zitate
 Wikibooks: Entropie – Lern- und Lehrmaterialien

Einzelnachweise und Anmerkungen[Bearbeiten]

  1. a b c d  Gottfried Falk, Wolfgang Ruppel: Energie und Entropie. Springer-Verlag, 1976, ISBN 978-3-642-67900-1.
  2. F. Herrmann: Physik III - Thermodynamik, Skripten zur Experimentalphysik. 2003, abgerufen am 12. Januar 2015 (PDF, 12,9 MB).
  3.  Friedrich Herrmann: Der Karlsruher Physikkurs. Teil 1 Energie Impuls Entropie. 9 Auflage. Aulis Verlag, 2010, ISBN 978-3-7614-2517-6.
  4.  Antoine Laurent Lavoisier: Oeuvres de Lavoisier: Traité élémentaire de chimie, opuscules physiques et chimiques, Band 1. Ministre de L'instruction Publique et des Cultes, 1864 (Registereintrag aus dem Jahr 1789, Seite 410, Original der Bayerischen Staatsbibliothek, digitalisiert 8. Dez. 2009).
  5.  Roger Hahn: Pierre Simon Laplace, 1749–1827: A Determined Scientist. Harvard University Press, 2005, ISBN 978-0-674-01892-1 (eingeschränkte Vorschau in der Google-Buchsuche).
  6.  Joseph Black: Lectures on the elements of Chemistry. Edinburgh, 1807 (posthume Veröffentlichung von Vorlesungen aus dem Jahr 1760, Original von Michigan State University, digitalisiert 16. Okt. 2013 in der Google-Buchsuche).
  7. a b  Pierre Kerszberg: Natural philosophy. In: Knud Haakonssen (Hrsg.): The Cambridge History of Eighteenth-Century Philosophy, Band 1. Cambridge University Press, 2006, ISBN 978-0-521-86743-6 (eingeschränkte Vorschau in der Google-Buchsuche).
  8.  James D. Stein: Cosmic Numbers: The Numbers That Define Our Universe. Basic Books, 2011 (eingeschränkte Vorschau in der Google-Buchsuche).
  9.  Sadi Carnot: Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance. Bachelier, 1824 (Original von Lyon Public Library, digitalisiert 29. Sept. 2014 in der Google-Buchsuche).
  10.  Rudolf Clausius: Über verschiedene, für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie. (auch Vortrag vor der Zürcher Naturforschenden Gesellschaft). In: Annalen der Physik und Chemie. 125, 1865, S. 353-400.
  11.  Rudolf Clausius: Über den zweiten Hauptsatz der mechanischen Wärmetheorie. Vortrag, gehalten in einer allgemeinen Sitzung der 41. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt am Main am 23. September 1867. 1867 (Original von Michigan State University, digitalisiert 29. Juni 2007 in der Google-Buchsuche).
  12.  Hugh Longbourne Callendar: In: Proceedings of the Royal Society of London. 134, 1911?, S. xxv (Snippet in der Google-Buchsuche).
  13. Vorlage:Internetquelle/Wartung/Datum nicht im ISO-FormatRoman Frigg and Charlotte Werndl: Entropy – A Guide for the Perplexed. Juni 2010, abgerufen am 12. Dezember 2014 (PDF, 294 kB, englisch).
  14. Beim 1. Hauptsatz der Thermodynamik tritt im Gegensatz zum 2. Hauptsatz ein solcher „integrierender Faktor“ nicht auf. Der 1. Hauptsatz besagt, dass die Summe (!) der zugeführten Arbeit, \delta W und der zugeführten Wärme \delta Q immer das vollständige Differential \mathrm d U einer Zustandsfunktion U ergibt, der sogenannten Inneren Energie, obwohl die zwei einzelnen Differentiale nicht  vollständig sind. Bei der Funktion U wird im Gegensatz zu S auch nicht unterschieden, ob die Wärmezufuhr reversibel oder irreversibel erfolgt.
  15. A. F. Holleman, E. Wiberg, N. Wiberg: Lehrbuch der Anorganischen Chemie. 101. Auflage. de Gruyter, Berlin 1995, ISBN 3-11-012641-9, S. 54 (eingeschränkte Vorschau in der Google-Buchsuche).
  16.  Jed Z. Buchwald, Robert Fox: The Oxford Handbook of the History of Physics. Oxford University Press, 2013, ISBN 978-0-19-151019-9 (eingeschränkte Vorschau in der Google-Buchsuche).
  17.  Georg Job: Neudarstellung der Wärmelehre. Akademische Verlagsgesellschaft, 1972, ISBN 3-400-00194-5.
  18. Dem entspricht die Clausius'sche Gleichung (2), die auch folgendermaßen in Worte gefasst werden kann: „In einem abgeschlossenen Thermodynamischen System nimmt die Entropie solange zu, bis Gleichgewicht erreicht ist“.
  19.  Jacob D. Bekenstein: Black holes and entropy. In: Phys.Rev.. D, Nr. 7, 1973, S. 2333–2346 (PDF auf Bekensteins Homepage. Abgerufen am 9. Dezember 2014.).
  20.  Stephen W. Hawking: Particle Creation by Black Holes. In: Commun. Math. Phys.. 43, 1975, S. 199–220, doi:10.1007/BF02345020 (Springer Link. Abgerufen am 9. Dezember 2014.).
  21.  Stephen W. Hawking: Eine kurze Geschichte der Zeit. 1 Auflage. Rowohlt Verlag, 1988, ISBN 3-498-02884-7 (eingeschränkte Vorschau in der Google-Buchsuche).