Entropie (Thermodynamik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Icon tools.svg
Dieser Artikel wurde den Mitarbeitern der Redaktion Physik zur Qualitätssicherung aufgetragen. Wenn Du Dich mit dem Thema auskennst, bist Du herzlich eingeladen, Dich an der Prüfung und möglichen Verbesserung des Artikels zu beteiligen. Der Meinungsaustausch darüber findet derzeit nicht auf der Artikeldiskussionsseite, sondern auf der Qualitätssicherungs-Seite der Physik statt.
Physikalische Größe
Name Entropie
Formelzeichen der Größe S
Größen- und
Einheitensystem
Einheit Dimension
SI \frac{\mathrm{J}}{\mathrm{K}} L2·M·T−2·θ−1
Beim Schmelzen von Eis wird die geordnete Eiskristallstruktur in eine ungeordnete Bewegung einzelner Wassermoleküle überführt: Die Entropie nimmt dabei zu (Rudolf Clausius 1862)

Die Entropie (griechisches Kunstwort ἐντροπία [entropía], von εν~ [en~] – ein~, in~ und τροπή [tropē] – Wendung, Umwandlung) ist eine fundamentale thermodynamische Zustandsgröße, da sie mit dem zweiten und dritten Hauptsatz bestimmt, ob ein Prozess überhaupt stattfindet. Bei allen physikalisch möglichen Prozessen in abgeschlossenen Systemen bleibt die Entropie erhalten oder sie nimmt zu.

Grobcharakterisierungen[Bearbeiten]

  • In der Statistischen Physik und Physikalischen Chemie ist die Entropie ein Maß für die Anzahl der Mikrozustände, durch die der beobachtete Makrozustand des Systems realisiert werden kann. Damit kann Entropie als das Phasenraumvolumen, von dem aus der Systemzustand ohne äußere Einwirkung erreichbar ist, interpretiert werden (in der klassischen Thermodynamik sind Gleichgewichtszustände mit gleicher Entropie adiabatisch äquivalent).
    Dem Gas steht nach dem Entfernen der Zwischenwand ein größerer Raum zur Verfügung. Es existieren nach der Expansion also mehr Mikrozustände und das System besitzt eine höhere Entropie.
  • Entropie ist eine extensive, d. h. direkt mit der Systemgröße wachsende Zustandsgröße. Jedem Zustand eines thermodynamischen Systems kann eine Entropie zugeordnet werden, die sich bei Verdoppelung von Teilchenzahl und Volumen des Systems ebenfalls verdoppelt.

Einordnung in die Thermodynamik[Bearbeiten]

Die klassische Thermodynamik ist eine fundamentale physikalische Theorie, mit der energetische Wechselwirkungen von Systemen mit ihrer Umgebung beschrieben werden. Ein System kann dabei prinzipiell auf zwei Arten mit seiner Umgebung Energie austauschen: in Form von Wärme und Arbeit, wobei abhängig vom System und der Prozessführung verschiedene Varianten der Arbeit existieren, u. a. Volumenarbeit, chemische Arbeit und magnetische Arbeit. Im Zuge eines solchen Energieaustauschs ändert sich die Entropie des Systems und der Umgebung. Nur wenn die globale Summe der Entropieänderungen positiv ist, also System und Umgebung nach der Änderung mehr Mikrozustände erreichen können als vorher, erfolgt die Änderung spontan.

Grundlagen[Bearbeiten]

Die Entropie S (Einheit J/K) ist eine extensive Zustandsgröße eines physikalischen Systems und verhält sich bei Vereinigung mehrerer Systeme additiv wie auch das Volumen, die Elektrische Ladung oder die Stoffmenge. Dividiert man durch die Masse des Systems, erhält man die spezifische Entropie s mit der Einheit J/(kg·K) als intensive Zustandsgröße. Der deutsche Physiker Rudolf Clausius führte diesen Begriff 1865 zur Beschreibung von Kreisprozessen ein.

Das Differential dS (ein nicht-kursives d wird benutzt, um hervorzuheben, dass es sich um ein vollständiges Differential handelt) ist nach Clausius bei reversiblen Vorgängen das Verhältnis von übertragener Wärme δQ und absoluter Temperatur T:

{\rm d}S = \frac{\delta Q_{\rm rev}}{T} \qquad  (1)

Diese Entropieänderung ist bei Wärmezufuhr positiv, bei Wärmeabfuhr negativ.

Wegen der Vollständigkeit des Differentials dS sind Änderungen der Entropie wegunabhängig; d. h., die Entropie ist eine Zustandsgröße. In diesem Zusammenhang spielt also die reziproke absolute Temperatur die Rolle eines „integrierenden Bewertungsfaktors“, der aus der reversibel zu- oder abgeführten Wärme, einem – mathematisch gesehen – unvollständigen Differential, ein zugehöriges vollständiges Differential, dS, macht.[1]

Insofern kann man die Entropie bei reversibler Prozessführung auch als die „mit 1/T bewertete Wärmeenergie“ definieren. Weiter unten wird das Problem behandelt, wieweit die Energie T dS in Arbeit umgewandelt werden kann.

Clausius behandelte aber auch irreversible Prozesse. Und zwar zeigte er, dass in einem isolierten thermodynamischen System die Entropie folgende Ungleichung erfüllt:

\qquad {\rm d}{S} \ge 0 \qquad (2),

wobei das Gleichheitszeichen nur bei reversiblen Prozessen gilt.

Da man ein nicht-isoliertes System, wie es in (1) behandelt wird, immer durch Addition eines Zusatzes zu einem isolierten System erweitern kann, wobei die (ebenfalls additive) Zusatzentropie einer reversiblen Wärmeänderung entspricht, folgt aus Gl. (2), dass bei irreversibler Wärmeänderung in (1) anstatt des Gleichheitszeichens das Größerzeichen gilt, und zwar selbst dann, wenn die Wärme nicht zugeführt, sondern abgeführt wird (das Größerzeichen ist auch bei negativen Zahlen sinnvoll). Dem entspräche also die in vielen Lehrbüchern noch übliche Schreibweise

{\rm d}S \ge \frac{\delta Q_{\rm rev}}{T} \qquad  (3a, \text{veraltet})

Diese veraltete Schreibweise ist unpräzise: Man unterscheidet heute genauer zwischen der transportierten Entropie (erste Ungleichung: in isolierte Systeme kann keine Wärme transportiert werden) und der produzierten Entropie (zweite Ungleichung) - und fasst − allgemein gültig, also auch für das nicht adiabate System – beide Ungleichungen zu einer Gleichung zusammen:

\mathrm dS = \frac{\delta Q}{T} + \frac{\delta W_{\rm diss.,\,\,inn.}}{T} \qquad (3)

Dabei ist δWdiss.,inn. die innerhalb des Systems dissipierte Arbeit, die immer positiv ist, also dem System zugeführt wird (z. B. Reibungsarbeit). Auch diese dissipativen Prozesse treten als Wärme in Erscheinung (beispielsweise spricht man beim Ohmschen Widerstand in der Elektrizitätslehre von der erzeugten „Jouleschen Wärme“) und tragen zur Entropieänderung bei. Der „integrierende Nenner“ T tritt in beiden Termen auf. Um präzise zu vergleichen, muss man aber stets angeben, auf welchen genauen Ausgangzustand sich die Änderungen beziehen.

Gleichung (3) ist eine Form des zweiten Hauptsatzes der Thermodynamik. Das Differential dS existiert allerdings nur für quasi-statische Zustandsänderungen – auch dies ist eine notwendige Präzisierung –, d. h., dass eine Folge von Zuständen messtechnisch erfasst werden kann (Zustände mit nur geringen Ungleichgewichten). Bei dem im Bild dargestellten Vorgang im adiabaten System, bei dem nur Anfangszustand und Endzustand angegeben werden können, wäre das nicht der Fall. Für ein ideales Gas kann aber die Entropiedifferenz auf einfache Weise über einen reversiblen isothermen Ersatzprozess (Abgabe von Arbeit und Aufnahme von Wärme aus der Umgebung) berechnet werden, wie dies im Abschnitt Beispiele geschehen ist.

Das Produkt T ΔS stellt den nicht verwerteten Anteil („Abwärme“) bei der isothermen Erzeugung – isotherm heißt: bei fixierter Temperatur – von Arbeit Δ A aus vorhandener Energie Δ U dar. Der Maximalwert dieser Arbeit  ΔA ist die sogenannte Freie Energie  ΔF =  ΔU - T ΔS. Dies ist eine äquivalente Form des 2. Hauptsatzes.

Geschichte des Begriffes[Bearbeiten]

Im Jahre 1712 wurde die erste Dampfmaschine von Thomas Newcomen in einem Bergwerk installiert, um Wasser zu pumpen. Die Maschine wurde ihrer Aufgabe gerecht, benötigte aber sehr viel Brennstoff. Zu diesem Zeitpunkt war der Zusammenhang zwischen Energie und Wärme völlig unklar und es vergingen noch über 130 Jahre, bis Julius Mayer den 1. Hauptsatz der Thermodynamik publizierte. Ab 1764 verbesserte James Watt die Dampfmaschine und konnte deren Wirkungsgrad auf über 1 % mehr als verdoppeln, und das ohne Kenntnis der formalen thermodynamischen Gesetze. Erst 60 Jahre später hatte der junge französische Ingenieur Sadi Carnot die entscheidende Idee, die er 1824 publizierte. Inspiriert von der Arbeit seines Vaters über Wassermühlen beschrieb Carnot eine Dampfmaschine durch einen zyklischen Prozess, bei dem Wärme von einer heißen Quelle zu einer kalten Senke fließt und dabei Arbeit leistet. Das Verhältnis von entnommener mechanischer Arbeit ΔW zu eingeleiteter Wärme ΔQ war der Wirkungsgrad η:

 \eta = \frac{\Delta W}{\Delta Q}

In seiner ursprünglichen Schrift vertrat Carnot die Meinung, dass Wärme eine Art unwägbarer Stoff sei, der immer von einem heißen zu einem kühleren Körper fließe, ähnlich wie Wasser sich immer bergab bewegt. Und genau wie herabstürzendes Wasser könne Wärme umso mehr Arbeit leisten, je höher das Gefälle sei, insbesondere könne die Maschine nicht mehr Arbeit leisten als Wärme zugeführt wurde. Carnot korrigierte sich später und erkannte bereits ein Jahrzehnt vor Mayer, Joule und Thomson die Äquivalenz von Wärme und Energie. Er war also seiner Zeit weit voraus, starb jedoch jung und sein Werk blieb zunächst unbemerkt. Erst Clausius formulierte den Zusammenhang von Temperaturdifferenz – der Quelle und Senke – mit dem Wirkungsgrad der Carnot-Maschine und dass dieser Wirkungsgrad nicht von einer anderen Wärmekraftmaschine überschritten werden kann, da sonst Wärme spontan von einem kalten zu einem heißen Körper fließen würde. Die Unmöglichkeit eines solchen Vorgangs in der Natur bezeichnet man heute als 2. Hauptsatz der Thermodynamik. Clausius formulierte ihn mit einem Kreisprozess:

Es existiert keine zyklisch arbeitende Maschine, deren einzige Wirkung Wärmetransport von einem kühleren zu einem wärmeren Reservoir ist.

Einfacher ausgedrückt besagt also der 2. Hauptsatz, dass Temperaturdifferenzen sich in der Natur nicht spontan vergrößern können. Clausius konnte mit dieser Forderung den Satz

 \oint \frac{\delta Q}{T} \leq 0

für beliebige Kreisprozesse herleiten. Das Gleichheitszeichen gilt dabei nur für reversible Prozesse. Mit diesem Satz von Clausius liegt es auf der Hand, die Größe

\mathrm dS = \frac{\delta Q_{\mathrm{reversibel}}}{T}

differentiell zu definieren. Rudolf Clausius nannte diese Größe Entropie, ein Kunstwort, welches sich an das Wort Energie anlehnte und etwa mit Wandlungsgehalt zu übersetzen ist – im Gegensatz zum Wärmeinhalt. Es wurde mit der Zeit üblich, den 2. Hauptsatz direkt mit der Entropie zu formulieren, was keineswegs zu einem tieferen Verständnis führt. Erst Jahrzehnte später fand Ludwig Boltzmann mit seiner statistischen Mechanik eine Erklärung für die Entropie als Maß für die erreichbaren Mikrozustände des Systems. Wärme ist zufällig über Atome und Moleküle verteilte Energie und fließt von heiß nach kalt, weil der umgekehrte Weg extrem unwahrscheinlich ist, wie bereits Max Planck in seinem Lehrbuch über Thermodynamik festgestellt hat.

Im Jahre 1999 haben die theoretischen Physiker Elliott Lieb und Jakob Yngvason die Definition der Entropie in der phänomenologischen Thermodynamik auf eine streng axiomatische Basis gestellt. Diese Definition macht keinen Gebrauch von Größen wie „Wärme“ und „Temperatur“, die sich ohne Entropie nicht exakt definieren lassen, sondern beruht auf dem Konzept der adiabatischen Erreichbarkeit.

Entstehung von Entropie im Eisgetränk[Bearbeiten]

Beim Schmelzen von Eis wird die geordnete Eiskristallstruktur in eine regellose Bewegung einzelner Wassermoleküle überführt. Dabei werden Energie und Entropie vom Getränk auf die Wassermoleküle des Eiswürfels übertragen. Wäre die Temperatur dieser frei werdenden Wassermoleküle gleichbleibend, so wäre die Entropie des isolierten Systems aus Eis und Getränk streng erhalten.[2] Da es aber eine kleine unvermeidliche Temperaturangleichung der Teilsysteme von Eis und Getränk gibt, erhöht sich die Entropie des geschmolzenen Wassers stärker als der Abnahme der Entropie des Getränks entspricht: Die Einstellung des thermodynamischen Gleichgewichts erzeugt vormals nicht vorhandene Entropie.

Hilfestellung zum Verständnis[Bearbeiten]

Energie wird – entgegen der landläufigen Redeweise – im physikalischen Sinn nicht verbraucht, sondern nur umgewandelt, z. B. in mechanische Arbeit und Wärme (1. Hauptsatz der Thermodynamik – Energieerhaltung). Einem Benzinmotor wird also im Laufe eines Zyklus dieselbe chemische Energiemenge in Form von Kraftstoff zugeführt, wie als Antriebsarbeit und Wärme abgeführt wird. Da auch die Antriebsarbeit durch Reibung schließlich in Wärme umgesetzt wird, landet am Ende der gesamte Energieinhalt des Kraftstoffes als Wärmemenge in der Umgebung, sieht man von eventuell in potenzielle Energie oder mechanisch in Deformationsenergie umgewandelten Anteilen ab. Die Energie wurde also nicht verbraucht, sondern lediglich umgewandelt; es ist sinnvoll, von einer Energieentwertung zu sprechen. Man benötigte also eine Größe, um die Arbeitsfähigkeit der Energie zu beschreiben, da die Energiemenge alleine nichts über die Arbeitsfähigkeit aussagt. So enthalten die Weltmeere eine riesige Energiemenge. Da diese aber bei Umgebungstemperatur vorliegt, kann damit keine Arbeit verrichtet werden. Deshalb erscheint es wegen Gleichung (1) konsequent, die gewichtete Entropiedifferenz {\rm T}\cdot {\rm \Delta S}, die beispielsweise auch bei Differenzen der Freien Energie F = U-TS auftritt (U = Innere Energie), als „Abwärme“, „Verlust-Energie“ oder ähnlich zu bezeichnen, wie es z. B. in der Physikdidaktik häufig geschieht.

Clausius fand heraus, dass man mit einem Kreisprozess eine gegebene Wärmemenge umso besser in Arbeit umwandeln kann, je höher die Temperatur ist, bei der sie der Maschine zugeführt wird (siehe Carnot-Wirkungsgrad). Am Beispiel des Motors wird die chemische Energie des Kraftstoffs durch die Verbrennung dem Motor bei ca. 2000–2500 °C zugeführt und verlässt ihn wieder zu je etwa einem Drittel bei ca. 800 °C durch die Abgase, bei ca. 50 °C durch den Kühler sowie über die Räder. Mit Hilfe der Gleichungen von Clausius kann man nun vorhersagen, wie viel der Kreisprozess des Motors maximal erbringen könnte. Die zugeführte Energie hat dabei eine geringe Entropie, während die Abwärme eine hohe Entropie hat. Aus der Differenz lässt sich die mögliche Arbeit berechnen. Die Aussage des 2. Hauptsatzes der Thermodynamik, dass die Entropie bei einem beliebigen reversiblen Kreisprozess konstant ist, während sie bei irreversiblen Kreisprozessen zunehmen muss, ist zu folgender Aussage äquivalent:

Bei isothermen Prozessen (T = konstant), bei denen die Freie Energie zunimmt (\Delta F > 0), kann maximal die Arbeit \delta A=\Delta F gewonnen werden. (Man beachte, dass hier nicht \Delta U steht, sondern \Delta F).

Problematik[Bearbeiten]

In populärwissenschaftlichen Büchern, aber auch in vielen Lehrbüchern wird die Entropie mit Unordnung gleichgesetzt. Diese Analogie trifft für einige Systeme zu, z. B. besitzt ein geordneter Kristall eine viel geringere Entropie als seine Schmelze. Für andere Systeme ist diese Betrachtung eher problematisch, z. B. besitzt eine geordnete Biomembran in Wasser eine höhere Entropie als ihre ungeordneten, in Wasser gelösten Bestandteile (siehe Anwendungen des Entropiebegriffs unten). Das Problem besteht in erster Linie darin, dass der umgangssprachliche Ausdruck Unordnung nicht eindeutig definiert ist und die Entropie kein Maß für die Symmetrie des Systems darstellt, sondern für die Anzahl der mikroskopisch erreichbaren Zustände, unabhängig von ihrem wie auch immer definierten Ordnungsgrad. Insbesondere in Lehrbüchern der theoretischen Physik wird der Ausdruck Unordnung deshalb gemieden.

Verwirrung entsteht auch dadurch, dass der Ausdruck Entropie in unterschiedlichen Disziplinen für unterschiedliche Erscheinungen verwendet wird. In der phänomenologischen Thermodynamik und damit vor allem in der Chemie ist die oben besprochene Interpretation – mit (1/T) bewertete Wärmezufuhr – relevant. In der Statistischen Physik entsprechend die oben genannte statistische Interpretation. Die Informatik betrachtet abstrakte Informationen ohne direkten Bezug zur physikalischen Realisation mit der Shannonsche Informationentropie, die der statistischen Interpretation entspricht (siehe unten). Die Entropie ist also im Wesentlichen eine statistisch definierte Größe und kann in vielen Kontexten sinnvoll verwendet werden. Unbeschadet dessen können Definitionen in den Einzeldisziplinen unterschiedlich sein. So nutzte Norbert Wiener den Begriff der Entropie ebenso zur Beschreibung von Informationsphänomenen wie Claude Elwood Shannon, allerdings mit einem negativen Vorzeichen. Dass sich die Konvention von Shannon durchgesetzt hat, ist vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben. Es wird aber aus diesem Beispiel deutlich, dass bei einer interdisziplinären Anwendung des Entropiebegriffes mindestens Vorsicht und eine genaue Quellenanalyse geboten ist.[3]

Die Entropie ist keine direkt messbare statistische Größe wie z. B. die Temperatur und der Druck. Es können nur Änderungen der Entropie erfasst werden, und sie ist auch keine strenge Erhaltungsgröße wie Energie, Masse, Teilchenzahl oder Ladung eines Systems. Dies ist auch ein wesentlicher Unterschied zwischen erstem und zweitem Hauptsatz der Thermodynamik. Während der erste Hauptsatz nichts anderes als die Formulierung des streng gültigen Energieerhaltungssatzes in der Sprache der Thermodynamik ist, stellt der zweite Hauptsatz im Grunde nur eine mathematische Formel der Wahrscheinlichkeitstheorie dar. Allerdings ist die Wahrscheinlichkeit für einen Verstoß gegen den zweiten Hauptsatz in makroskopischen Systemen extrem gering. Er kann allerdings nicht direkt aus den mikroskopischen Gleichungen gefolgert werden, sondern nur wahrscheinlichkeitstheoretisch, und wurde sogar im Rahmen der klassischen Mechanik durch Poincarés „Wiederkehrsatz“ widerlegt.

All diese Eigenschaften führen zu Problemen beim Verständnis des Begriffs der Entropie.

Entropie in der Thermodynamik[Bearbeiten]

Ein idealer, jederzeit umkehrbarer Prozess ohne Reibungsverluste wird auch reversibel genannt. Oft bleibt die Entropie während eines Prozesses unverändert, \Delta S = 0, bekanntes Beispiel ist die adiabate Kompression und Expansion im Zyklus einer Carnot-Maschine. Man nennt Zustandsänderungen mit konstanter Entropie auch isentrop, allerdings sind nicht alle isentropen Zustandsänderungen adiabatisch. Ist ein Prozess adiabatisch und reversibel, folgt jedoch stets, dass er auch isentrop ist.

Wird in einem Kreisprozess bei der Temperatur T_{\rm h} die Wärme Q_{\rm h} aufgenommen und die Wärmemenge Q_{\rm l} bei T_{\rm l} wieder abgegeben, gilt, dass sich die Entropie nicht ändert:

\oint {\rm dS}=0;     oder   \frac{Q_{\rm h}}{T_{\rm h}} = \frac{Q_{\rm l}}{T_{\rm l}}\,,

sofern Wärmeaufnahme und Abgabe reversibel erfolgen.

Daraus lassen sich die maximale verrichtete Arbeit A = Q_{\rm h} - Q_{\rm l} und der maximale Wirkungsgrad ableiten.

A = Q_{\rm h}\frac{T_{\rm h} - T_{\rm l} }{T_{\rm h}}\,.
Die Mischungsentropie charakterisiert den „gut durchmischten“ Zwei-Flüssigkeits-Zustand im rechten Glas

Das Bild rechts zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine gleichmäßige Färbung an.

Die Entropie ist ein Maß für Unwissenheit. Als Maß für Unordnung muss man genau auf die Begrifflichkeit achten. So ist im Bildbeispiel die Flüssigkeit im rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Mithin ist dort die Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten Glas überall im Wasser verteilt ist. Das linke Bild sagt uns mehr. Wir können Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist, oder Bereiche, die frei sind von Farbe.

Die Mischungsentropie lässt sich berechnen. Josiah Willard Gibbs wies auf den Widerspruch hin, dass der Entropiezuwachs auch auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird (Gibbssches Paradoxon).

Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die, wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind nur auf wenige Bereiche konzentriert. Im rechten Bild können sie sich im gesamten Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Lauf der Zeit dieser Gleichverteilung zustrebt.[4]

Die Entropie bleibt nur dann unverändert, wenn die Prozesse reversibel verlaufen. Reale Zustandsänderungen sind immer mit Energieverlusten (z. B. durch Reibung) verbunden, wodurch sich die Entropie erhöht. Eine Verringerung der Gesamtentropie in einem geschlossenen System ist nicht möglich. Aber die Entropie kann lokal verkleinert werden, wenn sie an anderen Orten des Systems entsprechend anwächst.

Zweiter und dritter Hauptsatz[Bearbeiten]

Rudolf Julius Emanuel Clausius hatte erkannt, dass die durch

\mathrm dS = \frac{\delta Q_{\mathrm{reversibel}}}{T}

differentiell gegebene Größe eine extensive Zustandsgröße darstellt, also unabhängig vom Reaktionspfad und proportional zur Systemgröße ist. Die Bezeichnung \delta Q_{\mathrm{reversibel}} statt \mathrm dQ oder \mathrm dQ_{\mathrm{reversibel}} betont, dass die vom System aufgenommene oder abgegebene Wärmeenergie, selbst wenn diese reversibel zugeführt wird, im Gegensatz zur Entropie wegabhängig ist (Beispiel: siehe Kreisprozess), sodass sich nur

  • erstens bei reversibler Prozessführung und
  • zweitens nach Multiplikation mit dem „integrierenden Faktor“ 1/T

der angegebene Ausdruck mit der Eigenschaft eines vollständigen Differentials ergibt.

Clausius fand außerdem, dass in einem isolierten System die Entropie monoton wächst:

 \mathrm dS \geq 0 \,.

Er formulierte diese Beobachtung im 2. Hauptsatz der Thermodynamik als Negation der Existenz eines Perpetuum mobile zweiter Art:

„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“

Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Äquivalent dazu ist die Formulierung von William Thomson, dem späteren Lord Kelvin:

„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.“

Im Gegensatz zu den bereits bekannten extensiven Größen von thermodynamischen Systemen, wie Energie E, Volumen V und Masse m, entzog sich die Entropie zunächst dem tieferen Verständnis. Die Entropie konnte erst im Rahmen der statistischen Mechanik von Ludwig Boltzmann befriedigend als Maß für das Phasenraumvolumen erklärt werden, das von der Phasentrajektorie des Systems unter Einhaltung der Konstanz ausgewählter makroskopischer Observablen, wie Temperatur T, Volumen V oder Teilchenzahl N, erreicht werden kann.

Anschaulich ist die Entropie demnach ein Maß für fehlende Information über den tatsächlichen Mikrozustand, wenn lediglich eine geringe Anzahl beobachtbarer Größen zur Charakterisierung des Makrozustands vorliegen. Die Ergodenhypothese behauptet, dass die Trajektorie des Systems tatsächlich im Laufe der Zeit das gesamte durch die Entropie gemessene Phasenvolumen überdeckt. Systeme, die dieses Verhalten zeigen, nennt man auch ergodisch.[5] Nur bei diesen kann der 2. Hauptsatz sinnvoll angewandt werden. Eng damit verbunden ist die Irreversibilität von Prozessen in der Natur.

Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie einer perfekt kristallinen Substanz, bei der beispielsweise keine Spinentartung auftritt, am absoluten Nullpunkt als Null fest:

S(T=0) \equiv 0\,.

Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen Temperaturen verschwindet, und vor allem, dass der absolute Temperaturnullpunkt nicht erreichbar ist (das gilt auch bei Spinentartung).

Partielle Ableitungen der Entropie[Bearbeiten]

Aus dem 2. Hauptsatz folgen auch die vielfach benötigten Aussagen über die partiellen Ableitungen der Entropie, z. B. nach der Temperatur T bzw. nach dem Volumen V eines flüssigen oder gasförmigen nichtmagnetischen Systems. Mit dem zweiten Hauptsatz gilt ja zunächst, dass bei reversiblen Zustandsänderungen \mathrm dS=\frac{\delta Q_{\mathrm{reversibel}}}{T} ist. Zusammen mit dem ersten Hauptsatz folgt daraus \mathrm dS=\frac{\mathrm dU -\delta A}{T}, weil nach dem ersten Hauptsatz für die Innere Energie U gilt, dass die Summe der dem betrachteten System zugeführten Arbeit \delta A und der zugeführten Wärme \delta Q - einzeln keine Zustandsfunktionen! - eine Zustandsfunktion ergibt, eben die „Innere Energie“ des Systems. Dabei wurde vorausgesetzt, dass die Änderungen von Volumen und Temperatur adiabatisch-langsam erfolgen, sodass keine irreversiblen Prozesse erzeugt werden

Also

\mathrm dS=\frac{1}{T}{\frac{\partial U(T,V)}{\partial V} }{\mathrm d V}+\frac{1}{T}\frac{\partial (U(T,V)+p\cdot V(T))}{\partial T} \mathrm d T,

wobei \delta A=-p\mathrm dV eingesetzt wurde.

\Rightarrow\frac{\partial S}{\partial V}=\frac{1}{T}{\frac{\partial U(T,V)}{\partial V} } bzw.  \frac{\partial S}{\partial T}=\frac{1}{T}\frac{\partial (U(T,V)+p\cdot V(T))}{\partial T}.

Ähnliche Beziehungen ergeben sich, wenn das System außer von der Dichte bzw. vom Volumen noch von weiteren Variablen abhängt, z. B. noch von elektrischen oder magnetischen Momenten.

Aus dem 3. Hauptsatz folgt nunmehr, dass sowohl \frac{\partial S}{\partial T} als auch vor allem \frac{\partial S}{\partial V} für T\to 0 verschwinden müssen, und zwar hinreichend rasch, was (wie man zeigen kann) nur erfüllt ist, wenn für tiefe Temperaturen nicht die klassische Physik, sondern die Quantenphysik gilt.

Anwendungen des Entropiebegriffs[Bearbeiten]

Überströmversuch von Gay-Lussac. Der Versuch mit einem idealen Gas in einem abgeschlossenen System zeigt, dass sich nach dem Druck- und Temperaturausgleich die Anfangstemperatur einstellt (t_2 = t_1). Da sich die innere Energie nicht ändern konnte, kann im Umkehrschluss gefolgert werden, dass die innere Energie einer bestimmten Menge des idealen Gases nur temperaturabhängig, nicht aber druck- oder volumenabhängig ist.
Expansionsversuch von Gay-Lussac

In der Einleitung wird das Experiment von Gay-Lussac beschrieben. Das Experiment zeigt, dass beim Überströmen eines idealen Gases in ein größeres Volumen keine Temperaturänderung stattfindet; d. h., die innere Energie des Gases hat sich nicht verändert (\mathrm{d}U=0). Wie groß ist nun die Entropieänderung in dem beschriebenen Versuch? Da die Entropie eine Zustandsgröße ist, ist sie wegunabhängig. Anstatt die Trennwand herauszuziehen, kann man sie auch langsam nach rechts schieben, bis das Endvolumen erreicht ist. Für eine infinitesimale Verschiebung vergrößert sich das Volumen um \mathrm dV, die Entropie steigt um \mathrm{d}S = \delta Q / T. Aus dem ersten Hauptsatz  \mathrm{d}U = \delta Q + \delta W folgt mit \mathrm{d}U = 0 und \delta W = -p \mathrm{d}V, da ausschließlich Volumenarbeit verrichtet wird:

 \mathrm{d}S = \frac{p}{T} \mathrm{d}V

Aus der Zustandsgleichung für ideale Gase (N\, ist die Anzahl der Gasatome):

 p=\frac{k_\mathrm{B}NT}{V}

folgt:

 \mathrm{d}S = \frac{k_\mathrm{B}N}{V} \mathrm{d}V.

Hieraus ergibt sich durch Integration sofort:

\Delta S= \int_{S_1}^{S_2} \mathrm{d}S = \int_{V_1}^{V_2}  \frac{k_\mathrm{B}N}{V} \mathrm{d}V = k_\mathrm{B} N \ln(V_2/V_1) = k_\mathrm{B}N\ln2\,.

Da im obigen Beispiel N = 47 Atome eingezeichnet sind, gilt:

\Delta S = 47 k_{\rm B}\ln2 = 4{,}5\cdot10^{-22}\;\mathrm{J/K} .

Realistischer wäre z. B. 1 mol Atome, also N = N_\mathrm{A} = 6{,}022\cdot 10^{23} Atome, womit sich

\Delta S = N_\mathrm{A} \cdot k_\mathrm{B}\ln2 = 5{,}76\;\mathrm{J/K}

ergibt.

Entropiezunahme bei Expansion, statistisch

Die Entropie eines Makrozustands lässt sich auch über sein statistisches Gewicht W (die Anzahl seiner Mikrozustände) ermitteln. Sind n\, Moleküle auf zwei Raumhälften so verteilt, dass sich in der einen Hälfte n_1 und in der anderen n_2 Moleküle befinden, dann ist das statistische Gewicht

 W(n_1, n_2) = \frac{n!}{n_1!\;n_2!} und die Entropie dieses Zustands  S(n_1, n_2) = k_\mathrm{B}\cdot\ln(W) .

Befindet sich ein ganzes Mol (n = N_\mathrm{A}) in einer Hälfte (und in der anderen nichts), dann ist

 W(N_\mathrm{A},0) = \frac{N_\mathrm{A}!}{N_\mathrm{A}!\;0!} = 1 und die Entropie  S(N_\mathrm{A}, 0) = k_\mathrm{B} \cdot \ln1 = 0 . Bei gleichmäßiger Aufteilung wird
 W\left(\frac{N_\mathrm{A}}{2}, \frac{N_\mathrm{A}}{2}\right) = \frac{6\cdot10^{23}!}{3\cdot10^{23}! \;3\cdot10^{23}!} .

Die Fakultät kann man mit der Stirling-Formel annähern, wobei man sich auf n! \approx n^n beschränken kann. Der Logarithmus von n^n ist n\cdot\ln n. Damit wird

\ln (6\cdot10^{23}!) \approx 6\cdot10^{23}\cdot\ln (6\cdot10^{23})

und

 \ln\left[W\left(\frac{N_\mathrm{A}}{2},\frac{N_\mathrm{A}}{2}\right)\right]\approx6\cdot10^{23}\cdot\ln(6\cdot10^{23})- 2\cdot3\cdot10^{23}\cdot\ln(3\cdot10^{23})=6\cdot10^{23}\cdot(\ln6-\ln3) .

Mit kB = 1,3807·10-23 J/K und NA = 6,0220·1023 Mol-1 erhält man für die Entropie nach der Expansion

S=k_B\cdot\ln\left[W\left(\frac{N_\mathrm{A}}{2},\frac{N_\mathrm{A}}{2}\right)\right] = 5{,}76\;\mathrm{J/K}, wie aus der thermodynamischen Rechnung.
Zahlenbeispiel

In einem System, welches mit seiner Umgebung weder Masse noch Energie austauscht, kann die Entropie niemals spontan abnehmen. Beispiel: Ein Kilogramm Wasser besitzt bei 10 °C die Entropie S = 151\ \mathrm{J/K}, bei 20 °C S = 297\ \mathrm{J/K}, bei 30 °C S = 437\ \mathrm{J/K}. 1 kg kaltes Wasser (10 °C) und 1 kg warmes Wasser (30 °C) können bei Berührung spontan in den Zustand 2 kg lauwarmes Wasser (20 °C) übergehen, weil die Entropie des Anfangszustandes (151 + 437 = 588) kleiner ist als die Entropie des Endzustandes (297 + 297 = 594). Die spontane Umkehrung dieses Vorganges ist nicht möglich, weil sich hierbei die Entropie des aus 2 kg Wasser bestehenden Systems von 594 J/K auf 588 J/K verringern müsste, was dem zweiten Hauptsatz der Thermodynamik widerspräche.

Biomembranen

Gibt man Lipide, bei Lebewesen beispielsweise als Bausteine der Biomembranen vorkommend, in Wasser, so bilden sich spontan geschlossene Membranstrukturen, sogenannte Vesikel. Da hier Temperatur und Druck gegeben sind (Wärmebad und Druckensemble) ist das thermodynamische Potential, das ein Minimum anstrebt die freie Enthalpie \Delta G = \Delta H - T\Delta S. Die Enthalpie \Delta H lässt sich experimentell nachweisen, ist also messbar und ist positiv. Da der Prozess spontan abläuft, muss aber \Delta G negativ sein; d. h., die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend, da die Entropie meistens dafür verantwortlich ist, dass sich Stoffe vermischen (Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen Wasserstoffbrückenbindungen aus, die ständig fluktuieren und somit einen hohen Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide entsteht bei Lösung in Wasser ein größerer Bereich, in dem keine Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung treibt. Letztlich ist diese Eigenschaft auch mit für die schlechte Löslichkeit vieler unpolarer Stoffe verantwortlich, die die Bildung von Wasserstoffbrückenbindungen stören.

Lebende Organismen

Ein lebender Organismus kann in gewissem Sinne als eine thermodynamische Maschine betrachtet werden, die chemische Energie in Arbeit und Wärme umwandelt und gleichzeitig Entropie zu produzieren scheint. Es ist nach dem gegenwärtigen Stand der Forschung noch nicht geklärt, ob einem biologischen System Entropie zuzuordnen ist, da es sich nicht im Zustand des thermodynamischen Gleichgewichts befindet.

Andere Disziplinen

Neben ihrer Rolle als fundamentale Zustandsgröße der phänomenologischen und statistischen Thermodynamik wird die Entropie in anderen Gebieten, insbesondere in der Informationstheorie und in der Wirtschaftswissenschaft benutzt. Die Entropie besitzt in diesen Gebieten eine eigenständige Bedeutung. So ist es z. B. in der Astrophysik notwendig, bei der Beschreibung von Sterngeburten, weißen Zwergen, Neutronensternen, schwarzen Löchern (sie haben die höchste Entropie aller bekannten physikalischen Systeme), Kugelsternhaufen, Galaxien(haufen) und letztendlich dem ganzen Kosmos, auf den Begriff der Entropie zurückzugreifen.

Statistische Physik[Bearbeiten]

Um 1880 konnte Ludwig Boltzmann mit der von ihm und James Maxwell begründeten statistischen Physik auf mikroskopischer Ebene die Entropie erklären. In der statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzter Systeme wie Atome und Moleküle, erklärt. Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der zum System zählenden Teilchen. Ein solcher Mikrozustand  (\vec{q},\vec{p}\,) ist demnach ein Punkt in einem 6N-dimensionalen Raum, der in diesem Zusammenhang Phasenraum genannt wird. Die kanonischen Gleichungen der klassischen Mechanik beschreiben die zeitliche Evolution des Systems, die Phasentrajektorie.

Alle unter gegebenen makroskopischen Randbedingungen, wie z. B. Gesamtenergie E, Volumen V und Teilchenzahl N, erreichbaren Phasenpunkte bilden ein zusammenhängendes Phasenraumvolumen \Omega. Die Entropie ist ein Maß für das unter bestimmten makroskopischen Randbedingungen zugängliche Phasenraumvolumen, also für die Zahl der zugänglichen Zustände. Je größer die Entropie ist, desto unbestimmter ist der mikroskopische Zustand, desto weniger Informationen sind über das System bekannt. Das grundlegende Postulat der statistischen Physik besagt, dass jeder der zugänglichen Mikrozustände eines vollständig abgeschlossenen Systems im Gleichgewicht mit gleicher Wahrscheinlichkeit auftritt und somit die Entropie maximal ist (siehe: Maximum-Entropie-Methode, Mikrokanonisches Ensemble).

Die Entropie ist proportional zum Logarithmus des zugänglichen Phasenraumvolumens (bzw. quantenmechanisch: der Zahl der zugänglichen Zustände) und berechnet sich im SI-System aus

 S = k_{\rm B} \cdot \ln{\Omega}

in der Einheit J/K. Um diese Rechnung konkret ausführen zu können, müssen also zunächst die makroskopischen Observablen des betrachteten Systems bekannt sein. Für das ideale Gas ergibt sich die Sackur-Tetrode-Gleichung. Die Konstante  k_B wird in Anerkennung der Leistungen Ludwig Boltzmanns bei der Entwicklung der statistischen Theorie als Boltzmann-Konstante bezeichnet, er selbst hat ihren Wert jedoch nicht bestimmt.

Die Entropie der Thermodynamik ist die Shannon-Entropie der Verteilung der Zustände, welche die Shannon-Entropie maximiert (multipliziert mit einer Konstanten). Damit ist die thermodynamische Entropie nur ein Spezialfall für Gleichgewichtszustände mit maximaler Unkenntnis bei gegebenen Randbedingungen.

Quantenmechanik[Bearbeiten]

In der Quantenstatistik ist ein Mikrozustand (auch reiner Zustand genannt) gegeben durch einen Vektor |n\rangle im Hilbertraum \mathcal{H} des Systems. Typischerweise ist dieser Raum 1023 dimensional und steht demnach für genauso viele Teilchen. Dies orientiert sich an der Avogadro-Konstanten, welche gleich der Zahl 6{,}022 \cdot 10^{23} ist. Den zugehörigen Makrozustand beschreibt man durch einen statistischen Operator, der auch als Dichteoperator bezeichnet wird.

Dieser enthält alle Informationen über das System, die durch eine ideale Messung zugänglich sind (das ist viel weniger als bei dem reinen Zustand |n\rangle, dem Mikrozustand). Der Makrozustand ist klassisch gegeben durch ein Ensemble von Mikrozuständen, die mit  |n\rangle als „typische makroskopische Werte“ bestimmte Erhaltungsgrößen gemein haben, wie z. B. Energie, Volumen und Teilchenzahl. Die Verteilung der Mikrozustände im Phasenraum ist klassisch durch eine Verteilungsfunktion gegeben. An deren Stelle tritt in der quantenmechanischen Beschreibung der Dichteoperator:

 \rho = \sum_i p_i |i\rangle\langle i| \,.

p_i ist die Wahrscheinlichkeit, dass sich das betrachtete System im „reinen“ quantenmechanischen Zustand |i\rangle befindet falls die Zustände |i\rangle alle orthogonal sind. Dabei ist jetzt die Zahl der betrachteten Freiheitsgrade gewöhnlich viel kleiner als  3\cdot 10^{23}\,.

Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen Zustandsgemisch ist gegeben durch eine Spurbildung:

 \langle A \,\rangle = \textrm{Tr} \left(\rho A\right)\,.

Die Spur eines Operators ist folgendermaßen definiert: \textrm{Tr}(A)=\sum\nolimits_{m}\langle m|A|m\rangle für eine beliebige (vollständige) Basis \left\{ |m\rangle\right\}.

Die von-Neumann Entropie ist definiert als:

S=- \textrm{Tr} \left(\rho \ln \rho\right)

Multipliziert man diese dimensionslose von-Neumann Entropie mit der Boltzmann-Konstanten so erhält man eine Entropie mit der gewöhnlichen Einheit.

Die Entropie ist über die Wahrscheinlichkeiten der einzelnen reinen quantenmechanischen Zustände |i\rangle im Makrozustand gegeben durch

 S = -k_{\rm B} \langle \ln \rho \rangle = - k_{\rm B} \textrm{Tr} \left(\rho \ln \rho\right) = - k_{\rm B} \sum_{i} p_i\ln\, p_i \qquad (*)\,,

wobei p_i die Wahrscheinlichkeit ist, im i-ten Mikrozustand zu sein. kB ist die Boltzmann-Konstante. Die Wahrscheinlichkeiten p_i können Werte zwischen 0 und 1 annehmen, somit ist p_i\ln p_i\leq 0 und die Entropie S=-k_{{\rm B}}\sum\nolimits_{i}p_{i}\ln\, p_{i}\geq0 positiv semidefinit. Für reine Zustände ist beispielsweise p1=1, p2=...=pn=0, und folglich die Entropie Null, da einerseits ln(1)=0 und andererseits x•ln x→0 für x→0. Von Null verschiedene Werte der Entropie erhält man durch „Erhöhung der Unkenntnis“ des Systemzustandes:

Als Beispiel nehmen wir ein Spinsystem mit 4 Elektronen. Spin und magnetisches Moment sind bekanntlich antiparallel; das magnetische Moment \mu eines nach unten zeigenden Spins besitzt im äußeren Magnetfeld B die Energie -\mu B. Die Grundzustandenergie E_0 des Systems soll insgesamt -2\mu B sein, was auf folgende vier Zustände führt:

[\uparrow \downarrow \downarrow \downarrow]\,, \quad 
[\downarrow \uparrow \downarrow \downarrow]\,, \quad
[\downarrow \downarrow \uparrow \downarrow]\,, \quad
[\downarrow \downarrow \downarrow \uparrow]\,.

Daraus folgt, dass die Spinentartung \Omega = 4\, ist  -  p_1=p_2=p_3=p_4=1/4\, - und wie oben auch hier  S(T=0)=k_B\cdot \ln \Omega\, gilt.

Die obige allgemeine Formel, (*), ist bis auf einen konstanten Faktor (der Ausdruck k_B\cdot\ln ... wird durch den dualen Logarithmus ld ... ersetzt, den Logarithmus zur Basis 2) identisch mit der Formel für die Shannon'sche Informationsentropie. Das bedeutet, die physikalische Entropie ist auch ein Maß für die Information, die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.

S=-k_{{\rm B}}\sum_{i}p_{i}\ln p_{i}=-k_{B}\sum_{i}p_{i}\frac{\operatorname{ld}\,{p_{i}}}{\operatorname{ld}\,{e}}=\frac{k_{B}}{\operatorname{ld}\,{e}}S_{\text{Shannon}}

Eigenschaften der statistischen Entropie eines quantenmechanischen Zustandes[Bearbeiten]

Seien \rho\, und \tilde{\rho} Dichteoperatoren auf dem Hilbertraum \mathcal{H}.

 S(\rho) = -k_{\rm B}\,\textrm{Tr}\left(\rho\ln\rho\right) \leq -k_{\rm B}\,\textrm{Tr}\left(\rho \ln \tilde{\rho}\right)
S(U \rho U^\dagger)=S(\rho)
  • Minimum
S(\rho)\geq 0
Minimum wird bei reinen Zuständen \rho =  |\Psi\rangle\langle \Psi| angenommen
  • Maximum
S(\rho)\leq k_{\rm B}\,\ln(\textrm{dim}\mathcal{H})
Maximum wird angenommen, wenn alle möglichen Zustandsvektoren mit gleicher Wahrscheinlichkeit 1/\textrm{dim} \mathcal{H} auftreten
S\left(\lambda\rho+(1-\lambda)\tilde{\rho}\right)\geq\lambda S(\rho)+\left(1-\lambda\right)S\left(\tilde{\rho}\right)   mit   0 \leq \lambda \leq 1
Sei \rho\, Dichteoperator auf \mathcal{H}=\mathcal{H}_{a}\otimes\mathcal{H}_{b}   und   \rho_a\, bzw. \rho_b\, reduzierte Dichteoperatoren auf \mathcal{H}_{a} bzw. \mathcal{H}_{b}
|S(\rho_{a})-S(\rho_{b})|\leq S(\rho)\leq S(\rho_{a})+S(\rho_{b})

Entropie im Überblick[Bearbeiten]

Die Thermodynamik beschreibt den Zustand eines Stoffs mit Hilfe makroskopisch messbarer Größen wie Temperatur, Druck, innere Energie, Enthalpie, aber auch durch die relativen Mengen von Produkten und Edukten. Es gibt viele Zustandsgrößen und einige können als Funktionen anderer dargestellt werden (Zustandsfunktionen). Eine davon ist die Entropie (Einheit: Joule/Kelvin).

Während man aus der Alltagserfahrung mit Größen wie Länge, Energie oder Leistung und ihren Einheiten quantifizierbare Vorstellungen verbindet, ist die Einheit „Joule/Kelvin“ der Größe Entropie wenig anschaulich. Sie hat den Bedeutungsinhalt, dass „ein Zustand höherer Entropie sich auch mit höherer Wahrscheinlichkeit einstellt“. Der Begriff wurde ursprünglich von Clausius geprägt und mit Hilfe thermodynamischer Größen quantifiziert, später dann auch von Boltzmann aus einer statistischen Überlegung heraus und mit Hilfe der Atom- bzw. Molekülvorstellung.

1. Statistische Formulierung[Bearbeiten]

Was kann man sich nun unter der Wahrscheinlichkeit eines Zustands vorstellen? Ein Stoff besteht aus sehr vielen Teilchen. So wie bei einem Patienten derselbe Zustand (Temperatur, Pulsfrequenz) eine Vielzahl von Ursachen haben kann, die sich erst bei näherer Untersuchung herausstellen, so kann auch derselbe thermodynamische Zustand auf vielen und ganz unterschiedlichen Anordnungen der Moleküle beruhen. Würde man z. B. alle N Moleküle eines Gases nummerieren, dann könnte der Zustand der gleichmäßigen Verteilung über ein Volumen dadurch gebildet werden, dass sich alle Moleküle mit niedrigen Nummern (bis N/2) in der einen, die höheren Nummern in der anderen Hälfte aufhalten. Derselbe Zustand ergibt sich jedoch auch, wenn sich alle geraden bzw. ungeraden Nummern in der einen bzw. anderen Hälfte befänden. Der Zustand der „gleichmäßigen Verteilung des Gases über das gesamte Volumen“ wird von einer außerordentlich großen Anzahl von Verteilungsmustern der Moleküle gebildet. Hingegen wird der Zustand, in dem sich die Moleküle auf ein Teilvolumen konzentrieren und der Rest leer bleibt, von deutlich weniger Anordnungen der Moleküle gebildet, wie im folgenden Beispiel:

Entropie und die Verteilung im Raum[Bearbeiten]

Zu Säulen gestapelt sind alle Mikrozustände, die dem System dieselben makroskopischen Eigenschaften verleihen

Frei bewegliche Moleküle verteilen sich gleichmäßig über einen Raum. Dieser Zustand weist die maximale Entropie auf, oder, anders ausgedrückt, er ist am wahrscheinlichsten. Das lässt sich an vier Molekülen zeigen (Abbildung), die in einem Becherglas ständig zwischen der linken und rechten Hälfte in Bewegung sind. (Um es auf das Wesentliche zu reduzieren, ist senkrechter Platztausch erst einmal nicht vorgesehen.) Es ergeben sich ganz unterschiedliche und stets wechselnde Verteilungen. In einer Momentaufnahme könnte z. B. nur das zweite Molekül von oben in der rechten Hälfte zu sehen sein, die restlichen drei links, in einer anderen die Moleküle zwei und drei auf der linken Seite (jeweils grau hervorgehoben). Jede einzelne Aufteilungsvariante – Mikrozustand genannt – ist gleich häufig oder wahrscheinlich. Zu Säulen gestapelt sind diejenigen Mikrozustände, bei denen sich auf einer Seite gleich viele Moleküle versammelt haben (keines bzw. maximal vier). Sie verleihen dem Gesamtsystem dieselben makroskopischen Eigenschaften (z. B. die Höhe des Drucks auf die linke oder rechte Wand) und bilden zusammen einen Makrozustand. Am häufigsten ist die gleichmäßige Aufteilung auf beide Hälften, denn sie kann durch die größte Anzahl von Mikrozuständen verwirklicht werden (in diesem Fall sechs). Sind mehr Moleküle im Becherglas, stehen mehr Raumzellen zur Verfügung oder lässt man auch senkrechten Platztausch zu, dann steigt die Vielfalt der Anordnungsmöglichkeiten rapide an. Aber immer hat eine gleichmäßige Aufteilung die höchste Anzahl von Mikrozuständen und stellt sich am häufigsten ein, auch wenn man anfangs die Moleküle, dicht gedrängt, nur in eine Ecke eingebracht hätte. Dies geschieht aus sich heraus und zufällig und nur deshalb, weil sich die Moleküle bewegen.

Die Anzahl der Mikrozustände eines Makrozustands heißt sein „Statistisches Gewicht W“. Das W kann, wenn es sich um viele Teilchen in der Gasphase handelt, eine sehr große Zahl sein (im Gegensatz zur mathematischen Wahrscheinlichkeit), kann aber auch sehr klein werden, wenn starke Kräfte zwischen den Teilchen wirken (Nullpunktsentropie). Der natürliche Logarithmus des statistischen Gewichts W eines Zustands, multipliziert mit der Boltzmann-Konstante k_\mathrm{B}, ergibt seine Entropie S:

 S = k_B \cdot \ln W [6]

Ändert man die Bedingungen, denen eine Substanz ausgesetzt ist (indem man z. B. das Volumen vergrößert), dann gehen die Moleküle in einen neuen Zustand über, nämlich in den, der unter den geänderten Bedingungen der wahrscheinlichste ist. Die Ursache dafür liegt in der Bewegung der Moleküle, die sich ständig neu über den Raum und die Energieniveaus verteilen. Die Annäherung an den Gleichgewichtszustand ist gekennzeichnet – nicht bewirkt – durch die Zunahme der Entropie. Diese ist das Maß für die Wahrscheinlichkeit eines Zustands. Die Entropie ist weder eine Energie noch eine Art von Substanz, sondern die Messgröße für einen Zustand höherer oder geringerer Wahrscheinlichkeit.

Über die spontane Einstellung des wahrscheinlichsten Makrozustands im Hinblick auf die räumliche Verteilung können der Joule-Thomson-Effekt, die Osmose und die Temperaturkonstanz beim Schmelzvorgang gedeutet werden.

Das 14N Kernresonanzspektrum des Ammoniumions, NH4+, zeigt eine Feinstruktur. Das Stickstoffspektrum wird durch den Spin der benachbarten Protonen aufgespalten. Die Intensitäten der Feinstrukturkomponenten entsprechen der Anzahl der Kombinationen von Protonenspins, die auf den beobachteten Kern die gleiche Wirkung ausüben. Horizontal ist die chemische Verschiebung aufgetragen.

Auch in der Kernspinresonanz spielt das statistische Gewicht eine Rolle, und zwar für die Intensität von Linien. Das Stickstoffspektrum des Ammoniumions, NH4+, zeigt eine Feinstruktur mit fünf Komponenten.[7] Der Grund für die Aufspaltung liegt in der Wechselwirkung mit den magnetischen Momenten der vier Protonenspins. Bezüglich ihrer Orientierung gibt es 16 Kombinationen (gleichsam Mikrozustände), wobei aber auch unterschiedliche Kombinationen dieselbe Wirkung ausüben können. Der Zustand, bei dem alle Spins in eine Richtung weisen, kann auf jeweils nur eine Art verwirklicht werden. Es gibt aber sechs Möglichkeiten die Spins so anzuordnen, dass je zwei Spins in entgegengesetzte Richtungen zeigen. Das ist im Bild für das Spektrum von NH4+ (Ammoniumion) bzw. für das 13C-Spektrum von Methan gezeigt. Die Komponenten des Quintetts weisen in erster Näherung die Intensitäten 1,4,6,4,1 auf, entsprechend den statistischen Gewichten der Kombinationen von Protonenspins mit gleicher Wirkung. Im Feinstruktur-Multiplett sind diejenigen Komponenten farbig hervorgehoben, zu denen die darüber skizzierte Konfiguration beiträgt.


Kurz: Allgemein ist ein Mikrozustand ein bestimmtes Verteilungsmuster der Moleküle, aber nicht nur im Raum, sondern auch über die Freiheitsgrade der Bewegung (z. B. Translation, Schwingungen und über deren Energieniveaus) und auch auf die Edukt- bzw. Produktmoleküle einer Reaktion. Viele Mikrozustände können denselben makroskopischen Zustand bilden, eben den „Makrozustand“, der dann durch makroskopisch messbare thermodynamische Größen charakterisiert werden kann. Da die Moleküle stets durcheinander schwirren, vergleichbar einem Bienenschwarm, sind alle Mikrozustände gleich häufig oder wahrscheinlich. Nicht aber die einzelnen Makrozustände, da sie von unterschiedlich vielen Mikrozuständen gebildet werden können. Das System nähert sich von selbst dem wahrscheinlichsten Zustand, dem mit der größten Anzahl von Mikrozuständen. Aus dem statistischen Gewicht W kann die Entropie berechnet werden. Sie ist ein (logarithmisches) Maß für die Anzahl der Arten W, auf die ein mikroskopisches System – im makroskopischen Sinn – gleich sein kann.

2. Thermodynamische Formulierung[Bearbeiten]

Carnot-Diagramm eines einatomigen Gases. Bei einer isothermen Expansion wird dem System die Wärmemenge Q1 bei der Temperatur T1 zugeführt, bei Kompression (untere rote Linie) gibt es Q2 bei T2 ab.

Im Zusammenhang mit dem Carnot-Prozess findet man, dass umso mehr Wärme zwischen Reservoir und Arbeitsmedium fließt, je höher die Temperatur ist und umgekehrt. (Das ist mit Hilfe der Molekülvorstellung verständlich, da die Wärmeübertragung auf der Bewegungsenergie der Moleküle beruht und diese sich proportional zur absoluten Temperatur verhält.) Auch ohne die Molekülvorstellung fand Clausius diese Proportionalität, nämlich, dass im Carnot-Prozess die Größe Q/T, die reduzierte Wärme, beim Wärmezufluss (bei hoher Temperatur) und bei der Kühlung (bei tieferer Temperatur) des Arbeitsmediums den gleichen absoluten Wert hat und, zumindest im reversiblen Fall, in der Summe null ergibt.

Im ersten Schritt des Carnot-Prozesses, der isothermen Expansion, wird die zugeführte Wärmeenergie QT1 während der Ausdehnung des Arbeitsmediums in potenzielle Energie umgewandelt und so gespeichert (eine Anordnung, die dies leistet, beschreibt [8]). Unter Einsatz dieser gespeicherten Energie könnte der Vorgang wieder rückgängig gemacht werden. Gelingt diese Umwandlung von QT1 in Epot nicht vollständig, etwa weil Reibung Verluste bewirkt (irreversibler Fall), dann wird weniger Arbeit gespeichert (die nicht mehr für eine Umkehrung ausreichen würde) und die Differenz erscheint als zusätzliche (Reibungs-)Wärme, die abgegeben wird. Dieser Wärmebetrag zählt negativ und so ist die Summe aller Q/T-Beträge ebenfalls negativ. Je größer das Ausmaß der Irreversibilität ist, desto negativer ist die Summe. Damit gibt die Funktion Q/T auch eine quantitative Beschreibung der Irreversibilität. Clausius hat in diesem Zusammenhang die Funktion

 \frac {\delta Q_{\mathrm{rev}}}{T} = dS definiert, mit  \Delta S= \oint_c \frac{\delta Q_{\mathrm{rev}}}{T} = 0 bzw.     \Delta S = \oint_c \frac{\delta Q_{\mathrm{irrev}}}{T} < 0 (irreversibel).

Kurz: Aus makroskopisch messbaren thermodynamischen Größen lässt sich eine Zustandsfunktion ableiten, die das Ausmaß der Irreversibilität wiedergibt.

3. Äquivalenz der Entropiebegriffe[Bearbeiten]

Bei der Expansion eines Gases können zwei unterschiedliche Vorgänge vom gleichen Ausgangs- zum gleichen Endzustand führen:

  1. Die isotherme Expansion im ständigen Gleichgewicht, unter Wärmezufuhr und äquivalenter Arbeitsleistung (erster Schritt im Carnot-Prozess). Von der zugeführten Wärmeenergie QT1 bleibt dabei nichts im Medium zurück; der Vorgang ist mit Hilfe der extern gespeicherten Energie umkehrbar.
  2. Eine spontane isotherme Ausdehnung in einen größeren Raum (ins Vakuum), ohne Wärmezufuhr und ohne Arbeitsleistung (Versuch von Gay-Lussac). Es wird keine Wärme zugeführt, es wird keine Arbeit geleistet und auch nicht gespeichert. Wollte man aber den Vorgang umkehren, also isotherm komprimieren, dann müsste zusätzliche Arbeit aufgewendet werden, die dann als Wärme abgegeben wird. Also bei der Ausdehnung kein Wärmeeintrag ins Arbeitsmedium, aber Wärmeproduktion bei der Umkehrung; außerdem bleibt eine Veränderung in der Umgebung zurück, da die notwendige Arbeit beschafft werden muss. Ein irreversibler Vorgang.

Trotz der beiden unterschiedlichen Vorgehensweisen ist die Veränderung, die am Ende der isothermen Expansion am Arbeitsmedium bleibt, in beiden Fällen dieselbe. Mikroskopisch betrachtet weist der Endzustand eine größere Zahl von Mikrozuständen auf und hat damit ein größeres statistisches Gewicht W.

Der Wahrscheinlichkeit, ausgedrückt durch das statistische Gewicht, kommt in der statistischen Thermodynamik dieselbe Rolle zu wie der Entropie in der chemischen Thermodynamik. Es muss also eine Beziehung geben zwischen der Entropie und dem statistischen Gewicht. Um diesen zu finden, betrachtet man zwei unabhängige Systeme von Teilchen als ein Gesamtsystem. Dessen Entropie S muss gleich der Summe der einzelnen Entropien S1+S2 sein (Zustandsfunktionen). Die statistischen Gewichte W1 und W2 müssen jedoch multipliziert werden, da jeder Mikrozustand des einen mit jedem Mikrozustand des anderen Systems einen neuen Mikrozustand des Gesamtsystems bildet (W=W1·W2). Diese beiden Forderungen sind erfüllt, wenn die Entropie eine logarithmische Funktion des statistischen Gewichts W ist:

 S = k^\ast \cdot \ln W

Die Konstante k* ist erst einmal willkürlich gewählt. Es stellt sich heraus, dass sie gleich der Boltzmann-Konstanten kB = R/NA = 1,38∙10-23 Joule/Kelvin ist, wenn

  1. W im thermodynamisch stabilen Zustand einen Maximalwert annimmt und
  2. die für den stabilen Zustand gültige Verteilungsfunktion die Boltzmann-Verteilung ist [9].

Damit hat S=k\,\cdot\ln W dieselbe Dimension wie die Zustandsgröße \tfrac{Q_{\mathrm{rev}}}{T}, also Joule/Kelvin. Während mit makroskopisch messbaren Größen nur Entropiedifferenzen bestimmt werden können (z. B. vor und nach einer Erwärmung oder Reaktion), erlaubt die statistische Thermodynamik die Berechnung absoluter Entropien.

Ein Beispiel zur Gleichwertigkeit der thermodynamischen und der statistischen Betrachtungsweise:

Clausius definierte die Entropie über \frac{\delta Q_{\rm rev}}{T}= dS. Da bei isothermer und reversibler Expansion die Wärmemenge  Q_{\rm rev}= RT~ln\frac{V_{2}}{V_{1}} übertragen wird,

ist \Delta S= \frac{Q_{rev}} {T} = R~ln\frac{V_{2}}{V_{1}}, mit der Dimension J/K.


Breitet sich ein ideales Gas isotherm und irreversibel ins Vakuum aus, lässt sich die Entropieänderung nicht auf diese Weise berechnen, da sich die Definition der Entropie nach Clausius auf reversibel ausgetauschte Wärmemengen bezieht. Allerdings muss sich die Entropie (da eine Zustandsgröße) um denselben Betrag ändern. Es ist nur die Kenntnis der Entropie vor und nach der irreversiblen Expansion notwendig.

Nach Planck wird die Entropie durch S = k∙lnW ausgedrückt, mit W als dem statistischen Gewicht eines Makrozustands oder der Anzahl seiner Mikrozustände. Die Überlegung geht von den Mikrozuständen aus (Bild im Abschnitt Entropie und die Verteilung im Raum), die z. B. vier Moleküle bilden können, wenn sie sich, unabhängig voneinander, in der linken oder rechten Hälfte des Becherglases aufhalten. Eine Hälfte bildet das Ausgangsvolumen V1, das ganze Becherglas das verdoppelte Volumen.

Sieht man von Permutationen der Teilchen untereinander ab, hat die Anordnung, bei der sich alle N Moleküle (N =beliebige Anzahl) in der linken Hälfte des Volumens aufhalten, das statistische Gewicht W1= 1. Die Entropie beträgt

S_{1} =k~lnW_{1} = k~ln1 = 0.

Nach der irreversiblen Expansion beträgt die Anzahl der möglichen Anordnungen und damit das statistische Gewicht eines durch N1 und N2 gekennzeichneten Makrozustands: W=\frac{N!}{N_{1}!N_{2}!} oder W=\frac{N!}{(N-k)!k!} mit 0\leq k\leq N.

N ist die Gesamtzahl aller Moleküle, N1 und N2 bedeuten jeweils die Zahl der Moleküle in den Teilbereichen links bzw. rechts. Um den Zustand nach der Expansion in das Vakuum der rechten Hälfte zu charakterisieren, müssen alle Makrozustände zusammengezählt werden, da es vorkommen kann, dass sich auch weniger wahrscheinliche Zustände für kurze Zeit einstellen. Insgesamt lautet die Summe aller Anordnungen der N Moleküle: \sum_{k=0}^{N}\frac{N!}{(N-k)!k!}. Diese Summe lässt sich mit Hilfe des binomischen Lehrsatzes ermitteln:

Der Ausdruck (x + y)^N kann als Polynom dargestellt werden: \sum_{k=0}^{N}\binom{N}{k}x^{N-k} y^{k}. Für den Fall x=1, y=1 vereinfacht es sich zu:

\sum_{k=0}^{N}\binom{N}{k}1^{N-k} 1^{k} = \sum_{k=0}^{N}\frac{N!}{(N-k)!k!} = (1+1)^{N} =2^{N} =W_{2}

Die Entropie nach Ausbreitung der Moleküle über das doppelte Volumen beträgt also S_{2}=k~lnW_{2}=k~ln2^{N}.

Setzt man N gleich der Avogadro-Zahl NA, ist S2 die molare Entropie nach der Expansion.

S_{2,mol,irrev}=N_{A}k~ln2 = R~ln2 und S_{2}-S_{1}=\Delta S_{mol,irrev}=R~ln2         

(da S1=0).

Nach der klassischen Thermodynamik gilt bei Änderung des Volumens \Delta S_{mol,rev}=R~ln\frac{V_{2}}{V_{1}},

also, bei Verdopplung des Volumens und isothermer reversibler Expansion, ebenfalls \Delta S_{mol,rev}=R~ln2.


Erhöht man das Volumen auf das r-fache, dann wird, nach der thermodynamischen Formel, \Delta S_{mol,rev}=R~lnr.

Nach der statistischen Thermodynamik umfasst ein bestimmter Makrozustand mit n Teilchen  \frac{n!}{k_1!\dotsm k_r!} = {n\choose k_1,\dotsc,k_r} Mikrozustände ( mit der Bedingung: k_1+\dotsb+k_r=n). Die Summe der Mikrozustände aller Makrozustände zusammen lässt sich mit Hilfe des Multinomialtheorems (Polynomialsatz) ermitteln:

(x_1+\dotsb+x_r)^n=\sum_{k_1+\dotsb+k_r=n}{n\choose k_1,\dotsc,k_r}\cdot x_1^{k_1}\dotsm x_r^{k_r}.

So erhält man z.B. bei Expansion auf das 3fache Volumen für das W_2 aller Mikrozustände zusammen

(1+1+1)^n=\sum_{k_1+\dotsb+k_3=n}{n\choose k_1,\dotsc,k_3}\cdot 1^{k_1}\dotsm 1^{k_3} = 3^n       und für ein Mol Teilchen (n=NA) ein   \Delta S_{mol,irrev}=R~ln3.



Kurz: Die mikroskopische und die makroskopische Vorgehensweise in der Thermodynamik führen auf denselben Entropiebegriff.

4. Berechnung und Verwendung tabellierter Entropiewerte[Bearbeiten]

Die molare Entropie Smol bei einer bestimmten Temperatur T2 und bei konstantem Druck p erhält man mit Hilfe der molaren Wärmekapazität cp(T) durch Integration vom absoluten Nullpunkt bis zur aktuellen Temperatur:

S_{\mathrm{mol}} = \int_{0}^{T2}  \frac {c_p}{T}\ dT = \int_{0}^{T2} c_p\ d(\ln T)

Dazu kommen noch Entropieanteile bei Phasenübergängen. Nach Planck wird die Entropie ideal kristallisierter, reiner Festkörper am absoluten Nullpunkt gleich null gesetzt (Gemische oder frustrierte Kristalle behalten dagegen eine Restentropie). Unter Standardbedingungen spricht man von der Standardentropie S0. Auch nach der statistischen Betrachtungsweise hängen Entropiewert und Wärmekapazität miteinander zusammen: Eine hohe Wärmekapazität bedeutet, dass ein Molekül viel Energie speichern kann, und das kann z. B. auf einer großen Zahl niedrig liegender und daher leicht erreichbarer Energieniveaus beruhen. Entsprechend viele unterschiedliche Verteilungsmöglichkeiten auf diese Niveaus gibt es dann auch für die Moleküle und das führt auch auf einen hohen Entropiewert für den wahrscheinlichsten Zustand.

In elektrochemischen Reaktionen ergibt sich die Reaktionsentropie ∆S aus der gemessene Änderung von dE (elektromotorische Kraft) mit der Temperatur:

 \Delta S = z \cdot F\cdot \bigg (\frac{dE}{dT} \bigg)_p (z = Ladungszahl, F = Faraday-Konstante)

Die Entropieänderung bei idealen Mischungen erhält man mit Hilfe der Molenbrüche xi der beteiligten Substanzen:

 \Delta S_{\mathrm{id}}\ =\ -R\cdot \sum_{i=1}^k x_i\cdot \ln x_i

wobei sich in realen Mischungen noch eine Zusatzentropie durch die Veränderung der zwischenmolekularen Kräfte beim Mischen ergibt.

Entstehen bei einer chemischen Reaktion neue Moleküle, dann tritt die höchste Entropie in einem ganz bestimmten Gleichgewichtszustand auf, bei dem sich die Moleküle sowohl auf die Edukt- wie auch auf die Produktniveaus verteilen können. Über die folgende Beziehung, in der die Differenzen der Standard-Entropiewerte ∆S0 der beteiligten Substanzen eine wesentliche Rolle spielen, kann die Gleichgewichtskonstante K berechnet werden:

 \ln K = - \frac{\Delta H^0 -T \cdot \Delta S^0}{RT}

(das ∆ bedeutet in diesem Fall die Änderung der Größe bei vollständigem Reaktionsablauf). Woran man bei einem spontanen Vorgang (z. B. chemischen Reaktionen, Lösungs- und Mischungsvorgängen, Einstellung von Phasengleichgewichten und deren Temperaturabhängigkeit, Osmose u. a.) die Intensität dieses Vorgangs abschätzen kann, das ist die Zunahme der gesamten Entropie zwischen Anfangs- und Gleichgewichtszustand, die der Reaktanten und die der Umgebung zusammengenommen (→ chemisches Gleichgewicht). Die spontane Zunahme der Entropie wiederum ist eine Folge der ständigen Bewegung der Moleküle.

Kurz: Die Standard-Entropie von Stoffen kann aus dem Verlauf der Wärmekapazität mit der Temperatur berechnet werden. Die Kenntnis tabellierter Entropiewerte ermöglicht (zusammen mit den Reaktionsenthalpien) die Voraussage des chemischen Gleichgewichts.

Bekenstein-Hawking-Entropie „Schwarzer Löcher“[Bearbeiten]

Bekenstein und Hawking haben gezeigt, dass man den als „Schwarze Löcher“ bekannten astrophysikalischen Objekten formal eine Entropie – und damit auch eine formale Temperatur – zuschreiben kann, wenn man diese Entropie im Wesentlichen mit der Oberfläche A des sog. Ereignishorizonts identifiziert. Einzelheiten finden sich in dem angegebenen Artikel.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Skripten etc.
Lehrbücher und Übersichtsartikel
  • Überblick über die verschiedenen Entropiebegriffe und deren Verknüpfungen: R. Frigg, C. Werndl: Entropy – A Guide for the Perplexed (PDF; 301 kB). In: C. Beisbart, S. Hartmann (Eds.): Probabilities in Physics. Oxford University Press, Oxford 2010.
  • G. Adam, O. Hittmair: Wärmetheorie. 4. Auflage. Vieweg, Braunschweig 1992, ISBN 3-528-33311-1.
  • Richard Becker: Theorie der Wärme. 3., erg. Auflage. Springer, 1985, ISBN 3-540-15383-7.
  • Arieh Ben-Naim: Statistical Thermodynamics Based on Information: A Farewell to Entropy. 2008, ISBN 978-981-270-707-9
  • Johan Diedrich Fast: Entropie. Huethig, 1982, ISBN 3-87145-299-8.
  • Ulrich Nickel, Lehrbuch der Thermodynamik. Eine verständliche Einführung. 2. Auflage. PhysChem, 2011, ISBN 978-3-937744-06-3.
  • E. P. Hassel, T. V. Vasiltsova, T. Strenziok: Einführung in die Technische Thermodynamik. FVTR GmbH, Rostock 2010; ISBN 978-3-941554-02-3.
  • Arnold Sommerfeld: Vorlesungen über theoretische Physik – Thermodynamik und Statistik. Nachdruck der 2. Auflage. Harri Deutsch, 1988, ISBN 3-87144-378-6.
  • Andre Thess: Das Entropieprinzip – Thermodynamik für Unzufriedene. Oldenbourg-Wissenschaftsverlag, 2007, ISBN 3-486-58428-6.
  • Wolfgang Glöckner, Walter Jansen, Hans Joachim Bader (Hrsg.): Handbuch der experimentellen Chemie. Sekundarstufe II, Band 7: Mark Baumann: Chemische Energetik. Aulis Verlag Deubner, Köln 2007, ISBN 978-3-7614-2385-1.


Populärwissenschaftliche Darstellungen
  • Arieh Ben-Naim: Entropy Demystified – The Second Law Reduced to Plain Common Sense. World Scientific, Expanded Ed., New Jersey 2008, ISBN 978-981-283-225-2. (populärwissenschaftliche, aber exakte Erklärung auf Grundlage der statistischen Physik).
  • H. Dieter Zeh: Entropie. Fischer, Stuttgart 2005, ISBN 3-596-16127-4.
  • Jeremy Rifkin, Ted Howard: Entropy: A New World View. Viking Press, New York 1980 (dt.: Entropie: Ein neues Weltbild. Hofmann & Campe, Hamburg 1984).

Weblinks[Bearbeiten]

 Commons: Entropie – Sammlung von Bildern, Videos und Audiodateien
 Wikiquote: Entropie – Zitate
 Wikibooks: Entropie – Lern- und Lehrmaterialien

Einzelnachweise und Anmerkungen[Bearbeiten]

  1. Beim 1. Hauptsatz der Thermodynamik tritt im Gegensatz zum 2. Hauptsatz ein solcher „integrierender Faktor“ nicht auf. Der 1. Hauptsatz besagt, dass die Summe (!) der zugeführten Arbeit, δ A und der zugeführten Wärme δQ immer das vollständige Differential dU einer Zustandsfunktion U ergibt, der sogenannten Inneren Energie, obwohl die zwei einzelnen Differentiale nicht  vollständig sind. Bei der Funktion U wird im Gegensatz zu S auch nicht unterschieden, ob die Wärmezufuhr reversibel oder irreversibel erfolgt.
  2. Halliday, Resnik; Physik Bd1, (W.de Gruyter 1993), Beispiel reversibles Schmelzen, p.713
  3. Die verschiedenen Begriffe, die mit Entropie bezeichnet werden, werden etwa in Werndl und Frigg (2010) diskutiert.
  4. Dem entspricht die Clausius'sche Gleichung (2), die auch folgendermaßen in Worte gefasst werden kann: „In einem abgeschlossenen Thermodynamischen System nimmt die Entropie solange zu, bis Gleichgewicht erreicht ist“.
  5. Nicht-ergodisch sind beispielsweise die Gläser.
  6. Die „Boltzmannsche Form“ ergibt sich als Spezialfall der allgemeineren Relation S=-kB•∑ Ni=1 pi•ln(pi) , für p1= p2=...=pN=1/N. Dabei ist N=W und die pi sind die Auftrittswahrscheinlichkeiten der Systemzustände.
  7. Ogg, RA Jr, & Ray, JD (1957). Quadrupole Relaxation and Structures in Nitrogen Magnetic Resonances of Ammonia and Ammonium Salts. The Journal of Chemical Physics, 26, 1339-1340
  8. Gerd Wedler: Lehrbuch der Physikalischen Chemie. Verlag Chemie, Weinheim u. a. O. 1982. Abschnitt 1.1.16, S.46
  9. Gerd Wedler: Lehrbuch der Physikalischen Chemie. Verlag Chemie, Weinheim u. a. O. 1982. Abschnitt 4.2.1, S. 632