Diskussion:Entropie

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 10 Tagen von Fährtenleser in Abschnitt Maß der Unbestimmtheit
Zur Navigation springen Zur Suche springen
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 30 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind.
Vorlage:Autoarchiv-Erledigt/Wartung/Festes_Ziel
Zum Archiv

Dieser Artikel wurde ab April 2009 in der Qualitätssicherung Physik unter dem Titel „Entropie (Thermodynamik)“ diskutiert. Die Diskussion kann im Archiv nachgelesen werden. Anmerkung: größere Überarbeitung im Dez 2014

Dieser Artikel wurde ab Januar 2015 in der Qualitätssicherung Physik unter dem Titel „Entropie: Gliederung, Didaktik, usw.“ diskutiert. Die Diskussion kann im Archiv nachgelesen werden. Anmerkung: Überarbeitung des Abschnitts "Ein einfacher Zugang zur Entropie"

Dieser Artikel wurde ab Januar 2016 in der Qualitätssicherung Physik unter dem Titel „Entropie“ diskutiert. Die Diskussion kann im Archiv nachgelesen werden. Anmerkung: leichte Umformulierung des Abschnitts "Mischungsentropie"

Quantenverschränkungs-Entropie[Quelltext bearbeiten]

Fehlt, ist aber aktuelles Forschungsgebiet (Takayanagi, Ahrenshoop, Zusammenhang mit Area Laws, Eisert, Black Hole Entropy, New Horizons in Physics Prize 2015 ...)--Claude J (Diskussion) 22:26, 25. Sep. 2016 (CEST)Beantworten

Irreversible Thermodynamik[Quelltext bearbeiten]

Muss die Rolle der Entropie als Antrieb aller spontanen (also irreversiblen, also aller wirklichen) Prozessen nicht deutlich gemacht werden? Das ist auch in den Artikeln zu Caratheodory, Onsager etc. noch sehr dünn. Ich bin da leider nicht der wahre Experte für, sondern erinnere mich vor allem anein paar Stellen aus dem alten Becker, Theorie der Wärme. --Bleckneuhaus (Diskussion) 17:24, 17. Aug. 2020 (CEST)Beantworten

Wärmekraftmaschine in die Einleitung?[Quelltext bearbeiten]

Bei den Stichpunkten in der Einleitung fehlt mir irgendwie doch ein Satz wie: Ein Prozess, der kontinuierlich Wärme in Arbeit umwandelt (Wärmekraftmaschine), ist nur möglich, wenn die zugeführte Wärme zum Teil als Abwärme wieder an die Umgebung abgegeben wird, um die mit der Wärme zugeführte Entropie wieder abzuführen. Nur die Differenz aus zugeführter und abgegebener Wärme kann in Arbeit umgewandelt werden. --Bleckneuhaus (Diskussion) 14:29, 19. Nov. 2023 (CET)Beantworten

Maß für die Unordnung[Quelltext bearbeiten]

Ich habe einen gerade beginnenden Editwar durch Seitenschutz beendet. WinfriedSchneider wollte die Beschreibung mit der Unordnung prominenter in der Einleitung haben. Abgesehen von der Diskussionspflicht auf Seiten dessen, der eine Änderung zum status quo will, hat mich irritiert, dass die hier noch gut sichtbare nicht lange zurückliegende Diskussion gerade dazu von Winfried trotz ZF-Hinweis von Wrongfilter nicht aufgegriffen wurde. Ich hoffe auf Lektüre der obigen Diskussionen und ggf. neuen Argumenten. Geschützt habe ich, da ich inhaltlich nicht involviert war in den Diskussionen - sonst hätte ich das auf VM melden müssen. Gruß Kein Einstein (Diskussion) 21:19, 4. Jan. 2024 (CET)Beantworten

Hallo Kein Einstein, danke für deine Aktion, die ich ausdrücklich unterstütze. -- Wassermaus (Diskussion) 22:06, 4. Jan. 2024 (CET)Beantworten
Den Seitenschutz kannst Du wieder wieder aufheben, denn „beginnender Editwar“ missversteht mein Interesse an Verbesserung des Artikels und Verteidigung der Revert-Regeln gegen Missbrauch. Ich belasse es bei je einem Versuch, aber erlaube mir den Hinweis, dass es keine „Diskussionspflicht auf Seiten dessen (gibt), der eine Änderung zum status quo will“, nur Wikiquette und das Grundprinzip Sei mutig! Grüße von --Winnie Schneider (Diskussion) 22:22, 4. Jan. 2024 (CET)Beantworten
Ich gestehe ein, dass ich den Belege-Aspekt (Punkt 3) hier generalisiert habe - aber auch die von dir zitierte Revert-Regel setzt den status quo, also die frühere Version, als Normalzustand. Daher hat Wrongfilter das verteidigt, was in längeren Diskussionen erarbeitet wurde. Wenn du Argumente für eine Veränderung hast, dann nenne sie hier bitte. Im Vertrauen auf deine gegebene Zusage hebe ich den Seitenschutz auf. Kein Einstein (Diskussion) 22:46, 4. Jan. 2024 (CET)Beantworten

Bezug zur Informationsmenge[Quelltext bearbeiten]

Im Artikel steht derzeit: Richtiger ist es, man begreift die Entropie als ein wohldefiniertes objektives Maß für die Menge an Information, die benötigt würde, um aus der Kenntnis des vorliegenden Makrozustandes des Systems den tatsächlich vorliegenden Mikrozustand bestimmen zu können. Je größer die Anzahl infrage kommender Mikrozustände ist, desto mehr Information wird benötigt. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird.

Ich denke, hier besteht die Gefahr eines Missverständnisses, die aus der möglichen Assoziation von „viel Entropie = viel Information“ entsteht. Der Bezug auf Makro- und Mikrozustände scheint mir die Verwirrung hervorzurufen (auch bei mir ;) Lässt sich das nicht klarer formulieren? --Fährtenleser (Diskussion) 08:40, 19. Mai 2024 (CEST)Beantworten

Aus dem ersten Satz deiner zitierten Textstelle folgt n.m.Verständnis klar: "viel Entropie = viel fehlende Information" und nicht das Gegenteil.
Was Makro- und Mikrozustand betrifft steht schon im Einleitungstext des Lemmas diese Formulierung: "Eine nähere Deutung der Entropie wird in der statistischen Mechanik gegeben, wo Systeme aus sehr vielen einzelnen Teilchen betrachtet werden. Ein Makrozustand eines solchen Systems, der durch bestimmte Werte der makroskopischen thermodynamischen Größen definiert ist, kann durch eine hohe Anzahl verschiedener Mikrozustände realisiert sein, die durch innere Prozesse ständig ineinander übergehen, ohne dass sich die makroskopischen Werte dabei ändern. Die Entropie ist ein logarithmisches Maß für die Anzahl der verschiedenen Mikrozustände, die das System in dem gegebenen Makrozustand haben könnte.“ mit dieser Erläuterung im Kopf dürfte es leichter sein, den Text richtig zu verstehen.
Ohne die Begriffe Makro- und Mikrozustand dürfte es schwer werden, die statistische Physik kurz und bündig zu formulieren. Entropie und Information sind beides ziemlich abstrakte Begriffe. Man könnte sie zwar an einfachen Beispielen erläutern, was im Lemma ja auch geschieht, aber ist das an dieser Stelle wirklich angebracht.
Vielleicht könnte man an den ersten Satz deiner zitierten Textstelle noch die Kurzform anhängen: "; also viel Entropie = viel fehlende Information", um Missverständnissen vorzubeugen.
Der Flesch-Lesbarkeitsindex liefert immerhin einen Wert von 42 (Niveau: Abiturient, Tageszeitung) für deinen oben zitierten Text, so dass die Aufteilung in Sätze rein formal auch nicht so schlecht gewählt zu sein scheint. --ArchibaldWagner (Diskussion) 09:36, 19. Mai 2024 (CEST)Beantworten
@Fährtenleser:, ich schließe mich meinem Vorredner an. Ich war zunächst versucht zu sagen: "Wie kann man aus dem Satz genau das Gegenteil verstehen? Wenn ich sage 'Der Grad der Armut ist dadurch definiert, wieviel Geld man braucht, um normal leben zu können'. versteht doch auch keiner 'Also: je mehr Geld man hat desto ärmer ist man.'" Allerdings: das Thema Entropie ist eines der schwierigsten Konzepte in der Physik, da kann man schnell auf die falsche Spur kommen. Und die Zahl gut gemeinter populärwissenschaftlicher Lehrmaterialien, die daneben gehen, ist Legion.
Und genau darum möchte ich dich dringend bitten, solche Änderungen, wie du sie vorgenommen hast, nicht ohne vorherige Diskussion zu machen. Zu Glück hat Benutzer:Wrongfilter das schnell wieder rückgängig gemacht.
Thematisch zu deiner Frage: Heinz Pagels hat in seinem Meisterwerk "The cosmic code" (42 Jahre alt, aber immer noch aktuell) geschrieben: "the motion of individual particles is given by Newton's laws of motion [...] These laws of motion make no distinction between past and future [...] An atom knows nothing about aging. [...] Irreversible time, aging, the rotting of fruit are all illusions from the standpoint of microphysics. But the law of entropy increase in time gives an arrow, a direction which distinguishes the past and the future. [...] It is therefore impossible to derive the second law of thermodynamics [...] from only laws of Newton's mechanics." und dann äußert er sich zur makroskopischen Welt, in der man nicht einzelne Teilchen sondern Durchschnittswerte anschaut (am Beispiel von Rauch, der aus einer Tabakspfeife steigt, aufgenommen mit einer Filmkamera): "we would get suspicious that the film was being shown backwards if we saw wisps of smoke condensing instead of expanding [...] By washing out the microscoping information in favor of macroscopic information - eliminating the individual motion of particles in favor of the average - we have slipped into the extra assumption that connects Newton's mechanics to thermodynamics. There is no way to lose details microscopic information without increasing entropy. [...] our demand itself - the demand that there is a macroworld description, that there be a meaningful averaging of microworld information - that introduces the arrow of time.
Ich weiß nicht, ob das die Sache klarer macht; mir war es eine Erleuchtung, als ich damals das Buch kaufte. -- Wassermaus (Diskussion) 11:24, 19. Mai 2024 (CEST)Beantworten
Es tut mir leid, aber ich bin noch nicht schlauer als vorher… ArchibaldWagner schrieb: „Aus dem ersten Satz deiner zitierten Textstelle folgt n.m.Verständnis klar: "viel Entropie = viel fehlende Information" und nicht das Gegenteil.“ Ganz unphysikalisch, rein logisch betrachtet wird im ersten Satz – mehr oder weniger – Entropie mit der Menge an – mehr oder weniger – Information gleichgesetzt … und daraus folgt dann: „Je größer die Anzahl infrage kommender Mikrozustände ist, desto mehr Information wird benötigt." Daraus „viel Entropie = viel fehlende Information“ zu machen ist nicht logisch, sondern nur das Gegenteil „viel Entropie = viel Information“. Sollte diese logische Konsequenz ggf. doch korrekt sein (und ArchibaldWagners Folgerung verdreht), weil die maximale Entropie eines Systems durch die maximal mögliche Zahl unterschiedlicher Mikrozustände beschrieben wird? Will sagen: Braucht man mehr Informationen bzw. gibt es mehr mögliche Mikrozustände in einem homogenen, vermixten Latte als im getrennten Zustand, der mehr Struktur aufweist? … Nach meinem bisherigen Verständnis hatte ich gedacht: Man braucht eine längere Beschreibung, um den Zustand des „Latte“ darzulegen, wenn er frisch aus der Kaffeemaschine kommt und kommt mit weniger Text aus, um den vermixten Zustand zu beschreiben. Daher meine ursprüngliche Annahme: „Viel Entropie = wenig Information (bwz. viel fehlende Information)“. Ich würde mich freuen, wenn ihr mich weiterhin ernst nehmen würdet und mir auf die Sprünge helft ;) --Fährtenleser (Diskussion) 15:55, 19. Mai 2024 (CEST)Beantworten
Nachtrag: Ludwig Boltzmann beschrieb Entropie (nach Spektrum-Lexikon) „durch die Anzahl der unterschiedlichen mikroskopischen Zustände, welche die Teilchen eines Stücks Materie einnehmen können, ohne dass sich dessen makroskopische Eigenschaften verändern.“ Heißt das: Bei einem homogenen Gasgemisch ändern auch extrem viele mikrosokopische Zustände nichts am makroskopischen Zustand, aber bei einem Gehirn reichen schon wenige Änderungen mikroskopischer Zustände, um das gesamte System zu verändern? --Fährtenleser (Diskussion) 16:19, 19. Mai 2024 (CEST)Beantworten
Das Gehirn lebt von einer permanenten Energiezufuhr, es ist weit weg von einem thermischen Gleichgewicht, selbiges würde der Tod bedeuten. Wie man hier eine Entropie definieren könnte, würde uns in eine lange Diskussion führen. In der Regel wird auch die Existenz einer Entropiefunktionen für Systeme außerhalb des Gleichgewichts postuliert, aber ihre Berechnung bzw. Definition nirgends expliziert; außer das System kann als Summe von vielen kleineren thermodynamischen Systemen verstanden werdem, die für sich jeweils in einem lokalen thermodynamischen Gleichgewicht stehen. Die Gesamtentropie wird dann als Summe der lokalen Einzelentropien ermittelt. So machen es z.B. die Meteorologen oder die Verfahrenstechniker, oder bei den Problemen aus der irreversiblen Thermodynamik. Man spricht dann auch von Entropiedichte oder Entropiefluss; der Mischprozess deiner mixed Latte liese sich so etwa modellieren (schön kompliziert mit lokalen Stoffströmungen und Partialdichtevariationen). Biophysiker modellieren vmtl. Zellen und Zellverbände als therm Systeme, um damit vmtl. erfolgreich Stoffströme zu beschreiben. Aber das Gehirn? Vielleicht um ein Wärmetransport zu verstehen, aber nicht, um damit gespeicherte Informationen zu erfassen? --ArchibaldWagner (Diskussion) 20:11, 19. Mai 2024 (CEST)Beantworten

Maß der Unbestimmtheit[Quelltext bearbeiten]

Lieber @Wrongfilter:, du hast folgende Ergänzung wieder gelöscht:

Die Entropie – auch als „Maß der Unbestimmtheit“ bezeichnet[1][2][3]

und das mit „Das ist keine Bezeichnung (oder gar Synonym), sondern bestenfalls eine Charakterisierung (siehe auch Diskussionen dazu). Die Belege sind in einem Artikel, der sich auf Entropie in der Physik konzentriert, nicht einschlägig.“ begründet. Ist die Quelle Kafitz nicht "physikalisch" genug? Ich glaube, es gäbe noch sehr viel mehr Quellen, die diese Umschreibung belegen. Ich möchte damit die Allgemeinverständlichkeit erhöhen und da erscheint mit "Unbestimmtheit" sehr gut geeignet (jedenfalls viel besser als "Unordnung"). Ich bezweifle deine Argumentation nicht, sondern möchte nur anregen, in diese Richtung eine Artikelverbesserung anzustreben.

  1. Sven Hoyer: Die Ordnung der Welt. Wie sich Menschen eine komplexe Welt einfach erklären und in ihr handeln. Inaugural-Dissertation, Otto-Friedrich-Universität Bamberg, 2006, PDF, S. 32.
  2. Willi Kafitz: ENTROPIE. Wachsende Bedeutung in Naturwissenschaft und Informationstheorie. Eine Übersicht in Beispielen. Oberhessische Naturwissenschaftlichen Zeitschrift, Volume 68, Gießen 2020, ISSN 0340-4498, PDF, S. 16–17.
  3. Victoria Polzer: Das Erhabene in der Philosophie der Gegenwalrt. Vom Text zur Technologie. Inauguraldissertation, Ruprecht-Karls-Universität Heidelberg, 2015, PDF, S. 152

--Fährtenleser (Diskussion) 09:35, 19. Mai 2024 (CEST)Beantworten

Wie in meinem Beitrag einen Abschnitt vorher (ich weiß nicht warum du einen neuen angefangen hast) gesagt, begrüße ich Wrongfilters Vorgehensweise ausdrücklich. — Wassermaus (Diskussion) 12:15, 19. Mai 2024 (CEST)Beantworten
Nach Sichtung einiger Lehrbücher, hier ein Zitat aus dem Lehrbuch für Lehramtskanditaten "Thermodyanmik .." 2. Auflage (2016) von Rainer Müller, dort findet sich auf S 305: „Kasten 11.1 – Entropie und Information – Es gibt eine weitere Interpretation der Entropie, die sich mit dem Boltzmann-Einstein Modell unmittelbar veranschaulichen lässt: die Entropie als fehlende Information über den Mikrozustand des Systems. [...] Die häufig verwendete Erläuterung des zweiten Hauptsatzes als »unausweichliche Zunahme der Unordnung« leitet in die Irre, wenn sie an Beispielen zur Informationsentropie illustriert wird (z.B. das immer unordentlicher werdende Kinderzimmer als Beispiel einer Entropievermehrung).“
Das von mir sehr geschätzte Lehrbuch "Thermodynamics and an Introduction to Thermostatistics" (1985) von Herbert B. Callen hat in Kap. 17 einen Unterabschnitt 17.1 "Entropy as Measure of Disorder", wo die fehlende Information Disorder genannt wird. Aber bei diesem Begriff sehe ich wie R. Müller eher eine Verschleierung und keine Verbesserung der Verständlichkeit; wie eben auch bei dem in populärwissenschaftlichen Darstellungen nicht selten zu lesenden und zu hörenden Begriff vom dem Maß der Unbestimmtheit. Ohne ausholende, m.E. überflüssige, zusätzliche Erläuterung wird der Zusammenhang zwischen Information und Entropie dabei eher verschleiert als das Verstehen erleichtert. --ArchibaldWagner (Diskussion) 14:33, 19. Mai 2024 (CEST)Beantworten
Nachtrag zur Literatur: In dem Klassiker "Theorie der Wärme" (Nachdruck 1966) von R. Becker findet sich auf S 253 im § 73 der Unterabschnitt b) "Die Entropie als Maß unserer Unkenntnis". Nun steht schon in der Einleitung des Lemmas: „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“. Frage sollten wir hier wieder darauf Bezug nehmen, evtl. in der Kurzform: "höhere Entropie = mehr fehlende Information = größere Unkenntnis" ?
Nachtrag: Leider sehe ich gerade, dass in dem Lemma zumindest zweimal der Begriff "Unordnung" bzw. "unordentlicher" gebraucht wird. Ich bezweifele, ob ein Glas mit einer homogenen Mischung im Vergleich zu einem anderen mit einer chaotischen Verteilung wirklich bei allen Lesern mit mehr Unordnung in Verbindung gebracht wird. Auch dürfte der Begriff weniger Information hier nicht sofort evident sein. Also hier wäre m.E. tatsächlich eine Verbesserung wünschenswert, um den Begriff Unordnung eher ganz zu verbannen, nachdem er in der Einleitung ja schon als problematisch dargestellt wurde. --ArchibaldWagner (Diskussion) 14:50, 19. Mai 2024 (CEST)Beantworten
Genaueres Nachlesen zeigt mir, dass die Problematik in den fraglichen Abschnitten ganz ordentlich erklärt wird. Ich stelle aber die Frage, ob dieser Bezug zu ordentlicher bzw. unordentlicher wirklich hier sinnvoll und für das Verstehen wichtig ist, oder nicht eher den Text unnötig verlängert und damit den Leser zusätzlich belastet. ArchibaldWagner (Diskussion) 15:39, 19. Mai 2024 (CEST)Beantworten
Im ersten Beitrag geht es um die Erklärung von Entropie über die Informationsmenge, in diesem um die konkrete Verwendung des Ausdrucks "Unbestimmtheit" in diesem Zusammenhang. Ist nicht ganz identisch… Übrigens: Ich habe Wrongfilters Vorgehensweise nicht kritisiert. Ich möchte es nur besser verstehen. Wenn du aus einem Lehrbuch zitierst: „Entropie als fehlende Information über den Mikrozustand des Systems“ ist das wieder deckungsgleich mit meinem ursprünglichen Verständnis (vermixter Latte = mehr Entropie = mehr fehlende Information = weniger Information zur Beschreibung nötig), oder? Die drei von mir angeführten Quellen zum Bezug Entropie/Unbestimmtheit sind nicht populärwissenschaftlich (und ich denke, es gibt noch viele mehr davon). Das mit der "Unkenntnis" liest man auch häufig bei Definitionen von Komplexität. Aber sowohl Komplexität als auch Entropie auf ein Wahrnehmungsproblem zu reduzieren ist sicher auch nicht der Weisheit letzter Schluss. Ich glaube, den Absatz Entropie als „Maß der Unordnung“ solltest du nochmals genauer lesen, denn da wird ja gerade die falsche Assoziation von Unordnung ganz richtig thematisiert. --Fährtenleser (Diskussion) 16:10, 19. Mai 2024 (CEST)Beantworten
Erst einmal nur ganz kurz zu »= weniger Information zur Beschreibung nötig«: im Gegenteil, hier geht es um die zusätzlich benötigte Information, um den Mikrozustand exakt zu beschreiben; vereinfacht klassisch gesprochen um die genaue Angabe der Positionen und Impulse aller Atome - oder quantenmechanisch um die Spezifikation eines reinen Zustandes in einem "exorbitant großen" Hilbertraumes.
Weiter ein Zitat aus dem Buch von H. B. Callen p 27: „It must be stressed that we postulate the existence of the entropy only for equilibrium states and that our postulate makes no reference whatsoever to nonequilibrium states. ...“ Dieser Satz ist und war zentral für mein Verstehen der Lehrbuchliteratur, er wird aber leider allzu oft (auch hier im) Lemma unterschlagen. Auch was die statistische Definition mit der Anzahl der Mikrozustände, die mit dem Makrozustand verträglich sind, angeht, gilt dieses für Gleichgewichtszustände - deine mixed Latte ist erst einmal nicht im Gleichgewichtszustand. – Solange Kaffee und Latte getrennt waren, können wir sie uns zumindest jede für sich im therm. Gleichgewicht denken und die Gesamtentropie als Summe der Einzelentropien berechnen. Nach dem Mixen stellt sich mit Geduld nach einer gewissen Zeit ein neues Gleichgewicht deiner mixed Latte ein. Für dieses System ist dann die Entropie größer als die Gesamtsumme der vorher ungemixten beiden Einzelsysteme. Mikroskopisch gesehen ist die Anzahl der Mikrozustände, die mit den makroskopischen Parametern der mixed Latte verträglich sind, größer ist als die Summe aller entsprechenden Mikrozustände der beiden Systeme vor dem Zusammenmischen. Bei Callen finden sich dazu eine Reihe von einfachen Beispielen nachgerechnet, nach meiner Erinnerung. --ArchibaldWagner (Diskussion) 19:06, 19. Mai 2024 (CEST)Beantworten
Okay, spannend! Dann ist Entropie ein Maß für die Menge der Gleichgewichszustände in einem System? … Warum ist die Summe der Mikrozustände der beiden im Gleichgewichtszustand definierten Teile des Café latte geringer als beim späteren vermixten Gleichgewichtszustand? Liegt das daran, dass es zwei "getrennte" Bereiche gibt, die als Systemkomponenten zusammen nicht im Gleichgewicht sind, sodass dieser Unterschied sozusagen von der Summe abgezogen wird? Hast du nochmals Lust, zu antworten? ;) Danke schonmal! --Fährtenleser (Diskussion) 07:55, 20. Mai 2024 (CEST)Beantworten
Vorsicht! mit: „Dann ist Entropie ein Maß für die Menge der Gleichgewichszustände in einem System?“ das ist so nicht richtig. Die Entropie berechnet sich als Summe der Entropien der lokalen "infinitesimalen" Systeme, die als im Gleichgewicht angenommen werden – Achtung! bei den lokalen Systemen handelt es sich immer noch um Bereiche mit zig-Tausenden und meist noch viel viel mehr atomaren Elementen!. Beachte was @Wassermaus oben schrieb: „Allerdings: das Thema Entropie ist eines der schwierigsten Konzepte in der Physik, da kann man schnell auf die falsche Spur kommen.“
„Liegt das daran, dass es zwei "getrennte" Bereiche gibt, die als Systemkomponenten zusammen nicht im Gleichgewicht sind“ diese Aussage ist richtig! Nun muss man aber auf die atomare Modellebene gehen (jeweils vor und nach der Mischung) und jeweils die Anzahl der Mikrozustände berechnen, die mit den makroskopischen Nebenbedingungen verträglich sind, z.B. die gleiche innere Energie vor und nach der Mischung. Mit rechnerisch handhabaren Modellen, z.B. ideales Gas, ergeben sich für den gemischten Zustand, dann tatsächlich die viel größere Anzahl von Mikrozuständen für den gemischen Endzustand. Ohne mikroskopische Modellierung kommt der phenomenologische Ansatz aus, beide Verfahren haben in der Praxis ihre Bedeutung.
Bücher der Thermodynamik brauchen meist ziemlich viel Vorbereitung und Raum, um die Entropie einzuführen. Ein Buch, das konsequent die Thermodynamik auf Grundlage der statistischen Physik entwickelt, ist "Thermodynamik für das Bachelorstudium" (2018) von Klaus Stierstadt. Er führt die Begriffe an wenigen einfachen Beispielen ein. Dort findest Du im Kapitel 2 "Was ist Temperatur" insbesondere im Abschnitt 2.2 "Temperatur und Energieverteilung" eine gut verständliche Darstellung des Zusammenhangs der statischen Verteilung der Mikroszustände und der Temperatur. Dies ist eine gute Vorbereitung, um in Kap. 4 die statistische Definition der Entropie einzuführen.
Bei H.B. Callen wird im Abschnitt 1-9 "The Basic Problem of Thermodynamics" aufgezeigt, wie man ausgehend von zwei Teilsystemen im Gleichgewicht auf die Entropie des Gesamtsystems schließt und damit auf Aussagen auch über nicht im Gleichgewicht befindliche Systeme schließen kann.
Zur Warnung und Ermunterung weiterer Lektüre, noch ein Zitat aus dem 4 bändigen Werk "Einführung in die Grundlagen der theoretischen Physik" von Günther Ludwig (Band 4 XIV § 2.3 "Der Satz von der Vermehrung der Entropie" S 89): „Das Problem der Entropiedefinition für Nichtgleichgewichtszustände ist ein sehr tiefliegendes und wird oft etwas verharmlost, indem man gleich zu »speziellen« Nichtgleichgewichtszuständen übergeht. Auf keinen Fall läßt sich allgemein eine Entropie auf die Art und Weise einführen, wie dies in §1.4 [siehe hierzu auch im Lemma Abschnitt 2.2] geschehen ist. Dies folgt schon allein daraus, daß es für Nichtgleichgewichtszustände im allgemeinen keine Temperaturdefinition gibt. Was bedeutet dann eigentlich der Satz von der Vermehrung der Entropie? ...“
Deine Fragen und Antworten zeigen mir, dass es recht schwierig ist, in einem Lexikon den Begriff der Entropie richtig und allgemeinverständlich darzustellen und dabei die Leser nicht in die Irre zu führen. Der Gebrauch von Entropie in der Umgangssprache dient meist auch nicht einer besseren Aufklärung. Welche physikalische Kenntnisse darf ich bei den Lesern eigentlich voraussetzen?
M.E. fehlt hier im Lemma ein Abschnitt über das, was bei H.B.Callen unter "The Basic Problem of Thermodynamics" abgehandelt wird. --ArchibaldWagner (Diskussion) 10:21, 20. Mai 2024 (CEST)Beantworten
Vielen Dank für deine ausführlichen Schilderungen! Ich verstehe jetzt, dass "Maß der Unbestimmtheit" (vielleicht etwas besser als Unordnung) und "Maß der Unordnung" zu viele Assoziationen auslösen, die dem Konzept der Entropie zuwiderlaufen. Allerdings bin ich nach wie vor der Meinung, dass Wikipedia auch bei solchen sehr spezifischen Fachtermini eine allgemeinverständliche Beschreibung liefern sollte, auch wenn sie die Definition nicht präzise wiedergeben kann. So wird es ja im letzten Abschnitt der Einleitung versucht. Doch hier liegt die Krux am Begriff der Information, der ja wie "Unordnung" mit etlichen irreführenden Assoziationen verbunden ist (wie man bei meinen ursprünglichen Vorstellungen unschwer erkennen kann;) Ich schlage daher mal ganz mutig vor, den Satz „Richtiger ist es, man begreift die Entropie …“ zum Beispiel wie folgt fortzuführen:
„… als annähernde Berechnung der Wahrscheinlichkeit, wie nahe sich ein System aufgrund der Anzahl und Verteilung energetischer Zustände auf atomarer Ebene am energetischen Gleichgewichtszustand befindet (in dem keine Energieflüsse mehr stattfinden). Je mehr Systemelemente es gibt, die energetische Unterschiede zu benachbarten Elementen aufweisen, desto geringer ist die Entropie. Je weniger unterschiedliche Bereiche abgegrenzt werden können und je größer damit die Verteilungsmöglichkeiten der Energie im System sind, desto größer ist die Entropie.“ --Fährtenleser (Diskussion) 08:00, 21. Mai 2024 (CEST)Beantworten
Ich halte es für unmöglich, einen Begriff wie die Entropie für Leser ohne entsprechende Vorkenntnisse korrekt und umfassend in 2-5 Sätzen zu definieren.
Was ich befürworte, ist jedem Leser zumindest zu erklären, in welchem Kontext der Begriff benutzt wird, und ihm ein paar praktische Anwendungen nahe zu seinem Erfahrungsbereich aufzuzeigen.
Gerade habe ich mir die Einleitung wieder durchgelesen. Mein Eindruck dabei, die Einleitung macht das ziemlich gut. Für Leser ohne ein besonderes zusätzliches physikalische Interesse sollte die Einleitung ausreichend sein.
OK, du hälst den letzten Absatz der Einleitung für problematisch. Aber dein Versuch in Ehren, ich sehe da keine Verbesserung. Das liegt wohl daran, dass der letzte Absatz schon detailiertere Vorkenntnisse über die mikroskopische Zustandsbeschreibung eines thermodynamischen Sytems erfordert. Und damit ist er nicht mehr für jeden Leser verständlich. Sollten wir den Absatz daher besser aus der Einleitung entfernen?
Die Ausführungen nach der Einleitung sind für Leser, die Zeit, den Willen und Vorkenntnisse haben, sich intensiver mit dem Konzept auseinanderzusetzen. Hier wären nach meiner Sicht weitere Verbesserung zur Verständlichkeit und Genauigkeit möglich. --ArchibaldWagner (Diskussion) 09:25, 21. Mai 2024 (CEST)Beantworten
Ich denke sogar, gerade der letzte Absatz der Einleitung beschreibt das schwierige Thema gut. Das Wort "Information" ist dem fachlich interessierten Leser durchaus ein Begriff: es ist etwas, was sich mit Bits beschreiben und sogar quantifizieren lässt. Bei Fährtenlesers Vorschlag sehe ich keine Verbesserung, sondern im Gegenteil größere Schwierigkeiten: was heißt "näherungsweise"? Was heißt in diesem Zusammenhang "Wahrscheinlichkeit"? (Volumen des Phasenraums?) Warum die konkrete Beschränkung auf atomare Ebene und auf "Energieflüsse"? Energieflüsse zwischen was? Welche Energie? Was sind "Systemelemente"? Und was sind "benachbarte" Elemente? Hier wäre jede Menge Begriffserklärung erforderlich.
Übrigens kommt mir "Menge an Information, die benötigt würde, um aus der Kenntnis des vorliegenden Makrozustandes des Systems den tatsächlich vorliegenden Mikrozustand bestimmen zu können" sehr bekannt vor - irgend einer von den Großen (Feynman? Pagels? Penrose?) hat das geschrieben, da bin ich sicher. Ich muss mal sehen ob ich die Quelle finde.
Fazit: der letzte Abschnitt ist meines Erachtens sehr gut - gerade auch, was die Zielgruppe von Wikipedia betrifft.
Wassermaus (Diskussion) 11:00, 21. Mai 2024 (CEST)Beantworten
Das ist schade! Obwohl du ganz gewiss viel näher am Verständnis des Konzeptes bist als ich, sehe ich das nicht so absolut wie du und halte es für möglich und geraten, eine einfache allgemeine Beschreibung hinzuzufügen … und zwar ohne den Begriff der Information, der hier nur verkompliziert: Entropie entspricht doch – trotz aller Abstraktheit – einem realen Bereich unserer Erfahrungswelt, platt gesagt: Batterie leer, Kaffee kalt, Mensch tot = Entropie total; Batterie halb leer, Kaffee lauwarm, Mensch schwer krank = Entropie nimmt zu usw. Mir ist klar, dass ein Physiker es genau wissen will und muss, was dabei im Innern der Materie vor sich geht, aber solche Begriffe sollten nicht zu „modernem Geheimwissen“ werden. Vielleicht bewusst noch kürzer, um nicht den Anschein einer "echten" Definition zu wecken, etwa wie ich es irgendwo gefunden habe als: „Entropie ist die Anzahl der unterschiedlichen Wege, auf die ein System seine Energie verteilen kann.“ oder aus [1]: „Entropie ist die Wahrscheinlichkeit, mit der Energie in der mikroskopischen Welt verteilt ist.“ Und wie gesagt: Bitte raus mit dem Bezug zur Information (bwz. nach unten verlagern)… --Fährtenleser (Diskussion) 12:32, 21. Mai 2024 (CEST)Beantworten
Wassermaus war schneller … egal, Information ist doch nicht weniger erklärungsbedürftig als Wahrscheinlichkeit! Bitte alle nochmals freundlich nachdenken ;) --Fährtenleser (Diskussion) 12:34, 21. Mai 2024 (CEST)Beantworten