Diskussion:Entropie (Thermodynamik)/Archiv1

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 16 Jahren von Kölscher Pitter in Abschnitt Wahrscheinlichkeitsaussage
Zur Navigation springen Zur Suche springen

Hilfestellung zum Verständnis

Mir kommt da ein Satz in diesem Abschnitt etwas falsch vor. Da steht: "Das Verhältnis der theoretisch möglichen Motorleistung zur tatsächlich erbrachten wird als Carnot-Wirkungsgrad bezeichnet." So weit ich weiß ist der Carnot-Wirkungsgrad der theoretisch mögliche Wirkungsgrad bei gegebener Temperaturdifferenz, und nicht das Verhältnis zwischen erzieltem und theoretischem Wirkungsgrad. (kuehlmus)

Sorry, das war geschlampt von mir. Danke für den Hinweis. --Homosapiens 22:11, 29. Nov. 2006 (CET)

Sehe keine Begründung für eine Löschung. Der Abschnitt stellt eine durchaus relevante Sichtweise dar, die so in jeder technischen Universität gelehrt wird. Und er erleichtert gerade denen den Zugang, die von der klassischen Physik herkommen. --Homosapiens 21:23, 27. Mär. 2007 (CEST)

Auch wenn er das Verständnis erhöhen kann, der Abschnitt enthält acht Fehler. Eine Umformulierung habe ich für zu aufwendig gehalten. Wer nicht einen einzigen Fehler findet sollte nicht an diesem Artikel mitarbeiten. --David314 12:57, 28. Mär. 2007 (CEST)

Entropie: alternative Bedeutung

Das englische Wort Entropy steht sowohl für das deutsche Entropie als auch für den Maß für den Informationsgehalt bzw. mittlerer Informationsgehalt und ist in der digitalen Signalkodierung gebräuchlich. Darauf sollte schon am Anfang des Artikels hingewiesen werden.

Hallo 85.182.68.83, besser nicht. Dann bedeutete ja viel Entropie viel Information... Anton 15:07, 27. Aug 2006 (CEST)

Hallo Anton, ich muß mal darauf hinweisen, daß das nicht richtig ist. Auch nach Shannon bedeutet viel Entropie nur viel Durcheinander. Shannon weist ausdrücklich darauf hin, daß er nichts über den Informationsgehalt, sondern nur über die Codierung. Ihm ist nur wichtig, daß eine lange Reihe gleicher Zeichen eben nicht viel Daten enthalten kann. Das heißt aber nicht, daß eine ungeordnete Folge Informationen enthalten muß, sie kann es lediglich! Aber wenn man einen Zufallsgenerator bemüht, dann hat das Ergebnis eben auch eine Hohe Entropie und es ist mühsamer, diese zu übertragen. --Homosapiens 01:13, 12. Sep 2006 (CEST)

Bin grad auf der Suche nach mehr Information über Entropie, aber im Zusammenhang mit Statistik - Informationsgehalt. Hier die Beschreibung aus dem englischen Duden von "Entropy": 1. Symbol S For a closed thermodynamic system, a quantitative measure of the amount of thermal energy not available to do work. 2. A measure of the disorder or randomness in a closed system. 3. A measure of the loss of information in a transmitted message. 4. The tendency for all matter and energy in the universe to evolve toward a state of inert uniformity. 5. Inevitable and steady deterioration of a system or society.

Entropie und Zeitrichtung

Dem Artikel ist meiner Meinung nach zu widersprechen. Zumindestens wenn die Zeitrichtung mit Hilfe der Entropie erklaert wird. Die uebliche Erklaerung des 2. Hauptsatzes stammte von Boltzmann und der erklaerte seine Entropieformel mit Hilfe der Wahrscheinlichkeitstheorie. Wenn es einen geordneten Zustand gibt, gibt es der Wahrscheinlichkeit nach viele ungeordnete Zustaende. So das die Wahrscheinlichkeit sehr hoch ist einen ungeordneteren Zustand des Systems in der Zukunft zu erleben. Aber diese Ueberlegung Bolzmanns ist symmetrisch. Ein gutes Beispiel: Ich habe eine Kiste mit 2 Kammern und ein Gas was sich in der Kiste befindet. Wenn ich einen geordneten Zustand erlebe ist die Wahrscheinlichkeit sehr hoch, das wenn ich das naechste mal in die Kiste schaue der Zustand ungeordneter ist. Aber genauso wahrscheinlich ist es das der Zustand des Gases in der Vergangenheit ebenso ungeordnetet war. Die Wahrscheinlichkeitsrechnung (auf die ja Boltzmanns Ueberlegungen beruhten) ist in dem Sinne zeitlich symmetrisch. Das Beispiel mit dem Film und der Vase (das gerne fuer die Erklaerung des Zeitpfeils hergenommen wird) ist meiner Meinung nach ein Trugschluss. Wenn dann muesste ich Bilder betrachten - denn der 2. Hauptsatz bestimmt nur einzelne Zustaende und keine Abfolge (Wahrscheinlichkeitstheorie). Demnach muesste ich mir 3 Bilder anschauen. Vergangenheit: Vase als Rohstoffe (ungeordnet) Gegenwart: Die Vase ist ganz. (geordnet) Zukunft: Die Vase ist zerbrochen. (ungeordnet) Auch das Beispiel der heissen Tasse ist eine Fehlbetrachtung: Wenn ich ein Bild mit einer heisen Tasse sehe (einen Zustand), dann ist es wahrscheinlich das im naechste Bild die Tasse abgekuehlt ist. Aber nichts in der Wahrscheinlichkeitsrechnung des 2. HS sagt uns, das das in der Vergangenheit nicht ebenso war.

Boltzmann selbst erkannte das Problem und das eine zukuenftige Zunahme der Entropie nur geben kann, wenn sie in der Vergangenheit niedrig war. Interessant waere es zu erfahren wie das mit dem Urknall zusammenhaengt.

Das Verinnen der Zeit duerfte eher ein psychologisches, neurophysiologisches Phaenomen sein und kein physikalisches (Eine Hypothese von Paul Davis sinniert ueber die Meoglichkeit, das Erinnerungen dem Gehirn negative Entropie zufuehrt, die Entropie des gesamten Gehirns aber dadurch ansteigt).

Vielmehr existiert die Zeit genauso wie der Raum exitiert. -- stefan 21:42, 23. Mai 2006 (CEST)

Die Anmerkung und die gemachten Analogien sind problematisch. Hier wird die Entropie mit der Ordnung eines Systems verwechselt. Um auf das Beispiel mit der Kiste zurück zu kommen. Mit einer gegebenen Transformation (zum Beispiel der Impulsstoß der Moleküle in diesem Fall, damit kenne ich mich nicht gut aus, ich bin Statistiker, leider kein Physiker) können sich sämtliche möglichen Zustände ineinander umwandeln - und zwar in diesem Fall reversibel und keiner der einzelnen Zustände ist wahrscheinilcher als der andere. Was die Entropie ausmacht ist folgendes: gibt es n Zustände, die sich in ihrer physikalischen Wirkung nicht unterscheiden lassen, dann sind diese als Gruppe genommen n mal so wahrscheinlich als ein einzelner Zustand. Darum müssen Systeme nach der Wahrscheinlichkeitstheorie auf ausgeglichene Verhältnisse zubewegen, bei denen in der Aussensicht keine Veränderungen wahrnehmbar sind- sich wie in diesem Beispiel Druckunterschiede ausgleichen. Jede einzelne Konfiguration der Moleküle in der Kiste, also als gedachte Momentaufnahme, ist erst einmal gleich wahrscheinlich.


Ich habe jetzt einmal - nach ein paar Tagen des Wartens - den Artikel bezueglich "von der Thermodynamik vorgegebenen Zeitpfeil" korrigiert. Weil die Grundaussage dieses Abschnittes einfach falsch ist. --stefan 22:05, 28. Mai 2006 (CEST)

Ich bin für Löschen! Da könnte man die Zeitrichtung anhand der Uhr erklären wollen. Die Zeitrichtung steckt im Wort "zunehmen", Boltzmann hat nur vergessen zu sagen, daß er das unter der Voraussetzung meint daß die Zeit vorwärts läuft... (weil es für einen Motor normalerweise auch nicht so einfach zu ändern ist). Man kann sich natürlich eine Menge schöne Gedanken zu dem Thema machen, aber muß das in der WP sein? Ein Hinweis auf die entsprechenden Autoren reicht vollkommen aus, wenn sie denn relevant sind. --Homosapiens 15:24, 29. Sep 2006 (CEST)

Entropie und Zeitrichtung im Moment des Big Bang

Kann mir mal jemand erklären, warum die Entropie im Moment des Big Bang klein oder null sein soll? Im Moment des Big Bang, also in der Singularität, ist die Entropie nicht definiert, sie kann irgendwas sein. Eine kurze Zeit später befinden wir uns in einem extrem heißen Medium, ich nehme mal an, dass das das Gegenteil des absoluten Nullpunktes mit Entropie = 0 ist. Die Teilchen (welche auch immer) und die Strahlung sind wohl im Zustand maximaler Entropie. Ich sehe keinen Grund, warum der Zustand irgendwie geordnet sein sollte. Im heißen Big Bang Modell gibt es keine Entropiezunahme, sie ist von vornherein maximal. Wer kann mir dieses Paradoxon erklären? --Tf 14:51, 7. Apr 2006 (CEST)

Erklärungsversuche aus verschiedenen Perspektiven basiert auf die Formel , die die Verbindung zwischen Entropie und (Zustands)Wahrscheinlichkeit darstellt. Ich gehe davon aus, Ω ≥ 1 (die Argumente gelten genauso, wenn wir aus mathematischer Sicht 0 ≤ Ω ≤ 1, aber in dem Fall wäre Nullentropie groß und nicht klein!)
  • Entropie als Maß für Zustandswahrscheinlichkeit: Im Augenblick des Big Bang haben die Teilchen, "welche auch immer" :-), genau einen möglichen Zustand und ln(1) = 0. Mit der Zeit tauchen "neue" mögliche Zustände auf und die Entropie nimmt unbedingt zu!
  • Entropie als Maß für Energieverteilung: Am Anfang war die Energie hochkonzentriert (Entropie = 0). Genau wie wir steigende Entropie heute erleben, z.B. wenn die heiße Pfanne spontan abkühlt und die Wärme sich in den Raum verteilt, stieg die Entropie als die Energie sich ausdehnte (verteilte).
  • (heutzutage oft unbeliebt) Entropie als Maß für Unordnung: Je größer die Unordnung, desto höher die Entropie. Zwar im Feuer des Big Bang ging's richtig zu, aber es war zugleich verdammt eng. In diesem Zustand des Universums war die räumliche Ordnung am größten; Entropie war Null.
  • Entropie als Maß für "Unwissenheit" (s. Artikel!): Nullentropie bedeutet nun, dass wir alles wissen! Je höher die Entropie, desto weniger "wir" wissen. Nun: Im Augenblick des Big Bang konnten wir eigentlich überhaupt nichts wissen, da es uns gar nicht gab :-)! Aber wenn es uns gegeben hätte, dann hätten wir genau gewusst, wo und wie "alles" war. Oder, anders betrachtet, gab es gar nicht so viel zu wissen. So oder so, die Entropie war 0 und wiedermal, mit der Zeit, gab es mehr und mehr zu wissen oder eben mehr "nicht wissen zu können" (Unwissenheit)
--Methylene Blue 01:57, 23. Apr 2006 (CEST)

Die Entropie eines Systems kann sich auch ohne Zufuhr von Wärme ändern (Bsp.: Platzen einer Membran in einem wärmeisolierten Behälter, dessen eine Hälfte mit einem beliebigen Fluid gefüllt ist und dessen andere Hälfte evakuiert ist). dS=dQ/T ist die Entropiebilanzgleichung für ein geschlossenes System, in dem eine reversible Zustandsänderung (ohne Entropieerzeugung) abläuft!

Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin!

Beispiele:

1. Die Umwandlung von potenzieller in (geordnete) kinetische Energie ist reversibel. Auch ist die Umwandlung dieser beiden Energieformen in Wärmeenergie (ungeordnete kinetische Energie) möglich. Die umgekehrte Umwandlung ist für ein Gesamtsystem jedoch nicht möglich.

Anmerkung: Eine solche Umwandlung kann mit beliebig kleinen "Reibungsverlusten" geschehen, das ist beispielsweise doch gerade der Witz am Carnot-Prozess: Arbeit aus Wärme! Ganz genau so kann die Umwandlung von kinetischer in potentielle Energie mit beliebig kleinen "Reibungsverlusten" geschehen (die man real auch nie vollständig eliminieren kann). Es gibt hierbei KEINEN prinzipiellen Unterschied zwischen beiden Energie-Umwandlungs-Vorgängen. Der Carnot-Prozess wird weiter unten im Artikel dann auch noch einigermaßen richtig diskutiert, mit anderen Worten: der Artikel widerspricht sich selbst!

2. Die Entropie bringt also zum Ausdruck, zu welchem Grad die Energie in einem System in ungeordneter Form vorliegt.

Entropie läßt sich nicht irgendwelchen Zuständen, sondern nur irgendwelchen Zustandsbeschreibungen zuordnen. Sie ist ein linear additives Maß für die Größe des Raums der Realisierungsmöglichkeiten einer gegebenen Systembeschreibung. Insofern macht es keinen Sinn, von der "Unordnung eines Systems" zu sprechen. Systeme sind blind. Die haben keinen Ordnungssinn!

3. Hierdurch unterscheidet sich die Thermodynamik von den anderen physikalischen Theorien, die meist keine Zeitrichtung auszeichnen. (...) Es gibt bisher keine Theorie, welche die Irreversibilität makroskopischer Erscheinungen, ausgedrückt durch den Entropiebegriff, aus den bekannten Gleichungen der Mechanik oder der Quantenmechanik ableiten kann. (...) Da die Entropiezunahme die Zeitrichtung angibt, spricht man auch vom thermodynamischen Zeitpfeil.

Der Grund, warum es hier keine "Theorie" gibt, ist, daß von denen, die das verstanden haben, das jeder als so banal angesehen hat, daß sich niemand die Mühe gemacht hat, das aufzuschreiben. Die Sache ist ganz einfach: wir haben einen Satz "Daten", die ein System unvollständig beschreiben, und wollen wissen, wie das System in der Zukunft ausschaut. Unter gewissen "harmlosen" mechanischen Annahmen über die Mikrophysik (Phasenraum-Inkompressibilität) erhalten wir sofort, daß wir zu keiner Zeit mehr über das System wissen können, als zu der Zeit, als wir die Daten erhoben haben. Wir können das System freilich immer durch "zur Zeit t0 hat's so ausgesehen, dass es sich partiell durch S0 beschreiben läßt" beschreiben - und haben durch so eine Beschreibung NULL Entropieverlust, egal, zu welcher Zeit wir diese Beschreibung abgeben. Genau das sagt gerade die Zeitentwicklung der Entropie über Liouvile-van-Neumann. Interessant wird's, wenn wir das System zu einer Zeit t/=t0 in "menschlichen" Begriffen beschreiben wollen, die unter Zeitentwicklung des Systems nicht erhalten bleiben. Dann kann die Konsequenz nur lauten: das, was ich für die Zeit t/=t0 hinschreiben kann, was diese anthropischen Begriffe benutzt, sagt mir weniger über das System aus, als die Beschreibung zur Zeit t0. Wenn ich über das System etwas weiß, kann ich daraus immer auch eine weniger genaue Beschreibung des Systems basteln. Wenn ich eine genauere Beschreibung als die basteln will, die ich habe, muss ich irgendwie phantasieren. 3+5=8. Ich seh's der 8 nicht an, daß sie aus einer 3 und einer 5 gemacht wurde. Das ist es. Und nicht mehr.

Fazit: Gegeben eine Beschreibung B eines Systems S zur Zeit t0 in menschlichen Begriffen. Wenn ich das System niemals wieder anschaue, aber die Mikrophysik kenne, und zur Zeit t1/=t0 wieder eine Beschreibung in menschlichen Begriffen B' finden will, umfaßt die notwendigerweise eine größere Zahl von Realisierungsmöglichkeiten. Die Verwendung elementarer logischer Schlußfolgerungen kann die Menge an verhandenen Daten verkleinern, aber nicht vergrößern. Das bedeutet, daß die Entropie von B' immer größer ist als die von B. Unabhängig davon, ob t1 in der Zukunft oder in der Vergangenheit liegt. Ich kann von einem Glas Tee der Temperatur 40 Grad nicht sagen, wie das System vor einer Minute ausgesehen hat. 152.78.153.226 20:14, 17. Mai 2005 (CEST) doctom

Hör mal Kamerad, jetzt komm doch nicht mit Argumenten! Wenn du nicht eine Literaturstelle bringst, die mindestens 300 Jahre alt ist, hast du hier keine Chance! Und was wäre, wenn jemand was verstehen würde? Hast deinen Hans Christian Andersen wohl nicht gelesen? Und falls das nicht reicht: Das eigene Nachdenken ist eine unzuverlässige und mit Recht ungern gesehene Quelle für die Wikipedia! (Verfasser bekannt, erhebe kein Urheberrecht). Übrigens: ich empfehle das Anlegen zumindest eines Tarnnamens, damit man über die Beitragsliste besser weitere solche destruktiven Ausführungen finden kann! RaiNa 20:25, 17. Mai 2005 (CEST)

Hallo Unbekannter, lass Dich nicht von Sprücheklopfern entmutigen. Ich finde, dass Deine Einwände völlig korrekt sind. Der Artikel ist nun einmal durch die Zusammenführung eine Baustelle und Du bist herzlich eingeladen, selbst die Schüppe in die Hand zu nehmen. --Markus Schweiß, @ 20:32, 17. Mai 2005 (CEST)

Hör mal Kamerad, das oben war einfach Ironie. Wirst es schon verstanden haben. Da ich unterzeichne, kann man mir auch einen Email schicken. Du siehst ja, dass ich auch schon mal gemeckert habe und zumindest versuche, etwas plausibler zu argumentieren. Nur, Änderungen in Texte einfließen zu lassen, kann ich mir abschminken, da waltet Cerberus.RaiNa 23:38, 17. Mai 2005 (CEST)

Kann den obigen Ausführungen nur zustimmen, der Artikel weist einige Schwachstellen auf und ist teilweise schlichtweg falsch oder mißverständlich. Vor allem fehlt der wesentliche Bezug zu den Erhaltungsgrößen des Systems, ohne den ein korrektes Verständnis der Entropie erschwert wird. Ich werde mir da etwas überlegen, so kompliziert ist es ja in Wirklichkeit nicht, wenn man die Begriffe sauber aufschreibt. Ach ja übrigens, man kann einem einzelnen (reinen) Zustand eine Entropie zuordnen, indem man den Dichteoperator betrachtet, der den Projektor auf eben diesen Zustand darstellt. Der hat die Entropie Null. Was nichts anderes bedeutet, als das ich genau weiß in welchem Zustand das System sich befindet. Entropie ist eben kein Maß für die Unordnung, sondern für die fehlende Information über das System, wenn man nur über eine begrenzte Anzahl von Observablen verfügt. David314 20:31, 20. Mai 2005 (CEST)

Hallo David314, es wäre geschickt, eine Benutzerseite anzulegen und die Möglichkeit zu eröffnen, eine Email zu schicken. An physikalischen Artikeln irgend etwas so zu verändern, dass auch physikalisch ungebildete Menschen einen Bezug zu ihrer Lebens- und Begriffswelt erkennen und ihre Denkstrukturen auch auf physikalische Zusammenhänge erweitern zu können, ist hier für ein Individuum nicht möglich. Der puren Masse kann nur durch pure Masse entgegnet werden. Und der Unterschied zwischen träger Masse und schwerer Masse ist nur bei Masse nicht gegeben. Geist hat wahrscheinlich eine sehr kleine schwere Masse, aber eine ungeheuere träge Masse, insbesondere, wenn man sein Leben der Monochromatik verschrieben hat.RaiNa 21:19, 22. Mai 2005 (CEST)
David314 hat eine Email-Adresse hinterlegt, so dass Du ihm per Email Sachen sagen kannst, die unter Euch bleiben sollen. Ansonstem bitte ich darum, das ständige Pöbeln über andere Mitarbeiter einzustellen. --Pjacobi 21:32, 22. Mai 2005 (CEST)
Vielleicht bin ich einfach noch nicht darüber belehrt worden, wie man diese Emailadresse findet. Jedenfalls ist in meinem Browser die Benutzerseite David314immer noch leer. Jedenfalls bin ich durch eigenes Nachdenken, (unter Vermeidung des gleichzeitigen Öffnens von Wikipedia) nicht auf die Adresse gekommen. Ansonsten wurdet es mich, wieso man hier von Mitarbeitern redet. Hier gibt es Administratoren und Nichtadministratoren. Und pöpeln kommt wohl von "Peuple". Daran sehe ich nichts ehrenrühriges, wird ja auch die Eucharistie zwischenzeitlich in der Sprache des Volkes gefeiert. Aber hier scheint es mir immer noch besser, Hoc est corpus meam durch Hokuspokus anzunähern. RaiNa 21:49, 22. Mai 2005 (CEST)
Du gehst auf seine (leere) Benutzerseite und drückst den Knopf "Email an diesen Benutzer". --Pjacobi 22:19, 22. Mai 2005 (CEST)
Danke RaiNa 23:09, 22. Mai 2005 (CEST)
Kein Problem, mach das einfach mal. Ich bin selbst nicht so der ganz große Thermo-Spezialist, ich habe es lieber mit den einfach zu verstehenden Beispielen :-)) --Markus Schweiß, @ 21:48, 20. Mai 2005 (CEST)
Falls "mein" Humor-Beitrag rausfliegt und dafür Entropie besser erklärt wird, dann ist das auch okay. Es ist aber eben nicht leicht, Entropie so zu erklären, dass Nicht-Mathematiker und Nicht-Physiker noch folgen können. Und genau diese Zielgruppe hat es nötig, Entropie besser zu begreifen. Die Profis haben es doch ohnehin g'studiert. Wichtig ist auch, keine Arroganz gegenüber "anschaulichen" oder "das Gefühl" ansprechenden Erklärungen zu entwickeln. Wenn also mein Versuch, Entropie etwas verständlicher zu machen, daneben gegangen sein sollte, dann drücke ich David314 den Daumen, dass es ihm besser gelingt. --Götz 22:00, 20. Mai 2005 (CEST)
Zu diesem Thema hat Huw Price (Philosoph an der Universität in Sydney) von der modernen Interpretation abweichende These geschrieben (Time's Arrow and Archimedes' Point - New Directions for he Physics of Time (Oxford University Press 1996 ISBN 0-19-510095-6) - Price nennt Voreingenommenheiten in der modernen Physik als Ursache: Wir glauben, dass wir die Zukunft verändern können, aber nicht die Vergangenheit. Er koppelt dies mit dem philosophischen Konzept der Kausalität, welche von der Physik weitgehend ignoriert wird aber in der Philosophie grundlegende Voraussetzung ist. Schlußendlich postuliert er eine Kausalität die bi-direktinal bezüglich dem "Zeitpfeil" wirken kann und zeigt, wie ein solches Konzept in der Quantenphysik Widersprüche auflösen kann. Ich bin nicht in der Lage, seine Thesen zu bewerten, Ilya Prigogine kommentierte: "A significant contribution, remarkable for its scope" Yotwen 11:46, 11. Aug 2006 (CEST)

Ältere Diskussion

Rudolf Clausius

bitte beachten und evtl in den artikel einfuegen



Marke1: Es soll nochmals angemerkt werden: Die Entropie eines Systems ist das Integral über die zugeführte Wärmemenge, geteilt durch die Temperatur des Systems im Moment der Wärmezufuhr. Somit kann ein System ohne Energie, also bei Temperatur 0 keine Entropie haben. Führt man eine minimale Energiemenge zu, so ist der Entropieinhalt eigentlich unendlich, da man durch Null teilt. Jede weitere Energiezufuhr (nun bei Temperatur > 0)erhöht die Entropie. Insofern sollte die Entropie keinen absoluten Wert haben, vielmehr geht es immer um Differenzen.

(Anmerkung hierzu: das ist Quatsch. Waermekapazitaeten gehen immer mindestens genausoschnell gegen null wie die Temperatur. Typischerweise wie a*T^(-1) (Leitungselektronen) +b*T(-3) (Phononen). Damit bleibt das Integral endlich, und der 3. HS ist sinnvoll!) 164.15.131.28
Das wiederum ist Quatsch². Ich habe ein absolut energiefreies System. Das hat definitiv die Temperatur 0. Jetzt führe ich Energie zu.... Das ist doch nur eine Überlegung die zeigt, dass das, was ansonsten im Artikel steht, einfach nicht überlegt ist. Auch wenn das Integral endlich ist, ist es keineswegs 0, wie behauptet. Da es im Leben nachher nur um den Entropieunterschied geht, kann man wohl den Wert auch definieren. Es sei denn, es gibt Experimente, die eine Festlegung der Integrationskonstante ermöglichen.
Dann muss man sich auch klar machen, dass es ein System ohne Energie auch nicht gibt. Wir haben immer die Nullpunktsenergie. Das extremste was man sich vorstellen kann ist ein Kristall, bestehend aus zwei Stücken Bose-Einsteinkondensat, einen Harmonischen Oszillator bildend.
Ich kann nicht erkennen, und ich hoffe, mit mir viele, wie man Entropie definieren sollte, ohne mindestens zwei Größen benennen zu können. Also, bitte sucht irgend etwas sinnvolles für die Informationsentropie, wenn schon 99,99% der Information sowieso redundant ist.(Bitte nicht auf Kommastelle festnageln)RaiNa 13:54, 15. Feb 2005 (CET)

Ein Blick in *irgend* ein Festkörper-Lehrbuch würde zeigen, daß (1) ich recht habe, was das Verhalten der Wärmekapazitäten bei tiefen Temperaturen angeht, und damit (2) das Integral C dT/T der abgegebenen Wärmemenge pro Temperatur (also die Entropieerniedrigung) bis zum absoluten Nullpunkt fortgesetzt werden kann. Das uneigentliche Integral existiert, und man kann den thermodynamischen Entropienullpunkt ganz klar und eindeutig für eine reine, regelmäßig kristallisierende Substanz am absoluten Nullpunkt setzen.

Ja, das Argument ist gut und trifft es|zu. Denn es beschreibt eine begrenzte Situation und lässt durchaus zu, zu fragen, was ist ausserhalb. In Bereich Entropie geht es ja hin und her, da kann man nicht immer alles lesen. Wenn man also definiert! dass ein System mit Nullpunktsenergie die Entropie 0 hat, dann kann man darauf aufbauen. Jetzt regt man den Oszillator mit dem niedrigsten Energieniveau an und damit ändert sich der Entropiewert. Nur, in solchen Situationen redet man ja noch nicht von Temperatur, da kennt man die möglichen Zustände ja noch beim Namen und begrüßt sie mit Handschlag. Entropie ist halt Statistik und es macht auch keinen direkten Sinn, die Entropie eines Hammers in einem Mol H2 auszurechnen ;) Zwei Gründe gibt es, warum ich versuche, möglichst einfach darzustellen, was Entropie ist: Einmal, die Entropie nimmt zu. Das gilt auch für obiges, unsinniges Beispiel. Und diese Erkenntnis kommt unter die Räder, wenn man das Beispiel als unsinnig abtut. Sie kann aber sehr wichtig sein, wenn man etwa darüber streitet, wie der Geist "funktioniert". Das zweite ist, dass man den Begriff in die Informationstheorie einführt nach dem alten Motto, wenn Du etwas nicht verstanden hast, führe einen neuen Begriff ein, wiederhole ihn ausreichend oft, und Du wirst zum gefragten Spezialisten. Denn, und das kommt nun im Artikel gottseidank ausreichend heraus, der Begriff der Unordnung ist so ziemlich das ungeeignetste, was man sich hat einfallen lassen können. Hoffnung wächst! RaiNa 10:18, 16. Feb 2005 (CET)

Sodann kann man sich folgendes klarmachen: Man füge einem System eine minimale Energiemenge dE zu bei Temperatur T0, die Entropiedifferenz ist dE/T0, die Temperatur erhöht sich um dT. Dann entziehe man dem System die Energiemenge dE wiederum. Die Entropiedifferenz ist nun dE/(T0+dT). Da man real den mathematischen Übergang lim dE->0 nicht machen kann, würde dies bedeuten, dass man bei wiederholtem Durchlaufen der Schleife die Entropie eines bestimmten Zustandes beliebig groß machen kann. Folglich sind reversible Prozesse in abgeschlossenen Systemen nicht möglich.

Insofern ist die Frage, ob eine Entropie für Daten existieren kann, wenn man keine Angabe zu der beinhalteten Information macht, zumindest zu stellen. RaiNa 17:26, 29. Sep 2004 (CEST)

RaiNa, wenn du die alten Quellen hast, schreib doch mal was über die Geschichte der Entropie. Obwohl Clausius die Entropie "erfunden" hat, beschrieb erst Boltzmann eine schlüssige Theorie auf statistischer Grundlage. Clausius wird schon gewusst haben, dass man die Temperatur 0 nicht erreichen kann, aber er konnte noch nicht genau wissen, warum. Entropie von Daten gibt es überhaupt nur, wenn man den Informationsgehalt betrachtet. Ich habe auch schon darüber nachgedacht, wie man die Entropie dieses Themenkomplexes in wikipedia senken kann, aber die Wahrscheinlichkeit des gegenteiligen Effekts lässt sich nur mit einem sehr scharfen Energiewert im besten heisenbergschen Sinne minimieren, und der fehlt mir leider. Nopherox 21:20, 14. Feb 2005 (CET)

Anmerkung:

Die Charakterisierung "Die Entropie ist ein Maß für die Unordnung oder Zufälligkeit eines Systems" ist falsch. Die Entropie ist eine Zustandsgröße eines Systems, sie hat in unterschiedlichen Zuständen des Systems unterschiedliche Werte. Daher kann sie kein Maß für die Unordnung eines Systems sein. Wenn schon, dann ist die ein Maß für die Unordnung des Systems in einem bestimmten Zustand. (Tostro)

(Entropie ist ein Mass fuer die Zahl der Realisierungsmoeglichkeiten eines Makrozustands. Aber bitte nicht "Quantenzustands". Die zentrale Eigenschaft ist die Additivitaet fuer unabhaengige Systeme, deswegen ist sie proportional zum Logarithmus der Zahl der Mikrozustaende.)

Negentropie

Ich bin kein thermondynamik Experte. Tatsächlich wollte ich mein Wissen darüber bei Wikipdia aktualisieren; Aber einen Diskurs ueber "Negentropie" gibt es in der Physik meines Wissens nicht. Aus Sicht der Physik ist die Tatsache, dass andere Wissenschaften lieber 1/Entropie als Einheit verarbeiten ist zwar interessant, führt aber zu keinem Diskurs.

Der Abschnitt klingt so, als gaebe es da noch ein geheimnis: das ist meines wissens nicht der Fall.

ein x-bel. physik student

Es gibt gibt physikalisch keine Temperatur 0 ohne Masseinheit. Wenn eine Temperatur beschrieben werden soll, dann sollte sie immer eine Masseinheit haben, In diesem Fall evtl. 0 (Null) Kelvin.

Ein Heizungs-Lüftungs- und Klima-Techniker

Nicht 1/Entropie, sondern -1×Entropie. Ausgedacht hatte sich das - glaube ich - Erwin Schrödinger (Buch: What is Life?) --Götz 10:46, 27. Jan. 2007 (CET)

Drohende Missverständnisse

(Aus dem artikel hierher verschoben)

2. Entropie als Unordnung???

Die weitverbreitete Vorstellung, Entropie habe etwas mit einer geometrisch verstandenen Unordnung zu tun, ist fehlerhaft und hat bisher zumeist verhindert, die Entropie als Quantenphänomen richtig zu verstehen. Im Vorwort zum Lehrbuch: Physik der Wärme, von CH. KITTEL und H. KRÖMER, heißt es: Ohne Quanten-Begriffe gibt es keine diskreten und damit abzählbaren Zustände und ohne abzählbare Zustände bleibt die Entropie unverständlich.

Quelle: [1]

(Das ist auch nicht richtig. Es ist sehr wohl moeglich, in einer klassischen Welt auf hoeherdimensionalen Mannigfaltigkeiten ein Mass einzufuehren, und das zu benutzen, um ueber Entropiedifferenzen zu sprechen.)

Entropie beschreibt nicht die "Unordnung eines Systems"

(Aus dem artikel hierher verschoben)

WICHTIG: Dieser Artikel ist konzeptionell fehlerhaft. Entropie beschreibt nicht die "Unordnung eines Systems" (die sich objektiv gar nicht definieren liesse), sondern ist ein für unabhängige Systeme linear additives Maß für die Größe des Raums der Mikrozustände, die eine gegebene 'Beschreibung' eines Systems realisieren: Entropie wird damit 'Beschreibungen' von Systemen, und nicht den Systemen selbst zugeordnet!

Toll! Da sind wir ja wieder da angekommen, wo wir immer schon gerne sein wollen. Anstatt dass man sich die Mühe macht, den Artikel zu überarbeiten und die Kritik einzubauen, wird sie rausgenommen, damit der unbedarfte Leser weiter ungestört den alten Fehlern nachhängen darf. Um die Frage zu beantworten, warum ich selbst das nicht tue? Ich habe genügend oft Prügel eingesteckt und keine Lust mehr. RaiNa 15:43, 6. Feb 2005 (CET)

RaiNa, sei doch bitte nicht so restriktiv. Das mit der Unordnung geht eigentlich in Ordnung, wenn man mir erklären kann, wieso der Urknall ein geordnetes Universum ertunnelt hat, dass dann immer unordentlicher wurde ;)) Yotwen 09:54, 21. Aug 2006 (CEST)

Überarbeiten

Dieser Artikel ist redundant und erhöht damit die Entropie der wikipedia in einem hohen Ausmaß. Kann nichtmal jemand die vielen Artikel über Entropie restrukturieren? Wenn dieser Artikel hier Sinn macht, doch dann nur, um einen kurzen Überblick zu geben. In Entropie (Physik) und Entropie (Informationstheorie) gibt es viel präzisere und korrektere Erläuterungen, und die sind z.T. auch noch redundant. Was allenfalls noch fehlt, ist ein Artikel über Die Mystik der Entropie oder so. --Nopherox 21:52, 14. Feb 2005 (CET)

81.242.232.94 00:58, 26. Apr 2005 (CEST)

Das Problem ist leider gerade, dass einiges, was in den Entropie-Artikeln so steht, falsch und zudem irrefuehrend ist. Es gab hier schon mal eine aeltere Fassung eines knappen Entropie-Artikels, der alle Facetten gebuehrend beleuchtet hat, alle Missverstaendnisse ausgeraeumt hat, insbesondere auch im Detail gezeigt hat, warum die informationstheoretische Entropie und die physikalische Entropie haargenau dasselbe sind. Der wurde aber leider komplett weg-erodiert.

Ja, es ist moeglich, Entropie umfassend und korrekt so zu erklaeren, dass alle der vielen verbreiteten Missverstaendnisse angesprochen und ausgeraeumt werden, und jeder mit hinreichend Nachdenken verstehen kann, worum es bei der Entropie eigentlich geht. Allerdings frage ich mich inzwischen ernsthaft, ob es nicht einen so starken latenten Drang gibt, sich lieber vom Entropie-Begriff verwirren zu lassen, dass so eine Erklaerung in der Wikipedia keinen Bestand haben kann. Irgendwie finde ich das jedenfalls arg traurig, zumal der erste Treffer auf google.de zum Thema "Entropie" dieser Wikipedia-Artikel ist.

Ich moechte euch bitten, noch mal einen genauen Blick auf diese Version zu werfen:

http://de.wikipedia.org/w/index.php?title=Entropie&oldid=4551968

Ja, das ist knapp. Ja, das ist nicht ganz einfach zu verstehen. Ja, in dem Artikel ist alles drin, was man braucht, um diese unselige Zersplitterung des Entropie-Begriffs aufzuheben. Und ja: er raeumt alle Missverstaendnisse aus, die die Physiker, die auf Wikipedia "Entropie" nachschlagen, gerne geklaert haetten.

Zum neuen Artikelstand 2005-02-17

Nach diesem "Befreiungsschlag" ist es wohl adäquat, auch die Diskussionsseite zu entrümpeln.

Erst mal danke für die Verbesserung von Tippfehlern.

Was die Zergliederung des Inhalts anbelangt, so weiß ich nicht, ob das eine gute Idee ist, weil sie dem Leser viel zu stark suggeriert, hier würden unabhängige Aspekte nebeneinander kurz in wenigen Sätzen erklärt, wohingegen die wirklich interessanten Dinge (also auch das, was normalerweise Mißverständnisse verursacht) zwischen diesen verschiedenen Aspekten geschehen. Das war in meinem ursprünglichen Artikel durchaus überlegt und mit Absicht so strukturiert.

Nachgetragen: 16:36, 17. Feb 2005 Benutzer:Doctom

Ich habe die alte Diskussion wiederhergestellt. --Pjacobi 16:54, 17. Feb 2005 (CET)
An dem Einwand gegen die Zergliederung ist was dran. Andererseits ist in dem Artikel schon Einiges drin, das vielleicht über das hinausgeht, was man Enzyklopädielesern zumuten kann. Das ist nicht als Kritik gemeint. Darum mein Versuch, den Artikel durch Unterteilung etwas aufzulockern. Vielleicht reichen ja auch nur ein paar klarere Absatzbildungen um aus der Zergliederung eine Gliederung zu machen. --Götz 23:20, 17. Feb 2005 (CET)

"Oma-Test"?

Was würden bloß unsere Großmütter von diesem Artikel verstehen? Würden sie auch nur ansatzweise begreifen, was in etwa der Begriff umschreiben soll?

Entschuldigung, aber ich als Medizinstudent und "Ex-Physik-Gutseier" in der Schule kann im Prinzip der jetzigen Form des Artikels in den ersten zwei Sätzen kaum entnehmen, worum es bei diesem (zugegebenermaßen abstrakten) Begriff (ich kannte ihn von der Thermodynamik) eigentlich auch nur grob gehen soll... Ich weiß, dass es schwierig sein kann, so abstrakte Begriffe relativ schnell und auch noch möglichst "präzise" zu beschreiben, aber wir (Ihr?) müssen uns dennoch mit solchen "Trivialitäten" abgeben, sonst werden NaturwissenschaftlerInnen (und auch Angrenzendes, wie MedizinerInnen) funktionell zu einer Art unverständlicher, moderner, quasi-magischer "Priester-Kaste" für die Laien... ;-) Immerhin soll ja bei der Wikipedia auch ein zwanzigjähriger, sagen wir, Hobby-Lyriker, der über das (mystisch) klingende Wort stolpert, "kurz mal" nachschlagen können, was - ganz im Groben - das eigentlich ist! Oder?

Vielleicht kann ich mit einem Zitat illustrieren:

en·tro·py, n. pl. en·tro·pies
1. Symbol S. For a closed thermodynamic system, a quantitative measure of the amount of thermal energy not available to do work.
2. A measure of the disorder or randomness in a closed system.
3. A measure of the loss of information in a transmitted message.
4. The tendency for all matter and energy in the universe to evolve toward a state of inert uniformity.
5. Inevitable and steady deterioration of a system or society.
(nach http://dictionary.reference.com/search?q=entropy)

Gut, es ist ein englischsprachiger Lexikoneintrag, aber er hilft Laien doch ganz gut, eine erste Verortung des Begriffs vorzunehmen, auch wenn ja offensichtlich mindestens Punkt 2 verfälschend dargestellt ist...

Vielleicht würde es Laien (die bestimmt öfter, als man so denkt, mal über so einen Begriff stolpern, via Science-Fiction z.B.) schon helfen, wenn man einfach eine vielleicht simplifizierende, aber doch definierende Einleitung schreibt, oder zumindest den etwas "anschaulicheren" Statistik-Abschnitt weiter nach oben verlegt (v.a. wegen des treffenden Beispiels, welches so ähnlich bestimmt schon mal den einen oder anderen beschäftigt hat und durchaus allerlei [alltags-] philosophische Probleme anschneidet)?

Ich bin mir dessen bewusst, dass das mal einfacher so eben gasagt als realisiert ist, aber ich bitte darum, dieses Anliegen dennoch ernst zu nehmen, denn die Wikipedia soll schließlich auch Nicht-Fachleuten die Welt (zumindest das Stichwort) erklären, und der Welt schadet's sicher auch nicht, wenn mehr Omas physikalisch-philosophische Konzepte / Begriffe kennen lernen - hilft halt beim (begrifflich) sauberen Denken ;-) -- marilyn.hanson 21:04, 19. Feb 2005 (CET)

Da ist was dran. Wenn der Stil der Entropie-Erklärung so ist, dass Leute, die diesen Stil verstehen, ohnehin nicht nötig haben, Entropie erklärt zu bekommen, dann ist die "Oma" schon gleich ganz verloren. --Götz 10:34, 23. Feb 2005 (CET)

Von den Problemen mit pseudowissenschaftlich belasteten Begriffen

Leute... Das *ganz* große Problem, das die Wikipedia hat, ist, daß gerade ganz speziell zu irgendwelchen physikalischen Themen durch Hawking und Co ein Haufen Populär-Pseudowissen durch die Köpfe der Menschen geistert, und gerade die Wikipedia jetzt auch noch eine Plattform bietet, die es Laien ermöglicht, dieses Pseudowissen als enzyklopädische Definition zu zementieren. Kann ja gut sein, daß das genau das ist, was die Wikipedia eigentlich sein will: eine Plattform die es erlaubt, jeden Begriff in einer möglichst platten Form darzustellen, ohne Rücksicht darauf zu nehmen, was denn Experten zu diesem Thema zu sagen haben. Von mir stammt die Neufassung, die dem derzeitigen Artikel zugrunde liegt, http://de.wikipedia.org/w/index.php?title=Entropie&oldid=4532533, und im folgenden zuerst ein wenig mit zusätzlichen Links und der Umstellung auf die offizielle Rechtschreibung verschönert, dann nach und nach aber wieder verhuzelt wurde mit Teilen, die da einfach nicht rein gehören, wie z.B. dem "Humor"-Abschnitt - oder wenn man so will auch schon der Neugliederung, die die vereinheitlichende Diskussion, die alle Aspekte des Begriffs unter einen Hut zu bringen versucht hat. Was ist denn bitte an dem folgenden ursprünglichen ersten Satz für einen der deutschen Sprache mächtigen Leser nicht zu verstehen?

"Der Begriff der Entropie wurde ursprünglich von Rudolf Clausius in der (phänomenologischen) Thermodynamik eingeführt, um eine quantitative Analyse der Frage zu ermöglichen, welche Prozesse in der Natur von selbst ablaufen können, und welche nicht."

Entropie = quantitative Größe; hilft, zu trennen, was von selbst geschehen kann, und was nicht von selbst passiert. Das sollte man doch wohl noch jedem zumuten können, oder?

Es tut mir ja furchtbar leid, wenn anscheinend die Mehrheit der Wikipedianer mit genau der Erwartungshaltung den Entropie-Artikel abruft, da drin ihre naive Populär-Vorstellung, "Entropie sei ein Maß für die Unordnung eines Systems" in freundlichen Lettern bestätigt zu sehen. Nein. Das stimmt so einfach nicht. Das ist einfach nur großer Käse, der aber leider so verbreitet ist, daß man ihn heute auch schon in vielen Physik-Lehrbüchern findet, die Thermodynamik zwar nicht zentral behandeln, aber streifen.

Schaut euch bitte meinen ursprünglichen Artikel noch mal an. Der hat mehr zu bieten als so ziemlich jede Entropie-Definition, die man sonstwo finden kann. Alle Fragen, die sonst normalerweise immer im Zusammenhang mit Entropie irgendwie Verwirrung stiften, werden da kurz und vor allem direkt nachvollziehbar(!) (sofern man das nötige Hintergrundwissen hat - aber nur jemand, der diese Details geklärt haben will, schlägt das ja nach) beantwortet. Die mysteriöse Zeitsymmetriebrechung, die es nicht gibt, Das keine-Entropieerzeugung-in-der-Quantenmechanik-Paradoxon, wie man denn nun "Unordnung" quantifiziert (gar nicht!), und so fort.

Wenn ihr's wirklich so wollt, können wir den Begriff vielleicht spalten:

(1) Entropie

(2) Populärwissenschaftliche Entropie - hier wird Entropie so erklärt, wie nicht physikalisch vorgebildete Leser das gerne lesen würden. (Ist zwar horrend falsch, aber genau das, was jeder hier als Erklärung erwartet.)

Wer "Populärwissenschaft" nicht richtig erklären kann, vermag vielleicht auch "Entropie" nicht so gut zu erläutern. (Das ist zugegebenerweise eine Vermutung und kein logischer Schluss.) Es gibt keine "populärwissenschaftliche Entropie". Es gibt populärwissenschaftlich erklärte Entropie. Populärwissenschaftliche Erklärungen sind nicht notwendigerweise falsche Erklärungen. Populärwissenschaftliche Erklärungen sind nicht notwendigerweise pseudowissenschaftliche Erklärungen. Sind Wissenschaftler sehr gut, dann können sie frei von Arroganz auch gut populärwissenschaftlich erklären. Sie schaffen Wissen. Erwin Schrödinger gab hier gute Beispiele.
Vielleicht kann man hier mal ohne Unterstellungen hinsichtlich der Erwartungshaltung "nicht physikalisch vorgebildete Leser" und vielmehr mit Respekt für die "Oma" populärwissenschaftliche Entropieerklärungen sammeln. Wenn dabei mein "Humor"-Absatz wegen einer besseren (Benchmark: Oma-Test) Erklärung rausfliegt, warum nicht? --Götz 21:05, 18. Mär 2005 (CET)
Bemerkung hierzu: Was erwartet man von einem Lexikon-Artikel zum Thema Entropie? Vielleicht, daß er den Begriff "Entropie" korrekt erklärt?
Richtig. Vielleicht gelingt sogar eine populärwissenschafttliche und korrekte Erklärung. --Götz 21:56, 19. Mär 2005 (CET)

Doppeleintrag

Entropie und Entropie (Physik) -- Diese Artikel führen eine unerbauliche Parallelexistenz. Mein Vorschlag wäre "Entropy (Humor)" zu entsorgem, einen getrennten Artikel Entropie (Informatik) zu erstellen, den Rest von Entropie kritisch sichten und ggfs in Entropie (Physik) einzuarbeiten, und schlussendlich aus Entropie eine BKL zu machen. --Pjacobi 22:01, 23. Mär 2005 (CET)

+ Entropie (Informationstheorie). Vielleicht kann ja Entropie (Humor) in Entropie (Philosophie) weiterleben... Anton 22:27, 23. Mär 2005 (CET)
Immerhin freundlich, dass Humor nicht ganz verschwinden soll ;-) Allernings, mit Philosophie hat der Humor, an den ich denke, eher weniger zu tun, denn er basiert ja darauf, dass mit physikalischen Unmöglichkeiten Schabernack getrieben wird. So kann er bei der Veranschaulichung von Entropie helfen. Ich bin auch dafür, aus Entropie eine BKL zu machen, aber bitte die Vorgeschichte nicht verschwinden lassen. In Entropie (Physik) werde ich nach dieser Restrukturierung versuchen, den Begriff auch für Leute mit Hauptschulabschluss in erbaulicher Weise verständlich zu machen - wenn zielführend, auch mit Humor. Entropie (Informatik), Entropie (Mathematik) und Entropiemaße (Wirtschaft) könnten Eigenbehandlungen bekommen. --Götz 22:45, 23. Mär 2005 (CET)
Ich weiß leider nichts über Entropie in der Wirtschaft und auch nicht in der Mathematik, soweit es über Statistik hinausgeht. Es gibt aber zwischen dem Entropie-Begriff in der statistischen Physik und in der Informationstheorie keinen Unterschied. Es geht dabei immer um eine Behandlung von Wahrscheinlichkeit. Nopherox 18:02, 27. Apr 2005 (CEST)

Aaahh, das macht hier gar keinen Fortschritt mehr. Ich würde mich gerne einbringen, aber ich bin zuwenig Experte um das neu zu schreiben. Für mich sind Entropie und Entropie (Physik) erstmal entschieden zu lang, um sie irgendwie zusammenzuführen. Auch sind beide Art., neben ihrer Länge, nicht so richtig "zweifelsfrei". Um hier irgendeinen Fortschritt zu erleben, denke ich, sollte man einen der beiden Art. STREICHEN. Ich stimme für Entropie(Physik). Der erscheint vielleicht ein wenig fundierter, ist er aber, m.E., nicht wirklich. Ausserdem muss nat. der Quatsch (Humor) raus. Das bringt doch überhaupt nichts. Ich zumindest würde wahrscheinlich eine Enzyklopaedie mit "Witzen" nicht kaufen. --Pediadeep 21:58, 2. Mai 2005 (CEST)

Ich habe das ganze Zeug erst einmal zusammengeschoben und dabei neben einer neuen Ordnung auch Chaos geschaffen. Der Humorabschnitt liegt mir dabei besonders am Herzen, denn noch nie habe ich eine so griffige Beschreibung gesehen wie diese. Der Abschnitt kann sicher in dieser Form überarbeitet werden, aber bitte nicht vollständig streichen. Er würde dem Artikel helfen, den Oma-Test zu bestehen. --Markus Schweiß, @ 20:54, 15. Mai 2005 (CEST)

Vielen Dank für die Zusammenführung!
Grundsätzlich finde ich die Idee Entropie und Humor nett (s.o.). Nur halte ich den Abschnitt für zu wenig konkret und ich finde wenig Ansätze, ihn zu spezifizieren. Mindestens sollte er den Ausdruck S= k*ln Ω veranschaulichen. Beispiel: Wieviele gleichberechtigte Zustände gibt es bei der Anordnung der Plätzchen, die an das Bild von Max und Moritz erinnern? Wieviele Zustände gibt es insgesamt?
Annahme: 1000 Plätzchen, die auf ein 1000x1000 Raster (=10^6 Punkte) gelegt werden.
Es gebe 1.000.000 Möglichkeiten, die Plätzchen so zu verteilen, dass das Bild an Max und Moritz erinnert: ln(1.000.000)=14. Insgesamt gibt es 1.000.000!/999.000! =10^6.000 Anordnungen, die Plätzchen irgendwie zu verteilen (zum Vergleich: 1g Wasser hat ca. 10^23 Atome); ln(10^6000)=14.000. Letzer Fall ist demnach deutlich wahrscheinlicher. Spannend wird es, wenn der Rasterabstand auf Atomgröße reduziert wird. Die Zahl der günstigen Fälle wächst um mehrere Größenordnungen, die Zahl der Plätze insgesamt wird riesig. Die günstigen Fälle (Beispiel: Entmischung von Flüssigkeiten) werden praktisch nie beobachtet.Anton 00:07, 16. Mai 2005 (CEST)
Die Idee ist sehr gut, schreib das doch einfach in den Artikel :-) --Markus Schweiß, @ 08:00, 16. Mai 2005 (CEST)

Der Begriff Entropie (Informationstheorie) hat mit dem Begriff aus der Physik nur sehr am Rande etwas zu tun. Ihn hier irgendwie unterzubringen wäre für beide bisherigen Artikel nicht gut. Also bitte nicht vereinigen! Stern !? 08:30, 24. Mai 2005 (CEST)

Der Rand ist ziemlich breit. Es mag ja ok sein, dass man die Artikel nicht vereinigt. Dann verstehe ich aber nicht, warum der begriffliche Missbrauch in der Wirtschaftstheorie hier mehr Erwähnungsberechtigung hat. Das hat nun weitaus weniger mit der physikalischen Entropie zu tun als der Begriff aus der Informationstheorie, dessen Mathematik absolut identisch ist mit der hier beschriebenen Statistik der Mikrozustände. Zwischen den Bits einer Nachricht und z.B. den Spinzuständen unterscheidet in diesem Sinne lediglich die Wechselwirkung. Den Hinweis auf das Maß der Information kann sich auch dieser Artikel nicht verkneifen. Nopherox 07:55, 15. Jun 2005 (CEST)

Absolut abschreckend

die Einleitung des Artikels, da sind alle Physikbücher die ich kenne zu dem Thema weitaus verständlicher. --Dirk33 01:39, 6. Jun 2005 (CEST)

Wer auch immer an der Einleitung seine Finger gelegt hat, hat keine Ahnung was er da geschrieben hat. Sorry, aber jetzt steht da schlicht und einfach nur Unsinn. Erstens kann man auch einem Einteilchensystem eine Entropie zuordnen (auch wenn das nicht häufig geschieht und meist unnötig ist) und zweitens ist der Ausdruck dS = delta Q/T eine differentielle(!) Größe, was zeigt, dass der Schreiber nicht weiss was er tut. Es fehlt der Hinweis, dass die Entropie extensiv ist, der Vergleich mit intensiven Größen wie Temperatur T und Druck p ist in diesem Zusammenhang etwas unglücklich. Und das ist nur der erste Abschnitt. Ich will garnicht über die nachfolgenden Absätze reden. Leute ihr sollt nicht mit eurem Halbwissen glänzen, recherchiert mal genauer, bevor ihr was schreibt, das erspart eine Menge Arbeit. Und kommt mir nicht mit Brockhaus und Konsorten, lest mal lieber richtige Bücher/Skripten zu dem Thema, im Internet gibt es genug für umsonst. Einfach nach Thermodynamik oder Statistische Physik + Skript googeln. David314 20:46, 15. Jun 2005 (CEST)

Hallo, klopf' nicht so viele flotte Sprüche, setze den Hobel an und mach was aus dem Artikel.

P.S. es ist ja alles nicht falsch was du hier sagst.--Heliozentrik 23:08, 15. Jun 2005 (CEST)

Ich hatte die alte Einleitung geschrieben ;) Ich sehe ja ein, dass die vielen Informationen auf den ersten Blick erschlagen. Wer sich aber damit einigermaßen auskennt bekommt bei diesen oberflächlichen Erklärungen Probleme. Vor allem, wenn offensichtliche Fehler auftauchen, der Begriff der Entropie geht sehr tief und man kann den nicht mal eben so im Vorübergehen erklären, vor allem ohne auf die Thermodynamik einzugehen. Ich selbst habe Jahrzehnte gebraucht um dahinterzusteigen und das ist auch auf die unseligen Vergleiche mit unordentlichen Zimmern u.ä. zurückzuführen. Ich schreib gleich noch was dazu. David314 23:30, 15. Jun 2005 (CEST)

ack, es liegt doch aber in der Natur der Sache, dass hier in der WP Leute mit den unterschiedlichsten Vorkennnissen reinschauen. M.E. sollte jeder, wenn er die Tür wieder zu macht, ein Aha-Erlebnis mitnehmen. Es geht an dieser Stelle doch nicht primär um eine wissenschftlich exakte Darstellung. Man kann sich einem Thema von verschiedenen Seiten aus nähern, eine populärwissenschaftliche Darstellung ist nicht deshalb falsch, weil sie Nature nicht drucken würde. Etwas weniger Eitelkeit täte uns allen wohl manchmal gut.--Heliozentrik 23:45, 15. Jun 2005 (CEST)


Hallo David314, Da Du keine Benutzerseite hast, muß ich leider hier auf die letzten Änderungen eingehen. Bevor jetzt eine wildes Hin- und Rückändern losgeht. Könnten wir uns vielleicht einigen, daß der Hinweis auf die Symmetrischen Strukturen in Geschlossenen Systemen an der exponierten Stelle in der Einleitung fehl am Platze ist? Falls Du an der gültigkeit des 2. Hauptsatzes zweifelst, dann wäre die Wikipdeia sicher der falsche Ort dafür. Aber So ist die Einleitung sicher eher verwirrend, zumal die Diskussion um symmetrische Strukturen nicht allgemein anerkannt ist oder physikalisch konsisten diskutiert wird. --Homosapiens 10:25, 13. Sep 2006 (CEST)

auch wenn er keine benutzerseite hat so hat er doch eine diskussionsseite. ansonsten hast du m.e. vollkommen recht. --Pediadeep 11:46, 13. Sep 2006 (CEST)

Einleitung

Hallo, hat deine Verschiebeaktion einen tieferen Sinn? Bevor Claudius etwas einführt oder Bolzmann etwas zeigt sollte wohl mit ein paar Sätzen gesagt werden, worum es geht. Der Hinweis, dass es sich um eine Zustandsgröße handelt, ist doch ziemlich nichtssagend. Gruß --Heliozentrik 13:51, 12. Jun 2005 (CEST)

Hallo Heliozentrik! 1) Ja. Damit die Übersicht kurz bleibt, ersetzt dein neuer Satz den dritten Abschnitt, der jetzt in der Einleitung steht. 2) Es ist keineswegs trivial, dass die Entropie eine Zustandsgröße ist. Bis Carnot hatte man versucht, die Wärmemenge dazu zu machen (das sog. Caloricum). Anton
es hat niemand behauptet, der Verweis auf Zustandsgröße sei trivial ( = allg. bekannt). Er ist halt ohne die Ausführung nichtssagend. Offenbar empfinden das ja auch andere Leser so. --Heliozentrik 14:45, 12. Jun 2005 (CEST)
OK, nun verstehe ich besser (Zustandsgröße klingt in meinen Ohren wie ein Akkord). Vielleicht könntest du neue Formulierungen einarbeiten? Anton

Was ist denn eigentlich gegen "Die Entropie nimmt zu. Was bedeutet dieser Satz, der in vier Worten die Grenzen umschreibt, innerhalb derer sich die Welt entwickelt? Er sagt: die Physik ist in der Lage, alle Vorgänge des Universums zusammen durch eine Zahl zu kennzeichnen, die von Zeitpunkt zu Zeitpunkt kontinuierlich anwächst. Für Teile des Universums kann diese Zahl jedoch abnehmen, auf Kosten des Restes. Diese Tatsache bildet die Grundlage jedes Lebens. Die Sprache der Physik bedingt jedoch eine abstraktere Formulierung." zu sagen, ausser dass es nicht enzyklopädisch genug ist? 6 einfache Sätze, bevor die Physik in ihrer ganzen Brutalität wieder nach beliebten zuschlagen kann?RaiNa 19:22, 12. Jun 2005 (CEST)

"Diese Zustandsgröße ist ein Maß für die Irreversibilität (Unumkehrbarkeit) von thermodynamischen Prozessen." Der Satz ist falsch. Die Entropie wird dafür verwendet, ist aber kein Maß dafür. Eine Zunahme der Entropie zeigt an, das ein irreversibler Prozeß stattgefunden hat.--Physikr 21:20, 12. Jun 2005 (CEST)

-obschon unter Zunahme der Entropie auch reversible Prozesse ablaufen. --80.134.220.85 22:16, 12. Jun 2005 (CEST)

Wie Du das verstehen willst, mußt Du schon erklären. In einem geschlossenem System kann die Entropie höchstens steigen, aber nicht abnehmen (d.h. bei zwei oder mehr Teilsystemen kann ein Teilsystem Entropie verlieren, diese Menge an Entropie erhalten dann die anderen Teilsysteme zusätzlich) - aber ein reversibler Prozeß heißt ja, daß am Ende genau so viel Entropie vorhanden ist, wie am Anfang der Prozeßkette. Das bedeutet: wenn am Ende der Prozeßkette die Entropie die gleiche wie am Anfang wäre und einzelne Prozeßschritte die Entropie erhöhten, daß es Prozeßschritte geben würde, die die Entropie vermindern - und das ist unmöglich bzw. statistisch so selten möglich, daß es auszuschließen ist.--Physikr 07:31, 13. Jun 2005 (CEST)
Ich will nur mal wieder ins Gedächnis rufen: Wirklich reversible Prozesse gibt es im Makroskopischen nicht! Das sind Gedankenexperimente. Für mich ist absolut klar: ein wirklich reversibler Prozess ist ein Prozess, der mit mir nicht wechselwirkt, also für mich überhaupt nicht bemerkbar und somit existent ist.
Aber es gibt ein ganz einfaches System: der ungedämpfte harmonische Oszillator. Er ist eine Maschine, die kinetische Energie in potentielle Energie wandelt. Und er ist zyklisch, wie man zyklischer nicht sein kann. Damit kennt er aber auch keine Zeit. Seine Schwingung kann man nur feststellen, wenn man ihn beobachtet, also stört. Damit gibt man aber die Forderung nach Reversibilität auf. Als Uhr eignet er sich, wenn er idealer reversibel ist als der Beobachter.RaiNa 08:20, 13. Jun 2005 (CEST)

Humor

Ich weiß zwar nicht, wie es anderen Lesern geht, aber wenn ich ich in einer Enzyklopädie ein nicht - triviales Thema wie Entropie nachschlage und in dem Artikel Bilder von Max und Moritz angeboten bekomme... (ich verkneife mir den Kommentar)

Obwohl die Diskusion oben schon mal geführt wurde, stelle ich zur Diskusion, den Abschnitt zu löschen oder zu verschieben, wohin auch immer.--Heliozentrik 19:30, 12. Jun 2005 (CEST)

Warum bilden eigentlich Humor und Physik immer komplementäre Größen? Kauft wirklich keiner eine Enzyklopädie, wo der Begriff erstmal anschaulich oder intuitiv erklärt wird? Wie auch immer, das zugehörige Bild ist ohne den Text höchst überflüssig. Nopherox 07:37, 15. Jun 2005 (CEST)

Weil Physiker einfach keinen Humor haben, wenn sie nicht entweder genial oder keine Physiker sind.RaiNa 07:39, 15. Jun 2005 (CEST)

Toller Spruch, nur kann man solche Essays, wie gerade gelöscht, in jeden Artikel einstreuen und damit jedes Thema verwässern. Wenn man was zum Lachen wünscht, kann man sich ja die B___-Zeitung kaufen.--Heliozentrik 11:19, 15. Jun 2005 (CEST)
Willst du damit zum Ausdruck bringen, dass der Informationsgehalt von Wikipedia und der bewussten Zeitung ansonsten etwa gleich zu bewerten ist? Nopherox 18:17, 15. Jun 2005 (CEST)
Ich habe jetzt mal als Originalverfasser den Humor-Beitrag gelöscht. Er soll ja niemanden verärgern, sondern den Leuten Entropie auf der nicht-fachlichen Seite nahebringen. Vielleicht gelingt das jemand Anderem besser. Der ganze Entropie-Beitrag ist ja für Laien unverständlich. Habe nach meinem ersten Versuch selbst leider jetzt keine Zeit, einen besseren zu wagen. Mir geht's hier auch ein bisschen zu aggressiv zu. --Götz 23:39, 19. Jun 2005 (CEST)

Das stimmt doch nicht, oder? : Die maximale Entropie in einem Raumbereich wird durch Schwarzes Loch realisiert. Da keine Information durch den Ereignishorizont nach außen dringt, ist es der Zustand maximaler Unwissenheit. (Es kann Information aus einem schwarzen Loch gelangen! Hat doch Herr Hawking inzwischen auch eingesehen...)

"Unordnung"

Heliozentrik schrieb: Vereinfacht gesagt, ist Entropie so etwas wie die mathematische Bewertung der "statistischen Unordnung" der Teilchen in einem System.

Ich bin mit dem Begriff Unordnung gar nicht glücklich, weshalb ich das Bild mit den zwei Gläsern eingestellt hatte. Nach meinem Ordnungsempfinden ist das rechte Glas ordentlicher umgerührt; dennoch ist hier die Entropie größer. Anton 21:41, 13. Jun 2005 (CEST)

Die Unordnung (=nicht nach einer bestimmten Ordnung angeordnet) der Teilchen ist im rechten Glas höher. Ist halt so'ne Sache mit dem 'persönlichen Empfinden'--Heliozentrik 11:59, 15. Jun 2005 (CEST)

Das mit der Unordnung sollte weg. --Pediadeep 22:36, 13. Jun 2005 (CEST)

Kein Problem, mach was besseres. M.E. sollte der Artikel versuchen, für jeden Leser eine Antwort zu bieten, von populärwissenschaftlich über wissenschaftlich exakt bis hin zu meinetwegen nobelpreiverdächtig, aber bitte genau in dieser Abfolge.
In den Köpfen einiger Wissenschaftler geistert immer noch die Vorstellung herum, Exaktheit und Populärwissenschaft seien ein Gegensatz. Auch „populärwissenschaftlich“ muss exakt sein. Unexakte Populärwissenschaft ist einfach nur ein Sonderfall von unexakter Wissenschaft. Beides ist schlechte Wissenschaft. --Götz 19:09, 24. Feb. 2007 (CET)

PS: @Pediadeep: was war jetzt eigentlich mit Max und Moritz?--Heliozentrik 23:37, 13. Jun 2005 (CEST)

Aah, das ist schwierig mit dem populären.... "Bewertung der Unordnung" ist einfach falsch, da kann man nichts machen. Es geht eben nicht ohne macro- versus micro-Zustand. Schwierig, schwierig, das popkompatibel zu schreiben. Vielleicht gehts einfach nicht so knapp wie man sichs wünschen würde. Wenn man das aber richtig erklären würde, und ein paar von den pop-Kunden verstehen es, dann wär das ein RIESIGER Gewinn. Ich denke es wäre besser, wenn man mal in sich gehen würde, und das richtig ausformuliert. Auch auf die Gefahr hin, dass die Einleitung dann etwas länger wird, denn das ist eben der Kern der Sache.

Max ... ja das ist auch ein Problem. Eig. denke ich der Humor ist erstens falsch, und der Form nach nicht angebracht. Wenn man dann aber an das Volk (=Pop) denkt wäre ein wenig lockeres Anschauungsmaterial angesichts der Sperrigkeit des Themas ev. angebracht. Ich mag übrigens das Beispiel mit der Entwicklung eines typischen Kinderzimmers lieber. Da kann man sehr schön die Zunahme der Entropie beobachten. Wir schaffen das (Zitat: "Bob der Baumeister"). --Pediadeep 00:27, 14. Jun 2005 (CEST)

Habe mal etwas in befreundeten Nachschlagewerken wie Brockhaus und Großer Meyer geblättert. Die habe kein Problem damit, E. als Maß für den Ordnungszustand' bzw. Maß für die Unordnung in einem thermodynamischen System zu erklären. Angesichts der Tatsache, dass es sich um überaus seriöse Nachschlagewerke handelt, kommt mir die ganze Diskusion hier etwas seltsam vor.--Heliozentrik 11:59, 15. Jun 2005 (CEST)

Siehe Beispiel mit dem Schreibtisch; Ω ist kein Unordnungsparameter, sondern die Zahl besetzbarer Zustände. Anton 22:01, 19. Jun 2005 (CEST)

Geschwindigkeit

Die Temperatur ist doch ein Mass für die (durchschnittliche) Energie in jedem Freiheitsgrad, oder ist sie nicht? Muss man noch richtig formulieren. --Pediadeep 23:54, 14. Jun 2005 (CEST)

Für die (absolute) Temperatur gibt es eine wasserfeste Definition, sie ist gegeben als die partielle Ableitung der inneren Energie E nach der Entropie bei festgehaltenem Volumen/Teilchenzahl/etc., steht im ersten Hauptsatz: , also . Ohne Entropie gibt es also keine absolute Temperatur. Das Äquipartitionsprinzip, das jeder Freiheitsgrad im Mittel die Energie besitzt, ist eine Folge und nicht die Definition. Zumal es ja auch nicht allgemeingültig ist, da Freiheitsgrade ausfrieren können! David314 23:54, 14. Jun 2005 (CEST)

Unwissenheit vs. Unordnung

Wenn das ein Hinweis auf thermodynamische Wahrscheinlichkeit sein soll, dann ist er aber perfekt verschlüsselt. Sieht so eher nach Theorienfindung aus.--Heliozentrik 11:27, 15. Jun 2005 (CEST)

Also mal ein paar hoffentlich erhellende Worte, warum der Vergleich von Entropie mit einem Maß für Unordnung verwirrend ist. Zunächst betrachten wir das ganze klassisch, weil viele das lieber haben. Da haben wir den Phasenraum, in dem sich unser System bewegt. Einigen sagt ja Phasentrajektorie etwas und wir definieren die Entropie als das Maß des Phasenraumvolumens, in dem sich unser System wohl befindet, zumindest wissen wir es nicht so genau. Woran liegt das? Es ist einfach die schiere Anzahl von Freiheitsgraden _und_ die Tatsache, dass sich das System in ständiger Veränderung befindet. Das ist ganz wesentlich! Nehmen wir kurz an, dass es eingefroren wäre, dann könnten wir (klassisch) mit der Zeit immer mehr Information aus dem System herausholen. Also streng genommen alle Atome abzählen und Positionen und Impulse aufschreiben. Abgesehen davon, dass wir wegen der Papiermenge ein echtes Umweltproblem am Hals hätten, könnte man rein theoretisch also das Phasenraumvolumen immer weiter eingrenzen, bis wir an einem Punkt gelangt wären. Der das Maß Null hat und damit haben wir den Mikrozustand vor uns. Wir sagen dann, das System hat die Entropie Null. Aber Moment einmal! Das System ist ja eingefroren und gerade eben war die Entropie noch sehr groß! Wie kann das sein? Die Entropie ist doch eine Zustandsgröße! Es ist auch kein bisschen ordentlicher geworden, aber wir wissen jetzt in welchem Zustand es sich befindet. Offenbar hängt die Entropie vom Aufwand ab, den der Beobachter betreibt, das System näher kennenzulernen! Aber in Wirklichkeit ist das nicht sehr praktikabel, da die meisten thermodynamischen Systeme uns nicht den Gefallen machen einfach stehenzubleiben. Selbst in flüssigem Helium nahe dem absoluten Nullpunkt bewegen sich die Atome ständig, mit anderen Worten man kann einfach nicht feststellen in welchem (Mikro)Zustand sich das System befindet. Eine solche Messung ist weder durchführbar noch wünschenswert (wen interessiert schon an welcher Stelle Atom Nr.18274512378 sitzt? In der nächsten Sekunde ist es eh wieder ganz woanders und jeder Meßfehler wächst exponentiell an). Man beschränkt sich daher auf makroskopisch zugängige Größen, die sogenannten (makroskopischen) Observablen, die meist Erhaltungsgrößen des Gesamtsystems sind (Volumen, Masse/Teilchenzahl,Impuls, Drehimpuls,Energie,...). Hat man diese Observablen bestimmt kann man nun überlegen, welche Mikrozustände zu diesen Beobachtungen passen. Die Gesamtheit aller erreichbaren Mikrozustände bildet einen bestimmten Bereich im Phasenraum, dessen Maß ist unsere Entropie! Da das System eh ständig von Mikrozustand zu Mikrozustand hüpft (auf der Phasentrajektorie) können wir mit gutem Gewissen annehmen, das es im Prinzip jeden erreichbaren Mikrozustand im Laufe der Zeit tatsächlich durchläuft. Das nennt man die Ergodenhypothese und Systeme, die das machen sind ergodisch. Diese Idee hat zwar Probleme, aber lasst uns erstmal darüber hinwegsehen. Das System soll also ständig durch das gesamte durch die Entropie gemessene Phasenraumvolumen laufen. Und das ist der Knackpunkt! Nur dann ist jeder Mikrozustand gleich wahrscheinlich (und alle weiteren Folgerungen sinnvoll), wenn das System tatsächlich eine Evolution durchmacht. Wenn es ständig im gleichen Mikrozustand verharrt ist jede Statistik sinnlos! Was hat das nun mit einem unordentlichen Zimmer zu tun? Ihr ahnt es schon: Nicht viel. Das Zimmer ist bezüglich seiner makroskopischen Elemente wie Unterhosen, leere Bierdosen, CDs, Bettwäsche und Pantoffeln nicht ergodisch. Naja zumindest wenn nicht gerade ein Erdbeben stattfindet. Man kann die Anordnung der Elemente ziemlich gut ausmessen (wenn wir mal von der mikroskopischen Struktur absehen, aber darum geht es in dem Beispiel ja nicht) und damit die Entropie immer weiter senken, aber leider wird das Zimmer davon auch nicht ordentlicher. So jetzt genug gelesen, räumt mal euer Zimmer auf, das sieht ja heute wieder aus! Nächstes mal was zur Quantenstatistik :)

David314 00:09, 16. Jun 2005 (CEST)

ist nicht bös' gemeint, denk' mal einen Moment nach, wo wir hier sind und was wir wollen. Unter absolut abschreckend habe ich auch schon versucht, dir was zu sagen.--Heliozentrik 00:22, 16. Jun 2005 (CEST)

Das hier ist eine Enzyklopädie. Wenn ich in einer Enzyklopädie nachschlage möchte ich keine populärwissenschaftliche Erklärung, sondern eine exakte Antwort.

Vorsicht. Unexakte Populärwissenschaft ist keine gute Populärwissenschaft. Was fehlt (und wohl auch mir nicht gelungen ist) ist gute Populärwissenschaft. Gute Populärwissenschaft ist sehr schwer und braucht überdurchschnittliche Wissenschaftler, die Nicht-Wissenschaftler respektieren können. Die besten Texte (allerdings auch hier nicht ganz ohne Mathe), die ich für Nichtphysiker kenne, sind von Eszter Tóth (Fizika, 1990) und Michail W. Wolkenstein (Entropie und Information). Leider ist der Text von Tóth außerhalb Ungarns bisher nur in Japan professionell verlegt worden. Und Wolkensteins Buch (genauer: die deutsche Übersetzung) ist einem Urheberrechtsstreit zum Opfer gefallen. --Götz 23:58, 19. Jun 2005 (CEST)

Wenn ich damit nicht klarkomme (weil ich ja nicht alles weiß und sofort verstehe), dann will ich zumindest keine Halbwahrheiten lesen, die mich auf die falsche Fährte bringen. Stattdessen jede Menge Querverweise, damit ich mich an den Sachverhalt herantasten kann. Wie fändest Du denn einen Artikel über geschichtliche Ereignisse in denen falsche Jahreszahlen und Ereignisse stehen? Das hat nichts mit Überheblichkeit zu tun, wir Physiker sind da echt handzahm (mir fallen da andere Leute ein, die das enger sehen, ich nenne keine Namen ;). Du kannst soviele anschauliche Ausdrücke, Analoga und Metaphern verwenden wie Du möchtest, solange sie nicht falsch sind. Wenn ich tatsächlich alles korrekt und formal aufschreiben würde, könntest Du wahrscheinlich den Zeichen keine Bedeutung zuweisen. Mir ist klar, dass man damit übers Ziel hinausschiessen würde. Diese Diskussion ist allerdings nicht für die unbedarften Leser des Artikels gedacht, sondern für die Autoren. Solange man als Autor nicht versteht, warum Unordnung keine gute Metapher für Entropie ist, so bedarf das wohl ein wenig Aufklärung. David314 02:07, 16. Jun 2005 (CEST)

Hallo David, ich glaube, ich kann dir zustimmen. Zuerst noch eine bewährt sarkastische Bemerkung: Der Artikel Entropie erinnert mich an eine Leiche, der man das Leben wieder einzuhauchen sucht, indem man die Würmer wieder zurückverwandelt. Du hast recht. Das mit der Unordnung ist eine Katastrophe. Aber genau so eine Katastrophe ist das Einfrieren der Meinung hier in der Wikipedia auf der Basis von Spezialisten für möglichste monochrome Strahlung. Auch das ist ein Sarkasmus. Du verwendest Begriffe wie Energie und Phasenraum. Aber hier streiten ausgewiesene Physiker darum, ob die Energie erhalten ist und eine Philosophin sperrt den Artikel Wirkungsquantum! Wenn sich Physiker nicht darauf einigen können, dass die Energieerhaltung ein Postulat ist, das erfolgreich verteidigt wurde und sicher genau erfolgreich verteidigt werden wird, indem man jede Lücke mit einer neuen Energieerscheinung stopft, dann, armes Deutschland. Ok, Ich rege mich wieder auf und das wirft vielleicht kein gutes Licht.RaiNa 07:47, 16. Jun 2005 (CEST)

David314 schrieb: Wenn ich in einer Enzyklopädie nachschlage möchte ich keine populärwissenschaftliche Erklärung, sondern eine exakte Antwort. Das mag für dich gelten, muß deshalb nicht zwangsläufig für andere gelten. Als Physiker sollte man schon mal was von formaler Logik gehört haben. Was die reine Lehre aber mit Unterhosen, leere Bierdosen, CDs, Bettwäsche und Pantoffeln zu tun hat, über die du paar Zeilen höher parlierst, will mir so gar nicht einleuchten. Was soll übrigens schlecht daran sein, mal über den Gartenzaun zu schauen und mal nachzusehen wie befreundete Enzyklopädien wie Brockhaus die Sache angehen. Die habe schließlich mehr als 100 Jahre Erfahrung in so was.--Heliozentrik 08:32, 16. Jun 2005 (CEST)

Das mit der Unordnung ist eigentlich hinreichend ausdiskutiert. Ich kann dieses Wort im Zusammenhang mit Entropie echt nicht mehr hören. Gebt mir einen Keks, schnell, bitte. Ich kann Davids Ausführung grösstenteils nur Zustimmen. Insbesondere finde ich es überhaupt nicht gut, wenn man Popkompitibilität mit Falschem (oder in einem Mass Ungenauem, dass es fasche Interpretationen nicht ausdrücklich ausschliesst) erkauft. Das ist nicht gut. Das ist sogar ausgesprochen schlecht. Auch wenn ich jetzt manchen auf die Füsse trete: Mit solcher Popkompitibiltät werden nämlich Bachblüten, Überlichteschwindigkeit, Zeitmaschienen, Perpetuums, Verschwörungstheorien, Aberglaube im allgemeinen, Wunderheiler und lauter solche Geiseln der menschlichen Kultur gefüttert. Und wenn der Brockhaus das nach 100 Jahren nicht geschnallt hat so wirft das ein Licht auf ihn, nicht aber auf die Wahrheit. Mein Vorschlag als Konsequenz ist: Jeder Satz in Entropie wird genau auf Ordnung und Unordnung überprüft, und alle solchen werden gelöscht. Vieleicht schaut ja mal jemand vom grossen Meyer vorbei. --Pediadeep 10:39, 16. Jun 2005 (CEST)

Was daran schlecht ist, ist nur die Tatsache, dass man keine 100 Jahre Entropieerfahrung haben kann. Nur weil jemand, der mal eine unverständlichen Satz geschrieben hat, ihn nicht mehr verbessern kann, ist es doch noch lange keine Leichenschändung, wenn man was Neues schreibt.
Im Übrigen: David314 hat absolut recht! Nur weil man Unterhosen, ... nicht so einfach mathematisch beschreiben kann wie ein Gas oder einen Kristall, bleibt Entropie doch noch auch für diese Teile gültig. Nur das kapieren einige Kollegen nicht. Dass es eben keine Grenze für den Beginn der statistischen Wahrheit gibt. Die, die symplektische Mannigfaltigkeiten zu erforschen suchen, haben das irgendwie schon mitgekriegt und versuchen nun wissenschaftlich fundierte Instrumente zu finden, um wirklich komplexe Systeme zu beschreiben.

Beim Speichern ist mir jemand noch zuvorgekommen, vielleicht, weil er wie Hermes daherkommt (?stimmt das?) Einfach ja oder nein antworten, dann versuch ichs nochmals über emailRaiNa 10:47, 16. Jun 2005 (CEST)

ich versuche, offenbar erfolglos, die Autoren davon zu überzeugen, dass es hier an dieser Stelle eben NICHT um die reine Lehre geht, sondern m.E. darum, Bildungsinhalte und Wissensgebiete einem möglicht breiten Leserkreis verständlich darzustellen. Dazu hat eine populärwissenschaftliche Abhandlung NEBEN einer wissenschaftlich exakten Darstellung m.E. einen gleichberechtigten Existenzanspruch. @: glaubst du ernsthaft, ein renomierter Physiker schlägt in der WP nach, weil er noch Informationen für seine Habilitationschrift braucht? Mein Vorschlag: eine populärwissenschaftliche Einleitung, die jedem Leser klarmacht, worum es geht; evt. die Beispiele hier mit rein. Dann in einem nächsten Abschnitt die exakte, wissenschaftliche Darstellung. Es ist halt keine Frage von entweder - oder, das sollte doch hinzukriegen sein.--Heliozentrik 11:06, 16. Jun 2005 (CEST)
Eine populärwissenschaftliche Abhandlung muss auch dann exakt sein, wenn sie NEBEN einer wissenschaftlich exakten Darstellung steht. --Götz 19:15, 24. Feb. 2007 (CET)
Was heißt Erfolg? Wer ist Autor? Eine reine Lehre kann durchaus populär sein. "von nichts kommt nichts" "Der Weg in die Hölle ist mit guten Vorsätzen gepflastert" Hat das was mit Kausalität oder Entropie zu tun? Muss Popularität Quanten teleportieren? Bedeutet Erhaltungssatz nicht, dass wir bei der nächsten Wahl keinen ausgefüllten Lottoschein mit garantiertem 6-er bekommen können? Wer findet eine andere Einleitung als die, die Scriptor kommentarlos revertieren zu können glaubt, nur weil er es schon mal zu verstehen glaubte? Autoren sind wir alle und ich habe vorgeschlagen, den Artikel in Ruhe zu lassen und eine Alternative aufzubauen, wirklich Satz für Satz. Damit etwas Ruhe und Erkenntnis Einzug hält. Und was die etablierte Meinung angeht: Bevor Outing zum Wort wurde, sagte berufener Mund: "Nicht der Homosexuelle ist pervers, sondern die Situation, in der er lebt" Auch ich habe es damals nicht verstanden. Die Physik ist die einzige mir bekannte Wissenschaft, die beweisen kann, dass Pluralität und Freiheit Garant für eine stabile Gesellschaft ist und die klarmacht, was schon in der Bibel steht: aus dem Chaos wurde die Welt geschaffen. Und das bedeutet im Zeitalter der Relativität: Nur aus dem Chaos kann die Welt geschaffen werden und die Gegenwart von Morgen ist die Zukunft von heute. Also bewahren wir das Chaos, dass weiter sich etwas entwickeln kann. Das ist der einzige Imperativ, der persistiert. Was Ordnung um der Ordnung willen bewirkt, sollten wir doch hinreichend wahrgenommen haben.RaiNa 11:33, 16. Jun 2005 (CEST)
@RaiNa: damit ist wohl alles gesagt. Soll sich jeder Leser seinen Reim drauf machen.--Heliozentrik 11:51, 16. Jun 2005 (CEST)
Richtig, und für die, die eher Lateiner sind: Aus dem Schlamm zu den Sternen. Falls die Wahrheit dieser Wort eher erkennbar ist. Schon mal drüber nachgedacht, dass die Entropie vielleicht zu jedem Moment maximal ist, weil die Energie auf die vorhandenen Freiheitsgrade gerade so verteilt ist, dass jede Umverteilung wieder neue Freiheitsgrade schafft? Auf pop gesagt: Die Demokratie ist die Beste der Staatsformen? Oder ist dazu zu komplex. Vielleicht sollten wir lieber mal einen Schwenker unter dem Aspekt der Entropie bestrachten, denn da gibt es das interessante Zusammenspiel von Wärmetransport und nahezu ungedämpften harmonischen Oszillator. Wenn du meinen Humor nicht verstehst, denke dran: die Amerikaner (in Person eines Panzergenerals) haben gesagt: ich glaube, wir haben das falsche Schwein geschlachtet. War aber'n Irrtum, war doch das Richtige. Bist du sicher, dass du dich nicht irrst?RaiNa 12:11, 16. Jun 2005 (CEST)

Einstiegslevel beachten - WP ist keine Fachliteratur

Hallo Leute, ich habe ja durchaus ein Faible für Physik, aber was hat eure Diskussion für eine Einstiegsschwelle - Physikstudent? Eine Enzyklopädie hat bitte bereits für Otto Normalverbraucher einen Einstieg zu finden, auf das der -ohne zwischenzeitliches Abi an der Abendschule- erhellt aus der Lektüre schaut. Von daher sicherlich jede inhaltliche Vertiefung, aber vom flachen Strand aus.... --NB > + 14:10, 16. Jun 2005 (CEST)

@ das versuche ich hier schon ne' ganze Zeit zu propagieren, aber offenbar verwechseln manche Autoren permanent die WP mit dem Webspace der Royal Society--Heliozentrik 14:21, 16. Jun 2005 (CEST)
ich finde es sehr gut das die wissenschaftlichen artikel in der wikipedia so ein hohes niveau haben. ich bin zwar selbst noch schüler, aber wenn ich in der wikipedia nachlese will ich schon möglichst viel informationen haben und zwar nicht auf einem "clever, die show die wissen schafft" level. imho man lernt am meisten wenn man sich mit sachen beschäftigt die man nicht vollständig versteht --myukew
Und wo ist der Widerspruch? Wie oben zu lesen, bin ich für jede inhaltliche Vertiefung - aber bitte nach einem allgemeinverständlichen (=Bildzeitungsleser) Start. Alles andere wäre ein Regelverstoß.... --NB > + 14:48, 16. Jun 2005 (CEST)

Entropie und Zeitrichtung

Wieso wird in dem Abschnitt eigentlich unwidersprochen vom Wärmetod des Weltalls parliert? M.W. ist das zumindest stark umstritten, eher wohl falsch.--Heliozentrik 15:06, 16. Jun 2005 (CEST)

Richtig, und wenn man sich auf obige Aussage meinerseits den richtigen Reim macht, habe ich nichts anderes gesagt. Das System Universum besteht wohl initial aus viel Energie und wenig Zuständen. Am Ende aus vielen Zuständen und wenig Energiedifferenz. Beide Zustände sind gleich "unproduktiv". Interessant ist der Bereich, in dem reichlich Zustände und Energiepotential (also Ungleichverteilung) vorhanden ist. Wenn man aber so einen Satz einstellt, kommt sofort jemand mit Theorienbildung. Als könnte man Theorien bilden und nicht Menschen! Oder habe ich hier auch wieder etwas falsch verstanden? Glück Auf!RaiNa 15:55, 16. Jun 2005 (CEST)


Vielleicht wäre es sinnvoll bezgl der Theorie vom Wärmetod die Aussage soweit umzuändern, dass man sich da zur Zeit noch nicht sicher ist, evtl mit Verweis auf die besondere Funktion der negativen spezifischen Wärme kollabierender Sterne, die sich irgendwann in der Vergangenheit in das System Universum eingeschlichen hat? (-: Bezüglich der Problematik des 'Zeitpfeils' wäre evtl ein Verweis sowohl auf die 'herkömmlichen' Näherungen (Markov-Annahme beim Übergang von QM zum statistischen System) bzw den Ansatz von Prigogine zur mathematischen Modifikation der QM (die Räume für Zustände und Observablen sind verschieden) sinnvoll. Denn es gibt nunmal das Problem, daß die QM zeitinvariant ist (zumindest die QM auf Hilberträumen, bei Prigogines Ansatz über Hardyräume wird das ja grade gelöst), wir aber im makroskopischen eine Entropiezunahme beobachten können... Es wäre wohl am geschicktesten, dieses Problem nur kurz anzureissen und dann vllt genauer in einem gesonderten Artikel auszuführen falls das nicht zu speziell wird. Ich wollte so erstmal nichts an dem Artikel ändern, alleine schon weil ich in der WP bisher noch nichts geschrieben habe (-; aber zumindest sollte der sicher scheinende Entropietod relativiert werden... --Thukydides 01:49, 2. Okt 2005 (CEST)

Gut geklautparaphrasiert ist besser als schlecht selbst ausgedacht

Da es inzwischen aktenkundig ist, dass ich gegen das eigene Nachdenken bin, möchte ich konsequenterweise vorschlagen, dass wir doch zuerst einmal gute Darstellungen zur Entropie sammeln. D.h. solche, die sowohl korrekt sind, als auch einen allgemeinverständlich Teil bieten.

Um einen Anfang zu machen, schlage ich die Website vor:

Zwar wird dort häufig der von Einigen ungeliebte Begriff disorder verwendet, aber auch klargestellt, dass es nicht um die Unordentlichkeit der Zustände, sondern um ihre Multiplizität geht.

Pjacobi 15:22, 16. Jun 2005 (CEST)

Und vielleicht auch diese: http://webs.morningside.edu/slaven/Physics/entropy/ --Pjacobi 15:25, 16. Jun 2005 (CEST)

ohne Worte

physiker unter sich und wir anderen?

Mischungsentropie

Die Entropie eines thermisch isolierten Systems (dQ=0) ändert sicht nicht, nie. Deshalb ist das Beispiel mit der Farbe in der Flüssigkeit im Glas nicht vollständig erklärt, wenn man nicht bemerkt, dass durch die "vollständige" Mischung Wärme "verbraucht" wird, also die Flüssigkeit insgesamt abkühlt (Lösungswärme), und sich die Temperaturdifferenz erst durch einen Wärmefluss in das Glas hinein ausgleicht, wodurch sich erst die Entropie des rechten Glases erhöht. --Pediadeep 17:22, 17. Jun 2005 (CEST)

Ahrg, da war ich ev. zu schnell.... was ist mit dem Gleichgewicht? Im Gleichgewicht ist die Entropie maximal, dS=0, im Ungleichgewicht eben nicht, also geringer als im Gleichgewicht. Und die nicht richtig vermischte Flüssigkeit sieht mir so aus, als ob sie nicht im Gleichgewicht ist. Trotzem ist "nicht richtig gemischt" doch ein ganz vernünftiger, wenn auch unwahrscheinlicher, Mikrozustand. Ob mir jemand erklären kann, wo mein Fehler ist? Danke --Pediadeep 21:29, 17. Jun 2005 (CEST)
Geh mal einfach davon aus, dass auch in einem thermisch absolut isolierten Haus ein KÜhlschrank funktioniert.RaiNa 22:30, 17. Jun 2005 (CEST)
Genauer bitte. --Pediadeep 00:05, 18. Jun 2005 (CEST)
Danke. Nehmen wir ein ideal thermisch isoliertes Haus, also dQ mit der Umwelt = 0. Normaler Haushalt mit Kühlschrank. Jetzt kommt zum Tragen, dass die Leute vergessen haben, ihre Stromrechnung zu bezahlen. Der Strom wird abgestellt, das Wasser ist schon lange abgestellt. Das Haus hat eine Entropie, sagen wir der Einfachheit wegen, 0. Nun kühlt der Kühlschrank, der ja noch kälter ist als der Rest des Hauses, aus. So lange, bis im Innern des Hauses überall die gleiche Temperatur herrscht. Dieser Vorgang ist nicht so ohne weiteres umgekehrbar, also muss von Millisekunde zu Millisekunde die Entropie ansteigen. Sie ist also > 0. Und wenn sie größer Null ist und zu einem früheren Zeitpunkt = 0 war, dann hat sie zugenommen. Ich hoffe, es schadet der Verständlichkeit nicht, dass ich es 1. mir gerade selbst ausgedacht habe und 2. einige Annahmen sehr idealisiert sind. Zum Beispiel kann man nicht einfach jemandem das Wasser abstellen, nur weil er nicht bezahlen kann. Das wird sich aber vielleicht doch noch ändern. Denn die Entropie nimmt nämlich gar nicht zu, sondern ab. Wir haben nämlich immer mehr Millionäre in Deutschland. Dass es aber Arme gibt, ist nur ein Gerücht. Gäbe es nämlich Arme, dann könnten die in die Tasche greifen und den Armen was geben. Also muss es irgend etwas anderes sein, was mir in die Tasche greift, damit es doch irgendwann Arme gibt. So dumme Gedanken kommen einem in den Kopf, wenn man erklären soll, was das mit der Entropie auf sich hat. Aber ich persönlich finde es wirklich lustiger als das Sinnieren über Unordnung. RaiNa 19:33, 18. Jun 2005 (CEST)
mit strom von außen kommen auf einen teil kälte zwei teile wärme, die muß der Kühlschrank abgeben damit erkühlt; da es immer wärmer wird, muß er theoretisch immer höher verdichten um die anfallende Wärme loszuwerden, er hört auf zu arbeiten oder geht kaputt, was meint rainA mit erfunktioniert schon?--80.134.194.169 00:35, 18. Jun 2005 (CEST)
Das bedeutet: Es ist möglich, ein Temperaturungleichgewicht zu haben.;-)RaiNa 23:04, 18. Jun 2005 (CEST)

Das ist ganz einfach Pediapeep, die Formel von Clausius mit gilt zunächst nur für Gleichgewichtszustände. Wie Du gut bemerkt hast ist die unvermischte Flüssigkeit nicht im Gleichgewicht. D.h. nicht, dass man dem Zustand keine Entropie zuweisen kann. Schliesslich passt zu den makroskopischen Schlieren, die vor dem Vermischen auftreten eine Menge Mikrozustände, auch wenn es etwas schwer sein mag diese konkret zu bestimmen. Aber es gibt trotzdem unglaublich viel mehr Mikrozustände, bei dem die Farbe gleichmäßig verteilt ist, weshalb die zeitliche Entwicklung in Richtung dieses Makrozustands voranschreitet. Bedenke, dass eigentlich nichts gegen den umgekehrten Prozess spricht, wenn man genug Zeit hätte. Allerdings ergeben einfache statistische Argumente, dass die Wiederkehrzeit um viele Größenordnungen über dem Alter des Kosmos liegt. Insbesondere solange, dass bis dahin jede Materie des Systems Glas+Flüssigkeit aufgehört hat zu existieren, weil die Nukleonen spontan verdampft sind. Mit anderen Worten, es passiert niemals :o) David314 01:25, 18. Jun 2005 (CEST)

hey leute wie wärs mal damit: hier teilt den artikel in die erklärung für den normal sterblichen und die "freaks"...weil ich lerne im chemie leistungskurs zur entropie als erklärung auch net mehr als "maß für unordnung im system"..und soviel darüber zuwissen reicht ottonormal nunmal alle mal...

Gleichgewicht

Wie ich im obigen Abschnitt gelernt habe gilt dQ=TdS nur im Gleichgewicht. Das steht so aber nicht in der Einleitung. --Pediadeep 21:19, 18. Jun 2005 (CEST)

Bei "Marke1" oben habe ich schon mal erläutert, wie man Entropie sehen kann. Dieser Ansatz wurde dann wieder zerredet. Versuche, das in den Text einzubauen, waren ebenfalls sinnlos. Der Begriff "Unordnung" ist einfach nicht zu vernichten. Weiterhin war es auch nicht möglich klarzustellen, dass ein System, das keine Energie hat, auch keine Entropie hat. Also kann die physikalische Entropie auch mit der Informationsentropie auch nichts zu tun haben. Während die Physik enorme Vorteile aus Zustandsgrößen zieht, habe ich den Eindruck, dass die Information den Begriff als wissenschaftliches Feigenblatt nutzt. Übrigens, das Umstellen von dQ=TdS nach dS= dQ/T alleine vereinfacht zumindest mir das Verstehen. Vielleicht sollte man es doch noch mal mit einem alternativen Artikel versuchen und wenn der trägt, den jetzigen wegwerfen.RaiNa 23:04, 18. Jun 2005 (CEST)

Wenn man im Bereich ist, muß man auch richtig betrachten. Und da wird die Schlußfolgerung bei Marke 1 falsch. Bei den Raumtemperaturen ist die spezifische Wärme fast konstant, also oder . Bei tiefen Temperaturen ist die spezifische Wärmekapazität extrem temperaturabhängig (was auch eine Schlußfolgerung aus der Entropie ist), so daß gilt bzw. . Wenn jetzt gebildet wird , so wird oder , also gerade das Gegenteil von der Behauptung bei . Das Ganze wird auch von der Quantentheorie gestützt, da zur Aufnahme von Energie die angebotene Energie eine Mindestgröße haben muß, um überhaupt aufgenommen werden können - und bei tiefen Temperaturen kann der Körper von der Energieverteilung nur die extremsten Ausläufer aufnehmen. Siehe Nernst-Theorem--Physikr 08:12, 19. Jun 2005 (CEST)
Die Argumentation von Physikr entbehrt nicht der Richtigkeit, doch würde ich sie als "technisch", nicht als "physikalisch" bezeichnen. Gerade durch die differenzielle Betrachtung ist der Entropiebegriff ja so universell. Er kann angewendet werden, wenn die Wärmekapazität eine Funktion der Temperatur ist, welche Funktion, ist völlig freigestellt. Wenn David oben die Entropie von Unterhosen berechnet, dann ist das zutiefst physikalisch, wenn auch ironisch versteckt. Jetzt nochmals ein Gedankenexperiment zu wiederholen, ist für mich Arbeit, die ich tun müsste, kaum jemand sich die Mühe macht, wieder alles durchzulesen. Daher versuche ich nochmals einen Befreiungsschlag und bitte alle, die hier irgendwie mitarbeiten wollen, mal mit einem einleitenden Satz anzufangen. Wenn der fertig ist, die Diskussionsseite wird die Argumente sammeln, werden die Argumente benutzt werden, um den Artikel fertigzustellen: verschiedene mögliche Sichten gleichberechtigt, auch auf unterschiedlichem Niveau, aber auch Hinweise auf Fallstricke. Denn nur durch diese Hinweise kann verhindert werden, dass der Artikel dauerhaft und immer wieder umkämpft wird. Das lässt sogar den Weg offen, dass eine zuerst umstrittene Sicht den Weg zur etablierten findet und -das wäre noch besser, eine etablierte Sicht zu Gunsten einer besseren oder vereinheitlichten aufgegeben wird. (Pediadeep hat schon mal weitergefragt, während ich noch am Brüten war. Daher dieser EinschubRaiNa 17:11, 19. Jun 2005 (CEST)
Äääh, hat das irgendetwas mit dem fehlenden Gleichgewicht in der Einleitung zu tun? Wenn ja, dann erklär mir das bitte, wenn nein, dann streite dich doch bitte woanders. --Pediadeep 15:52, 19. Jun 2005 (CEST)

Alternativ-Ansatz

Benutzer:Rainer Nase hatte einen Alternativartikel erstelt; da dieses Verfahren nicht erwünscht ist, habe ich diesen nach Benutzer:Rainer Nase/Entropie/Alternativ verschoben; wer möchte und es für sinnvoll hält, möge dort bitte weiter diskutieren und mitarbeiten. -- RainerBi

Wie oben bereits erläutert, habe ich einen Alternativ-Artikel angefangen, um die Starre dieses Artikels auflösen zu können. Da ich, dem Gedanken der Wikipedia folgend, keine Besitzansprüche anmelde, im Gegenteil solche als hemmend sehe, bin ich mit der Vorgehensweise von Rainer Bielefeld (Nach eigener Beschreibung: Kriegsname!) nicht einverstanden. Ich möchte den Artikel gerne wieder zurückverschieben oder ich werde ich löschen, da er in meinem Namensraum wohl auch mir gehört.

RB steht mit seiner Meinung sicher nicht allein. Wenn jemand für die von mir vorgeschlagene Vorgehensweise ist, dann bitte ich um Mitteilung.RaiNa 20:02, 19. Jun 2005 (CEST)

Review 15.5.-30.6.2005

Ich war heute mutig und habe die beiden Artikel Entropie und Entropie (Physik) zusammengeführt, die im Grunde genommen das gleiche über dieses komplexe Thema der Physik aussagten. Neben der neu entstanden Ordnung ist natürlich auch ein mehr an Chaos entstanden - daher die Bitte an alle Interessierten, die Unordnung im neuen Artikel Entropie wenigstens zeitweise zu mindern ;-) --Markus Schweiß, @ 20:44, 15. Mai 2005 (CEST)

152.78.153.226 12:18, 20. Mai 2005 (CEST)

Der Entropie-Artikel widerspricht sich selbst und stellt Dinge objektiv gesehen sachlich falsch dar. Obendrein weckt der 1+ Review-Link beim unbedarften Leser möglicherweise den Eindruck, der Artikel wäre ein exzellenter Artikel.

Gibt es für die deutsche Wikipedia eigentlich ein Äquivalent zu http://en.wikipedia.org/wiki/Factual_accuracy? Falls ja sollte ganz oben in den Artikel besser so eine Box eingefügt werden, um den unbedarften Leser zu warnen.

152.78.153.226 12:18, 20. Mai 2005 (CEST) doctom

So eine unbrauchbare Kritik liest man selten und wenn du im Artikel Fehler und Schwächen findest, dann schreibe es doch besser und schmeiß das unbrauchbare raus. Das da oben kann jeder schreiben der Entropie gerade buchstabieren kann. --Saperaud [@] 16:58, 21. Mai 2005 (CEST)

Was mir als (naturwissenschaftlich verständigem, aber physikalischem) Laien beim ersten Überfliegen aufgefallen ist:
  1. Die Einleitung ist zu lang. Am Anfang wäre eine ganz kurze und knackige Definition gut (Halt doch was in Richtung Entropie ist ein Maß für die Unordnung in einem System oder so (von mir aus auch physikalisch korrekter, das ist bloß das was sie uns (Chemie im Medizinstudium) erzählt haben).
  2. In den Gleichungen im 1. Absatz werden die Formelzeichen nicht erklärt. Ganz schlecht.
  3. Ich fände eine Zweiteilung des Artikels nicht verkehrt: Einen Abschnitt für Laien, der in einfachen Worten (den Max und Moritz-Abschnitt fand ich klasse) erklärt, worums geht, ganz ohne Formeln und alles, und dann einen zweiten Teil für Physiker, Chemiker und sonstige Spezialisten, bzw. für solche, denen der "Idioten-Teil" Appetit (und Mut) auf mehr gemacht hat, mit Formeln, exakten Definitionen und vertieften Sachverhalte. Weil wenn ich im Fernsehen "Entropie" höre, will ich erstmal ungefähr wissen, was das ist, und nicht gleich wie das den Quantenraum beeinflußt. Das kann ich denen überlassen, die sich wirklich intensiv damit befassen. Just my 2 cents, Lennert B 18:07, 21. Mai 2005 (CEST)

Benutzer ND 23:44, 31. Mai 2005 (CEST) ich wollte nur eine kurze Übersicht über den Begriff und hätte zu sehr in die Tiefe gehen müssen um tatsächlich zu verstehen was Entropie ist. daher bin ich bei Lennert: bitte eine einfache Einleitung für Laien!

Entropie als solches kann man nich mal eben erklären, man kann nur Sichtweisen aufzeigen mit welchen man sich diesem Begriff annähert. Auch die Heisenbersche Unschärferelation wird man kaum wirklich kurz und knackig in ein paar Sätzen verständlich gemacht bekommen und Dinge wie "Entropie ist ein Maß für die Unordnung in einem System" kriegt man wohl in jeder diesbezüglichen Chemie-Physik-Prüfung zu hören. Das Thema ist schwierig, soviel dürfte klar sein, es ist aber vor allem auch eines: miss- oder nur oberflächlich verstanden. Zudem wird die Entropie je nach Fach unterschiedlich aufgefasst und auch der jeweilige Fachmann kommt da schnell in Probleme welche ihn vor diesem Artikel abschrecken. Die Zusammenführung ist da der erste Schritt eines Qualvollen Prozesses. --Saperaud  01:04, 1. Jun 2005 (CEST)

Macht sich jemand eigentlich mal die Mühe, in der Versionsgeschichte oder auch nur den Statements nachzuschauen? Jedes Kind kennt den Satz, dass die Entropie zunimmt. Meine Einleitung wurde wieder weggeworfen. Die Geschichte mit der Unordnung muss unbedingt aus der Welt! Unordnung ist ein Thema für Informatiker. Zudem: Wenn es keine Energie gibt, gibt es auch keine Entropie. Denn die Entropie ist ein Maß dafür, wie sich die Energie auf die möglichen Zustände verteilt. Solange die Informationswissenschaftler kein Maß für die Energie haben, sondern nur ihre Zustände abzählen, sollen sie den Begriff nicht entweihen und verwirren. Und Saperaud, eigentlich ist es ganz einfach, ein Beispiel zu finden, das jeder verstehen riskieren kann: Wenn ich hundert Meter weit gehen kann, und möglichst weit kommen will, muss ich eine gerade Linie gehen. Jeder andere Weg in die Breite mäandert, führt weniger weit. Für die Entropie bedeutet das: Die Entfernung ist die Temperatur. Der Weg ist die Energie. Entropie ist eine Zahl, die besagt, wie weit ich gekommen bin, im Verhältnis dazu, wie weit ich gegangen bin. Aber, ich zetere, das ist unseren Physikern einfach zu banal, es könnte ja jemand was verstehen!RaiNa 11:09, 15. Jun 2005 (CEST)

(Zeile vor Inhaltsverzeichnis) adiabat ist m.E.kein Synonym für isentrop. Da müsste dann ...adiabat+reibungsfrei ...stehen, oder? mfg --80.134.243.220 9. Jul 2005 20:53 (CEST)

Du meine Güte! Was ist hier denn los? Ich les mir die Komentare zu dem Artikel durch, und finde Zeilen wie: Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin! oder: Der Grund, warum es hier keine "Theorie" gibt, ist, daß von denen, die das verstanden haben, das jeder als so banal angesehen hat, daß sich niemand die Mühe gemacht hat, das aufzuschreiben. Die Sache ist ganz einfach: Darauf folgen dann Kommentare wie: Das find ich irgendwie alles recht daneben! Sachliches Diskutieren und Kritisieren, und dann das darauf evtl. folgende Verbessern von falsch gemachten, oder nicht ganz korrekten, Aussagen ist ja wohl das was wirklich weiter bringt! Arroganz ist doch wohl wirklich unangebracht hier!Wenn man sich selbst darstellen möchte kann man das, denke ich, auf ner eigenen Seite machen, oder in einen Chatraum gehen! Auf diese Aussagen folgt dann ein grandios formuliertes gegenseitiges Beleidigen, was auch wieder keinen Schritt weiter bringt! Wer was besser weiß, und auch besser erklären kann sollte sich doch einfach einbringen! Denn wie der Autor des Artikels schreibt: Es ist aber eben nicht leicht, Entropie so zu erklären, dass Nicht-Mathematiker und Nicht-Physiker noch folgen können. usw.. Was ich einfach sagen will: Leute! Redet doch mal etwas vernünftiger miteinander! Jeder will hier sein riesen Ego vertreten , und andere runtermachen! (davon möchte ich den Autoren ausnehmen, denn der ist ja scheinbar der einzige hier, der hier mal vernünftig mit anderen redet!!!)Das ist doch wirklich nicht Sinn und Zweck der Sache!

Du meine Güte! Was ist hier denn los? Ich les mir die Komentare zu dem Artikel durch, und finde Zeilen wie: Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin! oder: Der Grund, warum es hier keine "Theorie" gibt, ist, daß von denen, die das verstanden haben, das jeder als so banal angesehen hat, daß sich niemand die Mühe gemacht hat, das aufzuschreiben. Die Sache ist ganz einfach: Darauf folgen dann Kommentare wie: Das find ich irgendwie alles recht daneben! Sachliches Diskutieren und Kritisieren, und dann das darauf evtl. folgende Verbessern von falsch gemachten, oder nicht ganz korrekten, Aussagen ist ja wohl das was wirklich weiter bringt! Arroganz ist doch wohl wirklich unangebracht hier!Wenn man sich selbst darstellen möchte kann man das, denke ich, auf ner eigenen Seite machen, oder in einen Chatraum gehen! Auf diese Aussagen folgt dann ein grandios formuliertes gegenseitiges Beleidigen, was auch wieder keinen Schritt weiter bringt! Wer was besser weiß, und auch besser erklären kann sollte sich doch einfach einbringen! Denn wie der Autor des Artikels schreibt: Es ist aber eben nicht leicht, Entropie so zu erklären, dass Nicht-Mathematiker und Nicht-Physiker noch folgen können. usw.. Was ich einfach sagen will: Leute! Redet doch mal etwas vernünftiger miteinander! Jeder will hier sein riesen Ego vertreten , und andere runtermachen! (davon möchte ich den Autoren ausnehmen, denn der ist ja scheinbar der einzige hier, der hier mal vernünftig mit anderen redet!!!)Das ist doch wirklich nicht Sinn und Zweck der Sache!

Liebes IP 217.91.100.251, erstmal finde ich es schade dass du nicht signierst und auch nicht richtig zitierst. Was mir dann auffällt ist, dass ich hier a, keinen Ansatz zur Verbesserung des Artikels lesen kann und b, die Anzahl der von dir verwandten Ausrufezeichen dann doch beeindruckt. Das ist dann doch nicht der Stil den du gerne haben würdest oder? Ach und bei google sind viele Wikipedia-Artikel auf Platz 1 bei denen sich mir die Haare sträuben, ich sehe jedoch auch nicht das hier irgendjemand sich zwanghaft ein Bein ausreißen müsste um das zu ändern. Es wäre zweifellos schön, jedoch kann man sowas nicht von Freiwilligen einfordern. Wieviele lesen denn diese Artikel und denken nicht daran sie zu verbessern bzw. sich ordentlich in eine Diskussion einzubringen? Tja mit deiner quasi-Beleidung nahezu sämtlicher Diskussionsteilnehmer widersprichst du dir jedenfalls selbst. Tolle Sache. --Saperaud  01:53, 23. Aug 2005 (CEST)

Dampf ablassen

1) Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin!

Hallo Anonymus, wir helfen gerne weiter. Was ist Unsinn, und was ist physikalischer Unsinn? Anton

2)Liebe Wikipedianer nach der Lektüre dieser Diskussionsseite muss ich ehrlich gesagt ein bisschen schmunzeln vor Vergnügen, denn ich frage mich, was Bierdosen, CDs und Unterhosen in dieser Diskussion zu suchen haben, aber es sagt sehr viel über den Artikel aus, und über den Wahrheitsgehalt desselben. Bitte seid mir nicht böse über die Anmerkung, aber ich für mein Teil habe kaum eine Ahnung von Physik und habe so zumindest ein bisschen was gelernt, aber leider weiss ich über das Thema auch nicht mehr um den Artikel zu verbessern. Was man allerdings machen kann ist vielleicht in ein Schulbuch schauen, um den Vorgang der Entropie genauer erklärt zu bekommen? Ich habe leider nur ein paar sehr alte und meine Lehrer hatten es damals nicht geschafft, mir sehr viel Interesse für ein solches Thema zu entlocken. Mal sehen was sich machen lässt :-))--Keigauna 09:37, 10. Okt 2005 (CEST)

Vielen Dank für die nette Rückmeldung. So sollen Artikel sein, wie eine Zwiebel. Zuerst versteht man nur die Einleitung, dann den ersten Teil, irgend wann den Rest und schließlich kann man sogar Unkarheiten beseitigen.
Übrigens: es ist keine Bößwilligkeit, dass der Artikel so holpert. Entropie ist nun mal ein Begriff, der sich schön anhört, aber schrecklich oft falsch oder unzulässig verkürzt gebraucht wird (Bspl: Mischungsentropie; wird irgend wann noch ergänzt). Anton 22:33, 10. Okt 2005 (CEST)

Entropie für Dummies

Aus gegebenen Anlass habe ich gerade eine kleine Erläuterung in dem Stil Entropie für Dummies oder vielleicht sogar Entropie für „Kurze“ geschrieben. Ich stelle das hier mal als Diskussionsgrundlage hin:

Entropie, die Anschauliche Erklärung
Entropie ist kurz gesagt das Maß für die Unordnung im Universum. Ein Beispiel aus dem Alltag verdeutlicht das: So wie das Kinderzimmer sich nicht von alleine aufräumt sondern immer unordentlicher wird ist es auch im Universum; die Entropie in einem geschlossenen System (=Kinderzimmer) kann nur zunehmen. Will man die Entropie reduzieren, also die Ordnung in einem System erhöhen, muss man von außen Energie und Information zuführen. Im Beispiel mit dem Kinderzimmer müssen die Eltern die Tür aufmachen (d.h. das System mit der Umgebung verbinden) und die Kinder zum Aufräumen reinschicken (das ist die Information). Die gefütterten Kinder verbrauchen dann Energie um die Sauerei wieder aufzuräumen. Das Kinderzimmer ist danach ordentlich (mehr oder weniger), hat also weniger Entropie und das Universum dafür ein bisschen wärmer, da die Kinder ihre Müsliriegel verbrannt haben und in Wärme umgesetzt haben. In der Summe wird dabei immer mehr Entropie erzeugt als vernichtet. Die Entropie im Universum nimmt also auch durch das Aufräumen zu.

Bei der Verwendung des Informationsbegriffes bin ich mir hier nicht ganz sicher. Im Zweifel geht es auch ohne. Die Kritikrunde ist hiermit eröffnet, Edits im obigen Abschnitt sind ausdrücklich gewünscht! -- Dr. Schorsch*Schwätzle? 14:25, 25. Jan 2006 (CET)

ich dachte unordung ist abgehakt? (siehe oben in der diskussion) --Pediadeep 17:17, 25. Jan 2006 (CET)
Normalerweise finde ich ja einfache Erklärungen gut, aber die ganze Diskussion um die verschiedenen Entropie-Artikel zeigt, dass so ein Pseusobeispiel einfach nicht angemessen ist. Das Kinderzimmer gerät zum Beispiel nicht von alleine in Unordnung. Man steckt auch keine Information rein, um die Entropie zu reduzieren. Die Entropie kann höchstens ein Mass dafür sein, wieviel Information in dem Kinderzimmer drinsteckt. Wieviel Zustände kann denn so ein Kinderzimmer annehmen? Die Temperatur verändert sich durch das Aufräumen oder Unordentlichmachen kaum. Die Meinung der Eltern und Kinder über die Unordnung ist sicher sehr unterschiedlich, die Entropie ist aber eine feste statistische Größe und funktioniert nur in einer entsprechenden Gesamtheit.
Entropie ist zuviel popolärwissenschaftlich verschwurbelt, weil mal jemand behauptet hat, darin bestehe die Ursache der Zeit. Wenn alle wüssten, wie langweilig und mathematisch kompliziert Entropie ist, würde man das Ganze vielleicht in Ruhe schlafen lassen. Was ist eigentlich Freie Enthalpie anschaulich?
Kurzum IMHO, ich würde das Kinderzimmer einfach weglassen. Nopherox 17:06, 26. Jan 2006 (CET)
Ich auch. Anton 18:42, 26. Jan 2006 (CET)

Stand der Dinge

Die letzte grössere Hinzufügung hat zuletzt im November ein 84.155.127.217 gemacht. An dieser Stelle (Entropie und Ordnung) hat jetzt 212.201.55.6 was geändert. Allerdings enthält dieser Abschnitt ein Beispiel aus dem Teil der Entropie, der eigentlich im Artikel Entropie (Informationstheorie) behandelt ist. Die Zusammenlegung dieser beiden Entropie-Artikel, die ich richtig fände, hatte vor einiger Zeit keine allgemeine Zustimmung. Aber dann passt der auch Abschnitt Entropie und Ordnung IMHO nicht hierher.

Wer, außer Dr. Schorsch, der vor kurzem den dankenswerten aber wohl vergeblichen Versuch unternommen hat eine Oma-Test-Version zu erarbeiten, hat denn zur Zeit die Fortentwicklung dieses Artikels in der Pipeline? Eine Revision ist ja schon lange überfällig. Oder wollen alle das Wiederaufwärmen der letzten grossen Diskussion vermeiden? Nopherox 15:01, 27. Jan 2006 (CET)

Mit Oma-Einleitungen habe ich meine Schwierigkeiten, wahrscheinlich ebenso wie du. ME. verwirrt der Abschnitt Ordnung und Entropie mehr, als dass er hilft. Aber ich weiß keine Abhilfe. Immer wieder wird jemand als Omaerklärung schreiben, Entropie sei ein Maß für Unordnung und voraussetzen, dass die Bedeutung von Unordnung jedem geläufig ist. Anton 21:51, 27. Jan 2006 (CET)

Das Problem bei dem Begriff Unordnung ist, dass er einfach nicht angebracht ist. Es geht hier vielmehr um 'Nicht-Wissen', also um die Verwendung von Wahrscheinlichkeiten bei der Beschreibung eines Systems, da nicht mehr Informationen über den Mikrozustand des Systems erhältlich sind. Ein unordentliches Zimmer ist eine Metapher für fehlende Information über den genauen Mikrozustand (wo habe ich bloss XYZ hingelegt), aber der Vergleich humpelt nicht, er hat keine Beine! Denn die Symmetrie (was sehr viel mehr mit Ordnung zu tun hat) einer Anordnung hat NICHTS mit dem Wissen über ihre tatsächliche Verwirklichung zu tun. Übrigens kann man ein Zimmer aufräumen und die Entropie trotzdem erhöhen, der Begriff ist einfach irreführend! David314 6:28, 28. Feb 2006 (CET)

Unordnung wurde hier schon ausgiebigst diskutiert, und immer wieder wurde festgestellt, dass dieses wort in diesem artikel eigentlich nichts zu suchen hat. wenn denn jemand glaubt, dass seine oma dann, und nur dann, eine chance hat zu verstehen, was entropie ist (ich bezweifle das), wenn er mit unordentlichen sachen kommt, dann soll er das doch bitte korrekt ausformulieren, d.h. inklusive definition von ordnung, math. beschreibung, und methode der berechnung der entropie daraus (wenn denn wirklich entropie ein mass für ordnung sein soll, dann los, lass mal messen). dieses kinderzimmer hilft da ÜBERHAUPT NICHT weiter. --Pediadeep 10:49, 28. Feb 2006 (CET)

Zunahme der Energie?

Ich verstehe den Artikel zwar leider nur unvollständig, doch habe ich den Eindruck gewonnen, dass die und Entrophie und also auch die Energie immer steigt. Stimmt das? Kann ich Entrophie als eine Art Energie betrachten? --Adeptus 14:31, 20. Mai 2006 (CEST)

  • Nope. Es verhält sich eher umgekehrt. Die Energie ist in einem abgeschlossenen System erhalten und ändert sich nicht. Aber es gibt verschiedene Formen von Energie, die sich ineinander umwandeln lassen. Und manche dieser Formen sind für den Alltag "nützlicher" als andere. Ein abgeschlossenes System hat nun leider immer das Bestreben, seine Energie in weniger nützliche Formen (Wärme) umzuwandeln. Beispielsweise wird ein fahrendes Auto ohne Sprit aufgrund der Reibung irgendwann zum Stillstand kommen - es wandelt dabei seine kinetische Energie (die wir zur Fortbewegung nutzen) in Wärmeenergie von Reifen und Achse um (mit der wir überhaupt nichts mehr anfangen können). Die nutzbare Energie kann also nur abnehmen, die Entropie kann nur zunehmen. So gesehen kann man die Entropie auch als ein Maß für die nicht nutzbare Energie ansehen. Im übrigen finde ich, daß der Zusammenhang zwischen Energie und Entropie im Artikel leider etwas kurz kommt --201.21.252.189 21:33, 28. Mai 2006 (CEST)

Entropie im abgeschlossenen System

Das Kapitel "Entropie und Zeitpfeil" ist ein Spagat zischen verwirrend und falsch.

  • Die Entropie in einem geschlossenen System kann im thermodynamischen Limes nicht abnehmen.

Aber:

  • Wenn ich mir die Entropie lokal ansehe, also in das System reingehe betrachte ich nicht mehr das abgeschlossene System, sondern ein offenes Teilsystem. Hier kann die Entropie schwanken.
  • Betrachte ich ein System mit endlich vielen Teilchen, also ein reales System, so kann die Entropie deshalb abnehmen, weil der thermodynamische Limes der Grenzwert des Systems für unendliches Volumen (also auch unendliche Teilchenzahl) ist.
  • Die mittlere Entwicklung der Entropie in einem unendlichen Zeitintervall kann man als ein Analogon zur Zeitentwicklung im thermodynamischen Limes betrachten. Im Mittel muss die Entropie also ansteigen.

All das steckt im Text irgendwie drin, wird aber derart haarstäubend unstrukturiert rübergebracht, dass es die Spinner motiviert, die ein Perpetuum Mobile im Keller zu haben behaupten. -- 80.136.36.5 18:01, 30. Mai 2006 (CEST)

Ich gebs ja gerne zu. Ich bin nicht besonders begabt in (verstaendliche) Artikel schreiben. ;)
Ich wollte nur den zuvor falschen Abschnitt korrigieren, denn der behauptete das die Thermodynamik einen Zeitpfeil vorschreibt. Die Ursache warum die Thermodynmaik einen Zeitpfeil vorschreiben sollte, beruhte auf dem Satz "das die Entropie niemals abnehmen koennte" - das ist insofern falsch, als ich das nur von einem System behaupten koennte, wenn dieses auch zeitlich abgeschlossen ist.
Wenn ich also ne Box beobachte (ein geschlossenes System) dann kann ich davon ausgehen, das es nach einer festgelegten Zeit mehr Entropie besitzt, niemals aber wenn ich nur bestimmte Zustaende betrachte. Den in einer geteilten Box mit einen Gas, tritt ja auch nie der Zustand "50 Gasmolekuele-rechts - 50 Gasmolekuele-links" ein, sondern da werden mal 30 auf einer Seite sein, dann wieder 65, etc. Nur das gesamte System betrachtend gibt es eine gleichmaessige Verteilung.
Soweit so gut.
Und genau dann wirds falsch: bei der Behauptung das sich im offenen Teilchensystem 'Universum' (und um das gehts ja beim Zeitpfeil) zukuenftige Zustaende immer durch erhoehte Entropie von vergangenen Zustaenden unterscheiden.
Das ist zwar korrekt wenn wir nur unsere Alltagsvernunft zu Rate ziehen (aufgrund der Wahrscheinlichkeit), aber nicht korrekt wenn ich das System als ein Wahrscheinlichkeitssystem betrachte (Es gibt nun mal auch die Wahrscheinlichkeit, das sich in einer Box alle Molekuele auf eine Seite draengen).
Der (fuer das System) maximal erreichbare Zustand tritt immer nur dann ein, wenn ich das ganze System betrachte, nicht die einzelnen Zustaende.
Auf das Universum umgelegt bedeutet das, das ich nur behaupten kann die Entropie nehme zu, wenn ich von der kleinst moeglichen Entropie (fuer das System) beim Urknall ausgehe.
Das im Mittel die Entropie ansteigen muss ist zwar korrekt, hat aber nichts mit mit der Behauptung zu tun, das der 2. HS einen Zeypfeil vorgibt. Denn die Entropie kann auch sinken (in einem offenen System). Das sie das hoechst_wahrscheinlich_ nicht macht, ich habs schon geschrieben, beruht auf der Tatsache das das System ein Wahrscheinlichkeitssytem ist und nicht weil der 2. HS das als Gesetz vorgibt.
Perpetuum Mobile-Anhaenger bekommen damit auch nicht recht, weil sie ja wieder nur offene Systeme betrachten - also bleibts bei der Diskussion 'PM-Anhaenger - Vernuenftige Menschen' ;) beim Alten.
Was ich mir aber durchaus Vorstellen kann, das der Beitrag unverstaendlich rueberkommt - ich versuchs ihm zu aendern (hab leider nicht allzu viel Zeit - und hoffe daher ein anderer fuehlt sich angesprochen ;) ). --stefan 22:39, 30. Mai 2006 (CEST)

Wurde ja jetzt zurückgesetzt... ob es dadurch entscheidend besser geworden ist, bin ich mir nicht ganz sicher. -- 217.232.24.246 12:58, 27. Jul 2006 (CEST)

Euch ist schon klar, das jetzige Version einfach nur falsch ist?

1. ist das Beispiel mit dem Film falsch (es geht um Zustaende und nicht um Ablaeufe). 2. ist es ebnso falsch, das die Entropie irgendeine Zeitrichtung vorgibt.

Es geht hier um eine Wahrscheinlichkeitsaussage: Das Gesamtsystem weist einen Zustand maximaler Enropie auf. Das bedeutet: wenn ich das Gesamtsystem betrachte finde ich alle moeglichen Entropiezustaende vor. Ich muss das Gesamtsystem betrachten um einen maximalen Entropiewert zu besitzen.

Besitze ich einen Zustand (Z) mit einer bestimmten Entropie E(Z), sagt uns die Wahrscheinlichkeitsrechnung, das zu einen spaeteren Zustand die Entropie groesser sein sollte. Aber nicht weil die Entropie von frueheren Zustand zu spaeteren Zustand immer groesser werden muss, sondern weil ich zu den genau bestimmten Zustand Z einen genau bestimmten Entropiewert E(Z) besitze. Wenn ich von diesen Zustand Z ausgehe, gibt es unendlich viele von E(Z) verschiedene Werte der Entropie. Das heisst die Erhoehung der Entropie zeigt sich uns, in der grossen Anzahl der von von E(Z) verschiedenen Werte der Entropie, zu einen anderen Zeitpunkt. Das gilt aber nicht nur in eine Zeitrichtung - Zukunft, sondern(!) gilt auch fuer die andere Zeitrichtung - Verghangenheit!

Was ich befuerchte ist, das hier die Grundlagen der Mathematik nicht verstanden werden.

Auf jeden Fall ist der Text in der jetzigen Fassung falsch! Er fuehrt dazu, das sich die Professoren auf den Universitaeten mit vorgefassten falschen Meinungen der Studenten und Stuidentinnen auseinandersetzen muessen. --stefan 15:53, 5. Sep 2006 (CEST)

Hallo Stefan, bitte ändere den Abschnitt nicht wieder. Deine Ausführungen sind für die meisten Menschen völlig unverständlich. Der Abschnitt ist nicht toll, aber falsch ist er auch nicht. Zumindest nicht in dem Sinne, dass der Sachverhalt auch in Lehrbüchern oft so dargestellt wird. Nur das zählt für die Wikipedia. --Aegon 22:24, 5. Sep 2006 (CEST)

Hi, keine Sorge ich aendere den Abschnitt nicht mehr, dazu fehlt mir die Zeit und die Geduld. Aber der Abschnitt ist falsch, er geht von einer aeusserst seltsamen und falschen mathematischen Verstaendniss aus und aus diesen falschen Verstaendnis ergeben sich falsche Aussagen (Entropie - Zeitrichtung). Das sind genau die Probleme mit denen sich Professoren und Professorinnen, Dozenten, etc. auf Unis rumschlagen muessen. Also nochmals: Dieser Abschnitt ist falsch, so falsch dieser Abschnitt nur sein kann. Wenn es mehr solche wissenschaftliche Artikel auf Wikipedia geben sollte, dann seh ich schwarz fuer die Idee "Wikipedia".

Ich finde uebrigens diese 'Version vom 19:16, 14. Jun 2006' - http://de.wikipedia.org/w/index.php?title=Entropie&diff=17859974&oldid=17792282 nicht allzu schlecht. --stefan 15:35, 6. Sep 2006 (CEST)

IP-Diskussionsbeitrag

Büdde beachten diesen Beitrag:

Einwand: Dem widerspricht die Darlegung zur Entropie von Prof.Dr.mult. A.E. Wilder-Smith in seinem Buch: " Herkunft und Zukunft des Menschen", ISBN 3-922349-89-7. Für den wissenschaftlichen Laien stellt sich der zweite Thermodynamische Hauptsatz somit wie folgt dar: " Ordnung zerfällt ohne Zuführung gelenkter Energie von außen immer in Unordnung!" In einer wissenschaftlich sauberen Abhandlung definiert der Autor Entropie als die Verhältnismäßigkeit zwischen Ordnung und Unordnung. Dass Entropie "nichts" mit Unordnung zu tun hat, ist demnach nicht haltbar! Der oben genannte Autor geniest internationalen Respekt in den wissenschaftlichen Kreisen und seine Darlegungen konnten bisher zumindest nicht widerlegt werden. Die Definition von Entropie, muss zumindest unter Einbeziehung seiner Darlegung betrachtet werden.)

--Löschkandidat 12:31, 11. Sep 2006 (CEST)


Respekt hilft einem bei der ganzen Sache nicht weiter, im übrigen geniest dieser Autor nicht in allen Kreisen großen Respekt, er ist schließlich Kreationist. Entropie ist das Maß für die erreichbaren Mikrozustände und hat nichts mit der Symmetrie des jeweiligen Mikrozustands zu tun. Es gibt Systeme, die sich unter Entropiezunahme ordnen, z.B. bei der Entstehung kristalliner Phasen. Mal ein ganz einfaches Beispiel. Man nehme eine Box mit 100 Münzen und lege die irgendwie hinein. Durch Schütteln verändert man die Konfiguration. Hin und wieder werden symmetrische Muster entstehen, die allerdings sofort wieder verschwinden und (fast) keine Korrelation zeigen. Wenn die Münzen allerdings durch magnetische Pucks ausgetauscht werden und auf ihre Nachbarn wirken können ändert sich das Bild und die symmetrischen Zustände häufen sich, wenn man nicht zu fest schüttelt. So etwas beobachtet man in der Natur sehr häufig bei ferromagnetischen Kristallen.

David314 04:35, 14. Sep 2006 (CEST)

@David: Das hier ist eine Enzyklopädie, die Wissen so darstellen soll, wie es halt in Lehrbüchern und Fachzeitschriften dargestellt wird. Viele Autoren benutzen den Begriff Unordnung in Zusammenhang mit Entropie. Da kann man nicht schreiben Entropie hat nichts mit Unordnung zu tun!. Dies ist nur die Meinung einiger. (Ich habe diese Aussage übrigens noch nirgendwo so drastisch gelesen. Bring mal ein Zitat.) Man sollte also schreiben: Viele Autoren vergleichen Entropie mit Unordnung, andere sehen das problematisch und vermeiden den Ausdruck Unordnung völlig... oder etwas ähnliches. In der ganzen Einführung lernt man übrigens fast nichts. Es wird nur erzählt, warum Entropie ein schwieriger Terminus ist. --Aegon 10:15, 14. Sep 2006 (CEST)

Die Einleitung ist genau für Leute wie dich geschrieben. Und komm mir nicht mit Autoren, Zitaten und Quellen, die Entropie ist kein Gegenstand für Debatten sondern ein präziser Ausdruck, nämlich

und daran gibt es nichts zu rütteln. In diesem Ausdruck wirst du keinerlei Größe finden können, die etwas über die Ordnung des Systems aussagt. Wenn es Lehrbücher und Zeitschriften gibt, die Entropie mit Unordnung gleichsetzen oder implizieren, dass Entropiezunahme immer mit Reduktion von Symmetrie einhergeht, so ist das einfach falsch und das muss man auch in aller Deutlichkeit sagen. Nur so kann der Leser davon angehalten werden die Begriffe gleichzusetzen. Ich habe öfters Physikstudenten, die mir nicht erklären können wie Entropie definiert ist und ich kann die Identifizierung mit Unordnung einfach nicht mehr hören. Natürlich sind Entropiezunahme und Abnahme der Ordnung häufig korelliert, aber es sind zwei verschiedene Dinge, dieser Vergleich hat schon mehr Verwirrung gestiftet als notwendig. David314 16:51, 14. Sep 2006 (CEST)

Nochmal: Dies ist eine Enzyklopädie. Hier muss man mit Autoren, Zitaten und Quellen kommen. Du beschwärst dich, dass andere Autoren Verwirrung stiften, aber schau dir den aktuellen Artikel doch mal an: Der allererste Satz (dein Edit) besagt, dass die Entropie die Temperatur definiert. In Zeile 11 wird dann die Entropie über die Temperature definiert. Na toll. Dann kommt dein Feldzug gegen die Unordnung. In späteren Abschnitten wird dann der Zusammenhang zwischen Ordnung - Unordnung - Entropie diskutiert. Solche scheinbaren (erster Fall) und tatsächlichen (zweiter Fall) Widersprüche finde ich verwirrend. Es ist übrigens rührend, dass du die Einführung für Leute wie mich geschrieben hast. Von mir aus brauchst du sowas aber nie wieder tun. --Aegon 17:51, 14. Sep 2006 (CEST)


Von einer Enzyklopädie erwarte ich vor allem Korrektheit und wenn möglich einen kompakten Überblick. Das gelingt leider nicht immer auf Anhieb, weswegen wir ja auch diese Diskussion führen. Die Definition der Entropie über die Temperatur (zweite Formel) stammt übrigens von Clausius und wenn du den 1.Hauptsatz anwendest, dann sieht man, dass beide Gleichungen äquivalent sind. Es ist natürlich auf den ersten Blick verwirrend, wenn man die Äquivalenz nicht sieht, deshalb habe ich das versucht zu erläutern. Natürlich kann man mit einer Gleichung nur eine der beiden Größen durch die Andere definieren, entweder Temperatur durch die Entropie oder umgekehrt. Früher war die Temperatur (in der phänomenologischen Thermodynamik) die Grundgröße (und ist sie noch heute für den Experimentalphysiker), heute verwendet man in der Theorie die Entropie als Ausgangsbasis bzw. den Dichteoperator/Zustandssumme und die absolute Temperatur erscheint als abgeleitete Größe. Es ist also von der jeweiligen Situation abhängig, welche Beschreibung günstiger ist. Der Artikel ist tatsächlich verwirrend, weil im hinteren Teil noch eine Menge Unsinn steht, aber man kann nicht alles auf einmal machen. Übrigens ist es in der Physik und Mathematik nicht üblich bei so gewachsenen Begriffen jedesmal Quellen und Autoren anzugeben, es sollte genügen zu erwähnen, dass Clausius und Boltzmann den Begriff ausgearbeitet haben. Tatsächlich ist Boltzmanns Definition für klassische Systeme ziemlich vollständig, aber der Versuch diese statistische Definition an den Anfang des Artikels zu stellen ist an ihrer Abstraktheit gescheitert. Offenbar war das für die meisten Leser unverständlich, daher diese weniger mathematische Einführung in die Entropie.

David314 04:28, 15. Sep 2006 (CEST)

Symmetrisch

das scheint mir zweifelhaft, spekulativ, ungenau - einfach nicht gut:

(In der Natur entstehen spontan unter Zunahme der Entropie symmetrische Strukturen, man denke hierbei z.B. an Galaxien, Kristalle, Schneeflocken und Lebewesen. Geordnete Strukturen entstehen dabei auch in abgeschlossenen Systemen, obwohl häufig behauptet wird, dass dies nur in offenen Systemen möglich ist. Auch abgeschlossene Systeme müssen sich nicht im thermischen Gleichgewicht befinden. Um dies zu verstehen bedenke man, dass sich das Universum kurz nach dem Urknall in einem Zustand niedriger Entropie befand und diese seitdem zunimmt. Erst durch die Expansion und der damit einhergehende Abkühlung konnte es zur Ausbildung symmetrischer Strukturen kommen.) Vorschlag an den Autor dieses Abschnittes, ihn aus der Einleitung an eine andere Stelle zu verschieben und dort mit Quellenangaben zu versehen. In der Einleitung ist dieser Abschnitt eher verwirrend als klärend --Homosapiens 10:35, 13. Sep 2006 (CEST)

--Pediadeep 11:51, 13. Sep 2006 (CEST)

Es ist also zweifelhaft, dass sich in einem abgeschlossenen Systemen symmetrische Strukturen unter Entropiezunahme bilden? Hast du schon mal einen Joghurt im Kühlschrank vergessen? Oder vielleicht ein abgeschlossenes Zimmer aufgeräumt? Oder ein Wärmekissen (NaAc) ausprobiert? Ich wollte mit diesem Absatz nur mit dem Vorurteil aufräumen, dass sich symmetrische Strukturen nur in offenen Systemen unter Energiezufuhr bilden können. Diese Behauptung wird gerne von Biologen aufgestellt, weil dies für Lebewesen zutrifft und lebende Organismen die Energie dazu verwenden ihre Struktur aufrechtzuerhalten. Aber es gibt auch unbelebte Systeme, die einen hohen Ordnungsgrad besitzen.

--David314 17:14, 14. Sep 2006 (CEST)

ich kann deine intention nachvollziehen, denke aber trotzdem wie Homosapiens, dass das sehr unglücklich und missverständlich, wenn nicht gar falsch, formuliert ist. auch scheint mir die einführung nicht der richtige platz um mit fehlgeleiteten biologen oder kreationisten zu argumentieren. ich hätt nichts dagegen, wenn du das klarer formulierst und in einen entsprechenden abschnitt (kritik?) verschiebst. grüsse, --Pediadeep 20:18, 14. Sep 2006 (CEST)
Hallo David, einen Kühlschrank als geschlossenes System zu bezeichnen ist zwar mutig, im physikalischen Sinne aber in jeder Hinsicht falsch. Und der 2. Hauptsatz gilt eben nur für geschlossene Systeme (im physikalischen Sinn, da reicht es nicht, die Tür zuzumachen!).
Die Frage nach der Entstehung des Lebens und den Zusammenhang mit Laserstrahlen und Schneeflocken haben zwar einige Leute Anfang der 80´er mal untersucht (siehe Synergetik, Herrmann Haken, einen echten Durchbruch oder allgemeine Anerkennung haben sie damit aber bisher meines Wissens nicht erzielt. Und mit dem alten Boltzmann hat das schon gar nichts zu tun.
Kurz und gut: Die Materie ist schwierig genug, man sollte solche nicht allgemein anerkannten Theorien nicht gerade in die Einleitung packen.
Aber abgesehen davon solltest Du mal darüber nachdenken, ob das Leben als solches wirklich eine Chance gehabt hätte sich zu entwickeln, wenn dein Joghurtbecher für 100 Mio Jahre in einem ideal adiabaten Kühlschrank gelegen hätte und da nur ein paar Mineralien drin gewesen wären. Denn bei geschlossenen Systemen ist eben recht schnell tote Hose mit Entwickeln, weil eben nicht viel Exergie drinsteckt.

--Homosapiens 00:57, 16. Sep 2006 (CEST)


Lieber Homosapiens, falls dein Kühlschrank kein abgeschlossenes System darstellt, dann mach doch mal die Tür zu. Abgeschlossen heißt nur: kein Materietransport. Was du sicher meinst ist ein isoliertes System und (auch) für diese Systeme gilt der 2. Hauptsatz. Aber auch hier kann die Ordnung/Symmetrie für eine Weile zunehmen und noch viel länger anhalten, nur das solche Systeme in der Praxis sehr schwer bis garnicht zu realisieren sind. Abgeschlossene Systeme gibt es aber überall, trotzdem scheint es kein allgemein anerkannter Begriff zu sein. Und ich habe nie behauptet, dass sich in einem kleinen abgeschlossenen oder isolierten System gleich die ganze Evolution abspielt, aber das ist doch Rabulistik. Wenn das System gross genug ist, gibt es über einen entsprechenden Zeitraum Nichtgleichgewichtszustände, stell dir einfach mal das ganze Sonnensystem in eine adiabatische Box gesteckt. Oder nimm halt gleich die ganze Galaxis. Oder die lokale Gruppe (ja ich weiss das ist hanebüchen, aber irgendwie muss ich ja den Standpunkt klarmachen und solange ich die Box nicht installieren muss...). Niemand schreibt vor wie groß ein abgeschlossenes oder isoliertes System sein darf! Möglicherweise ist nicht einmal das ganze Universum ein isoliertes System... Da muß man keine allgemein anerkannten Theorien und Quellen/Literaturangaben zitieren, im übrigen ist so ein Vorgehen typisch für Geisteswissenschaftler. Nichts gegen Geisteswissenschaftler, aber vor lauter Zitieren und Verbeugen vor den Meistern der Zunft vergessen die oft das eigene Nachdenken. Wenn ich mir Diplomarbeiten ansehe, wo das Literaturverzeichnis über 10 Seiten geht und die Leute jammern, dass die Arbeit unterzitiert ist kann man nur mit dem Kopf schütteln. Man sollte sich nicht abhalten lassen, selbst über Dinge nachzudenken so kompliziert sind die Begriffe in der Thermodynamik nicht.

--David314 03:36, 16. Sep 2006 (CEST)

Hallo David314, Ich teile die Einschätzung von Pediadeep und möchte die Diskussion auch nicht vertiefen.

Bitte lies es einfach noch mal nach, z.B. in der Wikipedia Abgeschlossenes System Thermodynamik oder Energieerhaltungssatz oder (entschuldige daß ich das sagen muß) auch in jedem Physikbuch der Oberstufe. Die Begriffe mögen nicht kompliziert sein, aber man sollte auch nicht ignorieren, wenn Dinge seit 150 Jahren von allen Physikern anders benutzt werden, sonst müssen wir uns bald über Begriffe wie Masse oder Energie streiten. --Homosapiens 00:19, 17. Sep 2006 (CEST)


Es scheint in der deutschen Literatur keine einwandfreie Verwendung der Begriffe (ab)geschlossen und isoliert zu geben. Ich habe gerade nochmal durch mein Bücherregal geschaut und mehrere Varianten gefunden. Da ich meist nur englische Literatur lese ist mir das bisher nicht so aufgefallen. Im Englischen gibt es nur open, closed und isolated. Es wäre hilfreich, wenn man den Begriff abgeschlossen nicht synonym zu isoliert verwendet, da ganz leicht Mißverständnisse erzeugt werden können. Unter einem (ab)geschlossenen System sollte man ein bewegliches Kontrollvolumen verstehen, dessen Wände sich derart bewegen, dass keine Masse hindurchtreten kann. Ein offenes System ist einfach ein Kontrollvolumen, das zeitlich konstant ist. Und ein isoliertes System wäre dann ein (ab)geschlossenes System, dessen Wände adiabat sind und auch sonst nichts rein oder rauslassen. Was in der Praxis freilich nicht zu realisieren ist, zumindest nicht für längere Zeiträume. Aber soll man jetzt deswegen einen Kreuzzug starten? Es gibt in der Physik soviele Begriffe, die inkonsistent sind, z.B. das magnetische Feld...

--David314 02:39, 17. Sep 2006 (CEST)

neue einleitung / energie

In der einleitung steht "dass die Energie zwischen Ausgangs- und Endzustand nur unwesentlich geändert hat, die Entropie jedoch ansteigt.". ist's nicht so, dass sich insb. beim beschriebenen beispiel, "gas", die energie überhauptgarnicht ändert? --Pediadeep 18:03, 15. Sep 2006 (CEST)

Stimmt. Bei dem Gas-Beispiel ändert sich die Energie nicht. Bei den Membranen ist das System an Wärmebad und Druckbad (nennt man das so?) gekoppelt, d.h. man muss die Enthalpie betrachten. Diese steigt sogar leicht an. --Aegon 18:29, 15. Sep 2006 (CEST)
ob sich die energie ändert hängt eben davon ab, ob wärme fliessen kann oder nicht. das kann man beim gas auch wählen. vielleicht sollte man das dann auch präzise so darstellen? --Pediadeep 19:10, 15. Sep 2006 (CEST)
ich weiss es ja selbst nicht so genau!?, aber ist nicht mit dS=dQ/T gesagt, dass zur Entropieänderung immer ein Wärmefluss nötig ist? wenn man das mit dem Gas in einem isolierten System ohne Wärmefluss macht, wie kann dann die Entropie zunehmen? --Pediadeep 19:10, 15. Sep 2006 (CEST)

Darüber hatten wir uns doch schon mal an anderer Stelle unterhalten. Die Definition von Clausius bezieht sich auf reversible Prozesse, der Expansionsversuch von Gay-Lussac ist definitiv irreversibel. In der phänomenologischen Thermodynamik hat man es manchmal schwer zu verstehen, wo die Entropiänderung eigentlich steckt, vor allem wenn offensichtlich keine Wärme zu- oder abgeführt wird. Entropie und innere Energie sind zunächst zwei verschiedene Dinge. Sie sind über die Veränderung der Möglichkeiten gekoppelt die innere Energie auf die Freiheitsgrade zu verteilen. Aber es ist eben nicht die einzige Möglichkeit die Entropie zu verändern. Das schreibt sich in der Sprache der Thermodynamik so:

Beim Gay-Lussac-Versuch können wir diese Gleichung nicht anwenden, da wir keine Gleichgewichtszustände durchlaufen, man kann sich aber einen isothermen Prozess überlegen, der zum gleichen Endzustand (vergrößertes Volumen) führt und dann die Entropieänderung durch Integration bestimmen. Man sieht dann, dass die Entropie wie erwartet zunimmt. An dieser Stelle zeigt sich der Vorteil der statistischen Beschreibung, hier kann man sofort einsehen warum die Entropie zugenommen hat, man muss nicht den Prozeß betrachten, der Endzustand genügt. Die Gasteilchen haben einfach mehr Platz sich zu verteilen, die mögliche Anzahl an Mikroszuständen hat sich durch eine Vergrößerung des erreichbaren Volumens erhöht. Sobald sich das System wieder im Gleichgewicht befindet kann man wieder mit den phänomenologischen Gleichungen arbeiten. Also aufgepaßt wenn das System sich nicht im Gleichgewicht befindet, dann machen einige Formeln einfach keinen Sinn.

--David314 22:41, 15. Sep 2006 (CEST)

danke; ich sollte besser meine hausaufgaben machen;)

irreversible ausdehnung ins vakuum ohne wärmestrom (1.hauptsatz) und konstante teilchenzahl:

folg und gasgesetz:

folgt:

oder mit zustandssumme: volumen proportional Zustandssumme : was dasselbe ist. danke und viel spass, --Pediadeep 23:57, 15. Sep 2006 (CEST)

Ich hab' das mal als Beispiel in den Artikel eingebaut. Wäre nett, wenn das nochmal einer nachrechnet. --Aegon 00:16, 17. Sep 2006 (CEST)
hmmm, so wie du das beschreibst wäre es reversibel, was ich gerechnet habe ist irreversibel. in deiner rechnung muss dQ=-dW sein. und dann gehts mit TdS=dQ (innere energie ist konstant). --Pediadeep 13:58, 17. Sep 2006 (CEST)
Nein, du hast auch reversibel gerechnet! Ist aber auch o.k. Da 'S' eine Zustandsgröße ist, kann man sich den einfachsten Weg aussuchen. Das Ergebnis ist immer gleich. --Aegon 00:30, 18. Sep 2006 (CEST)
bei "meiner" rechnung bin ich mir nicht sicher; ich hab halt immer noch keinen frieden mit der thermodynmaik geschlossen, sorry. aber mein buch sagt, dass beim reversiblen fall wärme und arbeit fliesst, beim ireversiblen fall dagegen nicht. klar macht das für die entropie und das system keinen unterschied, für die reservoire aber wohl. im einen fall scheints wohl eine wärmekraftmaschiene zu sein, im anderen nicht. das meine ich mit dQ=-dW (reversibel) oder dQ=dW=0 (ireversibel). was ich versucht hab zu "rechnen" (wenn man's denn so nennen kann) ist der fall, dass die trennwand plötzlich weggenommen wird und die ganze soße einfach weiterfliegen kann. ich hab wirklich wenig idee, wie man das mit dem obigen totalen differential vereinbart. gearbeitet wird dabei jedenfalls nicht.?? --Pediadeep 01:03, 18. Sep 2006 (CEST)


Ich habe keine Zeit euch das hier auseinanderzupflücken, ist aber ziemlich simpel: Man expandiere adiabatisch das Gas auf das größere Volumen, dabei wird Arbeit geleistet die entsprechend aus der inneren Energie bestritten wird. Natürlich nimmt der Druck mit der Temperatur ab (ideales Gas: pV = NkT), also integrieren. Anschliessend dann soviel Wärme hinzugeben, bis die Anfangstemperatur erreicht ist, einfach \delta Q/T dabei aufintegrieren, fertig ist die Entropieänderung.

--David314 23:00, 18. Sep 2006 (CEST)

nun, die zeit nehm' ich mir: ich hab doch ziemlich deutlich und mehrfach geschrieben, dass ich es explizit von der ireversieblen expansion ins vakuum habe die wo da wohl mit dem beispielbild gemeint ist bei der eine trennwand ganz plötzlich einfach so verschwindet, bei der KEINE ARBEIT GELEISTET WIRD UND AUCH KEINE WÄRME FLIESST UND AUCH DIE TEMPERATUR KONSTANT BLEIBT UND GENAUSO AUCH DIE ENERGIE GLEICH BLIEBT! david? grüsse --Pediadeep 00:03, 19. Sep 2006 (CEST)


Für Nichtgleichgewichtszustände, und das trifft für den beschriebenen Vorgang zu, kannst du die normalen Formeln nicht verwenden. Nichtsdestotrotz ist der Endzustand ein Gleichgewichtszustand (man muss ja nur ein wenig warten) und da packt der Formalismus wieder. Du hast völlig recht, das Gas arbeitet nicht (p=0), es verändert nicht seine Temperatur und damit ist auch die innere Energie konstant (dQ=dW=0 => dE=0). Aber das nutzt dir nichts, denn du kannst deine Gleichgewichtsthermodynamik nicht auf diesen Prozess anwenden. Also mußt du dir einen reversiblen Prozeß ausdenken, der zum gleichen Endergebnis führt (s.o.). Habe ich das jetzt besser formuliert?

--David314 02:46, 19. Sep 2006 (CEST)

Entropie von Lebewesen

Das Beispiel zur Entropie von Lebewesen ist gut gemeint und der Vorschlag Energiedrinks in Entropiedrinks umzubenennen ist liebenswert. Das Beispiel ist jedoch nicht korrekt und trägt zur Mystifizierung der Entropie bei - dem Gegenteil des eigentlichen Anliegens von Wikipedia. Deshalb habe ich das Beispiel entfernt. Ein Lebewesen befindet sich nicht in einem thermodynamischen Gleichgewichtszustand. Es ist deshalb nach dem heutigen Stand der Erkenntnis nicht möglich, einem Lebewesen eine Entropie zuzuordnen. Unstrittig ist hingegen, dass ein Lebewesen Entropie produziert.

Sehr konstruktiv. Biologen gebrauchen den Begriff Entropie auch. Da kann man doch nicht behaupten, was die machen ist falsch. Sicher ist es nur eine Näherung, da eine lebende Zelle einen Nichtgleichgewichtszustand darstellt, aber was ist in einen so kompliziertem System keine Näherung? Ich werde mal schauen, dass ich das in dem Abschniit klarer darstelle, aber eine Löschung ist nicht sinnvoll. Eine gute Lektüre ist übrigens Biological Physics von Philip Nelson. --Aegon 15:36, 28. Sep 2006 (CEST)
Der Entropiebegriff wird von verschiedenen Disziplinen gebraucht. Das bedeutet noch nicht, das er überall gleich definiert ist. Man sollte sich die Definitionen schon im einzelnen ansehen, denn sonst vergleicht man Äpfel mit Birnen. Das ist so wie mit der Waschkraft, bei der man auch in Probleme kommt, wenn ma sie in Newton messen will. Daher zu behaupten, alle Waschfrauen würden etwas falsch machen, wäre ja auch nicht ganz korrekt. Gruß, --Homosapiens 22:26, 28. Sep 2006 (CEST)

Das Kapitel ist mir immer noch zu spekulativ und trägt in seiner vorliegenden Form eher zur Verwirrung als zur Aufklärung des Lesers bei. Schon der erste Satz enthält eine unbewiesene Behauptung. Woher wissen wir, dass ein Lebewesen Entropie produzieren m u s s ?? Wenn man das Beispiel Lebewesen schon bringen möchte, dann sollte man sorgfältig darauf hinweisen, worauf sich die Entropiebilanz bezieht. Sie bezieht sich nämlich nicht auf das Lebewesen, sondern auf die Differenz zwischen der Entropie aller "Ausgangsprodukte" (Nahrung, Luft, Wasser) und der Entropie aller "Endprodukte" (Ausscheidungen, produzierte Wärme). Wenn dieser Umstand klar im Artikel zum Ausdruck kommt, könnte der Leser vielleicht etwas daraus lernen. A. Thess

Mir ist leider nicht klar, was du willst. Oben schreibst du Unstrittig ist hingegen, dass ein Lebewesen Entropie produziert im zweiten Beitrag dann Woher wissen wir, dass ein Lebewesen Entropie produzieren m u s s ?? Alles was du forderst steht meiner Meinung schon im Artikel. --Aegon 13:07, 29. Sep 2006 (CEST)
Die Stellung von Lebewesen in der Physik ist trotz vieler guter Theorien nicht allgemeingültig geklärt, ebensowenig wie die physikalische Rolle von Informationen. Man kann daher allerhand zu dem Thema schreiben, im Sinne der WP ist das aber rein spekulativ und gehört nicht in den Artikel. Wohl möglich wäre aber ein Verweis auf die entsprechenden Diskussionen und Autoren. --Homosapiens 15:13, 29. Sep 2006 (CEST)
Schon mal ein Biophysikbuch gelesen? Hab ich dir schon mal empfohlen: Biological Physics von Philip Nelson, aber andere Lehrbücher tun's auch. Das ist Standard und nicht spekulativ. --Aegon 15:29, 29. Sep 2006 (CEST)

Ich habe den Text über Entropie von Lebewesen überarbeitet, für den Fall dass Ihr dieses Thema unbedingt im Artikel haben wollt. Ich empfehle Euch jedoch, einen Blick auf die englische Version von Entropie zu werfen und zu überlegen, ob wir den Bezug zu strittigen Themen wie Lebewesen nicht doch herausnehmen. Auf keinen Fall gehören (zugegebenermaßen liebenwerte) kleine Späßchen und Gags wie die "Entropiedrinks" in eine Enzyklopädie. Besonders bei komplizierten Themen wie Entropie ist es wichtig, ernsthaft und glaubwürdig zu bleiben. --Thess 21:05, 3. Okt 2006 (CEST)

Ich unterstütze die Überarbeitung. Vermutlich ist es besser, die unstrittige Position festzuhalten als nichts zu schreiben und ständig wieder Kurzauszüge aus aktuellen Forschungsergebnissen dazwischen zu haben. Mit Bezug auf die obige "Belehrung": Ich möchte bitten, einen weniger pampigen Ton anzuschlagen, es geht hier nur darum, den Artikel zu verbessern. Und da gibt es eben verschiedene Sichtweisen. Biological Physics ist von 2003 und vermutlich ein excellentes Werk. Nur ist die Frage, ob der Inhalt bereits zum allgemeinen Wissensstand gerechnet werden kann? In der bisherigen Form muß ein Leser denken, daß die Frage Entropie und Lebewesen allgemein so gesehen wird. Das Thema Information und Leben ist gegenwärtig eine spannende Frage der Wissenschaft und passende Literaturhinweise sind ein guter Weg, hier Anregungen zu geben. Man sollte es nur nicht direkt mit der Erläuterung von Boltzmann und Co zusammenmixen.
Sollte sich bei den Biologen bereits eine vereinheitlichte Anschauung ergeben haben (was ich nicht beurteilen kann), dann wäre es wichtig, dies entsprechend zu kennzeichnen. Wir haben die gleiche Situation bei der Informationtheorie, bei der der Entropiebegriff auch existiert, aber ganz anders definiert ist als in der Thermodynamik. --Homosapiens 16:20, 4. Okt 2006 (CEST)
Sorry, dass du das als pampig empfunden hast. Aber ich dachte, wer mit der von mir als polemisch empfundenen Waschkraft austeil, kann auch was einstecken, aber Schwamm drüber. Das Buch ist ein Lehrbuch und nur eins von vielen. Einen eigenen Entropiebegriff gibt es, anders als in der Informationstheorie, in der Biologie nicht. Dass die Thermodynamik in einer Zelle nur näherungsweise gilt, ist auch jedem klar. Wenn die jetzige Version der kleinste gemeinsame Nenner ist... Soll mir recht sein. --Aegon 17:10, 4. Okt 2006 (CEST)
Das Beispiel "Waschkraft" ist nicht so besonders gut, aber es zeigt immerhin, daß der Begriff "Kraft" auch schon mal sehr unphysikalisch benutzt wird, ähnlich wie die Entropie. Bei Niklas Luhmann sieht man leider auch, wohin das führen kann. Dort wird der physikalische und der Informationstheoretische Begriff munter gemischt, ohne mal nach der Definition zu fragen.
Wenn Du in knappen Worten die Sichtweise der Biophysik zusammenfassen kannst, dann wäre das sicher auch für die Wikipedia interessant. Möglicherweise wäre es aber günstiger, hier nur einen Hinweis anzubringen in dem Sinn: "Mit der Entropieproduktion in lebenden Organismen beschäftigt sich die Biophysik". Ich würde das aber davon abhängig machen, wie wichtig der Begriff für die Biophysik wirklich ist. --Homosapiens 10:35, 5. Okt 2006 (CEST)
So wie's jetzt ist, kann man's lassen. Es ist nur ein Beispiel und nicht der zentrale Punkt des Artikels. Wir haben schon zuviel darüber gestritten. Es gibt weit wichtigeres zu tun. Die beherrschende Größe in der Biologie ist die freie Enthalpie G und damit indirekt auch die Entropie. Durch die mehrfache Erwähnung von Membranen oder das Zusammenknäulen von Polymeren ist das aber im Artikel ausreichend enthalten. --Aegon 13:34, 5. Okt 2006 (CEST)

Zahlenbeispiele

Das Zahlenbeispiel über die Entropie von Wasser ist etwas irreführend. Es handelt sich bei den Werten nicht um die Gesammtentropie, sondern nur um die Entropie, die das Wasser nach dem Schmelzen aufgenommen hat. Da Wasser jedoch bei 0C sicher wesentlich mehr Entropie als 0J/K besitzt, kann man nicht sagen, Wasser hätte bei 10C 150J/K. Nach dem Karlsruher Physikkurs, der auch dem Artikel in Wikibooks zugrundeliegt, beträgt die Entropie von Wasser bei 25C etwa 3880 J/K, wobei ich leider auch nicht weiß, woher der Wert kommt. Die Schmelzwärme eines kg Wasser beträgt aufjedenfall bereits 1220 J/K. --SumedokiN 22:11, 4. Okt 2006 (CEST)

Vielleicht hilft der Hinweis aus dem Artikel weiter: "Die Entropie ist keine direkt messbare statistische Größe, wie z.B. die Temperatur und der Druck. Es können nur Änderungen der Entropie erfasst werden und sie ist auch keine strenge Erhaltungsgröße wie Energie, Masse, Teilchenzahl oder Ladung eines Systems." Üblicherweise wird ein Bezugszustand definiert. --Homosapiens 10:39, 5. Okt 2006 (CEST)
Mir ist nicht klar, wie das gerechnet wurde. Ein leichter einsichtiges Zahlenbeispiel wäre wünschenswert. (Hier ist wohl die Entropie bei 0 Kelvin gleich null gesetz wurden??) --Aegon 13:38, 5. Okt 2006 (CEST)
Die Entropie ist in diesem Beispiel, so wie im Maschinenbau oft üblich, am Tripelpunkt auf Null normiert. Näheres in: Thess, Das Entropieprinzip Oldenbourg-Verlag) 2007, Seite 85. Thess 22:03, 25. Sep. 2007 (CEST)

Zustände auf meinem Schreibtisch

Der folgende Teil wurde gelöscht:

Zustände auf einem Schreibtisch:

Ein System strebt einen Zustand mit maximalen Besetzungsmöglichkeiten an, gleichbedeutend mit einer maximalen Entropie. Ein anschauliches Beispiel dafür ist ein Schreibtisch.
Es gibt nur genau einen Zustand , der als aufgeräumt bezeichnet wird; nämlich der, wenn alle Zettel und Bücher fortgeräumt sind:
, folglich ist ; die Entropie ist Null
Es gibt aber endlos viele Möglichkeiten, Bücher, Zettel, Stifte und Teetassen auf dem Schreibtisch zu plazieren. Alle diese Anordnungen werden als gleichermaßen unordentlich angesehen. Da die Entropie dem Zustand zustrebt, der die meisten gleichwertigen Besetzungszustände ermöglicht, ist ein unaufgeräumter Schreibtisch viel wahrscheinlicher als ein aufgeräumter.
Über einen leeren Schreibtisch ist alles bekannt. Über einen unaufgeräumten wissen wir nichts. Die Bücher können links oder rechts liegen, die Stifte können angespitzt oder zerbrochen sein; alles wird gleichermaßen dem Begriff Unordnung untergeordnet.
Die Situation ändert sich schlagartig, wenn eine Psychologin einen Blick auf den Schreibtisch wirft. Für sie ist es ein Unterschied, ob die Bücher Eselsohren haben oder die Stifte ordentlich gespitzt sind. Die Unordnungszustände sind nicht mehr gleichwertig, wir erhalten einen Informationsgewinn. Wenn wir in der Lage sind, ein System genauer zu analysieren, nimmt die Entropie ab.

Entschuldige, aber Entropie mag ja relativ sein, und die absolute Größe hängt vom Bezugswert ab. Aber eine subjektive Größe, die an unserem Wissensstand hängt, ist sie definitiv nicht. Es ist ohnehin unglücklich, die Unordnung bei der Thermodynamik unterzubringen. Und die Informationstechnik hat hier bereits eindeutige Kennwerte. --Homosapiens 19:14, 7. Okt 2006 (CEST)

Na, wenigstens hast du das Beispiel hierher gerettet. Sehr wohl hängt Entropie von dem ab, was ich messen kann. Und ich halte das Beispiel mit abzählbaren Zuständen allemal anschaulicher als schwer fassbare Formulierungen wie die der große[n] Ungewissheit des Systems. Lassen wir es zunächst dabei, vielleicht greift jemand anderes die Idee auf. Anton 01:33, 8. Okt 2006 (CEST)
Hallo Anton, das Problem ist, daß es mehrere Verwendungen für den Entropiebegriff gibt. Der Artikel hier befaßt sich mit der Entropie in der Thermodynamik und es geht um Wärmeaustausch. Das hat mit deinem Schreibtisch wenig zu tun. Du müßtest Dein Beispiel eher bei C.E.Shannon unterbringen, denn der befaßt sich mit Ordnung.
Hallo Homosapiens, dieses Argument überzeugt, steht es sogar als Begriffsklärung in der ersten Zeile. Bleibt lediglich meine Kritik an der schwammigen Formulierung Ungewissheit. Ich bin nun einmal ein Fan der Zustandsdichten, die kann ich mir wenigstens vorstellen.
Weiterhin: dein Beispiel regt zum Nachlesen der Thermodynamik an. Vielleicht wäre aber auch ein Beispiel aus dem Alltag angebracht. Z.B: warum schmilzt Eis bei 0°, obwohl dazu Wärme erforderlich ist -- thermodynamisch beschrieben, mit Zustandssummen statt Ungewissheiten. Anton 12:43, 8. Okt 2006 (CEST)
Ich gebe Anton recht, wenn er ein Beispiel fordert, dass die Boltzmann-Definition der Entropie veranschaulicht. (Die ist äquivalent zur Clausius-Definition, also kein anderer Entropiebegriff.) Den Schreibtisch fand ich aber sehr unglücklich, darum habe ich ihn früher schon mal gelöscht. Ein nettes Beispiel wäre hingegen der Postbote, der feststellt, dass zwei Ziffern der Postleitzahl durch Vogeldreckk unlesbar geworden sind. Hier kann man die Zustände abzählen und die Entropie berechnen. Würde ich aber nur schreiben, wenn alle zustimmen. Nicht, dass das Beispiel dann als Informationsentropie wieder gelöscht wird. (Stamm übrigens aus einem Physikbuch.) --Aegon 22:01, 8. Okt 2006 (CEST)
Jetzt haben wir wieder ein Einfachbeispiel:
=== für Laien ===Im Kinderzimmer gibts eine Kiste mit Legosteinen und eine Kiste mit Playmobil-Figuren. Nach kurzer Zeit ist alles vermischt und über den ganzen Boden verteilt. Nach einer "Aufräum-Aktion" liegt dann einiges wieder in den Kisten, aber ziemlich durcheinander und anderes immer noch unterm Bett und hinterm Schrank. <! aber was ist jetzt dabei die Entropie? >
Bitte, bitte nicht solche Beispiele -- oder nicht mittendrin aufhören: was sind denn nun die Wahrscheinlichkeiten, Zustandssummen, Entropiewerte?
@Aegon: Wahrscheinlich bemängelst du bei meinem Schreibtisch das Problem, wie denn die Zustände beschrieben werden. Wenigstens hatte ich den Ordnungszustand eindeutig definiert. Zu deinem Vorschlag mit den Postleitzahlen: ich sehe im Moment nicht, wie der Gleichgewichtszustand maximaler Entropie aussehen soll. Gegenvorschlag: Was ist, wenn wir das neue Beispiel mit den Figuren durchrechnen und das Ensemble erweitern von 100 Figuren auf 1'000'000 und weiter auf 10^23 (mir ist, als sei dieser Vorschlag ebenfalls vor einiger Zeit der Löschung zum Opfer gefallen)? Anton 21:57, 14. Okt. 2006 (CEST)
Genau, der Schreibtisch hat keine definierten Zustände. Wenn man Zustände abzählen möchte, muss man auf einem Gitter arbeiten, also z.B. die Möglichkeiten, 10 identische Legosteine auf einer 10x10 großen Platte anzuordnen. Ich fürchte aber, dass das am Ende gar nicht so anschaulich wird. Deinen Vorschlag mit den Figuren verstehe ich im Moment nicht. --Aegon 23:18, 14. Okt. 2006 (CEST)
Hallo, Ihr werdet nicht auf einen grünen Zweig kommen. Es kommt immer darauf an, wie man den Entropie-Begriff definiert. Boltzmann hat ihn gebraucht, weil der Energiesatz alleine nicht beschreibt, warum eine Kaffeetasse kalt wird. Und Shannon hat ihn gebraucht, weil er den Inhalt von Nachrichten beschreiben wollte. Vielleicht müßt Ihr für eure Aufräumprobleme auch noch mal einen passenden Entropie-Begriff definieren. Am besten passt noch die Definition von Shannon, aber ich vermute, daß auch die nicht ausreicht, um die Ordnungsvorstellungen eurer Kinder mit euren Vorstellungen von einem ordentlichen Zimmer in Einklang zu bringen. Außerdem ist der Entropiebegriff auch ganz schlecht zur Kindererziehung geeignet.
Übrigens halte ich das Ordnungsbeispiel ohnehin nicht für so gut. Wie ist das denn z.B. mit einer Emulsion von Öl und Wasser? Wenn man die eine Weile stehen läßt, dann trennt die sich von allein wieder. Ich nehme mal an, für die gilt dann dennoch, daß die Entropie am Ende trotzdem höher ist, auch wenn Öl und Wasser am Ende getrennt sind. Aber das nur am Rande. Zeigt jedenfalls, das die Sache nicht so einfach ist und man aufpassen muß.
Könntet Ihr euch vorstellen, daß das Aufräumproblem ein ganz relatives ist? Nehmt mal an, ich will im Physiklabor ein Experiment machen. Dann muß ich eine ganz bestimmte (An-)Ordnung herstellen, damit das läuft. Ich könnte die ja als Zustand geringster Unordnung definieren. Man kann sich nun leicht vorstellen, daß ich für jedes Experiment eine andere Ordnung benötige. Da kann ich mit einem einheitlichen Entropiebegriff sowieso nichts mehr anfangen. --Homosapiens 00:46, 15. Okt. 2006 (CEST)

Kopie

Dieser Abschnitt "Entropie und Zeitrichtung" trägt nicht zur Erläuterung des Entropiebegriffes bei. Das angesprochene Thema wird nicht in angemessener Weise behandelt, so daß der Abschnitt eher zur Verwirrung als zur Klärung von Sachverhalten beiträgt. Außerdem ist es eine Tautologie, die Zeitrichtung aus der Entropie zu erklären, da bereits die Definition des 2. Hauptsatzes auf der Zeitrichtung aufbaut (Siehe Diskussion zum Abschnitt) --Homosapiens 23:32, 6. Okt 2006 (CEST)


LA kopiert (war wohl ein Versehen?)! --YourEyesOnly schreibstdu 11:05, 8. Okt 2006 (CEST)

Sorry, war mein erster Löschantrag. Ich wollte nur ein langes hin und her vermeiden. Die Diskussion war bisher gegen den Abschnitt, aber einfach löschen ist auch nicht nett. --Homosapiens 11:25, 8. Okt 2006 (CEST)

Also ich häng da bestimmt nicht drann. Eher löschen. --Aegon 22:06, 8. Okt 2006 (CEST)

The Gibbs Paradox - E.T.Jaynes (1996)

In der obigen Diskussionen scheinen zwei unvereinbare Konfliktlinien zu existieren. Die "klassische Definition" der Entropie nach Clausius berücksichtigt ausschließlich messbare Größen, also Makrozustände, während Vertreter der statistischen Mechanik Erklärungsansätze aus statistischen Betrachtungen einzelner Atome oder Moleküle, also Mikrozustände, ableiten. Insbesondere wurde oben Ansätze des Physikers E.T.Jaynes benannt. Ich möchte daher einen Satz aus einem Text von Jaynes zum Gibbschen Paradox [2] (Seite 6)zitieren, der vielleicht ein anderes Licht wirft:

Nevertheless, we still see attempts to "explain irreversibility" by searching for some entropy function that is supposed to be a property of microstate, making the second law a theorem of dynamics, a consequence of the equations of motion. Such attempts, dating back to Boltzmann's paper of 1866, have never succeeded and never ceased. But they are quite unnecessary; for the second law that Clausius gave us was not a statement about any property of microstates. The difference in dS on mixing of like and unlike gases can seem paradoxical only to one, who supposes erroneously, that entropy is a property of the microstate.

Man sieht, auch Verfechter der statistischen Mechanik versuchen nicht unbedingt, den Entropiebegriff streng wissenschaftlich auf die Ordnung in Kinderzimmern anzuwenden. Jaynes sagt explizit, das dies ein Fehler ist! --Homosapiens 23:58, 25. Okt. 2006 (CEST)

Du hast Recht, aber wer vertritt hier denn die Gegenposition? --Pjacobi 12:16, 18. Nov. 2006 (CET)

Überarbeiten (2)

Die Einleitung ist immer noch eine Katastrophe. --Hi-Lo 21:13, 17. Nov. 2006 (CET)

Nicht nur das. Es wird immer schlimmer. Früher stand dort mal eine Definition. Anton 01:13, 18. Nov. 2006 (CET)
Ich halte meinen Satz (etwas umgestellt) "Während für Temperatur, Volumen, Druck usw. Messgeräte zur Verfügung stehen, muss die Entropie aus den Veränderungen der gemessenen Größen berechnet werden und ist damit nicht ganz so anschaulich." für sinnvoll, da dadurch sicher für manche etwas klarer wird. --Physikr 17:27, 18. Nov. 2006 (CET)
Mit extensiver Zustandsgröße ist das aber besser beschrieben. Bei Verständnisproblemen kann man das ja einfach nachschlagen. --Hi-Lo 18:55, 18. Nov. 2006 (CET)
Es gibt kein Messgerät für Entropie könnte an passender Stelle tatsächlich wieder eingeflochten werden, oder klingt das jetzt wieder irreführend? --Pjacobi 22:40, 18. Nov. 2006 (CET)
Nein, es ist bloß etwas kurz, weil man evtl. ein Meßgerät dafür entwickeln könnte, was den reversiblen Weg verfolgt - aber ich halte das für problematisch. Mit extensiver Zustandsgröße sehe ich von der Oma-Tauglichkeit Probleme. --Physikr 23:32, 18. Nov. 2006 (CET)
Definitionen müssen nicht nur oma-tauglich sein, sondern auch korrekt und auf den Punkt. Für Leser, die mit "extensiv" und "Zustandsgröße" nichts anfangen können, bieten sich m.E. zwei annehmbare Strategien:
  • Bemerken, dass die Wikipedia eine Hypertext-Enzyklopädie ist und in die verlinkten Artikel schauen.
  • Bemerken, dass einem Vorkenntnisse zu einem vollständigen Verständnis fehlen, und erst einmal weiterlese, was man sonst noch so erfährt.
Ich halte das für das kleinerer Übel, als keine oder eine schwamming Definition in der Einleitung zu haben,
Pjacobi 23:43, 18. Nov. 2006 (CET)
Das sage ich schon seit Jahren und jedesmal wenn ich eine saubere Definition an den Anfang gestellt habe kommen dann Sprüche wie 'Zu kompliziert!', 'Das versteht meine Oma nicht!', 'Das versteht kein Mensch!', 'Nur was für Spezialisten!' usw. Dreimal dürft ihr raten von wem die Version stammt, die ANton oben verlinkt hat. Stattdessen muss ich Einleitungen im Grammatikstil eines Grundschülers ohne roten Faden und leises Dahinplätschern lesen. Jetzt mal im Ernst Leute, wieviele Omas kennt ihr, die euch den Begriff Entropie sauber erklären können? Na? Eben! Und Enzyklopädien gibt es nicht erst seit Wikipedia. Um es mal mit Einstein zu sagen: 'Alles sollte so einfach wie möglich gemacht sein, aber nicht einfacher.' Und das ist was hier eine Menge von Leuten versucht, das kann nur schiefgehen. Macht euch nix vor, der Begriff der Entropie ist komplex und durch seichtes Einlullen des Lesers mit Beispielen werdet ihr nur erreichen, dass die es nie verstehen. Wer nicht versteht was ein Phasenraum ist hat eben Pech gehabt, dann wird er eben nicht hinter die statistische Erklärung der Entropie steigen. Und die phänomenologische Definition ist noch unanschaulicher. Und wenn dem geneigten Leser das Thema zu hoch ist, dann soll er einfach weiterblättern, es gibt soviele einfach verständliche Artikel auf Wikipedia. Geistige Anstrengung ist ja heutzutage verpönt, vor allem wenn es um Mathe geht. 'Oh mein Gott, eine Formel!' Ich habe 10 Jahre gebraucht um zu verstehen was Entropie wirklich ist und das lag vor allem an oberflächlichen populärwissenschaftlichen Artikeln. Wer von den vielen Koautoren hier hat denn schon mal die Entropie eines idealen Gases ausgerechnet?
David314 03:00, 20. Nov. 2006 (CET)
Wo wir gerade dabei sind, ernst zu machen: Jemand etwas dagegen wenn ich die Entropie in der Seidenmalerei etc Literatur herausschmeiße? --Pjacobi 08:20, 20. Nov. 2006 (CET)
Hallo David, Du bist ein echter Held! man sollte gar nicht erlauben, daß solche Dummköpfe die Wikipedia überhaupt lesen! Am besten erlauben wir den Zugang erst, wenn ein abgeschlossenes Physikstudium mit mindestens 20 Semestern Aufbaustudium in statistischer Mechanik nachgewiesen wurde. Man kann so viel Genie einfach nur bewundern. --Homosapiens 22:26, 20. Nov. 2006 (CET)
Um das mal klipp und klar zu formulieren: Ich erwarte nicht, dass die Leser alles verstehen. Wieviel die mitnehmen können hängt selbstverständlich von der Vorbildung ab! Lies dir doch mal den Artikel Besselsche Differentialgleichung durch. Hast du alles verstanden? Wird deine Oma das auch verstanden haben? Oder z.B. ein Artikel von mir: Störungstheorie. Zu kompliziert? Abbgehoben? Unverständlich? Sollte man solche Artikel aus der Wikipedia herausnehmen, damit sich ein bestimmter Leserkreis nicht ausgestossen fühlt? Wenn ein unbedarfter Leser ein wenig mitnehmen kann, dann muss das reichen. Und wenn es nur das Gefühl ist "Verdammt ich hätte in der Schule mehr Mathe lernen sollen, also muss ich das jetzt aufholen" oder "Da werde ich wohl etwas mehr querlesen müssen, so einfach ist das ja garnicht". Nach Lesen des Artikels soll man eine Vorstellung haben in welche Richtung die Sache läuft und jede Menge Links verfolgen können um weiterzulesen, wenn es dann doch interessiert. Aber was soll ich von einem Leser erwarten, der sich beschwert es wäre zu kompliziert, nachdem er sich ganze zwei Minuten mit dem Thema auseinandergesetzt hat? "Ich bin im Chemie-LK, hab den Artikel gelesen und nix verstanden, ihr seid alle doof!" Muß ich dann wie ein Huhn herumlaufen, Asche auf mein Haupt streuen und den ganzen Artikel umschreiben? Mir ist es viel peinlicher, wenn ein Kollege von mir den Artikel zu lesen bekommt und nicht nur wegen des Inhalts! Grammatik und Form daneben, der ganze Artikel ohne einen roten Faden... Wenigstens bei den Autoren sollten keine Zweifel über den Gegenstand des Artikels bestehen und ich habe einfach den Eindruck, dass bei einigen noch einiges unklar ist... --David314 22:21, 21. Nov. 2006 (CET)
Es scheint einigen aber auch unklar zu sein, wozu eine Enzyklopädie da ist. Wenn jemand dort nachschlägt, weil er den Unterschied zwischen Entropie und Energie nicht versteht, dann wird ihm ein superschlauer Physiker, der nur noch Formeln absondern kann, sicher nicht helfen. Und weil eben Energie und Exergie umgangssprachlich synonym verwendet werden, muß man das erstmal auseinander legen. Wem das zu banal ist, der sollte vielleicht lieber Lehrbücher für Physikstudenten schreiben, da kann man die Vorbildung voraussetzen. Allerdings schein es hier eher darum zu gehen, daß einige Leute sich selbst beweisen müssen, wie superschlau sie sind. Schaut doch mal in die englische Ausgabe, dort wird wenigstens versucht, das Thema verständlich zu erklären. Wenn man die aktuelle deutsche Version ließt, dann wird Entropie damit erklärt, das Clausius eine Zustandsgröße entdeckt hat, die er leider auf nichts anderes zurückführen konnte. Dann knallt man dem Leser das Differential reversibel übertragener Wärme vor den Kopf, was für die meisten Leser auch nicht gerade erhellend ist. Welchen Sinn macht eine Erklärung der Entropie, die nur von Leuten mit naturwissenschaftlichem Hochschulstudium verstanden wird? Die dürften es doch wohl schon wissen. Soll die WP so eine Art Geheim-Enzyklopädie werden oder ist das nur das einfache Unvermögen der Autoren, Dinge verständlich zu erklären? --Homosapiens 13:27, 23. Nov. 2006 (CET)
Wie wäre es, den Artikel zu teilen: Entropie ist Unordnung für jedermann, wo sich jeder austoben kann, und einen für superschlaue Physiker (sicherlich hat es hier schon irgendwann zitiert: man soll alles so einfach beschreiben wie möglich, aber nicht einfacher). Anton 19:52, 23. Nov. 2006 (CET)
Leider müßte man ihn dann dreiteilen, denn es gibt auch noch die Ingenieure, die Entropie einfach nur brauchen, um zu verstehen, warum ein Motor läuft und ein Kaffe kalt wird. Die haben weder was mit Unordnung noch mit statistischer Mechanik am Kopf.
Statt Aufteilen gibt es ja eigentlich Zwischenüberschriften, damit man leichter rausfindet, was man überspringen kann. Nutzt natürlich wenig, wenn dann ein paar Leute meinen, ihr Ego stärken zu müssen indem sie überall ihren umständlichen Sermon ablassen. Es gab hier mal eine sehr knappe vereinfachte Darstellung, die nur die Motivation erklärt hat, warum man die Entropie benötigt. Dort findet sich nun eine längliche historische Abhandlung mit so schönen Sätzen wie "Wenn man verlangt, dass diese Größe nach einem Zyklus der Maschine nicht abnimmt, dann fließt Wärme immer von heiß nach kalt". Sowas kann auch nur einem Physiker einfallen, denn eigentlich tut die Wärme das auch ohne, daß man es von ihr verlangt.

--Homosapiens 22:59, 23. Nov. 2006 (CET)

Du solltest dich nicht über den Inhalt eines Artikels über Entropie echauffieren, solange du nicht verstanden hast, was Clausius sich dabei gedacht hat. Seine Formulierung des zweiten Hauptsatzes lautet so: Es gibt keine Maschine, die ohne Zufuhr von Arbeit nach einem Zyklus Wärme von kalt nach heiß transportieren kann . An dieser Stelle stellt Clausius fest, dass Wärme nicht spontan von kalt nach heiß fließen kann. Das war zu der damaligen Zeit nicht selbstverständlich und es widerspricht nicht dem Energierhaltungssatz, denn Wärme wird nur transportiert. Generationen von Ingenieuren haben trotzdem versucht eine solche Maschine zu konstruieren, was doch zeigt, dass diese Ingenieure Clausius nicht glauben wollten und den ganzen Sermon nicht verstanden haben. Wir Physiker reden nämlich nur wirres Zeug den ganzen Tag und drücken uns umständlich aus, damit wir einen geheimen Zirkel bilden können. Und das machen wir nur weil wir so ein kleines Ego haben. Aber ich komme vom Thema ab. Die Entropie ist erstmal nur eine Rechengröße gewesen, die genau dann nicht abnimmt, wenn der Zyklus sich an Clausius Vorgabe hält. Und wenn der Zyklus reversibel ist, dann ist diese Größe auch noch eine Zustandsgröße! Genau das hat Clausius erkannt und erst dann wurde ihm bewußt, dass diese Rechengröße mehr ist als sie scheint. Natürlich ist das Fließen von Wärme entlang des Temperaturgradienten die Beobachtung und du tust jetzt so, als ob das total selbstverständlich wäre. Das ist aber die eigentliche Entdeckung, die Clausius mit seiner Entropie gemacht hat! Es gibt Situationen in denen Wärme andersherum fließt, z.B. beim Peltier-Effekt, und das ist nicht einfach zu erklären. Und das Ingenieure Entropie nur brauchen um zu verstehen wie ein Motor läuft ist totaler Unsinn. Um einen Motor zu bauen muss man nichts von Entropie verstanden haben, schau doch mal wie die ersten Dampfmaschinen entstanden sind. Entropie wird für den Ingenieur dann interessant, wenn er das Maximum aus der Maschine rausholen will, frag mal einen Spezialisten für Verbrennungstechnik. Aus meiner Erfahrung mit Ingenieuren weiss ich, dass die von Entropie häufig mehr wissen, als in unserem kleinen Artikel steht. Als beschwer dich nicht über den Sermon, es gibt viele Leute, die können eine Menge damit anfangen. Denk doch mal an die Horden von Studenten, die sich bei Wikipedia schlau machen um ihre Übungen zu lösen. Denen kannst du nicht ohne Formeln kommen. Und wir Physiker sind noch handzahm, schau dir an, was die Mathematiker machen. Hast du im Studium schlechte Erfahrung mit Physikern gemacht oder was ist das Problem? --David314 13:02, 24. Nov. 2006 (CET)
Viele Worte hier. Aber was wird aus dem Artikel? Immer, wenn ich das Gefühl hatte, langsam würde er besser, kommt jemand und mischt Kraut und Rüben und meint, damit der Mehrheit der Bevölkerung einen Gefallen zu tun. Ich wiederhole meinen Vorschlag: einen Artikel Entropie (Maß für Unordnung) mit all den Schlagworten, und einen richtigen. Anton 22:14, 24. Nov. 2006 (CET)
Entropie ist kein Maß der Unordnung sondern ein Maß der Unkenntnis (Becker, Theorie der Wärme). --Pjacobi 23:02, 24. Nov. 2006 (CET)
(Ich geb's auf. Anton)
Hallo David, ist nicht persönlich gemeint. Nur gibt es verschiedene Zugänge, das sollte man schon respektieren. Dafür kann man so ein Thema ja auch gliedern. Ich halte es auch für wichtig, daß man die unterschiedlichen Ansätze deutlich kennzeichnet, und die Sichtweise der statistischen Mechanik ist sicher nicht die einzig mögliche.
Die Sichtweise, die ich in der Verständnishilfe dargestellt habe, ist ungefähr das, was ein normaler Maschinenbaustudent, der kein Verbrennungsspezialist ist, über die Entropie lernt. Natürlich kann man einen Motor ohne bauen, aber man versteht eben nicht, warum es da ein Limit für die Leistung gibt und warum das von der Temperatur abhängt. Das kann man fast ganz ohne Formeln verstehen. Und für die Ingenieure ist die Entropie eine ganz normale Größe, wie Wärme und Energie. Da will auch keiner "definieren", was Wärme ist. Die kennt man von der Erfahrung, Entropie kennt man aber eben nicht. Da muß man eine Brücke bauen. Aus der Sicht der Ingenieure hat Entropie auch nichts mit Statistik zu tun, das wird eher als "Erklärungsmodell" gesehen. Daher ist die Entropie in der Thermodynamik auch eine relative Größe und keine absolute. Es gibt ja auch Leute, die versuchen, die Zeitrichtung aus der Entropie zu erklären, aber die meisten Techniker halten das für unrelevanten "Sermon". Ähnlich ist es, über die Zahl der "Observablen" nachzudenken. Es geht z.B. um Motoren, da ist der Prozeß klar definiert. Da muß man mit dem auskommen, was man beobachten kann. Und sich Gedanken über den Urknall zu machen oder ähnliches ist zwar hübsch, aber eben nich ganz so direkt relevant. --Homosapiens 17:00, 25. Nov. 2006 (CET)

Reflexion zur Diskussion: Entropie und 2. Hauptsatz der Thermodynamik

Die Diskussion um den Entropiesatz ist spannend - auch und gerade weil immer wieder ein zumindest scheinbares Gegeneinander von kompetenten Physikern und anderen Menschen deutlich wird. Liegt das an mangelndem Sachverstand der Nicht-PhysikerInnen? Oder an einer Verstiegenheit in Spekulationen seitens der Physiker?

Bevor ich dieser Frage weiter nachgehen will, möchte ich die aktuelle Fassung dieses 2. HS nennen, wie sie aufgrund der Quantenmechanik formuliert wurde, um die vielen Ungereimtheiten auch in Bezugf auf 'Ordnung' wie sie in der Diskussion deutlich wurden, zu klären: "Ein System geht spontan nie in einen erheblich unwahrscheinlicheren über." (Breuer, Hans (1992) dtv-atlas zur Physik Band 1 S.131) Dadurch erübrigt sich schon ein Großteil der Diskussion um die Entropie hier bei WP. Wenn wir Entropie als umgekerhtes (reziprokes) Maß für Zustandwahrscheinlichkeit nehmen (wie a. Methylene Blue beschreibt) wird mit der modernen Fassung des 2.HS der Thermodynamik dieser zu einer Tautologie: '(Die Entropie nimmt zu =) die Zustandswahrscheinlichkeit nimmt ab, (wenn Systeme sich selbst überlassen werden) dass ein erheblich unwahrscheinlicherer Zustand spontan entsteht'. Über die Richtigkeit dieses Satzes wollen wir uns sicher nicht streiten. Es wirft angesichts der Entstehung der Menschen im Laufe der Evolution nur die Frage auf: stimmt die statistische Wahrscheinlichkeitsdefinition? Angesichts dessen, dass das Unwahrscheinliche uns als aktuell erlebbare Wahrheit erscheint? (s. Petzold, Th. D. (2000) 'Das Maßgebliche ...'). Es taucht die Frage nach der Selbst-Organisation von Systemen auf (s. Petzold, Th. D. (2000) 'Resonanz-Ebenen - die Evolution der Selbstorganisation').

Zur Frage des gegenseitigen Un- bzw. Missverständnisses zwischen Physikern und anderen: Dazu dürfen wir den Entropiesatz mal von einer Metaebene aus betrachten: Der 2. HS der Thermodynamik gilt nur für geschlossene Systeme. Physiker definieren 'geschlossen=isoliert', dass keine messbare Energie oder Materie zu- oder abgeführt wird. Wenn ein System dermaßen 100% isoliert ist, dürfte es nicht beobachtbar sein, da es um beobachtbar zu sein, irgendwelchen Austausch mit der Umgebung haben muss. Demzufolge sind alle für uns beobachtbaren Systeme streng genommen keine 100% geschlossenen/isolierten Systeme. Demzufolge gilt genau genommen dieser 2. HS der Thermodynamik bestenfalls nur für imaginierte aber nicht beobachtbare Systeme. Und die Physiker haben diese ihre Spekulation 'geschlossener' Systeme dermaßen ausgebaut und auf das ganze UNiversum übertragen, dass wir als Menschen, die mit der Wahrheit und Wirklichkeit offener Systeme leben, Schwierigkeiten bekommen, ihnen in ihre spekulative imaginierte Welt zu folgen. Hier könnte der Hauptgrund dafür liegen, dass die Meinung der Physiker in Bezug auf die Entropie von Systemen oft so divergiert von der Meinung anderer Menschen, die mehr in Kontakt sind mit ihren beobachtbaren lebendigen Phänomenen. --Theodor-Dierk 14:03, 20. Jan. 2007 (CET)


Das ist nicht das Problem, die Entropie ist für beliebige Systeme definiert und der 2.HS gilt auch für nicht isolierte Systeme. Bei isolierten Systemen ist er extrem langweilig, da dS=0! Das Vorurteil Entropie könne immer nur zunehmen und damit in irgendeiner Form auch die Unordung, wie auch immer diese zu definieren sei, ist ein grobes Mißverständnis und hat damit zu tun, dass immer diese isolierten Systeme betrachtet werden. Erstens hat Unordnung nichts mit Entropie zu tun (ich wiederhole mich jetzt hier zum x-ten Mal) und zweitens ist uns Physikern ziemlich klar, dass man ein isoliertes System nicht wirklich realisieren kann. Was man aber immer tun kann ist den Austausch von Energie und Materie extrem zu reduzieren und selbst dann kann lokal im Inneren die Entropie abnehmen. Tatsache ist aber, dass z.B. die Carnot-Maschine kein isoliertes System ist! --David314 23:43, 6. Feb. 2007 (CET)

Definition von Entropie

Ich überblicke die Diskussion zu diesem Artikel nicht. Deshalb ist nicht ausgeschlossen, daß mein im Folgenden vorgetragenes Anliegen bereits früher einmal formuliert worden ist.

Ich stolpere als erstes über den Satz: "Die Entropie ist so definiert, dass ein spontaner Prozess in einem isolierten System diese niemals vermindern kann." Da die Physik zwischen Gleichgewichtsthermodynamik (Thermostatik) und Nichtgleichgewichtsthermodynamik (Thermodynamik) unterscheidet, muss das auch bei der Definition der Entropie beachtet werden. Eine begriffliche oder inhaltliche Trennung findet in dem Artikel aber gar nicht statt.

Für die Thermostatik ist eine mögliche Definition: "Die Entropie ist so definiert, dass der Wirkungsgrad eines (selbstverständlich reversibel geführten) Carnot-Prozesses nur von den Temperaturen der verwendeten Wärmereservoire abhängt". Die Betrachtung "spontaner Prozesse" würde aus dem Gebiet der Thermostatik herausführen und gehört in die Thermodynamik.

Für einen Außenstehenden mag das erstmal beliebig befremdlich wirken, doch einzig die Annahme, daß der Wirkungsgrad von Carnot-Prozessen nur von der Prozeßgröße Temperatur (und nicht von irgendwelchen Materialeigenschaften) abhängt, hat die bekannte Entropieedfinition erzwungen. Deshalb gehört an diese Stelle auch die Diskussion, in welcher Weise die Entropiedefinition Materialeigenschaften festlegt bzw. einschränkt. Dieser Zusammenhang ist auch für einen Außenstehenden verständlich.

Was die Entropiedefinition in der Thermodynamik angeht, so geht es dabei immer um Spielarten des Satzes "Die Entropie als raum-zeitliche Zustandsfunktion ist so definiert, dass der Produktionsterm in ihrer Bilanzgleichung stets größer oder gleich null ist." Die obige Definition (… dass ein spontaner Prozess in einem isolierten System diese niemals vermindern kann) wäre dazu ein Spezialfall. Auch und gerade hier liegt das Hauptaugenmerk auf der Beschränkung möglicher Materialeigenschaften, die die physikalischen Prozesse grundlegend bestimmen.

Ich würde mich freuen, dazu ein paar Kommentare zu erhalten. CB

Hallo, sag mal, wo hast Du denn den Ausdruck "Thermostatik" her? Ist das Deine Erfindung oder wird das an irgend einer Uni gelehrt? Bisher hat "die Physik" nach meiner Einschätzung nicht so unterschieden, sonst hieße es ja auch nicht Gleichgewichtsthermodynamik? Vielleicht schaust Du mal in der Wikipedia nach, die kennt den Ausdruck nämlich auch nicht... --Homosapiens 22:14, 23. Jan. 2007 (CET)

Hallo auch. Erfunden habe ich den Begriff "Thermostatik" nicht. Er wurde beispielsweise am Lehrstuhl für Theoretische Physik der TU Berlin gebraucht, um pointiert auf die besonderen Bedingungen hinzuweisen, die für ein thermisches Gleichgewicht und für die sog. reversible Prozeßführung notwendig sind - "Thermostatik" ist schlicht kürzer als "Gleichgewichtsthermodynamik". Siehst Du auch den Widerspruch, die Gleichgewichtsentropie einerseits als dQ/T (T = Gleichgewichtstemperatur fürs ganze System) und andererseits über einen Nichtgleichgewichtsprozess zu definieren? --Cbloess 08:12, 24. Jan. 2007 (CET)

Naja, dort wo ein dQ wirkt müssen sich ja nun Temperaturen ändern, oder? Also irgendwo muß es schon immer auch ein Ungleichgewicht geben auch bei der reversiblen Prozeßführung. Wenn wir mal echte Thermostatik haben, dann brauchen wir den Begriff der Entropie wahrscheinlich nicht mehr, denn dann ist im System tote Hose.... --Homosapiens 18:50, 30. Jan. 2007 (CET)

Die Überlegung ist wichtig. Die "Thermostatik" betrachtet Folgen infinitesimal benachbarter "Toter Hose"-Zustände, welche sich durch entsprechende Prozessführungen ineinander überführen lassen - im Sinne der Reversibilität stets in beide Richtungen. Im Experiment muss man sehen, a) ob man dem nahe kommen und b) ob man dem dann durch entsprechende Anpassungen jeweils noch näher kommen kann. Es stellt sich dann heraus, daß ein messbares dQ mit einer entsprechenden Änderung der (homogenen) Temperatur zusammenhängt, was im Grenzfall (diffentielle Änderungen) Thermostatik ist. Sofern das also möglich ist (Physik ist, wenn sich ein punktförmig gedachter Affe an einer masselosen Liane durch einen nicht vorhandenen Urwald schwingt), darf man eine Folge infinitesimal eng benachbarter "Toter Hose"-Zustände schon als "Gleichgewichtsprozess" betrachten und beschreiben.

Sofern es also eine Wärmelehre für das Gleichgewicht gibt, muss man die Zustandsgrößen (Meßgrößen) auch für das Gleichgewicht definieren. Und die Entropie als weitere Zustandsgröße ist letztlich über denjenigen "integrierenden Nenner" für das Wärmedifferential (welches eben kein totales Differential ist) definiert, der sicherstellt, daß es bei beliebigen Carnotprozessen stets materialunabhängige Wirkungsgrade gibt, und damit T.

Ich finde, daß man nicht umhinkommt, diese Zielstellung für die Entropie auch an erster Stelle zu nennen. --Cbloess 13:54, 1. Feb. 2007 (CET)


Den Begriff Thermostatik finde ich irreführend, da hier suggeriert wird es fände keine zeitliche Änderung statt. Das ist aber definitiv nicht der Fall, auch wenn die Ableitungen beliebig klein sein sollen (wegen der Reversibilität), so können sie jedoch nicht verschwinden, wie das in der Statik zwingend erforderlich ist. Die Sache mit der Reversibilität ist sowieso rein akademisch, da in der Praxis bei thermodynamischen Systemen stets Verluste auftreten. Trotzdem ist es kein großer Fehler anzunehmen, dass in den meisten Fällen das System Gleichgewichtszustände durchläuft, ansonsten wäre die Thermodynamik für Ingenieure ziemlich uninteressant und das ist Sie ja nun wirklich nicht. Die Einstellung des thermischen Gleichgewichts geht nämlich lokal(!) sehr schnell vor sich. Ich verstehe nicht ganz was mit dem letzten Absatz gemeint ist, soll die Definition der absoluten Temperatur durch Verkettung von Carnot-Maschinen in den Vordergrund gestellt werden oder was? Ein wenig konkreter formulieren hilft beim Verständnis... --David314 23:30, 6. Feb. 2007 (CET)

Abschnitt "Grundlagen" nicht korrekt

liebe Autoren, die Entropie ist keine Grundgröße und sie "beschreibt" auch keinen Zusammenhang zwischen bestimmten Zustandsgrößen. Man kann damit aber viele Zusammenhänge gut beschreiben (vergl. T-s-Diagramm). Die Bedingung für die Eigenschaft "Zustandsgröße", dass der Zyklus reversibel sein muss, ist nicht erforderlich und die Beschreibung der Entropieänderung ist schwammig. Die Formel von Clausius gilt nur für die transportierte Entropie (bei reversibel übertragener Wärme). Soll die Gleichung allgemein für quasistatische Zustandsänderungen gelten, muss auf der rechten Seite das Verhältnis von dissipierter Arbeit und absoluter Temperatur hinzuaddiert werden. Das erklärt dann auch die folgende richtige Aussage, dass die Entropie auch ohne Wärmeübertragung sich ändern (nicht "verändern"), besser aber "zunehmen" kann. Ich meine, der Abschnitt kann auch kürzer gefasst werden. Ich habe mal einen Baustein gesetzt.

Viele Grüße, Mooreule 11:08, 24. Feb. 2007 (CET)

Warum sollte die Entropie keine Grundgröße sein?
Meines Wissens sind die Grundgrößen der Thermodynamik Entropie, Volumen und Stoffmenge auf der einen und Temperatur, Druck und chem. Potential auf der anderen. (Ich verwechsel immer intensiv und extensiv, bitte korrekt zuordnen.) Die innere Energie hängt dabei paarweise von diesen Größen ab.
SumedokiN 22:11, 22. Mär. 2007 (CET)
Der Bergiff "Grundgröße" wird in der Regel synonym für "Basisgröße" verwendet. Viola sonans 01:58, 26. Mär. 2007 (CEST)

Ein weiterer Definitionsvorschlag

Hallo, ich hätte da einen Vorschlag, wie man Entropie etwas allgemeinverständlicher in der Einleitung definieren könnte. Ich bitte um Meinungen. In unserer Thermodynamik-Vorlesung haben wir folgende Erklärung diskutiert:

"Entropie ist eine thermodynamische Zustandsgröße, die den Wärmeaustausch zwischen einem System und seiner Umgebung beschreibt. Da sich ein Körper nie von selbst erwärmen kann (2. Hauptsatz der Thermodynamik), muss die Entropie bei natürlichen Prozessen stets größer 0 (Null) sein. Hierzu zählen dissipative Effekte (z.B. Reibungswärme), die der Umgebung nur zugeführt werden können (delta S>0). So wird ein Körper, der Reibkräfte erfährt (z.B. Bremse) wärmer, d.h. er gibt Wärme an die Umgebung ab, so dass die Entropieänderung größer als 0 (Null) ist. Bei reversiblen Prozessen gibt es keine solchen Effekte, d.h. die Entropieänderung ist hier 0 (Null)."

Was haltet ihr davon? -- JohnClark85 10:42, 11. Jul. 2007 (CEST)

Hallo JohnClark85, zum durchlesen: [3]--Kölscher Pitter 20:51, 4. Sep. 2007 (CEST)

Beispiele für Laien

Guten Tag liebe Spezialisten! hier schreibt ein WP-Leser, der gerne wissen möchte, was man denn eigentlich unter Entropie versteht. Was ich hier aber zu lesen bekomme ist völlig unverständlich. Nun bin ich nicht "blöd" - aber wenn schon ich Euren Text nicht verstehe, wie wird es dann meinen Kindern (Hauptschule) oder meiner Oma damit gehen?!

Deshalb habe ich Beispiele untergliedert in

für Laien

Im Kinderzimmer gibts eine Kiste mit Legosteinen und eine Kiste mit Playmobil-Figuren. Nach kurzer Zeit ist alles vermischt und über den ganzen Boden verteilt. Nach einer "Aufräum-Aktion" liegt dann einiges wieder in den Kisten, aber ziemlich durcheinander und anderes immer noch unterm Bett und hinterm Schrank. <! aber was ist jetzt dabei die Entropie? >

und --Homosapiens 18:44, 22. Okt. 2006 (CEST)

für Experten

Aber statt dass mir nun jemand an diesem Beispiel erklären würde, was denn nun daran genau "Entropie" ist und warum (oder wenigstens stattdessen ein ebenso verständliches aber leichter zu erklärendes Beispiel beschreibt), wurde es einfach wieder weggelöscht. Und der Artikel ist so unverständlich als wie zu vor...

Natürlich verstehe ich, dass Spezialisten wie Ihr gern ihr Fachwissen auf hohem Niveau zum Besten geben. Aber könnte man hier nicht wenigstens in einem ersten Überblick mal für alle verständlich erklären (Hauptschulniveau), bevor man sich den hochgeistigen Ergüssen hingibt...? Herzlichen Dank, --Markus Bärlocher 13:33, 15. Okt. 2006 (CEST)

Hallo, oben steht es zwar schon, aber es geht bei dem Artikel hier um Entropie in der Thermodynamik. Das hat nichts mit Kinderzimmern und Unordnung in diesem Sinne zu tun. Im übrigen führt es zu ganz langwierigen Diskussionen, wenn man versucht, Entropie aus der Sicht einzelner Teilchen zu beschreiben (Siehe Maxwellscher Dämon). Die Entropie wurde einfach nur eingeführt, um zu beschreiben, warum eine Kaffetasse immer auf Umgebungstemperatur abkühlt und nie von alleine warm wird, obwohl sie das nach dem 1. Hauptsatz (Energieerhaltung) auch tun könnte. Ich finde die Definitionen von Clausius und Co auch nicht sehr handlich, aber die haben es nun mal so definiert. Außerdem fällt es selbst Studenten im 2. Semester meist sehr schwer, die Entropie zu begreifen. Für die Oma muß daher glaube ich das Kaffetassenbeispiel genügen. --Homosapiens 19:41, 15. Okt. 2006 (CEST)
versuche zu verstehen: es gibt also mehrere Bedeutungen von Entropie, davon bezieht sich eine auf Thermodynamik und Kaffeetassen, und die anderen auf... - Könnte das mal jemand im Artikel allgemeinverständlich auseinanderdröseln? Danke, --Markus Bärlocher 21:56, 15. Okt. 2006 (CEST)
...ja, die zweite wird in der Informationstheorie verwendet, um Nachrichten zu beschreiben. Aber auch hier ist vielen Leuten ist die Beschreibung zu abstrakt. Ich kann den Wunsch, das alles mal ganz einfach darzustellen, gut nachvollziehen, aber ich fürchte, es ist nicht einfach. Aber es scheint, daß man das Thema Unordnung tatsächlich noch mal anpacken muß, damit es klarer im Artikel steht. --Homosapiens 00:20, 16. Okt. 2006 (CEST)
Makrozustände beruhen auf Festlegung von Variablen. Wenn wir festlegen, dass die einzigen Makrovariablen im Münszenbeispiel Anzahl der Münzen, die Kopf zeigen und Anzahl der Münzen, die Zahl zeigen sind, dann definieren wir dadurch auch die Entropie dieser Zustände. --Pjacobi 17:24, 18. Okt. 2006 (CEST)
Das Münzbeispiel findet sich unter Entropie (Informationstheorie), wo es auch sinnvoll ist. Ist es wirklich zielführend, das hier bei der Thermodynamik zur Verwirrung der Leser nochmal zu diskutieren? Es hilft auch nicht der Klarheit, beide Entropiebegriffe durcheinanderzuschmeißen, den sie sind unterschiedlich definiert. --Homosapiens 18:29, 18. Okt. 2006 (CEST)

Hallo, für Laien habe ich noch eine vereinfachte Darstellung zugefügt unter der Definition. Ich hoffe, das erklärt es erschöpfend auch für die Oma (ohne selbiger zu nahe treten zu wollen). --Homosapiens 11:51, 16. Okt. 2006 (CEST)

Danke! das ist (für mich) konkret und nachvollziehbar. Aber was ist denn nun mit der "Unordnung" und der Information? --Markus Bärlocher 12:03, 16. Okt. 2006 (CEST)

Am Besten unter Informationstheorie nachsehen. Aber - um den Clou vorwegzunehmen - die Informationstheorie beschreibt nur den Datenaustausch. Was Information genau ist, wie sie entsteht und wie sie mit Unordnung oder Ordnung zusammenhängt, darüber gibt es heute keine schlüssige Theorie. Sie können sich also noch einen Nobelpreis verdienen. --Homosapiens 23:20, 16. Okt. 2006 (CEST)


Die Entropie ist weniger ein Maß für die Unordnung eines Systems als für unser Unwissen über das System. Drüben in der englischen Wikipedia wurde ein Münzwurfbeispiel gebracht: Wenn von 100 Münzen 100 auf "Kopf" zeigen, wissen wir von jeder einzelnne Münze, dass sie "Kopf" zeigt. Wenn wir aber nur wissen, dass die Hälfte auf, also 50, Kopf zeigt (=makroskopische Beschreibung), ist unser Wissen über jede einzelne Münze sehr beschränkz, es gibt ganz unglaublich viele Möglichkeiten, wie es zu diesem Resultat gekommen ist (d.h. welche Münzw auf welcher Seite liegt, = mikroskopische Beschreibung). --Pjacobi 23:41, 16. Okt. 2006 (CEST)

Hallo Pjacobi, gibt es für deine Behauptung eine Quelle? Die Shannon-Theorie ist zwar eine statistische Theorie, aber die Beschreibung ist doch unabhängig von einem Beobachter. Oder kannst Du es irgendwie von Boltzmann ableiten. --Homosapiens 09:43, 17. Okt. 2006 (CEST)

Schon im Becker steht  ;-)
Die Unkennthis hier ist die Zahl der mikroskopischen Zustände je Makrozustand -- und wie "groß" ein Makrozustand ist hängt von den benutzten Zustandsvariablen ab. Eine Diskussion dazu unter dem Aspekt "unterscheidbare Atome" enthält dieser Aufsatz von Edwin Thompson Jaynes, hmmm... Edwin T. Jaynes, grr.. Edwin Jaynes, naja en:Edwin Thompson Jaynes.
Pjacobi 22:17, 17. Okt. 2006 (CEST)

Naja, ich halte solche Erkenntnisse für - sagen wir mal - nicht Oma-tauglich. Es geht doch bei der genannten Quelle um die Beschreibung von Makro-Zuständen durch die statistische Beschreibung von Mikrozuständen, im Falle von Gasen also um die Zustände von einzelnen Atomen. Gerade das Gibbssche Experiment ist in dieser Hinsicht ja ein ganz heißes Eisen, da es immerhin Leute gibt, die Atomen sowas wie individuelle Existenz absprechen. Es wird wohl auch keiner die Atome mit einem Nümmerchen versehen, um das Gibbssche Experiment zu machen. Da wir Atome natürlich auch üblicherweise nicht sehen, geht es also um Gedankenexperimente. Ich frage mich, ob eine Übertragung solcher Experimente in die Welt der Münzen, Playmobilfiguren oder Legosteine nicht mehr Verwirrung stiftet als Klarheit. Denn über die Makro-Zustände, also das, was wir tatsächlich beobachten, herrscht doch wohl kein Unwissen, oder? --Homosapiens 00:07, 18. Okt. 2006 (CEST)


Die Eigenschaften von Makrozuständen (also die Meßwerte der statistischen Observablen) sind im Prinzip bis auf Meßfehler und letzlich Heisenbergsche Unschärferelation ziemlich genau bekannt, aber nicht beliebig genau, da es statistische Observable sind. Die Frage ist zunächst wieviele Observable du benutzt um einen Makrozustand zu definieren, das ist ja durchaus vom Beobachter abhängig. Im Gleichgewicht ist bereits eine geringe Anzahl an Observablen ausreichend um etwas über die (statistischen) Mittelwerte aussagen zu können (-> Gibbssche Phasenregel). Der Makrozustand selber muss aber durch ein Ensemble beschrieben werden (und das hat Boltzmann auch getan, wenn hier auch ständig das Gegenteil behauptet wird. Niemand kann mit einem Mikrozustand Statistik betreiben, was für ein Unsinn!) und dieses Ensemble ist nicht eindeutig definiert, es muss nur im statistischen Mittel die richtigen Mittelwerte liefern. Je größer die Teilchenzahl des Systems, umso kleiner die relativen Schwankungen der Observablen. Man kann sich durchaus eine (abzählbare) Schar von Ensembles vorstellen, die alle einen Makrozustand darstellen und keinen einzigen Mikrozustand gemein haben (zumindest in der klassischen Mechanik geht das). Aber das ist egal, schliesslich kann oder will keiner den Mikrozustand bestimmen. Wie man sieht ist der Makrozustand als solcher (also das Ensemble) nicht eindeutig gegeben (und das ist auch gut so). Man kann sich so ein Ensemble wie einen Schwarm Glühwürmchen vorstellen, die durch den Phasenraum ziehen, immer bedacht die Hamiltonsche Gleichungen einzuhalten. Jedes Glühwürmchen ist ein Mikrozustand des Systems und wenn man nur weit genug weg ist, kann man nur noch Mittelwerte erkennen, die genaue Anordnung der Glühwürmchen ist unerheblich. Was wir makroskopischen Beobachter sehen sind eh nur die Mittelwerte der Ensembles!
Wenn man klassisch Statistik auf N Atomen macht, so muss man erstmal durchzählen, das hat nichts damit zu tun ob man die Atome nun tatsächlich einzeln beobachtet, man tut so also wenn es tatsächlich ginge, aber man sich nicht die Mühe machen will oder kann. Das ist eine reine mathematische Notwendigkeit, die man bewußt umgehen muß (->Symmetrisierung), wenn die Teilchen identisch sind! Ich muss für die Theorie aber erstmal annehmen, dass sie vorliegen. Das hat Boltzmann auch eine Menge Anfeindungen gebracht, denn viele Zeitgenossen wollten nicht an die Existenz von Atomen glauben (bis Einstein 1905 ihre Existenz durch die Theorie der Brownschen Bewegung bewiesen hat. Denkt daran, dass naturwissenschaftliche Theorien immer falsifizierbar sein müssen...). Und heute können wir Atome tatsächlich einzeln beobachten und manipulieren. Problematisch wird es bei der Individualität von Atomen, wenn sie näher als ihre de-Broglie-Wellenlänge zusammenkommen (z.B. im Einstein-Bose-Kondensat), dann wird es schwer bis unmöglich festzustellen, wer hier eigentlich wer ist. In dem Sinne, dass es keine empirischen Befunde wie angeklebte Nümmerchen gibt weil die Dinger eben identisch sind.
--David314 05:10, 15. Nov. 2006 (CEST)
Sorry, meine Oma ist gerade vor Gram verstorben. Also, sag´s doch mal in einem Satz: Verbraucht mein Motor nun weniger Benzin, wenn ich die richtigen "Observablen" verwende, oder muß ich beim Observieren weiterhin die Preisschilder der Tankstelle im Auge behalten? Also im Ernst, hat das obige irgendeine praktische Relevanz oder ist das so eine Art Denksportaufgabe? Entropie war bisher eine praktisch nutzbare Größe, aber mir scheint das zunehmend in Vergessenheit zu geraten! --Homosapiens 00:50, 16. Nov. 2006 (CET)
Ich habe den Eindruck, dass du immer noch mit der Entropie auf dem Kriegsfuß stehst. Was hat der Energieerhaltungssatz mit der Menge von Observablen zu tun? Warum sollte eine Zustandsgröße sich verändern, nur weil ich anfange mit anderen Größen Bilanzen zu ziehen? Ich denke der Begriff 'Observable' hat für dich bisher keine praktische Relevanz, aber ich versichere dir, dass man ständig mit solchen Observablen konfrontiert wird, z.B. beim Meßprozess in der Quantenmechanik und hier in der statistischen Physik. Und lass endlich die Oma aus dem Spiel, die interessiert sich eh nicht für Entropie. Ich kann nichts dafür, dass die Aufmerksamkeitsspanne der Kids von heute auf das Niveau von MTV und Viva gesunken ist... Wenn man Entropie verstehen will, dann muss man etwas länger darüber nachdenken.
--David314 23:35, 16. Nov. 2006 (CEST)


Atome können keine Nummern tragen, denn sie sind ununterscheidbar. Wäre es anders, beobachteten wir eine Mischungsentropie. Wenn wir alles über Makrozustände wissen, ist die Entropie 0. Ich sehe kaum eine Alternative zu dem Vorschlag, den Pjacobi wiederholt, wobei ich der besseren Anschauung wegen folgende Formulierung bevorzuge:
Die Entropie ist proportional zum Logarithmus der Anzahl gleichwertiger Zustände, die ein System einnehmen kann. (S = k ln(Zahl der gleichwertigen Zustände) ).
Der oben geforderte Oma-Test ist einfach ein Anwendungsbeispiel für 10 Kugeln in einer Kiste, die sich leicht entmischen können, und für 10^20 Kugeln (mittels Näherung n! = n*ln(n) ausrechnen -- die Wahrscheinlichkeit kleiner Druckunterschiede ist so gut wie 0).
Das neue Beispiel im Artikel wäre besser beim Carnot-Prozess aufgehoben. Hier sollte man sich die Mühe machen, die Zustandsgröße δQ/T zu erklären.
Vielleicht schreibe ich später einmal ein weiteres Beispiel in den Artikel; auf der Seite ist ja noch viel Platz...Anton 00:55, 22. Okt. 2006 (CEST)

Also, ich muß noch mal intervenieren. In der klassischen Thermodynamik ist der Nullpunkt der Entropie reine Festlegungssache. Ich wäre mir auch nicht so sicher, daß Jaynes mit seinen Theorien allgemein anerkannt ist. Aber auch bei ihm geht es, so weit ich das nachvollziehen kann, nicht um unser Wissen über Makro-Zustände, sondern um Mikrozustände. Daß Boltzmann und Co. versucht haben, die Entropie über statistische Aussagen über Mikrozustände zu erfassen, also auch über Wahrscheinlichkeiten, ist bekannt. Makrozustände sind aber die Dinge, die ich messen kann, also die Temperatur oder den Druck. Nur weil ich die genau kenne, ist die Entropie noch lange nicht 0. In der deutschen WP stammt das Münzenbeispiel aus der Entropie (Informationstheorie), wo es meiner Meinung nach auch hingehört. Die direkte Gleichsetzung von Informationsentropie und thermodynamischer Entropie ist heute nicht allgemein anerkannt, auch wenn Jaynes und Landauer sowas versucht haben. --Homosapiens 02:15, 22. Okt. 2006 (CEST)

Nachtrag: Soweit ich das sehen kann, muss man beim Ansatz von Jaynes auch darüber nachdenken, die Entropie nicht nach Boltzmann sondern nach Gibbs zu definieren. Im Artikel geht es aber nicht um die Gibbsche Entropie, sondern um die klassische Definition von Boltzmann. Ich möchte daher vorschlagen, daß der gesamte Bereich der "neueren" Sichtweisen in einen separaten Artikel ausgelagert wird, z.B. unter dem Titel Entropie (Gibbsche Definition). Denn klassisch geht es um Wärmekraftprozesse und deren Berechnung, das ist schon kompliziert genug. Die Ansätze von Landauer und Jaynes leiden nach meinem Kenntnisstand darunter, das sie bisher nicht experimentell bewiesen werden können (man möge mich korrigieren), jedenfalls ist mir kein Experiment bekannt, das das Landauer-Prinzip anhand energetischer Effekte zeigt. Wie es bei Jaynes aussieht, darüber werden die Spezialisten ja sicher auskunft geben können. Jedenfalls nutzt die Betrachtung von Mirkozuständen niemandem, der einen Motor bauen will, er muß nun mal von meßbaren Größen ausgehen.

Das Beispiel zum Zeitpfeil sollte übrigens auch in den Artikel über 'Gibbsche Entropie', weil es für praktische Anwendung ohne Relevanz ist. Die Zeit läuft nun mal so wie sie läuft, mit oder ohne Definition.--Homosapiens 18:44, 22. Okt. 2006 (CEST)

Wahrscheinlichkeitsaussage

Ohne den Umfang mitzuteilen, ist die Aussage im Artikel "Es ist rein theoretisch möglich, dass beispielsweise Wärme vom kälteren Körper zum wärmeren fließt, aber es ist so unwahrscheinlich, dass es selbst in einer Zeit, die dem Millionenfachen des Alters des Universums entspricht, mit an Sicherheit grenzender Wahrscheinlichkeit nicht passieren wird." sinnlos, da die Wahrscheinlichkeit vom Umfang der statistischen Abweichung abhängt. Dieses Fließen der Wärme vom kälteren Körper zum wärmeren geschieht ständig - aber in so kleinem Umfang, daß es makroskopisch praktisch nicht merkbar ist. Wenn die Aussage lauten würde, das sich eine Cent-Münze spontan um 1K erwärmt, dann ist die Zeit ... --Physikr 06:28, 2. Nov. 2007 (CET)

Dieser Satz ist überflüssig und verwirrend. Was hat Entropie mit dem Alter des Universums zu tun? Nichts! Gibt es bei der Entropie einen Unterschied zwischen Theorie und Praxis? Nein. Den hat es und wird es nie geben. Leider wird auch hier die Entropie nicht als mengenartige Größe erklärt.--Kölscher Pitter 08:39, 2. Nov. 2007 (CET)

Beispiele: Andere Disziplinen

Hallo, ich halte den Abschnitt so für OK, habe aber folgendes rausgenommen: , dieser Unterschied sollte aber nicht überbewertet werden, da letztendlich alle physikalischen Systeme thermodynamisch beschrieben werden können, sobald die Anzahl an Freiheitsgraden ansteigt und Defizite an mikroskopischer Information vorliegen. Zum einen ist "nicht überbewertet" sehr unpräzise, zweitens ist im klassischen Sinne Information kein physikalischer Begriff. Drittens ist die Aussage durchaus umstritten (Siehe auch "Landauer-Prinzip"). --Homosapiens 12:54, 15. Okt. 2006 (CEST)

Entropie in der...

Die Literaturliste, die das Aufgreifen des Entropie-Begriffs in anderen Disziplinen abdeckt, hat überhaupt keinen Bezug zum Artikeltext. Ich parke sie erst einmal hier.

Entropiebegriff in der Wirtschaft:
  • Philip B. Coulter: Measuring Inequality. 1989, ISBN 0813377269
  • Nicholas Georgescu-Roegen: The Entropy Law and the Economic Process. 1999, ISBN 1583486003
Entropiebegriff in der Soziologie:
  • Manfred Wöhlcke: Das Ende der Zivilisation - Über soziale Entropie und kollektive Selbstzerstörung. Überarb. Neuauflage 2003, ISBN 3-423-34054-1
Entropiebegriff in der Biologie:
Entropiebegriff in der Architektur:
Entropie als Thema in der Literatur:
  • Peter Freese: From Apocalypse to Entropy and Beyond: The Second Law of Thermodynamics in Post-War American Fiction. 1997

Ich würde auch den fehlenden Artikel zum Thema anfangen (en: bietet ja reichlich Stoff für einen ersten ersten Versuch), aber mir fehlt zur Zeit die zündende Idee für den Titel.

Pjacobi 21:22, 9. Dez. 2006 (CET)