Die Entropie ist sicherlich eins der am meisten missverstandenen Konzepte der Physik: Irgendwie hat sie was mit Unordnung zu tun und damit, dass zerschlagene Eier sich nicht von selbst wieder zusammen setzen, und irgendwie hängt sie auch mit Information zusammen. Hier will ich einmal versuchen, die Entropie ganz anders anschaulich zu machen: Die Entropie ist ein Maß für die Höhe eines Papierstapels.

Damit alle beim Lesen Spaß haben, egal ob mathematikscheu oder formelfröhlich, habe ich in diesem Post einen ganz besonderen Service eingerichtet: Die Erklärungen kommen erst nahezu völlig formelfrei (maximal die 4 Grundrechenarten), und dann gibt es Details jeweils nachgeliefert.

i-a501d9d3f73bbf48fe60932c95de6ae1-WarnschildFormelKlein.jpg

Damit ihr sofort wisst, wenn es mathematisch wird, bekommen solche Absätze mein speziell für diesen Zweck designtes Warnschild (das noch nicht in der StVO steht). Absätze mit diesem Zeichen könnt ihr also getrost überspringen, wenn ihr nur die Idee aufschnappen wollt.

Stellt euch vor, ihr habt ein System im thermischen Gleichgewicht. Das kann beispielsweise ein Gas sein oder ein Festkörper. Thermisches Gleichgewicht bedeutet nichts anderes, als dass dieses System in Kontakt mit einem großen Wärmespeicher steht, der eine konstante Temperatur T hat. Was immer ihr mit eurem System tut, es hat und behält deswegen auch die Temperatur T.

Damit das ganze nicht so abstrakt ist, stellt euch konkret den Raum vor, in dem ihr gerade sitzt. Je nach Raumgröße dürften sich da so etwa eine Milliarde Milliarde Milliarde Moleküle (vor allem Stickstoff und Sauerstoff) tummeln, die wild durch das Zimmer flitzen. Wenn ihr den Zustand der Luft im Zimmer beschreiben wollt, dann müsst ihr für jedes Molekül angeben, wo es gerade ist (also drei Zahlen festlegen) und mit welcher Geschwindigkeit es gerade wohin fliegt (drei weitere Zahlen).

i-a501d9d3f73bbf48fe60932c95de6ae1-WarnschildFormelKlein.jpg

So, nun probier ich das Warnschild mal aus. Die Zahl der Moleküle in eurem Zimmer lässt sich grob so abschätzen (Hurra, ein Fermi-Problem): Bei Raumtemperatur und Normaldruck hat ein Mol (6⋅ 1023) Moleküle ein Volumen von 24 Liter (eine dieser praktischen Zahlen, die zu wissen sich lohnt – Dank an Engywuck für die kleine Korrektur). In einem Kubikmeter Luft sind es also etwa 50 Mol, und euer Zimmer hat vielleicht so 4x3x2,5 Meter, das wären 30 Kubikmeter. Alles aneinandermultipliziert ergibt 9⋅1026, also etwa 1027 (so genau kenne ich eure Zimmergröße ja eh nicht).

Wenn wir das für alle Moleküle tun wollen, dann gibt das natürlich eine seeeehr lange Liste. Von der großen Zahl lassen wir uns aber nicht abschrecken, wir können ja einen Super-Duper-Mega-Computer beauftragen, das für uns zu tun (die Liste erinnert mich irgendwie an eine meiner Lieblingsgeschichten, die neun Milliarden Namen Gottes). Die Liste würde also sagen:
Sauerstoffmolekül vor dem “A” der Computertastatur fliegt mit Geschwindigkeit 12,8m/s nach rechts oben in die Zimmerecke,
Sauerstoffmolekül vor der Nasenspitze fliegt mit 67,3m/s nach unten
usw.:

i-7cfeba24c83407910a2b5f6eac78a087-molekuelliste1.jpg

Diese Liste gibt jetzt also die Positionen aller Moleküle zu einem bestimmten Zeitpunkt an, wenn wir die Liste kennen, dann wissen wir alles, was es über die Moleküle zu wissen gibt. (Gut, für zweiatomige Moleküle müsste ich noch die Orientierung des Moleküls angeben, aber darauf kommt es jetzt auch nicht mehr an.)

Und da wir eh gerade beim Gedankenexperimentieren sind und den schnellsten und besten Computer des Universums haben, können wir ihn auch die Arbeit gleich richtig machen lassen: Er soll alle möglichen Zustände für das Gas auflisten, jeden Zustand auf einem eigenen Blatt. Der Stapel all dieser Listen wird natürlich so unglaublich gigantisch riesig, dass man sich das nicht konkret ausmalen möchte, macht aber nichts. Wir haben jetzt also einen (ziemlich großen) Stapel mit lauter Listen wie der oben, jedes Blatt beschreibt einen Zustand.

i-148d7cecc413815f878829a61618c5fc-molekuelliste2-thumb-550x438.jpg

Einige dieser Zustände werden ziemlich seltsam sein, zum Beispiel der, bei dem alle Moleküle genau auf eurem Kopf liegen und sich nicht rühren, aber das soll uns erstmal egal sein.

i-a501d9d3f73bbf48fe60932c95de6ae1-WarnschildFormelKlein.jpg

Strenggenommen können wir die Zustände natürlich nicht durchnummerieren, weil wir für physikalische Größen reelle Zahlen verwenden, die nicht abzählbar sind. Wir können uns entweder vorstellen, wir geben alle Größen auf 100 Stellen nach dem Komma genau an (das sollte dann für alle praktischen Zwecke gut genug sein) oder wir stellen uns eine “Auflistung” mit überabzählbar vielen Einträgen vor – bei dem, was später kommt, müssen wir dann Wahrscheinlichkeiten durch Wahrscheinlichkeitsdichten ersetzen.

Zu jeden unserer Zustände gehört auch eine Energie. Die setzt sich zusammen aus der kinetischen (also der Bewegungs-) Energie und der Energie im Schwerefeld, und vielleicht auch noch aus der Wechselwirkungsenergie zwischen den Molekülen. Auch hier wird es praktisch ziemlich schwer, diese Energie zu berechnen, aber prinzipiell ist es machbar. Wir tun dies also für alle unsere Zustände.

Und jetzt kommt sie: Die wichtigste und zentrale Aussage der Thermodynamik!
In einem System wie dem hier angenommenen, das sich physikalisch vernünftig verhält (der Fachausdruck dafür ist “ergodisch”), kann man für die Zustände Wahrscheinlichkeiten angeben. Man findet einen Zustand A, der die Energie EA hat, mit einer Wahrscheinlichkeit, die um so kleiner ist, je größer die Größe EA/kT ist. Dabei ist T die Temperatur und k ist eine Naturkonstante, die Boltzmann-Konstante. Die ist sozusagen ein Umrechnungsfaktor von Temperatur in Energie. Zahlenmäßig hat sie den Wert 1,38⋅10-23J/K, die Einheit ist Joule pro Kelvin, damit ne Energie rauskommt, wenn man de Temperatur reinsteckt. Die Wahrscheinlichkeit nimmt dabei mit EA/kT drastisch (nämlich exponentiell) ab.

i-a501d9d3f73bbf48fe60932c95de6ae1-WarnschildFormelKlein.jpg

Vollständig lautet die Formel so:
pA = exp(-EA/kT) / Z.
Z ist dabei ein Normierungsfaktor, der dafür sorgt, dass die Summe (bzw. im kontinuierlichen Fall das Integral) über die Wahrscheinlichkeit aller Zustände gleich 1 ist. Es ist also
Z= ∑A exp(-EA/kT). Thermodynamiker lieben die Zustandssumme, weil da alle Wahrscheinlichkeitsterme drinstecken, und können aus ihr alles mögliche extrahieren.

Eigentlich kann das, was ich hier behauptet habe, gar nicht stimmen, oder? Ich habe gesagt, die Wahrscheinlichkeit für einen Zustand A ist um so größer, je kleiner der Ausdruck EA/kT wird. Das bedeutet aber doch, dass der Zustand mit der kleinsten Energie immer der Wahrscheinlichste ist. ALARM! Holt euch lieber schnell ne Sauerstoffmaske! Der wahrscheinlichste Zustand für die Luft in eurem Zimmer ist der, bei dem alle Moleküle am Boden liegen und sich nicht bewegen, denn dann haben sie die niedrigste Energie.

Deckt sich irgendwie nicht so ganz mit unserer Alltagserfahrung, oder? Danach sind die Moleküle der Zimmerluft eigentlich immer schön gleichmäßig verteilt. Irgendwas ist hier seltsam.

Der entscheidende Punkt hier ist, dass wir uns im Alltag nicht um einzelne Moleküle kümmern. Es ist uns herzlich egal, wo genau die einzelnen Moleküle sich gerade herumtummeln und welche Geschwindigkeiten sie genau haben, hauptsache sie haben im Mittel eine Geschwindigkeit, die einer angenehmen Temperatur entspricht, und sie sind so gleichmäßig verteilt, dass wir immer genügend Moleküle zum Atmen haben, wenn wir Luft holen.

Wir können viele der Zustände in unserem Listenstapel also in unserer makroskopischen Welt nicht unterscheiden. Solche Zustände, die sich zwar mikroskopisch unterscheiden (also zu unterschiedlichen Listen in unserem Listenstapel gehören), die wir aber makroskopisch nicht auseinander halten können, nennt man ganz naheliegend Makrozustände, die Zustände, die durch eine unserer Listen beschrieben werden, heißen Mikrozustände. Jede Liste beschreibt also genau einen Mikrozustand (eben den, der auf der Liste spezifiziert wird), aber zu jedem Makrozustand gibt es meistens viele viele Mikrozustände.

Wir müssen also berücksichtigen, dass es unterschiedlich viele Mikrozustände für die einzelnen Makrozustände gibt. Und natürlich gibt es sehr viel mehr Möglichkeiten, Luftmoleküle einigermaßen gleichmäßig zu verteilen als Möglichkeiten, sie alle am Boden liegen zu lassen (denn dann liegt der Ort ja schon fest: Am Boden). Obwohl jeder einzelne dieser Mikrozustände mit gleichmäßiger Luftverteilung etwas unwahrscheinlicher ist als ein Mikrozustand mit Molekülen am Boden, gibt es davon so viel mehr, dass wir trotzdem immer solche Zustände antreffen. Also könnt ihr die Sauerstoffmaske bei ebay wieder abbestellen.

Wir können die Wahrscheinlichkeiten aber verändern. Ich hatte ja gesagt, dass die Wahrscheinlichkeit drastisch kleiner wird, je größer EA/kT wird. Und da steht die Temperatur unter dem Bruchstrich. Wenn wir die Temperatur klein genug machen, dann helfen irgendwann auch die vielen Mikrozustände zum Makrozustand “Luft gleichmäßig verteilt” nicht mehr, und dann wird der Makrozustand “Luft liegt am Boden” der wahrscheinlichste – die Luft sammelt sich am Boden (und gefriert dort).

Bei niedriger Temperatur sind also die Makrozustände begünstigt, die eine niedrige Energie haben, bei hoher Temperatur dagegen die, für die es viele einzelne Zustände, also viele Listenblätter gibt.

In einem System bei einer bestimmten Temperatur ist es also immer ein Kräftemessen zwischen zwei Größen: Auf der einen Seite ist die Wahrscheinlichkeit eines bestimmten Mikrozustands groß, wenn dessen Energie klein ist. Auf der anderen Seite gibt es zu Makrozuständen mit hoher Energie normalerweise viel mehr Mikrozustände (weil ja zum Beispiel höhere Geschwindigkeiten möglich sind, wenn mehr Energie zur Verfügung steht). Entsprechend bildet sich ein Kompromiss heraus. (Wie das genau funktioniert, diskutiere ich demnächst noch mal an einem Beispiel im Detail.)

Und jetzt kommen wir endlich zur Entropie. Die Entropie ist eine Größe, die die Makrozustände charakterisiert. Nehmt den Listenstapel und sortiert die Listenblätter so, dass alle Listen auf einem Stapel liegen, die denselben Makrozustand beschreiben. Die Entropie ist dann ein Maß für die Höhe des Stapels (also die Anzahl der Mikrozustände):

i-2243b7a9ddc13170671f834061d528bf-molekuelliste3-thumb-550x439.jpg

Die Entropie ist also eine Größe, die einen Makrozustand beschreibt, Sie gibt an, auf wieviele Arten (also mit wievielen Mikrozuständen = Listen) dieser Makrozustand erreicht werden kann. Je mehr Möglichkeiten, desto höher der Listenstapel und desto höher die Entropie.

i-a501d9d3f73bbf48fe60932c95de6ae1-WarnschildFormelKlein.jpg

Genau gesagt: Ist Ω die Zahl der Zustände zu einem Makrozustand, dann ist die Entropie S
S= k lnΩ
Diese Formel ist so wichtig, dass man sie auf Boltzmanns Grabstein gemeißelt hat.

Und wie war das jetzt noch mal mit der Entropie? Muss die nicht immer zunehmen? Warum denn das?

In einem abgeschlossenen System nimmt die Entropie tatsächlich immer zu. Abgeschlossen heißt hier, dass das System von der Umgebung völlig isoliert ist (bisher war es ja immer in einem Wärmebad). Damit ist natürlich seine Energie konstant. Entsprechend sind alle Mikrozustände genau gleich wahrscheinlich. (weil EA/kT für alle den gleichen Wert hat – T ist jetzt die Temperatur in unserem System, nicht mehr die des Wärmebads.) Wenn unser System in einem bestimmten Zustand startet, dann sorgt die zufällige Bewegung der Moleküle dafür, dass im Laufe der Zeit alle möglichen Mikrozustände eingenommen werden. (Wenn das nicht passiert, dann haben wir eins von diesen bösen nicht-ergodischen Systemen, bei denen die Thermodynamik viel komplizierter wird.)

Kleine Anmerkung: Natürlich ist die Bewegung der Moleküle nicht wirklich zufällig – die gehorchen ja auch irgendwelchen Bewegungsgleichungen. Da es aber so viele Moleküle sind, ist ihre Bewegung chaotisch und deswegen über längere Zeit von Zufall nicht zu unterscheiden.

Wir werden also zufällig alle möglichen Mikrozustände vorfinden – und wenn wir nur auf die Makrozustände gucken, dann sehen wir unser System meist in einem Makrozustand, zu dem es viele Mikrozustände gibt. Die Zunahme der Entropie ist also ein rein statistischer Effekt. Zumindest theoretisch kann die Entropie auch mal abnehmen (weil sich z.B. zufällig alle Moleküle am Boden sammeln), aber die Wahrscheinlichkeit, dass das passiert, ist so unglaublich klein, dass sie für alle praktischen Zwecke keine Rolle spielt.
(Die prinzipielle Möglichkeit allein hat allerdings unter Physikern für einigen Diskussionsstoff gesorgt – da gibt es z.B. das berühmte Boltzmannsche H-Theorem und das Loschmidt-Paradoxon.)

Deswegen setzen sich auch zerschlagene Eier nicht spontan wieder zusammen. Prinzipiell ist es möglich, dass die thermischen Bewegungen aller Moleküle in den Ei-Bruchstücken und der Umgebung gerade so zusammenwirken, dass das Ei sich wieder zusammensetzt, aber das ist so unglaublich unwahrscheinlich, dass ihr doch besser den Wischlappen holt und die Sauerei wegmacht.

Und aus demselben Grund hat die Entropie auch was mit Unordnung zu tun. Denkt an euren Schreibtisch. Wenn er perfekt aufgeräumt ist, dann gibt es dafür im wesentlichen genau eine Möglichkeit, bei der alle Stifte sauber im Stiftfach nebeneinander liegen, das Lineal in der Schublade ist und die Computertastatur exakt parallel zur Schreibtischkante im Abstand von 4,87 Zentimetern (oder was immer eure persönliche Vorstellung von Ordnung ist). Unordentliche Zustände gibt es dagegen sehr viele. Wenn ihr den Stift irgendwie auf den Schreibtisch werft, ist es sehr unwahrscheinlich, dass er genau an der richtigen Stelle landet usw. Zum Makrozustand “Unordnung” gibt es eben sehr viele Mikrozustände, und wenn jeder Mikrozustand etwa gleichwahrscheinlich ist, dann werdet ihr nahezu immer den Zustand “Unordnung” bekommen. Je unordentlicher der Schreibtisch ist, desto mehr Mikrozustände gibt es zu diesem Unordnungsgrad und desto höher ist die Entropie.

Ihr habt euch sicher schon dran gewöhnt: Auch dieser Text wird noch eine Fortsetzung bekommen – da werde ich euch an einem überschaubaren Beispiel nochmal das Wirken der Entropie vorführen. (Phasendiagramme und die berühmte Freie Energie werden auch eine Rolle spielen.)


Dank an Florian, der mich zu diesem schönen Titel inspiriert hat 😉

Kommentare (18)

  1. #1 Engywuck
    27. November 2010

    Danke für den tollen Beitrag. Vermutlich hätte ich den sogar auf den ersten Blick verstanden, nicht so wie in gewissen Leerbüchern, der statistischen Thermodynamik (so halb hab ichs damals erst kurz vor der Prüfung kapiert. Zum Glück wurde wenig davon gefragt :))

    Aber nun Klugscheissermodus an:
    “Bei Raumtemperatur und Normaldruck hat ein Mol (6⋅ 10^23) Moleküle ein Volumen von 22,4 Liter”
    Das gilt nur für ein ideales Gas. Und zudem nicht bei Raumtemperatur sondern bei Normaltemperatur (bei den Physikern ist das immer 0°C). Zimmertemperatur bedeutet IIRC 24 Liter. [Chemiker rechnen gerne mit Raumtemperatur (25°C), weil das der häufigste Zustand ist, Biologen mit Körpertemperatur. Nur die Physiker machen sich hier das Leben einfach]. Ach ja, die netten kleinen Unterschiede zwischen Normal- und Standardbedingungen und vor allem, dass Normalbedingung auf Englisch STP (Standard Temperature and Pressure) genannt wird und umgekehrt.

    (Klugscheissermodus aus)

    Wenn du viel Zeit und Lust hast darfst Du die Serie gerne noch ausbauen, bis hin zum chemischen Potential etc. 🙂

  2. #2 MartinB
    27. November 2010

    @Engywuck
    O.k., ich hab’s mal auf 24 geändert – geht bei der Rechnung hinterher eh im Rauschen unter.

  3. #3 maxfoxim
    27. November 2010

    wenn es mehr Leute geben würde, die so gut naturwissenschaftliche Zusammenhänge erklären können, gäbe es viel weniger Probleme in Deutschland 😉

  4. #4 MartinB
    27. November 2010

    @maxfoxim
    Danke für die Blumen, aber ich glaub das eher nicht – erstmal muss Interesse da sein. Und das ist genau der Grund, warum ich lieber bei scienceblogs schreibe und an ner Uni lehre als zum Beispiel an einer Schule: Weil ich es viel schwieriger fände, gerade bei Jugendlichen Interesse für diese Fragen zu wecken, damit sie überhaupt zuhören. (Bei Kindern ist das leicht – ne Kinderuni zu halten war so ziemlich das Tollste, was ich in meiner Dozentenlaufbahn gemacht habe.)

  5. #5 KommentarAbo
    27. November 2010

  6. #6 Manuel
    27. November 2010

    Danke für den super Beitrag! Habe schon einige Erklärungen zur Entropie gelesen, aber diese hier ist mit Abstand die verständlichste!

  7. #7 Sascha
    28. November 2010

    Ja, das merkt man auch im normalen Leben.
    Um Ordnung herzustellen, muss man arbeiten, also Energie aufwenden. Die Unordnung entsteht dagegen von allein.

  8. #8 nalle
    28. November 2010

    Da hast du wirklich viel Arbeit und Ideen in diesen Artikel gesteckt. Ganz großartig! Mach weiter so… Auch von dem neuen Warnschild-Formalismus bin ich überzeugt. Vielleicht kannst du den ja für die folgenden Artikel beibehalten.

  9. #9 Florian W.
    28. November 2010

    Ich finde es wirklich beeindruckend, daß Du Dir die Mühe machst, auch schwierige Themen zu behandeln, um denen die populärwissenschaftliche Literatur einen Bogen macht.

    Nur sehe ich in der Qualität noch Verbesserungspotential. Nun hat jeder seine eigene Vorstellungen davon, was eine gute Erklärung ist – und Klugscheissertipps zu geben, ist auch ein wenig arrogant. Deswegen ist das folgende meine private Sichtweise (und sowas darf ja jeder haben).

    Das Gehirn hat einen Bildspeicher und einen Speicher für Logik (und viele andere mehr). Wie jeder weis, sind diese Speicher begrenzt, weswegen man in der Schule lernt, vor dem Schreiben einen Aufsatzes einen Plan zu machen. Dieser Plan legt fest, wie man den Leser durch das Thema führt. Man sollte z.B. dafür sorgen, daß nicht zu viel auf einmal erklärt wird und daß das Ganze einen roten Faden hat. Was man aber in der Schule nicht lernt (jedenfalls war es bei mir so) ist, daß das Gehirn gerne Verbindungen zwischen den einzelnen Datenspeichern aufbaut. Deswegen sollte man immer darauf achten, jeden Speicher gleichmäßig mit Material zu versorgen. Wenn Du z.B. das thermische Gleichgewicht erklären willst, solltest Du vorher einen Raum mit Klimaanlage/Heizung beschreiben, weil dies etwas ist, daß sich die meisten Menschen klar vorstellen können. Wenn dieses Bild im Kopf existiert, kann man darauf aufbauen und die Verbindung zur Logik ziehen. Jetzt erklärt man, daß dies ein thermisches Gleichgewicht ist und welche Eigenschaften/Konsequenzen das hat. Das ist ähnlich wie bei Filmen, in denen zuerst die Szene als Ganzes gezeigt wird, bevor die Schauspieler darin etwas machen.
    Wenn man dies berücksichtigt und ein wenig übt, stellt man bald fest, daß Erklären nicht unähnlich dem Programmieren/Filmen ist, da man sich genau überlegen muß, was im Gehirn des Lesers zum Zeitpunkt x passiert. (Ja, das ist anstrengend.)

    Schaut man sich das Gefasel der Kreationisten an, sieht man, daß diese die Technik (neben anderen) recht gut beherrschen – und denen sollte man IMHO das Feld nicht überlassen.

  10. #10 fj
    28. November 2010

    Danke für den hilfreichen Artikel!

    Vielleicht könntest Du in Deiner Entropie-Serie erklären, warum keine Wärmekraftmaschine den Carnot-Wirkungsgrad übersteigen kann. Da stolpert man hin und wieder mal drüber wenn Leute fragen, warum man es noch nicht geschafft hat, Kraftwerke mit einem „vernünftigen Wirkungsgrad“ (also nahe 100%) zu bauen.

    Übrigens: es gibt ein mathematisch äquivalentes Verkehrszeichen zu Deinem Schild: Nr. 102. 😉 Und für die harten Fälle gibt es Nr. 114 „drei Integrale verfolgen ein Auto“…

  11. #11 MartinB
    28. November 2010

    @FlorianW
    Na klar, Verbesserungspotential gibt es immer. Blogschreiben ist für mich ein bisschen was anderes als z.B. ein Skript schreiben, weil ich annehme, dass die meisten Blogleser sowas eher als “leichte” Lektüre sehen. Deshalb versuche ich, die Häppchen erträglich groß zu machen und das ganze eher wie einen Vortrag aufzuziehen.
    Mit dem Bildspeicher und dem Logikspeicher bin ich mir nicht sicher – ich glaube, es ist ziemlich unterschiedlich, inwieweit einzelne Menschen eher bildlich, logisch abstrakt oder in Worten denken.
    Konkrete Verbesserungsvorschläge sind aber immer willkommen (wie ich meinen Studis imemr sage: “Feedback kann man annehmen, muss man aber nicht”.)

    @nalle
    Das Warnschild macht garantiert den Schwarzenegger “Ich komme wieder” (allerdings ohne Sonnebrille)…

    @fj
    LOL
    Was den Wirkungsgrad angeht, mal sehen, ob ich so weit komme – über den Aspekt habe ich noch nicht so viel anschaulich nachgedacht (der kommt auch in meinen Vorlesungen nicht vor), da muss ich erstmal schauen, ob ich da nen guten Zugang finde. Uf jeden Fall gibt’s bald noch ein detailliertes Entropie-Beispiel und vermutlich auch was zur beliebten “Freien Energie”.

  12. #12 Frithjof
    29. November 2010

    Ein wirklich gut verständlicher und interessanter Beitrag!

    Kleine Anmerkung: In Zeile 7 sollte vermutlich stehen: “Die Erklärungen” und nicht “Dier Erklärungen”

    LG

  13. #13 Pommestüte
    29. November 2010

    Schöner Artikel!

    Ich kann mich aber leider nicht zurückhalten, was das Klugscheißen angeht 😉

    Anstelle von
    “oder wir stellen uns eine “Auflistung” mit überabzählbar vielen Einträgen vor”
    meinst du
    “oder wir stellen uns überabzählbar viele Listen vor”
    oder?

    Die Zahl der Einträge entspricht ja der Zahl der Moleküle und die liegt fest.

    Interessant ist auch noch, dass die Abzählbarkeit aus der Quantenmechanik kommt (klassisch würden die Mikrozustände eigentlich dicht im Phasenraum liegen, die Unschärferelation gibt aber ein minimales Volumen vor). Rein klassisch kann man die Entropie also gar nicht statistisch interpretieren.

  14. #14 Pommestüte
    29. November 2010

    Schöner Artikel!

    Ich kann mich aber leider nicht zurückhalten, was das Klugscheißen angeht 😉

    Anstelle von
    “oder wir stellen uns eine “Auflistung” mit überabzählbar vielen Einträgen vor”
    meinst du
    “oder wir stellen uns überabzählbar viele Listen vor”
    oder?

    Die Zahl der Einträge entspricht ja der Zahl der Moleküle und die liegt fest.

    Interessant ist auch noch, dass die Abzählbarkeit aus der Quantenmechanik kommt (klassisch würden die Mikrozustände eigentlich dicht im Phasenraum liegen, die Unschärferelation gibt aber ein minimales Volumen vor). Rein klassisch kann man die Entropie also gar nicht statistisch interpretieren.

  15. #15 Pommestüte
    29. November 2010

    Schöner Artikel!

    Ich kann mich aber leider nicht zurückhalten, was das Klugscheißen angeht 😉

    Anstelle von
    “oder wir stellen uns eine “Auflistung” mit überabzählbar vielen Einträgen vor”
    meinst du
    “oder wir stellen uns überabzählbar viele Listen vor”
    oder?

    Die Zahl der Einträge entspricht ja der Zahl der Moleküle und die liegt fest.

    Interessant ist auch noch, dass die Abzählbarkeit aus der Quantenmechanik kommt (klassisch würden die Mikrozustände eigentlich dicht im Phasenraum liegen, die Unschärferelation gibt aber ein minimales Volumen vor). Rein klassisch kann man die Entropie also gar nicht statistisch interpretieren.

  16. #16 black|ce-
    29. November 2010

    danke 🙂

  17. #17 rolak
    15. Oktober 2011

    Auch passend. Heißt wohl ‘frustrating’, nur schärfer formuliert 😉

  18. #18 MartinB
    15. Oktober 2011

    @rolak
    Ich sag ja immer: Die Entropie ist auch nicht mehr das, was sie mal war.