Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird

Die Seite wird erstellt Klaus Zander
 
WEITER LESEN
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt
und der Schreibtisch unordentlich wird
                               Thomas Richter (richter@rus.uni-stuttgart.de)
                                  Rechenzentrum der Universität Stuttgart
Viele Phänomene der Alltagswelt laufen bevorzugt in eine zeitliche Richtung: Mein Kaffee wird
von alleine kalt, und nicht heiß, und mein Schreibtisch verwandelt sich innerhalb einer Woche in
ein mittelmäßiges Chaos – es sei denn, ich stelle den Kaffee auf den Herd oder räume auf. In beiden
Fällen muss Energie dazu verwandt werden, sei es in der Form von Elektrizität oder in der Form
von mechanischer, sprich körperlicher Arbeit, um den Vorgang umzukehren. Die Physik unserer
Welt definiert also einen klaren Zeitpfeil, eine Richtung in der Zeit ist ausgezeichnet: In dieser
Richtung laufen die Dinge von alleine ab, andersherum jedoch sind die Phänomene überhaupt nicht,
oder nur unter Aufwand von Energie zu beobachten.
Betrachtet man nun die Physik diesbezüglich genauer, so stellt man fest, dass diese Auszeichnung
des Zeitpfeiles nicht in allen Bereichen der Physik anzutreffen ist: Elektrodynamik oder Mechanik
kennen sie zum Beispiel nicht. Macht man etwa einen Film von einem geworfenen Ball – so dass
man nur diesen Ball vor einem neutralen Hintergrund beobachten kann – so kann man den so
aufgezeichneten Film rückwärts abspielen, und er sieht ebenso realistisch aus. Die hier beobachtete
Bewegung, auch „schräger Wurf“ von den Physikern genannt, ist zeitumkehr-invariant, oder
genauer, durch eine einfache Substitution und das Anbringen von Vorzeichen an geeigneten Stellen
der sie beschreibenden Gleichung lässt sich aus der Vorwärts- auch die Rückwärtsrichtung
gewinnen: Die Bahnkurve des Balles, also seine Position im Raum in Abhängigkeit von der
Beobachtungszeit, ist rückwärts abgespielt ebenso wieder die Bahnkurve eines geworfenen Balles,
nur eben eines Balles, der von der anderen Seite der Beobachtungsszene geworfen wurde1.

1. Thermodynamik und der Zweite Hauptsatz
Was ist an meinem Schreibtisch-Chaos also grundsätzlich anders als an einem einfachen
mechanischen System? Des Rätsels Lösung liegt darin, dass mein Schreibtisch ein
Vielteilchensystem ist: Das Chaos darauf besteht eben darin, dass die Papiere, Bücher, Unterlagen
und Gläser auf meinem Schreibtisch alle einzelne Objekte sind, die in einer nicht-geordneten Weise
auf dem Tisch liegen. Auf die gleiche Weise, aber dies ist weniger offensichtlich, ist meine Tasse
Kaffee, oder genauer der Kaffee darin, ein Vielteilchensystem – natürlich, er besteht aus
Molekülen, und die Art, wie sich diese Moleküle bewegen, bestimmen, ob ich den Kaffee als zu
kalt oder angenehm empfinde.
Aber, mag man einwenden, der Ball aus dem obigen Beispiel ist doch ebenso ein Vielteilchen-
System, ebenso wie jeder andere Gegenstand auch? Der Unterschied besteht darin, dass für die
Beschreibung des Wurfes die Eigenschaften der Komponenten, der Moleküle des Balles
unwesentlich, für die Temperatur des Kaffees aber sehr wohl wesentlich ist. Die Temperatur eines
Körpers lässt sich aus der mittleren Geschwindigkeit seiner Komponenten berechnen, und die kann
sehr wohl ziemlich groß sein, obwohl sich meine Tasse (hoffentlich!) nicht bewegt.
Wie schon oben bemerkt, nimmt das „Chaos“ auf dem Schreibtisch zu: Da Physiker die Dinge nun
genau verstehen wollen, müssen wir hierzu erst einmal verstehen, was dieses „Chaos“ exakt ist, wie
man es quantifiziert und vermisst. Interessanterweise wird sich heraussstellen, dass dieselbe
physikalische Größe, die „die Unordnung“ spezifiziert, auch zur Beschreibung meiner Kaffeetasse
1
  Für Physiker: Vorausgesetzt, man vernachlässigt den Luftwiderstand. Reibungseffekte können ebenso wie
thermodynamische Effekte – also wie das Abkühlen der Kaffeetasse – als Effekte von Vielteilchensystemen verstanden
werden.
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
taugt. Ohne viel vorgreifen zu wollen: Die entsprechende Größe heißt die „Entropie“ des
Gesamtsystems, und derjenige Teilbereich der Physik, der sich mit ihr beschäftigt, ist die
Thermodynamik. Der Erfahrungssatz über Kaffeetassen und Schreibtische liest sich dann in der
Sprache der Physik wie folgt:

                  Die Entropie eines abgeschlossenen Systems nimmt nie ab.

Und der entsprechende Sachverhalt, die Auszeichnung einer Zeitrichtung durch die Entropie, wird
der zweite Hauptsatz der Thermodynamik genannt. Damit ist noch nichts erklärt, sondern man hat
dem Kind lediglich einen Namen gegeben.
Der Begriff „Entropie“ selbst geht auf Rudolf Clausius zurück [Clausius 1862], wobei das Wort
„Entropie“ ein griechisches Kunstwort aus εν~ (deutsch: ein~, in~) und τροπή (Wendung,
Umwandlung) ist, welches von Clausius bewusst in Anlehnung an das Wort „Energie“ gewählt
wurde.
Interessanterweise gibt es historisch zwei vollkommen verschieden anmutende Definitionen des
Begriffes der Entropie, die auf gänzlich verschiedenen Wegen gefunden wurden – sie entsprechen
den beiden Beispielen von oben: Kaffeetemperatur bzw. Ordnung des Schreibtisches. Um zu
verstehen, wie der zweite Hauptsatz zustande kommt, und was er – außer einer Erfahrungstatsache
– wirklich aussagt, betrachten wir die Entwicklung im Folgenden genauer. Interessanterweise wird
nämlich gerade ein Gedankenexperiment, welches mit der Geschichte des Hauptsatzes verknüpft
ist, auch eine Lösung für die Auszeichnung der Zeitrichtung bieten.

2. Dampfmaschinen, Wärme, Temperatur
Die historisch ältere Definition der Entropie entstammt der Wärmelehre, also der Wissenschaft, die
das Verhalten von Gasen, Dampf usw. beschreibt und mit der man die Eigenschaften von
Wärmekraftmaschinen, also von der Dampfmaschine bis zum Automotor berechnen kann. Hierbei
haben Forscher wie Mayer, Carnot [Carnot 1824], Joule, Lussac [Lussac 1802] oder Helmholtz im
19. Jhd zunächst ihre Beobachtungsdaten in Formeln festgehalten, etwa dass das Volumen, welches
ein Gas bei konstantem Druck einnimmt, proportional zu seiner Temperatur ist. Dieser Zweig der
Wärmelehre wird heute auch „phänomenologische Thermodynamik“ genannt, weil hierbei lediglich
die gemachten Beobachtungen, also Phänomene, in Formeln festgehalten werden, ohne dass
versucht wird, sie aus anderen Theorien abzuleiten.
Was ist aber nun die Entropie? Zumindest kein sehr anschaulicher Begriff, man muss einen
gedanklichen Umweg machen, um ihn wie zunächst 1862 von Rudolf Clausius eingeführt,
verstehen zu können: Man stelle sich hierzu einen Zylinder nebst Schieber vor, der mit einem Gas
gefüllt ist. Natürlich darf man sich hierbei gerne den Wasserdampf einer Dampfmaschine jener
Tage vorstellen, aber das spielt für die folgenden Betrachtungen keine Rolle.
Der Schieber dient dazu, das Volumen des Zylinders von außen verstellen zu können, bzw. vom
Gas verstellen zu lassen. Man sagt auch, „das Gas arbeitet“. Wird dieser Zylinder, also die
vorgestellte Dampfmaschine, nun befeuert, so tritt offenbar Wärme als Energieform vom Feuer in
den Zylinder über – hält man den Schieber fest, erhitzt sich das Gas. Da aber Lussac schon
beobachtet hat, dass die Temperatur des Gases proportional zum Volumen ist [Lussac 1802],
können wir alternativ auch dafür sorgen, dass das Gas sich ausdehnt, also das Volumen vergrößert
wird, so dass die Temperatur bei diesem Vorgang im Gaszylinder unverändert bleibt. Wie man dies
technisch realisiert, sei hier nicht gesagt, und ist auch nicht wesentlich.
Die Wärmezufuhr führt also zu einer Volumenvergrößerung. Umgekehrt kann man durch
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
Verkleinerung des Volumens, also durch Hineindrücken des Schiebers in den Zylinder dafür
sorgen, dass das Gas in einer kühleren Umgebung unter Abgabe von Wärme seine Temperatur
behält. Offenbar wird hierbei jeweils Energie in das Gas transportiert, und auch wieder aus dem Gas
abgezogen.
Will man diese Apparatur, die übrigens auf Carnot [Carnot 1824] zurückgeht, nun als
Wärmemaschine betreiben, so lässt man zwischen diesen beiden Takten das Gas den Schieber
bewegen, so dass sich die Temperatur – entsprechend dem Gesetz von Lussac – an die
Gegebenheiten der jeweils anderen Umgebung anpasst. Man beobachtet nun, dass die in das System
oder aus dem System fließende Wärmemenge bei ansonsten gleich bleibenden Bedingungen
proportional zur Temperatur ist: Je heißer das Feuer, desto mehr Wärmeenergie geht in das Gas
über. Der Proportionalitätsfaktor, also das Verhältnis von zugeführter Wärme zur der konstant
gehaltenen Temperatur bei der dies geschieht, heißt die Entropie.
Man kann sich nun mit ein klein wenig Rechnerei davon überzeugen, dass diese harmlose
Beziehung weit reichende Konsequenzen hat: So lässt sich etwa immer nur ein Teil der
Wärmemenge in einer derartigen Maschine wirklich dazu benutzen, um den Schieber zu bewegen.
Das Verhältnis von der eingesetzten Wärmemenge, etwa zu definieren über die Höhe des
Holzstapels, mit der man die Maschine befeuert, zu der erzeugten mechanischen Arbeit, also etwa
der Menge Wasser, die eine mit einer Dampfmaschine betriebene Pumpe fördern kann, heißt der
Wirkungsgrad. Und was die obige Rechnung ergibt, ist dass eben dieser Wirkungsgrad stets
kleiner als eins ist – Wärmeenergie kann man anders als viele andere Energieformen immer nur
teilweise umwandeln.
Und da im Grunde genommen auch Ihr Automotor nichts weiter als eine solche Maschine ist, wird
auch nur ein Bruchteil der im Benzin enthaltenen Energie wirklich dazu verwendet, die Karosse
nebst Insassen zu beschleunigen; der Rest vergeht in nutzloser Erwärmung der Umgebung. Der
Wirkungsgrad jedes realen Motors liegt darüber hinaus auch noch deutlich unter dem aus diesen
Überlegungen abgeleiteten maximalen Wirkungsgrad.
Dies ist nun gerade eine Folge des oben zitierten Zweiten Hauptsatzes: Betrachtet man einen
Arbeitszyklus des Motors als ganzes und berechnet die Differenz der Entropie beim Abkühlen
minus der beim Erwärmen des Zylinders, so ist diese Differenz im Falle des idealen Motors von
Carnot gerade Null. In jedem realen Motor ist sie hingegen positiv, die Entropie bei der Abkühlung
ist größer als der bei der Wärmeaufnahme. Die Entropie hat zugenommen, sie kann bestenfalls
gleich bleiben. Also: Der Motor definiert einen Zeitpfeil, die Zeitrichtung wird durch die
zunehmende Entropie definiert.
Diese Feststellung ist, wie schon eingangs bemerkt, letztendlich nichts weiter als ein
Erfahrungssatz: Bislang hat es niemand fertig gebracht, einen andersartigen oder besseren Motor zu
bauen, so dass man die zugrunde liegenden Überlegungen hätte revidieren müssen. Der Hauptsatz
entbehrt in dieser Form jedweder weiterer Begründung und ist, so man mag, die in Formeln
gegossene Erkenntnis der Patentämter, dass jedwede „Erfindungen“ die diesem Satz widersprachen
– man würde diese „Perpetuum Mobile Zweiter Art“ nennen – schlicht nicht funktionierten.

3. Entropie als Informationsmaß
Es gibt neben der obigen phänomenologischen, und leider reichlich abstrakten Definition noch eine
weitere Definition der Entropie, die zunächst nicht viel mit der obigen zu tun zu haben scheint.
Zurück zu meinem Schreibtisch: Da Physiker alles messen wollen, wie lässt sich die darauf
herrschende Unordnung quantifizieren? Zunächst einmal, indem man die Situation vereinfacht und
abstrahiert. Teilen wir also zunächst den Schreibtisch in regelmäßige quadratische Felder auf,
ähnlich einem Schachbrett. Ein Feld kann jetzt entweder besetzt sein, weil etwa ein Buch oder ein
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
Glas auf ihm steht, oder eben frei sein. Ich fasse als nächstes die Felder in Blöcken der Größe 2×2
zusammen. Offenbar gibt es dann die folgenden Möglichkeiten:

wobei hier dunkel für ein freies und hell für ein belegtes Feld steht. Verzählt man sich nicht, so
kommt man hierbei auf insgesamt 16 mögliche Belegungen. Verfügt man über keinerlei Vorwissen
und sind alle 16 Kombinationen gleich häufig, so benötigt man vier ja-nein Fragen, um
herauszufinden, welcher Blocktyp vorliegt: „Ist das Kästchen oben links gelb? Ist das Kästchen
oben rechts gelb? Ist das Kästchen unten links gelb? Ist das Kästchen unten rechts gelb?“
Hingegen kommt man mit weniger Fragen aus, wenn man bestimmte Blocktypen ausschließen
kann, oder wenn nicht alle Typen gleich häufig sind. Machen etwa komplett schwarze und komplett
weiße 2×2 Kästchen die Hälfte (und nicht ein Achtel!) aller Fälle aus, so sieht eine bessere
Fragestrategie so aus, dass man zunächst fragt, ob der Block komplett in einer Farbe gefärbt ist, und
danach fragt man nach der Farbe. Im Mittel braucht man dann weniger Fragen als bei der einfachen
Strategie.
Was hilft diese Erkenntnis jetzt? Mein Schreibtisch ist dann aufgeräumter, wenn es – für gegebene
Anzahl von Büchern, Tassen und sonstigem – mehr Blöcke der ganz linken und mehr Blöcke der
ganz rechten Art gibt, und er ist sehr unordentlich, wenn alle Blocktypen etwa gleich häufig
vorkommen. Er ist also aufgeräumter, wenn ich, optimale Strategie vorausgesetzt, weniger Fragen
pro Block benötige, um die Lage der Bücher, des Geschirrs und des Rests auf ihm herauszufinden.
Diese Zahl – die mittlere Anzahl der Fragen pro Block – geteilt durch die Blockgröße heißt die
„2×2-Block-Entropie“, geschrieben mit dem Formelzeichen H2×2.
Natürlich ist das eine noch recht grobe Approximation der Aufgeräumtheit meines Schreibtisches.
Meine Bücher könnten ja immer noch in Vierergrüppchen auf dem Schreibtisch liegen – das ist
zwar aufgeräumter als vorher, aber immer noch keine wesentliche Verbesserung. Um auch solche
Konfigurationen erkennen zu können, muss man die Blockgröße erhöhen: Man betrachtet also nicht
die 2×2 Block-Entropie, sondern die n×n-Block-Entropie Hn×n, indem man sich zunächst eine Liste
aller möglicher n×n Block-Konfigurationen anfertigt und danach wieder die mittlere Anzahl der Ja-
Nein Fragen ermittelt, die man benötigt, um den Schreibtischzustand zu ermitteln. Für sehr große n
– und, dementsprechend für sehr große Schreibtische – ist dies die informationstheoretische
Definition der Entropie. Sie ist ein Maß für die Information, bzw. die Unordnung des betrachteten
Systems. Ebenso wie die Temperatur als ein Mittelwert über die Gasgeschwindigkeit, ist auch die
Entropie als ein Mittelwert über das Gesamtsystem definiert, allerdings ist die zugrunde liegende
Größe – die mittlere Anzahl der Fragen – nicht sonderlich anschaulich.
Diese Definition der Entropie ist wesentlich jünger. Die informationstheoretische Definition geht
auf Shannon zurück [Shannon 1948], wobei eine wesentliche Triebfeder für die Entstehung der
Informationstheorie der (geglückte) Versuch der Entschlüsselung deutscher U-Boot Codes war.
Die Beobachtungstatsache, dass Schreibtische bei mangelnder Disziplin des Eigentümers zu
Unaufgeräumtheit neigen, lässt sich nun mit Hilfe der Informationstheorie so formulieren: Die
Block-Entropie (von Schreibtischen) steigt mit der Zeit an. Oder: Auch die durch die Entropie
quantifizierte Ordnung eines Schreibtisches zeichnet eine Zeitrichtung aus.
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
4. Boltzmann, Loschmidt und das Wesen der Entropie
Damit sind also zwei Definitionen der Entropie gegeben: Einerseits als Proportionalitätsfaktor
zwischen Wärme und Temperatur bei der Ausdehnung eines idealen Gases bei konstanter
Temperatur, und andererseits als durchschnittliche Anzahl der Fragen, um Blockmuster zu
identifizieren. Die „erste Sorte“ von Entropie ist diejenige, die ich anwende, um das Verhalten von
thermodynamischen Systemen zu beschreiben, also beispielsweise das Abkühlen meiner
Kaffeetasse als Übertritt von Wärme von der Tasse in die Umgebung. Die „zweite Sorte“ ist
diejenige, die ich verwenden kann, um die Unordnung auf meinem Schreibtisch zu definieren. Es ist
nun ein interessantes Stück Wissenschaftsgeschichte, dass diese beiden Definitionen in der Tat
zusammenfallen: Die Entropie meiner Kaffeetasse ist nichts weiter als ein Maß der Unordnung des
Kaffees darin! Oder anders, der Grund weswegen mein Kaffee kalt wird ist derselbe, weswegen
mein Schreibtisch so unordentlich ist – zumindest auf einer genügend abstrakten Ebene. Die Ehre,
diesen Zusammenhang verstanden zu haben, gebührt Ludwig Boltzmann [Boltzmann 1876,1877].
Aber auch hierzu muss man etwas ausholen.
Um 1870 hatte er aufbauend auf den Arbeiten von Maxwell die Idee, die phänomenologischen
Eigenschaften von Gasen als statistische Aussagen über Systeme aus einer Vielzahl identischer
Teilchen zu beschreiben [Boltzmann 1876,1877]. Würde man sich etwa vorstellen, dass ein Gas aus
einer Vielzahl gleichartiger Teilchen – heute würde man Atome oder Moleküle sagen – so ließe sich
gemäß der Arbeiten von Maxwell die Temperatur des Gases in Relation zu der mittleren
Geschwindigkeit der Teilchen setzen. Ersteres, die Temperatur, ist eine messbare Größe unserer
Erfahrungswelt; die mittlere Geschwindigkeit von Gasatomen ist hingegen ungleich schwerer zu
bestimmen und, wie man sagt, eine mikroskopische Eigenschaft des Gases.
Aus heutiger Sicht erscheint diese Herangehensweise, also durch mikroskopische Beschreibung der
Moleküle makroskopische Eigenschaften berechnen zu wollen, fast selbstverständlich. Es gibt
genügend Evidenz, um die Existenz von Atomen als gesichert anzunehmen, und insofern liegt eine
Beschreibung von Gasen auf dieser, der atomaren Ebene nahe. Man muss aber dazu anmerken, dass
zur Zeit Boltzmanns die Existenz von Atomen keineswegs anerkannt, sondern lediglich eine
unbewiesene Hypothese war. Atome waren eher gedankliche Konstrukte als Objekte der
Naturwissenschaft, und ihre Existenz als physikalische Objekte war reine Spekulation. Natürlich
waren Maxwell und Boltzmann Atomisten, vertraten also die These, Atome seien wirkliche
physikalische Objekte.
Boltzmann konnte nun zeigen, dass unter einer plausibel erscheinenden Annahme über die Statistik
der Stöße der (angenommenen) Atome eines Gases ein Ausdruck mit dem Formelzeichen H, der der
oben definierten Block-Entropie entspricht, zeitlich immer zunehmen oder zumindest konstant
bleiben muss. Dies ist der Inhalt des „H-Theorems“ von Boltzmann [Boltzmann 1876,1877]. In
unserem Falle bedeutet es:

          Die Block-Entropie H ist proportional zur phänomenologischen Entropie S

Boltzmann identifizierte also als erster den Ausdruck H (= mittlere Anzahl Fragen) als proportional
zur Entropie S, die rein phänomenologisch wie im zweiten Abschnitt definiert wird. Der Faktor
zwischen der statistischen Größe H, definiert als Eigenschaft der Teilchenstatistik, und der Größe S
als phänomenologische Größe heißt heute zu Ehren Boltzmanns die Boltzmann-Konstante. Erst
dadurch rechtfertigt sich im Nachhinein die Namensgebung „Entropie“ für die Größe H im
vorherigen Abschnitt.

5. Der Umkehreinwand
Denkt man sich ein Gas zusammengesetzt aus einer Vielzahl von Atomen, die sich gemäß den
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
Regeln der Mechanik bewegen, so ergibt sich aus der atomistischen Betrachtungsweise von
Boltzmann und Maxwell allerdings ein schwerwiegendes Problem: Während die Entropie ganz klar
eine Zeitrichtung auszeichnet, sie nimmt nämlich mit der Zeit nur zu, trifft dies für die Mechanik,
die zur Herleitung des H-Theorems und zur mikroskopischen Beschreibung des Gases verwendet
wird, eben nicht zu: Würde man die Bewegung der Atome auf Film aufzeichnen können, und würde
man diesen Film rückwärts abspielen, so wäre die hierbei beobachtete Bewegung ebenso im
Einklang mit der klassischen Mechanik; ganz genau wie ein geworfener Ball auch in umgekehrter
Zeitrichtung eine physikalisch mögliche Bewegung beschreibt. Offenbar scheinen sich hier also
Thermodynamik und Mechanik in einem Widerspruch zu befinden: Die Existenz einer die
Zeitrichtung auszeichnenden Größe H ist innerhalb der Mechanik nicht möglich, da diese zu
Grunde liegenden Gesetze alle keine Zeitrichtung auszeichnen.
Diesen Widerspruch formulierte 1876 als erster Johann Loschmidt [Loschmidt 1876], und folgerte,
dass die von Boltzmann gemachte Annahme über die Statistik der Stöße von Gasatomen falsch sein
müsse, und die Idee, Gase auf atomarer Ebene beschreiben zu wollen, nicht tragfähig sei.
Boltzmanns Theorie fand aufgrund dieses Widerspruches Zeit seines Lebens keine große
Anerkennung, und Boltzmann litt sehr unter den Anfeindungen seiner wissenschaftlichen Kollegen.
Zumindest über die Existenz von Atomen besteht heute kein Zweifel mehr, und auch wenn wir sie
eigentlich mit der Quantenmechanik beschreiben müssten, so bleibt der eigentliche Widerspruch
bestehen. Auch in der Quantenmechanik lassen sich Lösungen der Vorwärtsrichtung in solche in
Rückwärtsrichtung überführen, und die Existenz einer Größe H, die einen Zeitpfeil auszeichnet, ist
auch nicht aus der Quantenmechanik ableitbar.

6. Ein virtuelles Experiment
Um die Absurdität von Boltzmanns H-Theorem zu unterstreichen, schlug Lohschmidt das folgende
Gedankenexperiment vor: Man stelle sich ein Gas vor, welches sich frei innerhalb eines
geschlossenen Containers ausdehnt. Da dies ein physikalisch möglicher Prozess ist, muss gemäß
dem zweiten Hauptsatz hierbei die Entropie zunehmen. Besteht nun das Gas aus Atomen, die sich
den Newtonschen Gesetzen der Mechanik folgend bewegen, so entsteht ein ebenso physikalisch
möglicher Prozess dadurch, dass wir die Bewegungen2 aller Atome innerhalb des Gases umkehren.
Da sich nun jedes Gasatom auf seiner Bahnkurve rückwärts bewegt, muss sich zwangsläufig das
Gas in seine Ausgangsposition zurück bewegen und die Entropie abnehmen. Dieser Prozess – ein
Gas zieht sich von selbst in eine Ecke des Raumes zurück – ist nicht nur unplausibel, sondern
widerspricht auch dem zweiten Hauptsatz.
 Obwohl wir heute immer noch nicht die technischen Möglichkeiten haben, dieses Experiment in
der Realität durchzuführen, so lässt es sich trotz alledem doch auf dem Computer simulieren
[Toffoli, Margolus 1987]: Wie schon oben bei der Berechnung der Schreibtischentropie müssen wir
einige recht krude Vereinfachungen machen: Zunächst einmal besteht der Raum, innerhalb derer
sich das Gas bewegen kann, aus quadratischen Zellen. In jeder Zelle kann sich maximal ein
Gasatom befinden. Wie schon oben zeichnen wir gefüllte Zellen als hell und leere Zellen in
schwarz. Ferner gibt es in der Simulation noch graue Zellen, die die Gefäßwand darstellen und
unbeweglich sind.
Die Bewegung der hellen Gasatome entspricht nun der klassischen Mechanik, wobei sich in der hier
gemachten Vereinfachung die Atome nur in Diagonalrichtung bewegen können. Alle anderen
Richtungen sind nicht möglich. Abgesehen davon unterliegen die Gasatome Stößen zwischen ihnen
und der Gefäßwand, die den Regeln der Mechanik folgen3.

2
 Genauer: Man invertiere die Geschwindigkeiten aller Atome, wodurch die rückwärtige Bewegung entsteht.
3
 Die hier verwendete Regel zur Beschreibung der Stöße der Gas-Atome untereinander ist kein zentraler Stoß, sondern
ein schräger Stoß. Nichtsdestotrotz erhält er Energie und Impuls, folgt somit den Gesetzen der klassischen Mechanik.
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
In der nebenstehenden Graphik sind die elementaren
Bewegungsmuster dieses sog. „Gittergases“ angegeben [Hardy,
Pomeau, de Payssis 1976] entsprechend rotierte und gespiegelte
Versionen der Spielregeln gelten natürlich ebenso. Um nun den
Widerspruch zum Zweiten Hauptsatz nachvollziehen zu können,
möchte ich von diesem Gas auch die Entropie messen. Hierzu
bediene ich mich der Definition der Entropie über die
Blockstatistik, wie sie im dritten Abschnitt eingeführt wurde. Der
Computer übernimmt dabei die Aufgabe, die mittlere Anzahl der
Fragen zu bestimmen, die bei optimaler Strategie die Platzierung
der Atome im Raum ermittelt.
Als Anfangskonfiguration wähle ich wie schon oben eine Konfiguration, bei der das Gas in einer
Ecke des Containers platziert wird.
Die erste Bildserie zeigt die anfängliche Konfiguration des Gases, rechts oben konzentriert in einer
Region des roten Containers. Das Bild rechts daneben zeigt das Gas nach einer kurzen Weile mit
dem Graphen der Entropie im Vordergrund.

Die Startkonfiguration.   Atome   sind   hellgrau,   die Das Gas nach ca. 250 Zeitschritten. Oben links im Bild die
Gefäßwand dunkelgrau.                                    Entropie als Funktion der Zeit.

Die im Gas zu sehenden Muster sind dadurch bedingt, dass die Bewegungsrichtungen der Gasatome
auf die Diagonalen eingeschränkt sind; diese Muster verschwinden nach einiger Zeit. Die Entropie
nimmt tendenziell zu, zeigt aber einige kleine Einbrüche. Lässt man die Simulation nun
weiterlaufen, so verteilt sich das Gas gleichmäßig im Container und die Entropie nimmt weiter zu.
Bis zu diesem Schritt stimmen die Beobachtungen mit den Aussagen des H-Theorems überein.
Im nächsten Schritt werden die Geschwindigkeiten aller Gasatome invertiert, somit die Bewegung
umgekehrt, und die Simulation erneut gestartet. Ganz nach den Vorhersagen von Loschmidt kehren
die Gasatome in der Tat in die Ausgangskonfiguration zurück, und die Entropie nimmt ab. Dies ist
im rechten Bild der nächsten Bilderserie zu erkennen. Da sich die Atome exakt in der umgekehrten
Richtung bewegen, verläuft die Entropie auch von diesem Punkt an genau spiegelbildlich zur ersten
Hälfte des Experimentes, nimmt ein Minimum bei der Startkonfiguration an und nimmt dann
wieder zu. Das letzte Bild ist kurz nach dem Erreichen der ursprünglichen Konfiguration
aufgenommen und zeigt das Gas wieder in einem geordneteren Zustand.
Das ist ganz offensichtlich physikalisch unmöglich! Würde man stattdessen entsprechend des
einleitenden Gedankenexperimentes die Flugbahn eines Balles aufzeichnen und diese rückwärts
abspielen, so wäre der rückwärtige Bewegungsablauf hingegen sehr wohl möglich, und niemand
würde unterscheiden können, ob der Film nun gerade vorwärts oder rückwärts läuft.
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
Das Gas nach vielen weiteren Zeitschritten. Die Entropie   Nach Umkehrung der Geschwindingkeiten läuft das Gas
                hat weiter zugenommen.                      zurück in die Startkonfiguration. Die Entropie nimmt ab.

Innerhalb des virtuellen Experimentes hingegen ist in der Tat eine Umkehr der Bewegungsrichtung
und damit eine Verringerung der Entropie möglich.
Was ist also am H-Theorem falsch? Sicherlich kann man in realen Experimenten anders als in
einem Computerexperiment nicht die Geschwindigkeiten aller Gasatome umkehren, aber die
entsprechende Konfiguration der Atome, die zu einem Zurücklaufen in den Anfangszustand führt,
ist zumindest möglich und somit nicht von vorn herein auszuschließen, und der dabei ablaufende
Prozess steht nicht im Widerspruch zur Mechanik. Trotzdem halten wir den einen Vorgang für
realistisch – der rückwärts fliegende Ball – und den anderen für absurd.

7. Die Explosion der Möglichkeiten, und die Drei Fragen
Obwohl also das Zurücklaufen der Gasatome in den Ursprungszustand einer physikalisch
möglichen Bewegung entspricht, und somit nicht auszuschließen ist, ist es dennoch in der Realität
nicht zu beobachten. Woher kommt also die Ausrichtung des Zeitpfeils?
Um dieses Rätsel zu lösen, bedarf es eines
weiteren Experimentes: Stellen wir also
zunächst einmal wieder die Orte und
Geschwindigkeiten der Atome wieder her,
die zu einem Zurücklaufen in den
Ausgangszustand führt, jedoch stören wir
ein einzelnes Atom hierbei ein klein wenig
und bewegen es ein winziges Stück
beiseite: Wird die Simulation nun erneut
gestartet, so geschieht... nichts!
Kein Zurücklaufen ist zu beobachten, das
Gas bleibt durchmischt im Container, und
die Entropie steigt weiter an wie vom
Zweiten Hauptsatz vorhergesagt. Was ist
also passiert? Offenbar bedarf es für den
zeitlich umgekehrten Vorgang einer sehr
                                          Nach dem Zurückstellen auf die chaotische Ausgangsposition
genau definierten Gaskonfiguration, und wurde   ein einzelnes Atom um einen Pixel beiseite bewegt und
selbst die kleinste Abweichung – das       wiederum die Simulation in Rückwärtsrichtung gestartet.
Deplatzieren eines einzelnen Atoms ist
hinreichend – zerstört den Effekt.
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
Um zu verstehen, woher diese Empfindlichkeit der Anfangsbedingungen kommt, stelle man sich
den Weg dieses gestörten Atoms nach Umkehr aller Geschwindigkeiten vor: Auf seinem Weg
zurück in die ursprüngliche Konfiguration ist das ungestörte Atom mit vielen weiteren
zusammengestoßen, und hatte hierdurch für seine Stoßpartner genau die Bahnen erzeugt, die nötig
waren, um die Atome korrekt in ihre Ausgangsposition zu führen. Und diese Stoßpartner wiederum
sind mit weiteren Atomen kollidiert, und haben diese wiederum auf die korrekte Bahnkurve
gelenkt. Durch das Verschieben des Atoms hingegen finden diese Stöße nicht mehr korrekt statt,
und da nun die Stoßpartner nicht mehr entlang der für das Zurückkehren notwendigen Bahnen
fliegen, stoßen auch diese nicht mehr mit den zugehörigen Partnern zusammen und lenken diese
wiederum auf die korrekte Bahn.

Frage 1: Was ist aber an der Ausgangsposition so besonders, dass diese durch das Verschieben
eines Atoms derart gestört werden kann?
Die Antwort mag verblüffen: Nichts!
Genau das gleiche Experiment hätten wir mit einer beliebigen anderen Ausgangskonfiguration
durchführen können, sogar mit einer augenscheinlich völlig chaotischen. Stellt man eine solche
Startkonfiguration her, lässt die Atome vorwärts laufen, verrückt danach ein Atom und kehrt die
Geschwindigkeiten um, so stellt sich auch hier wieder die Ausgangskonfiguration nicht wieder her.
Der einzige Unterschied zwischen diesem und dem vorherigen Experiment ist der, dass bei einer
beliebigen Startkonfiguration nicht zu erwarten ist, dass sich die Entropie weiter erhöht, das System
ist schon recht gut durchmischt und die Entropie steigt dann nicht viel weiter.
Der einzige Grund, weswegen die
Entropie also bei der gegebenen
Anfangsbedingung ansteigt ist der,
dass die überwiegende Zahl der
Anordnungen der Gasatome eine
sehr große Entropie aufweist,                 Ausgangs-                Physikalische
wohingegen die aufgeräumten,                  konfigurationen          Gesetze
besonderen Zustände mit kleiner
Entropie in einer Minderheit sind.
Die Bewegungsgleichungen der
Gase sind also nicht einer
spukhaften Wirkung ausgesetzt,                                                      Zielkonfi-
die die Entropie ansteigen lässt –                                                  gurationen
hat die Ausgangsbedingung aber
eine niedrige Entropie, so läuft das   Die Ausgangskonfigurationen entwickeln sich immer gemäß den
System      nur    aufgrund      der   identischen Gesetzen der Physik zu den Endkonfigurationen. Für das
Überzahl der Zustände mit hoher        hier betrachtete System genügt aber eine minimale Störung der
Entropie in diese hinein.              Startkonfiguration, um die Zielkonfiguration grundlegend zu ändern.
                                       Diese Empfindlichkeit gegenüber Störungen gilt für alle
                                       Ausgangsbedingungen gleichermaßen.

Übertragen auf das Schreibtischbeispiel kann man also sagen, dass mein Schreibtisch deshalb
immer chaotischer wird, weil es nur eine einzige Anordnung der Bücher gibt, bei dem er
aufgeräumt ist, aber sehr viel mehr Anordnungen, bei denen er unaufgeräumt ist. Sortiere ich die
Bücher nun auf ihm um, ohne dass ich mir dabei konkret vornehme, ihn aufzuräumen, so entstehen
dabei zwangsläufig unordentlichere Anordnungen als vorher.
Frage 2: Kann man aus dieser Überzahl folgern, dass es mehr Zustände gibt, in deren zeitlichen
Verlauf die Entropie zunimmt, als es Zustände gibt, bei denen sie abnimmt?
Nein, es gibt exakt genauso viele Zustände, die zu einer Entropieverringerung gehören, wie die,
die zu einem Entropieanstieg gehören. Das liegt einfach daran, dass zu jeder „normalen“
Konfiguration eine rückwärts laufende gehört, die man einfach durch Umkehr der
Geschwindigkeiten erreicht. Da man eine in die andere spiegeln kann, muss es in der Gesamtmenge
exakt genauso viele von jeder Sorte geben.

                    Entropie

                                                                         Physikalische Bewegung

    Die überwiegende Zahl der Zustände hat hohe Entropie, die sich im Verlauf der physikalischen Bewegung nur
   noch geringfügig ändert (obere Kreise, waagerechte Pfeile). Nur eine Minderheit von Konfigurationen hat kleine
      Entropie, die sich aufgrund der Überzahl der Zustände mit großer Entropie vergrößert (Kreis unten links).
      Rückwärts laufende Konfigurationen sind dabei genauso häufig wie vorwärts laufende, nämlich genau die
    Zielpunkte der physikalischen Bewegung von Startzuständen kleiner Entropie, innerhalb der Gesamtmenge der
     Zustände großer Entropie aber in einer Minderheit. Die Entropie der meisten Zustände bleibt konstant hoch.

Es ist nur richtig, dass in der Menge der Konfigurationen niedriger Entropie die Zustände in der
Mehrheit sind, deren Entropie bei längerer Beobachtung zunehmen wird. Das liegt aber an der
Antwort der ersten Frage.

Frage 3: Wenn die Entropie immer weiter zunimmt, wird sie dann nicht irgendwann maximal und
ändert sich dann nicht mehr?
Leider ist auch das falsch. In meiner beschränkten Kästchenwelt der Gittergase muss ich nur lange
genug warten, bis der Anfangszustand wieder hergestellt ist und die Entropie von alleine wieder
absinkt. Auch das klingt für einen unvoreingenommenen Leser absurd, und tat es noch viel mehr für
die Zeitgenossen Boltzmanns, die dieses Paradoxon auch entdeckten [Poincaré 1890, Zermelo
1896].
Diese Wiederkehr in den Ausgangszustand entsteht dadurch, dass es nur eine endliche Anzahl von
Konfigurationen gibt. Am besten überlegt man sich dies in einer kleineren Welt: Nehmen wir an,
der Bildschirm hätte nur eine Breite und Höhe von vier Kästchen. Da ich jedes Feld nur schwarz,
grau oder hell färben kann, gibt es „nur“ 34×4=43046721 also ca. vier Millionen Möglichkeiten,
diese Welt einzufärben. Zu jedem Zustand gehört aber eindeutig ein Nachfolger, der bei
Vorwärtsbewegung entsteht, und ein eindeutiger Vorgänger, aus dem sich der Zustand entwickelte.
Letzteres gilt, weil man ja die Zeitrichtung umkehren kann. Nach maximal vier Millionen
Zeitschritten sind aber alle Konfigurationen schon einmal aufgetaucht, es muss sich also eine
Anordnung von Atomen ergeben, die bereits einmal beobachtet worden ist.
Für den ersten doppelt auftretenden Zustand gibt es aber auch einen eindeutigen Vorgänger, der
aber bislang nur einmal aufgetaucht ist. Dies bedeutet aber, dass unser augenblicklicher Zustand, als
er das erste Mal auf dem Schirm zu beobachten war, noch gar keinen Vorgänger hatte, aus dem er
sich entwickelte. Und es gibt nur einen solchen Zustand, nämlich die Ausgangskonfiguration (siehe
Kasten).
Übertragen auf mein Schreibtischbeispiel: Die Konsequenz von Boltzmanns Idee ist, dass wenn ich
nur lange genug warte, mein Schreibtisch sich von selbst wieder aufräumen wird!
Wenn Sie das jetzt als Begründung dafür verwenden wollen, nie mehr aufräumen zu müssen:
Vergessen Sie's! Schon in der minimalen Welt von nur vier Kästchen Breite und Höhe muss man
vier Millionen Zeitschritte warten. Mit unserer Kästchenwelt in der Gassimulation berechne ich für
die Anzahl der notwendigen Schritte eine Zahl mit zehntausend Stellen bevor das passiert. Solche
Zahlen haben noch nicht mal einen Namen - da ist vorher nicht nur der Schreibtisch und Computer
hinüber, sondern auch sein Eigentümer und der Rest des Universums. Geschweige denn, wie lange
ich bei einem realen Schreibtisch mit unweit mehr Stellmöglichkeiten für Bücher warten müsste!

                                            ?

        Ein System mit nur sieben Zuständen (Kreise). Der Nachfolger des letzten Zustandes (unten links)
       muss offenbar einer der bereits vorhandenen Zustände sein. Allerdings hat fast jeder der vorhandenen
          Zustände bereits einen eindeutigen Vorgänger, kann also nicht diesen Kreis noch als zweiten
           Vorgänger haben. Die einzige Ausnahme ist der Anfangszustand (oben links), der somit der
        Nachfolger vom letzten Zustand sein muss. Damit muss sich das Verhalten des Systems ab diesem
                                              Zustand wiederholen.
Dieses Paradoxon heißt übrigens der Wiederkehreinwand, und war historisch zunächst von
Poincaré und Zermelo [Poincaré 1890, Zermelo 1896] zur Demonstration der Unsinnigkeit von
Boltzmanns Programm vorgebracht worden. Seine Auflösung besteht darin, dass die notwendige
Wartezeit, wie eben oben schon abgeschätzt, sehr sehr groß ist, insbesondere ist sie viel größer als
die bisherige (angenommene) Lebenszeit des Universums.

8. Das Leben, das Universum und der ganze Rest
Identifiziert man also die Richtung des Zeitpfeils mit der Richtung der ansteigenden Entropie, so
kann der einzige Grund dafür, dass wir die Entropie bei allen Experimenten als ansteigend messen
der sein, dass ebenso wie beim Gittergas der Anfangszustand eine besonders niedrige Entropie
haben musste. Eine weitere Begründung etwa durch ein noch unbekanntes Naturgesetz gibt es nicht,
und der Zweite Hauptsatz ist „nur“ eine mathematische Formulierung dieser Erkenntnis. Nach dem
heute allgemein akzeptierten Standardmodell der Kosmologie wurde genau ein solcher Zustand mit
dem Urknall des Universums erzeugt, d.h. ein Anfangszustand niedriger Entropie ist die
Startkonfiguration des Universums.
Allerdings, wenn sich wie vom Zweiten Hauptsatz die Entropie immer nur weiter erhöhen könnte,
wie ist es möglich, dass offenbar doch sehr wohlgeordnete Zustände niedriger Entropie möglich
sind? Oder, weitaus prosaischer, wie kann ich entgegen dem Zweiten Hauptsatz meinen
Schreibtisch trotzdem aufräumen? Im Sinne des Zweiten Hauptsatzes „Überlässt man die Dinge
sich selbst, wird’s nur chaotischer“ scheinen wohlgeortnete Strukturen kaum möglich.
Es gibt jedoch Systeme, bei denen ein Abfall, und nicht ein Anstieg der Entropie beobachtet wird.
Warum dies nicht im Widerspruch zum Zweiten Hauptsatz ist, möchte ich im Folgenden darstellen.
Auch hierzu werde ich mich wieder einer
Computersimulation bedienen, hier des so genannten
„zweidimensionalen Ising-Modelles“ [Ising 1925]. Es
beschreibt in einer ebenso kruden Abstraktion das
Verhalten von magnetischen Materialien wie Eisen,
Nickel und Kobalt wie das Gittergas reale Gase
beschrieb.                                                    Ein magnetisches Material besteht aus
Das entscheidende Phänomen ist hier, dass die oben        Elementarmagneten, die sich in einem äußeren
                                                            Feld ausrichten können. Im Ising-Modell,
erwähnten Materialien innerhalb eines Magnetfeldes       welches nur eine dünne Scheibe aus diesem drei-
selbst magnetisch werden und dann in Abwesenheit          dimensionalen Quader beschreibt, können die
eines äußeren Magneten auch bleiben. Das von Erst        Elementarmagnete allerdings anders als hier nur
Ising in seiner Doktorarbeit erdachte Modell                       in zwei Richtungen zeigen.
reproduziert genau dieses Verhalten [Ising 1925].
Gemäß seines Modells besteht ein magnetisches Material aus einzelnen Elementarmagneten – auch
Spins genannt, die sich in einem Magnetfeld ausrichten können. Der Clou hierbei ist, dass diese
Elementarmagneten natürlich selbst auch ein Magnetfeld erzeugen, mit dem sie auf ihre Nachbarn
einwirken. Man möge sich etwa vorstellen, dass zwischen benachbarten Spins eine Feder befestigt
ist, welche dann gespannt wird, wenn die Nachbarn unterschiedliche Ausrichtungen besitzen, und
die entspannt ist, falls die Nachbarn in die gleiche Richtung zeigen.
Ähnlich wie schon oben im Gas-Modell besteht auch diese Welt
wieder aus quadratischen Gitterzellen, die hell oder dunkel eingefärbt Nordpol           Nordpol
werden, wobei hier allerdings die Farbe die Ausrichtung des Spins
codiert. Ebenso wie schon im Gasmodell verwendet Ising eine
Vereinfachung und lässt nur zwei Spinausrichtungen zu, hell für
einen Spin, dessen Nordpol „nach unten“ zeigt, und dunkel für die
                                                                              Entspannte
umgekehrte Orientierung. Die Elementarmagnete zeigen hier also                  Feder
entweder auf den Betrachter, oder von ihm weg, man schaut also Südpol                    Südpol
gewissermaßen „von vorne“ auf den oben abgebildeten Magneten.
                                                                        Nordpol              Südpol
In einem zweidimensionalen Modell hat ein Spin natürlich nicht nur
einen Nachbarn wie oben im Bild, sondern deren vier: Jeweils ein
Elementarmagnet zur Linken, Rechten, und ein weiteres Paar oben
und unten, siehe das Bild am Ende der Seite. Zweidimensional
deswegen, weil ich gewissermaßen nur einen dünnen Schnitt durch    Gespannte
den oben auf der Seite abgebildeten Magneten betrachte. Die Südpol Feder     Nordpol
Abbildung unten entspricht also der Sicht auf eine Schicht des
Magneten oben von der Seite.
Die Regeln, nach denen sich die Spins bewegen, sind auch nicht die des
Gasmodells, da sich die Spins nur um die eigene Achse drehen, aber nicht
von der Stelle bewegen können. Stattdessen versuchen die Spins sich derart
zu drehen, dass die Federn möglichst entspannt sind. Genauer, ein Spin
kann umklappen wenn er entweder dadurch die Summe der Federspannung
der vier ihn haltenden Federn verringern kann, oder aber wenn er sich die
zum Umklappen notwendige Energie aus der Umgebung ausborgen kann.
Dieses Borgen von Energie funktioniert allerdings nur mit einer von der
Temperatur abhängigen Wahrscheinlichkeit, d.h. hängt davon ab, wie sehr
man das Material erwärmt. Man kann auch sagen: Durch die äußere
Erwärmung werden die Elementarmagnete etwas geschüttelt, und mit einer Ein Elementarmagnet und
gewissen Wahrscheinlichkeit kippen sie dann von selbst auch gelegentlich seine vier Nachbarn.
entgegen der üblichen Regel. Bei hoher Temperatur geschieht dies öfter als
bei niedriger Temperatur, und bei der Temperatur T = 0 überhaupt nicht.
Die Entropie messe ich hingegen wieder als die Block-Entropie, wie wir sie schon beim Gas kennen
gelernt haben: Sie ist ein Maß für die Ordnung des Systems und misst die Verteilung der
Spinmuster: Solche Anordnungen, die bestimmte Blockkonfigurationen bevorzugt, haben eine
niedrigere Entropie, und solche, bei denen die Spins gut durchmischt sowohl nach oben als auch
nach unten zeigen, haben eine hohe Entropie.
Ich wähle diesmal als Ausgangskonfiguration für das Experiment eine vollkommen zufällige
Ausrichtung der Spins, d.h. etwa die Hälfte von ihnen wird nach oben und die andere Hälfte nach
unten zeigen. Damit ist die Entropie maximal, und es ergibt sich somit eine Anordnung der Spins
wie im linken Bild auf dieser Seite: Man sieht hier von oben auf eine zweidimensionale Schicht von
Elementarmagneten, und jeder Spin wird durch ein einziges Pixel des Bildschirms repräsentiert, das
entweder gelb, also Südpol zeigt auf den Betrachter, oder schwarz ist; dann zeigt der Nordpol auf
den Betrachter. Lässt man dieses Modell nun eine Weile laufen und misst die Entropie, so ergibt
sich das Bild rechts daneben:
Die chaotische Ausrichtung der Elementarmagnete ist einer regelmäßigeren Anordnung gewichen,
in der sich Gruppen oder Inseln von Spins gleicher Ausrichtung gebildet haben. Entsprechende
Gebiete in realen Ferromagnetika hatte auch Pierre-Ernest Weiss schon um die Jahrhundertwende
entdeckt[Weiss 1907], nach ihm werden sie „Weisssche Bezirke“ genannt.
Interessant ist nun der Verlauf der Entropie, zu erkennen im vorderen Fenster des Bildes: Anstatt
zuzunehmen, nimmt die Entropie hier ab, entsprechend der im System spontan zunehmenden
Ordnung.

   Die Startkonfiguration des Experimentes: Die Spins   Der Ferromagnet nach einiger Zeit: Weisssche Bezirke
             zeigen in zufällige Richtungen                             haben sich gebildet

Ist dies nun ein Widerspruch zum Zweiten Hauptsatz und hat sich der Zeitpfeil hier umgekehrt?
Hierzu muss man sich vergegenwärtigen, dass dieses Modell keineswegs von seiner Umgebung
unabhängig existiert: Klappt ein Spin um, und werden die vier Federn, mit denen er mit seinen
Nachbarn in Wechselwirkung steht, entspannt, so fließt die hierbei frei werdende Energie in die
Umgebung ab. Wird umgekehrt durch die Einwirkung der Wärme ein Spin zufällig gekippt und
werden dabei die Federn gespannt, so entstammt die Energie hierzu ebenso der Umgebung. Das
Modell ist also inhärent so definiert, dass es in Wechselwirkung mit seiner Umgebung steht.
Obwohl also die Entropie des Modellsystems abnimmt,
wird die Entropie des Gesamtsystems hingegen
zunehmen.
Auch dieser Effekt lässt sich in der Simulation
nachweisen, indem ich das Modell ein klein wenig
ändere und den Austausch mit der Umgebung
unterbinde: Elementarmagnete können in diesem
geänderten System nur noch dann umklappen, wenn sie
dabei weder Energie an die Umgebung abgeben, noch
von ihr aufnehmen können. Das Resultat dieser
Änderung findet sich im nebenstehenden Bild: Das
anfangs chaotische System bleibt in seinem Zustand,
und der Graph der Entropie wird zu einer kaum noch
erkennbaren geraden Linie am oberen Rand der                         Das Verhalten des modifizierten Modelles: Die
Messkurve. Kein Wunder! Die Entropie ist in diesem                             Entropie bleibt maximal
Zustand maximal und kann sich nicht weiter verändern.
Sind Systeme also nicht von ihrer Umwelt isoliert, so können sie aufgrund eines Austausches von
Entropie mit dieser Umwelt durchaus lokal ihre Entropie verringern4.
Warum kann ich also meinen Schreibtisch entgegen den Regeln der Thermodynamik doch
aufräumen und die Entropie dort verringern? Weil ich die Entropie in meiner Umgebung erhöhe,
etwa indem ich eine Kleinigkeit esse. Wie konnte aber auf der Erde mein Mittagessen
heranwachsen und eine Entropiesenke für meinen Magen bereitstellen? Auch indem es auch die
Entropie in der Umgebung absenkte. In gewisser Weise ähnelt unser Planet der Dampfmaschine aus
dem ersten Kapitel: Sie wird auf der einen Seite von der Sonne geheizt, und auf der anderen Seite
vom Weltraum gekühlt. Insbesondere ist sie also kein isoliertes System, sondern steht mit der
Sonne und dem Weltall in Wechselwirkung und kann aus diesem Grunde lokal die Entropie
verringern, indem im Gesamtsystem Sonne-Erde-Weltall die Entropie erhöht wird. Will man also
den Zeitpfeil mit der Richtung zunehmender Entropie identifizieren, so ist es notwendig, sich auf
abgeschlossene Systeme zu beschränken, und da die Erde selbst keines ist, muss man das System,
innerhalb derer sie sich befindet, betrachten. Und das ist das Weltall als ganzes, in dem die Entropie
zunimmt. Und das kann sie nach den oben gemachten Betrachtungen nur dann, wenn sie am Anfang
klein war.

9. Zusammenfassung: Der thermodynamische Zeitpfeil
Stellt man die Physik als ein Gedankengebäude dar, dessen Fundament durch die klassische
Mechanik gebildet wird, so ist auf diesem untersten Niveau keinerlei Ausrichtung einer
Zeitrichtung vorhanden: Ein entsprechend rückwärts ablaufender Prozess ist physikalisch genauso
möglich wie der vorwärts gerichtete. Auf einer höheren Ebene hingegen, nämlich der der
Thermodynamik, ist es nicht mehr sinnvoll, über einzelne Teilchen zu sprechen. Ein Gasvolumen
eines Quaders der Kantenlänge von einem Zentimeter enthält immerhin 1023 Atome, deren
Bewegungen man unmöglich einzeln beschreiben wollte. Stattdessen muss man sich mit Aussagen
über Mittelwerte begnügen, womit man zu Größen wie der Temperatur als ein Maß für die mittlere
Geschwindigkeit der Atome gelangt. Ein weiteres solches Maß ist die Entropie als mittlere
4
 Man beachte: Natürlich ist es eine inhärente Eigenschaft des zuoberst definierten Ising-Modells, die Entropie
abzusenken. Will man aber versuchen, dieses System als ein isoliertes thermodynamisches System zu verstehen, so
bemerkt man, dass der 1. Hauptsatz, also Energieerhaltung dann nicht erfüllt ist. Man muss hierzu ein äußeres System
ankoppeln, nämlich ein Wärmebad, welches dann die Energie aufnimmt oder abgibt. Selbstorganisation benötigt einen
Energieaustausch, und bedingt damit eine Entropieerhöhung in der Umgebung des Systems.
Informationsdichte, die die zunächst nur phänomenologisch begründete Eigenschaft aufweist, mit
fortschreitender Zeit nur zunehmen zu können, und die somit einen Zeitpfeil auszeichnet, im
Gegensatz zu dem Fundament, auf dem die Thermodynamik aufbaut.
Bei genauer Präparierung der Anfangsbedingungen des Gittergases etwa kann man durchaus
erreichen, dass die Entropie von selbst abnimmt, wir haben aber gesehen, dass die Zahl derartiger
Zustände verschwindend klein ist, weil die Zahl der Zustände mit kleiner Entropie so gering ist.
Physikalische Phänomene laufen nicht deshalb in Zustände größerer Entropie, weil eine irgendwie
geartete weitere Kraft sie dazu bewegt, sondern einfach weil die Chancen bei freier Bewegung auf
solche Zustände zu stoßen einfach sehr viel größer ist, wenn man von einem Zustand niedriger
Entropie startet.
Das Präparieren von Zuständen mit niedriger Entropie, also etwas prosaischer etwa das Anfeuern
einer Dampfmaschine, das Starten des Automotors oder das Präparieren eines Anfangszustandes in
einem Computerexperiment gelingt nur deshalb, weil wir uns innerhalb einer lokalen
Entropiesenke, des Erde-Sonne Systems, befinden. Denken wir diesen Gedanken weiter zu Ende, so
muss dieser Überlegung zufolge in der Vergangenheit das Unversum eine niedrige Entropie
aufgewiesen haben, einem Zustand, welcher im heutigen Standardmodell der Kosmologie mit dem
Urknall identifiziert wird.
Insofern ist die phänomenologische Beobachtung des Zunehmens der Entropie in unserer
Umgebungswelt „lediglich“ dadurch begründet, dass sich das Universum als ganzes von einem
Zustand niedriger Entropie, großer Informationsdichte oder hoher Ordnung von alleine im Raum
der Konfigurationen frei bewegt und dabei, da diejenigen Zustände höherer Entropie überwiegen,
die Entropie abnimmt. Von dieser Entropiedifferenz leben wir, indem wir die Entropiedifferenz der
Sonne gegenüber dem Weltall ausnutzen. Der Zeitpfeil des Universums bekommt diesen
Überlegungen zufolge seine Auszeichnung also dadurch, dass der Anfangszustand des Universums
ganz speziell ausgezeichnet sein musste, und nicht dadurch, dass die zugrunde liegenden
physikalischen Gesetze ihn auszeichnen würden.
Wenn Sie das nächste Mal jemanden das Wort „Energieproblem“ sagen hören, schenken Sie dem
keine Beachtung! Die Thermodynamik sagt nämlich in ihrem Ersten Hauptsatz, dass Energie gar
nicht erzeugt oder vernichtet, sondern nur umgewandelt werden kann. Wir haben kein
„Energieproblem“, sondern höchstens ein „Entropieproblem“, und leben von dem Entropievorrat,
der bei Entstehung des Universums erzeugt wurde.

Literaturverzeichnis
Louis Gay-Lussac(1802): Das Ausdehnungsgesetz der Gase in: Ostwald's Klassiker der exakten
Wissenschaften, Bd. 44 (Hrsg. der Übersetzung: W. Ostwald) , Neuauflage: Thun (Frankfurt a.M.)
1997
Lazare Nicolas Marguerite Carnot (1824): Réflexions sur la puissance motrice du feu et sur les
machines propres à développer cette puissance (Betrachtungen über die bewegende Kraft des
Feuers und die zur Entwicklung dieser Kraft geeigneten Maschinen) (Hrsg. der Übersetzung: 1892
W. Ostwald), Neuauflage: Vieweg 1988
Rudolph Clausius(1850): Über die bewegende Kraft der Wärme und die Gesetze, welche sich
daraus für die Wärmelehre selbst ableiten lassen (Hrsg: Max Planck), Neuauflage: Harri Deutsch,
1998
Rudolph Clausius(1862): Über die Anwendung des Satzes von der Äquivalenz der Verwandlungen
auf die innere Arbeit. In: Vierteljahrschrift der Naturforschenden Gesellschaft in Zürich, 1862.
Ludwig Boltzmann(1876): Über die Aufstellung und Integration der Gleichungen, welche die
Molecularbewegung in Gasen bestimmen, Wien. Sitzungsber. II 74, 503 (1876).
Ludwig Boltzmann(1877): Über die Beziehung eines allgemeine mechanischen Satzes zum zweiten
Haupsatze der Wärmetheorie in: Sitzungsberichte, K. Akademie der Wissenschaften in Wien,
Math.-Naturwiss., vol. 75, pp. 67-73
J. Loschmidt (1876): Über den Zustand desWärmegleichgewichts eines Systems von Körpern mit
Rücksicht auf die Schwerkraft I, Wien. Sitzungsber. II, 73, 128 (1876).
J. Loschmidt (1876): Über den Zustand desWärmegleichgewichts eines Systems von Körpern mit
Rücksicht auf die Schwerkraft II, Wien. Sitzungsber. II, 73, 366 (1876).
J. Loschmidt(1877): Über den Zustand desWärmegleichgewichts eines Systems von Körpern mit
Rücksicht auf die Schwerkraft III, Wien. Sitzungsber. II, 75, 287 (1877).
J. Loschmidt(1877): Über den Zustand desWärmegleichgewichts eines Systems von Körpern mit
Rücksicht auf die Schwerkraft IV, Wien. Sitzungsber. II, 76, 209 (1877).
H. Poincaré(1890): Sur le problème des trois corps et les équations de dynamique, in Acta math. 13
(1890)
E. Zermelo(1896): Über einen Satz der Dynamik und die mechanische Wärmelehre, Wied. Ann. 57,
485(1896)
P. Weiss(1907): L´Hypothèse du champ moleculaire et la proprit ferromagnetique, in: J. de
Physique vol. 6 (1907) pp. 661
E. Ising(1925): Beitrag zur Theorie des Ferromagnetismus, in: Zeitschrift für Physik, vol. 31, pp.
253-258 (1925)
Claude Shannon(1948): A Mathematical Theory of Communication in: Bell System Technical
Journal, vol. 27, pp. 379-423 und 623-656, Juli und Oktober, 1948.
J. Hardy, Y. Pomeau, O. de Payssis(1976): Molecular dynamics of a classical lattice gas: Transport
properties and time correlation functions, in: Physics Review A, vol. 13, pp. 1949-1961 (1976)
T.Toffoli, N. Margolus(1987): Cellular Automata Machines, MIT Press Cambridge (1987)
Sie können auch lesen