Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Der Zeitpfeil und die Entropie: Warum der Kaffee kalt und der Schreibtisch unordentlich wird Thomas Richter (richter@rus.uni-stuttgart.de) Rechenzentrum der Universität Stuttgart Viele Phänomene der Alltagswelt laufen bevorzugt in eine zeitliche Richtung: Mein Kaffee wird von alleine kalt, und nicht heiß, und mein Schreibtisch verwandelt sich innerhalb einer Woche in ein mittelmäßiges Chaos – es sei denn, ich stelle den Kaffee auf den Herd oder räume auf. In beiden Fällen muss Energie dazu verwandt werden, sei es in der Form von Elektrizität oder in der Form von mechanischer, sprich körperlicher Arbeit, um den Vorgang umzukehren. Die Physik unserer Welt definiert also einen klaren Zeitpfeil, eine Richtung in der Zeit ist ausgezeichnet: In dieser Richtung laufen die Dinge von alleine ab, andersherum jedoch sind die Phänomene überhaupt nicht, oder nur unter Aufwand von Energie zu beobachten. Betrachtet man nun die Physik diesbezüglich genauer, so stellt man fest, dass diese Auszeichnung des Zeitpfeiles nicht in allen Bereichen der Physik anzutreffen ist: Elektrodynamik oder Mechanik kennen sie zum Beispiel nicht. Macht man etwa einen Film von einem geworfenen Ball – so dass man nur diesen Ball vor einem neutralen Hintergrund beobachten kann – so kann man den so aufgezeichneten Film rückwärts abspielen, und er sieht ebenso realistisch aus. Die hier beobachtete Bewegung, auch „schräger Wurf“ von den Physikern genannt, ist zeitumkehr-invariant, oder genauer, durch eine einfache Substitution und das Anbringen von Vorzeichen an geeigneten Stellen der sie beschreibenden Gleichung lässt sich aus der Vorwärts- auch die Rückwärtsrichtung gewinnen: Die Bahnkurve des Balles, also seine Position im Raum in Abhängigkeit von der Beobachtungszeit, ist rückwärts abgespielt ebenso wieder die Bahnkurve eines geworfenen Balles, nur eben eines Balles, der von der anderen Seite der Beobachtungsszene geworfen wurde1. 1. Thermodynamik und der Zweite Hauptsatz Was ist an meinem Schreibtisch-Chaos also grundsätzlich anders als an einem einfachen mechanischen System? Des Rätsels Lösung liegt darin, dass mein Schreibtisch ein Vielteilchensystem ist: Das Chaos darauf besteht eben darin, dass die Papiere, Bücher, Unterlagen und Gläser auf meinem Schreibtisch alle einzelne Objekte sind, die in einer nicht-geordneten Weise auf dem Tisch liegen. Auf die gleiche Weise, aber dies ist weniger offensichtlich, ist meine Tasse Kaffee, oder genauer der Kaffee darin, ein Vielteilchensystem – natürlich, er besteht aus Molekülen, und die Art, wie sich diese Moleküle bewegen, bestimmen, ob ich den Kaffee als zu kalt oder angenehm empfinde. Aber, mag man einwenden, der Ball aus dem obigen Beispiel ist doch ebenso ein Vielteilchen- System, ebenso wie jeder andere Gegenstand auch? Der Unterschied besteht darin, dass für die Beschreibung des Wurfes die Eigenschaften der Komponenten, der Moleküle des Balles unwesentlich, für die Temperatur des Kaffees aber sehr wohl wesentlich ist. Die Temperatur eines Körpers lässt sich aus der mittleren Geschwindigkeit seiner Komponenten berechnen, und die kann sehr wohl ziemlich groß sein, obwohl sich meine Tasse (hoffentlich!) nicht bewegt. Wie schon oben bemerkt, nimmt das „Chaos“ auf dem Schreibtisch zu: Da Physiker die Dinge nun genau verstehen wollen, müssen wir hierzu erst einmal verstehen, was dieses „Chaos“ exakt ist, wie man es quantifiziert und vermisst. Interessanterweise wird sich heraussstellen, dass dieselbe physikalische Größe, die „die Unordnung“ spezifiziert, auch zur Beschreibung meiner Kaffeetasse 1 Für Physiker: Vorausgesetzt, man vernachlässigt den Luftwiderstand. Reibungseffekte können ebenso wie thermodynamische Effekte – also wie das Abkühlen der Kaffeetasse – als Effekte von Vielteilchensystemen verstanden werden.
taugt. Ohne viel vorgreifen zu wollen: Die entsprechende Größe heißt die „Entropie“ des Gesamtsystems, und derjenige Teilbereich der Physik, der sich mit ihr beschäftigt, ist die Thermodynamik. Der Erfahrungssatz über Kaffeetassen und Schreibtische liest sich dann in der Sprache der Physik wie folgt: Die Entropie eines abgeschlossenen Systems nimmt nie ab. Und der entsprechende Sachverhalt, die Auszeichnung einer Zeitrichtung durch die Entropie, wird der zweite Hauptsatz der Thermodynamik genannt. Damit ist noch nichts erklärt, sondern man hat dem Kind lediglich einen Namen gegeben. Der Begriff „Entropie“ selbst geht auf Rudolf Clausius zurück [Clausius 1862], wobei das Wort „Entropie“ ein griechisches Kunstwort aus εν~ (deutsch: ein~, in~) und τροπή (Wendung, Umwandlung) ist, welches von Clausius bewusst in Anlehnung an das Wort „Energie“ gewählt wurde. Interessanterweise gibt es historisch zwei vollkommen verschieden anmutende Definitionen des Begriffes der Entropie, die auf gänzlich verschiedenen Wegen gefunden wurden – sie entsprechen den beiden Beispielen von oben: Kaffeetemperatur bzw. Ordnung des Schreibtisches. Um zu verstehen, wie der zweite Hauptsatz zustande kommt, und was er – außer einer Erfahrungstatsache – wirklich aussagt, betrachten wir die Entwicklung im Folgenden genauer. Interessanterweise wird nämlich gerade ein Gedankenexperiment, welches mit der Geschichte des Hauptsatzes verknüpft ist, auch eine Lösung für die Auszeichnung der Zeitrichtung bieten. 2. Dampfmaschinen, Wärme, Temperatur Die historisch ältere Definition der Entropie entstammt der Wärmelehre, also der Wissenschaft, die das Verhalten von Gasen, Dampf usw. beschreibt und mit der man die Eigenschaften von Wärmekraftmaschinen, also von der Dampfmaschine bis zum Automotor berechnen kann. Hierbei haben Forscher wie Mayer, Carnot [Carnot 1824], Joule, Lussac [Lussac 1802] oder Helmholtz im 19. Jhd zunächst ihre Beobachtungsdaten in Formeln festgehalten, etwa dass das Volumen, welches ein Gas bei konstantem Druck einnimmt, proportional zu seiner Temperatur ist. Dieser Zweig der Wärmelehre wird heute auch „phänomenologische Thermodynamik“ genannt, weil hierbei lediglich die gemachten Beobachtungen, also Phänomene, in Formeln festgehalten werden, ohne dass versucht wird, sie aus anderen Theorien abzuleiten. Was ist aber nun die Entropie? Zumindest kein sehr anschaulicher Begriff, man muss einen gedanklichen Umweg machen, um ihn wie zunächst 1862 von Rudolf Clausius eingeführt, verstehen zu können: Man stelle sich hierzu einen Zylinder nebst Schieber vor, der mit einem Gas gefüllt ist. Natürlich darf man sich hierbei gerne den Wasserdampf einer Dampfmaschine jener Tage vorstellen, aber das spielt für die folgenden Betrachtungen keine Rolle. Der Schieber dient dazu, das Volumen des Zylinders von außen verstellen zu können, bzw. vom Gas verstellen zu lassen. Man sagt auch, „das Gas arbeitet“. Wird dieser Zylinder, also die vorgestellte Dampfmaschine, nun befeuert, so tritt offenbar Wärme als Energieform vom Feuer in den Zylinder über – hält man den Schieber fest, erhitzt sich das Gas. Da aber Lussac schon beobachtet hat, dass die Temperatur des Gases proportional zum Volumen ist [Lussac 1802], können wir alternativ auch dafür sorgen, dass das Gas sich ausdehnt, also das Volumen vergrößert wird, so dass die Temperatur bei diesem Vorgang im Gaszylinder unverändert bleibt. Wie man dies technisch realisiert, sei hier nicht gesagt, und ist auch nicht wesentlich. Die Wärmezufuhr führt also zu einer Volumenvergrößerung. Umgekehrt kann man durch
Verkleinerung des Volumens, also durch Hineindrücken des Schiebers in den Zylinder dafür sorgen, dass das Gas in einer kühleren Umgebung unter Abgabe von Wärme seine Temperatur behält. Offenbar wird hierbei jeweils Energie in das Gas transportiert, und auch wieder aus dem Gas abgezogen. Will man diese Apparatur, die übrigens auf Carnot [Carnot 1824] zurückgeht, nun als Wärmemaschine betreiben, so lässt man zwischen diesen beiden Takten das Gas den Schieber bewegen, so dass sich die Temperatur – entsprechend dem Gesetz von Lussac – an die Gegebenheiten der jeweils anderen Umgebung anpasst. Man beobachtet nun, dass die in das System oder aus dem System fließende Wärmemenge bei ansonsten gleich bleibenden Bedingungen proportional zur Temperatur ist: Je heißer das Feuer, desto mehr Wärmeenergie geht in das Gas über. Der Proportionalitätsfaktor, also das Verhältnis von zugeführter Wärme zur der konstant gehaltenen Temperatur bei der dies geschieht, heißt die Entropie. Man kann sich nun mit ein klein wenig Rechnerei davon überzeugen, dass diese harmlose Beziehung weit reichende Konsequenzen hat: So lässt sich etwa immer nur ein Teil der Wärmemenge in einer derartigen Maschine wirklich dazu benutzen, um den Schieber zu bewegen. Das Verhältnis von der eingesetzten Wärmemenge, etwa zu definieren über die Höhe des Holzstapels, mit der man die Maschine befeuert, zu der erzeugten mechanischen Arbeit, also etwa der Menge Wasser, die eine mit einer Dampfmaschine betriebene Pumpe fördern kann, heißt der Wirkungsgrad. Und was die obige Rechnung ergibt, ist dass eben dieser Wirkungsgrad stets kleiner als eins ist – Wärmeenergie kann man anders als viele andere Energieformen immer nur teilweise umwandeln. Und da im Grunde genommen auch Ihr Automotor nichts weiter als eine solche Maschine ist, wird auch nur ein Bruchteil der im Benzin enthaltenen Energie wirklich dazu verwendet, die Karosse nebst Insassen zu beschleunigen; der Rest vergeht in nutzloser Erwärmung der Umgebung. Der Wirkungsgrad jedes realen Motors liegt darüber hinaus auch noch deutlich unter dem aus diesen Überlegungen abgeleiteten maximalen Wirkungsgrad. Dies ist nun gerade eine Folge des oben zitierten Zweiten Hauptsatzes: Betrachtet man einen Arbeitszyklus des Motors als ganzes und berechnet die Differenz der Entropie beim Abkühlen minus der beim Erwärmen des Zylinders, so ist diese Differenz im Falle des idealen Motors von Carnot gerade Null. In jedem realen Motor ist sie hingegen positiv, die Entropie bei der Abkühlung ist größer als der bei der Wärmeaufnahme. Die Entropie hat zugenommen, sie kann bestenfalls gleich bleiben. Also: Der Motor definiert einen Zeitpfeil, die Zeitrichtung wird durch die zunehmende Entropie definiert. Diese Feststellung ist, wie schon eingangs bemerkt, letztendlich nichts weiter als ein Erfahrungssatz: Bislang hat es niemand fertig gebracht, einen andersartigen oder besseren Motor zu bauen, so dass man die zugrunde liegenden Überlegungen hätte revidieren müssen. Der Hauptsatz entbehrt in dieser Form jedweder weiterer Begründung und ist, so man mag, die in Formeln gegossene Erkenntnis der Patentämter, dass jedwede „Erfindungen“ die diesem Satz widersprachen – man würde diese „Perpetuum Mobile Zweiter Art“ nennen – schlicht nicht funktionierten. 3. Entropie als Informationsmaß Es gibt neben der obigen phänomenologischen, und leider reichlich abstrakten Definition noch eine weitere Definition der Entropie, die zunächst nicht viel mit der obigen zu tun zu haben scheint. Zurück zu meinem Schreibtisch: Da Physiker alles messen wollen, wie lässt sich die darauf herrschende Unordnung quantifizieren? Zunächst einmal, indem man die Situation vereinfacht und abstrahiert. Teilen wir also zunächst den Schreibtisch in regelmäßige quadratische Felder auf, ähnlich einem Schachbrett. Ein Feld kann jetzt entweder besetzt sein, weil etwa ein Buch oder ein
Glas auf ihm steht, oder eben frei sein. Ich fasse als nächstes die Felder in Blöcken der Größe 2×2 zusammen. Offenbar gibt es dann die folgenden Möglichkeiten: wobei hier dunkel für ein freies und hell für ein belegtes Feld steht. Verzählt man sich nicht, so kommt man hierbei auf insgesamt 16 mögliche Belegungen. Verfügt man über keinerlei Vorwissen und sind alle 16 Kombinationen gleich häufig, so benötigt man vier ja-nein Fragen, um herauszufinden, welcher Blocktyp vorliegt: „Ist das Kästchen oben links gelb? Ist das Kästchen oben rechts gelb? Ist das Kästchen unten links gelb? Ist das Kästchen unten rechts gelb?“ Hingegen kommt man mit weniger Fragen aus, wenn man bestimmte Blocktypen ausschließen kann, oder wenn nicht alle Typen gleich häufig sind. Machen etwa komplett schwarze und komplett weiße 2×2 Kästchen die Hälfte (und nicht ein Achtel!) aller Fälle aus, so sieht eine bessere Fragestrategie so aus, dass man zunächst fragt, ob der Block komplett in einer Farbe gefärbt ist, und danach fragt man nach der Farbe. Im Mittel braucht man dann weniger Fragen als bei der einfachen Strategie. Was hilft diese Erkenntnis jetzt? Mein Schreibtisch ist dann aufgeräumter, wenn es – für gegebene Anzahl von Büchern, Tassen und sonstigem – mehr Blöcke der ganz linken und mehr Blöcke der ganz rechten Art gibt, und er ist sehr unordentlich, wenn alle Blocktypen etwa gleich häufig vorkommen. Er ist also aufgeräumter, wenn ich, optimale Strategie vorausgesetzt, weniger Fragen pro Block benötige, um die Lage der Bücher, des Geschirrs und des Rests auf ihm herauszufinden. Diese Zahl – die mittlere Anzahl der Fragen pro Block – geteilt durch die Blockgröße heißt die „2×2-Block-Entropie“, geschrieben mit dem Formelzeichen H2×2. Natürlich ist das eine noch recht grobe Approximation der Aufgeräumtheit meines Schreibtisches. Meine Bücher könnten ja immer noch in Vierergrüppchen auf dem Schreibtisch liegen – das ist zwar aufgeräumter als vorher, aber immer noch keine wesentliche Verbesserung. Um auch solche Konfigurationen erkennen zu können, muss man die Blockgröße erhöhen: Man betrachtet also nicht die 2×2 Block-Entropie, sondern die n×n-Block-Entropie Hn×n, indem man sich zunächst eine Liste aller möglicher n×n Block-Konfigurationen anfertigt und danach wieder die mittlere Anzahl der Ja- Nein Fragen ermittelt, die man benötigt, um den Schreibtischzustand zu ermitteln. Für sehr große n – und, dementsprechend für sehr große Schreibtische – ist dies die informationstheoretische Definition der Entropie. Sie ist ein Maß für die Information, bzw. die Unordnung des betrachteten Systems. Ebenso wie die Temperatur als ein Mittelwert über die Gasgeschwindigkeit, ist auch die Entropie als ein Mittelwert über das Gesamtsystem definiert, allerdings ist die zugrunde liegende Größe – die mittlere Anzahl der Fragen – nicht sonderlich anschaulich. Diese Definition der Entropie ist wesentlich jünger. Die informationstheoretische Definition geht auf Shannon zurück [Shannon 1948], wobei eine wesentliche Triebfeder für die Entstehung der Informationstheorie der (geglückte) Versuch der Entschlüsselung deutscher U-Boot Codes war. Die Beobachtungstatsache, dass Schreibtische bei mangelnder Disziplin des Eigentümers zu Unaufgeräumtheit neigen, lässt sich nun mit Hilfe der Informationstheorie so formulieren: Die Block-Entropie (von Schreibtischen) steigt mit der Zeit an. Oder: Auch die durch die Entropie quantifizierte Ordnung eines Schreibtisches zeichnet eine Zeitrichtung aus.
4. Boltzmann, Loschmidt und das Wesen der Entropie Damit sind also zwei Definitionen der Entropie gegeben: Einerseits als Proportionalitätsfaktor zwischen Wärme und Temperatur bei der Ausdehnung eines idealen Gases bei konstanter Temperatur, und andererseits als durchschnittliche Anzahl der Fragen, um Blockmuster zu identifizieren. Die „erste Sorte“ von Entropie ist diejenige, die ich anwende, um das Verhalten von thermodynamischen Systemen zu beschreiben, also beispielsweise das Abkühlen meiner Kaffeetasse als Übertritt von Wärme von der Tasse in die Umgebung. Die „zweite Sorte“ ist diejenige, die ich verwenden kann, um die Unordnung auf meinem Schreibtisch zu definieren. Es ist nun ein interessantes Stück Wissenschaftsgeschichte, dass diese beiden Definitionen in der Tat zusammenfallen: Die Entropie meiner Kaffeetasse ist nichts weiter als ein Maß der Unordnung des Kaffees darin! Oder anders, der Grund weswegen mein Kaffee kalt wird ist derselbe, weswegen mein Schreibtisch so unordentlich ist – zumindest auf einer genügend abstrakten Ebene. Die Ehre, diesen Zusammenhang verstanden zu haben, gebührt Ludwig Boltzmann [Boltzmann 1876,1877]. Aber auch hierzu muss man etwas ausholen. Um 1870 hatte er aufbauend auf den Arbeiten von Maxwell die Idee, die phänomenologischen Eigenschaften von Gasen als statistische Aussagen über Systeme aus einer Vielzahl identischer Teilchen zu beschreiben [Boltzmann 1876,1877]. Würde man sich etwa vorstellen, dass ein Gas aus einer Vielzahl gleichartiger Teilchen – heute würde man Atome oder Moleküle sagen – so ließe sich gemäß der Arbeiten von Maxwell die Temperatur des Gases in Relation zu der mittleren Geschwindigkeit der Teilchen setzen. Ersteres, die Temperatur, ist eine messbare Größe unserer Erfahrungswelt; die mittlere Geschwindigkeit von Gasatomen ist hingegen ungleich schwerer zu bestimmen und, wie man sagt, eine mikroskopische Eigenschaft des Gases. Aus heutiger Sicht erscheint diese Herangehensweise, also durch mikroskopische Beschreibung der Moleküle makroskopische Eigenschaften berechnen zu wollen, fast selbstverständlich. Es gibt genügend Evidenz, um die Existenz von Atomen als gesichert anzunehmen, und insofern liegt eine Beschreibung von Gasen auf dieser, der atomaren Ebene nahe. Man muss aber dazu anmerken, dass zur Zeit Boltzmanns die Existenz von Atomen keineswegs anerkannt, sondern lediglich eine unbewiesene Hypothese war. Atome waren eher gedankliche Konstrukte als Objekte der Naturwissenschaft, und ihre Existenz als physikalische Objekte war reine Spekulation. Natürlich waren Maxwell und Boltzmann Atomisten, vertraten also die These, Atome seien wirkliche physikalische Objekte. Boltzmann konnte nun zeigen, dass unter einer plausibel erscheinenden Annahme über die Statistik der Stöße der (angenommenen) Atome eines Gases ein Ausdruck mit dem Formelzeichen H, der der oben definierten Block-Entropie entspricht, zeitlich immer zunehmen oder zumindest konstant bleiben muss. Dies ist der Inhalt des „H-Theorems“ von Boltzmann [Boltzmann 1876,1877]. In unserem Falle bedeutet es: Die Block-Entropie H ist proportional zur phänomenologischen Entropie S Boltzmann identifizierte also als erster den Ausdruck H (= mittlere Anzahl Fragen) als proportional zur Entropie S, die rein phänomenologisch wie im zweiten Abschnitt definiert wird. Der Faktor zwischen der statistischen Größe H, definiert als Eigenschaft der Teilchenstatistik, und der Größe S als phänomenologische Größe heißt heute zu Ehren Boltzmanns die Boltzmann-Konstante. Erst dadurch rechtfertigt sich im Nachhinein die Namensgebung „Entropie“ für die Größe H im vorherigen Abschnitt. 5. Der Umkehreinwand Denkt man sich ein Gas zusammengesetzt aus einer Vielzahl von Atomen, die sich gemäß den
Regeln der Mechanik bewegen, so ergibt sich aus der atomistischen Betrachtungsweise von Boltzmann und Maxwell allerdings ein schwerwiegendes Problem: Während die Entropie ganz klar eine Zeitrichtung auszeichnet, sie nimmt nämlich mit der Zeit nur zu, trifft dies für die Mechanik, die zur Herleitung des H-Theorems und zur mikroskopischen Beschreibung des Gases verwendet wird, eben nicht zu: Würde man die Bewegung der Atome auf Film aufzeichnen können, und würde man diesen Film rückwärts abspielen, so wäre die hierbei beobachtete Bewegung ebenso im Einklang mit der klassischen Mechanik; ganz genau wie ein geworfener Ball auch in umgekehrter Zeitrichtung eine physikalisch mögliche Bewegung beschreibt. Offenbar scheinen sich hier also Thermodynamik und Mechanik in einem Widerspruch zu befinden: Die Existenz einer die Zeitrichtung auszeichnenden Größe H ist innerhalb der Mechanik nicht möglich, da diese zu Grunde liegenden Gesetze alle keine Zeitrichtung auszeichnen. Diesen Widerspruch formulierte 1876 als erster Johann Loschmidt [Loschmidt 1876], und folgerte, dass die von Boltzmann gemachte Annahme über die Statistik der Stöße von Gasatomen falsch sein müsse, und die Idee, Gase auf atomarer Ebene beschreiben zu wollen, nicht tragfähig sei. Boltzmanns Theorie fand aufgrund dieses Widerspruches Zeit seines Lebens keine große Anerkennung, und Boltzmann litt sehr unter den Anfeindungen seiner wissenschaftlichen Kollegen. Zumindest über die Existenz von Atomen besteht heute kein Zweifel mehr, und auch wenn wir sie eigentlich mit der Quantenmechanik beschreiben müssten, so bleibt der eigentliche Widerspruch bestehen. Auch in der Quantenmechanik lassen sich Lösungen der Vorwärtsrichtung in solche in Rückwärtsrichtung überführen, und die Existenz einer Größe H, die einen Zeitpfeil auszeichnet, ist auch nicht aus der Quantenmechanik ableitbar. 6. Ein virtuelles Experiment Um die Absurdität von Boltzmanns H-Theorem zu unterstreichen, schlug Lohschmidt das folgende Gedankenexperiment vor: Man stelle sich ein Gas vor, welches sich frei innerhalb eines geschlossenen Containers ausdehnt. Da dies ein physikalisch möglicher Prozess ist, muss gemäß dem zweiten Hauptsatz hierbei die Entropie zunehmen. Besteht nun das Gas aus Atomen, die sich den Newtonschen Gesetzen der Mechanik folgend bewegen, so entsteht ein ebenso physikalisch möglicher Prozess dadurch, dass wir die Bewegungen2 aller Atome innerhalb des Gases umkehren. Da sich nun jedes Gasatom auf seiner Bahnkurve rückwärts bewegt, muss sich zwangsläufig das Gas in seine Ausgangsposition zurück bewegen und die Entropie abnehmen. Dieser Prozess – ein Gas zieht sich von selbst in eine Ecke des Raumes zurück – ist nicht nur unplausibel, sondern widerspricht auch dem zweiten Hauptsatz. Obwohl wir heute immer noch nicht die technischen Möglichkeiten haben, dieses Experiment in der Realität durchzuführen, so lässt es sich trotz alledem doch auf dem Computer simulieren [Toffoli, Margolus 1987]: Wie schon oben bei der Berechnung der Schreibtischentropie müssen wir einige recht krude Vereinfachungen machen: Zunächst einmal besteht der Raum, innerhalb derer sich das Gas bewegen kann, aus quadratischen Zellen. In jeder Zelle kann sich maximal ein Gasatom befinden. Wie schon oben zeichnen wir gefüllte Zellen als hell und leere Zellen in schwarz. Ferner gibt es in der Simulation noch graue Zellen, die die Gefäßwand darstellen und unbeweglich sind. Die Bewegung der hellen Gasatome entspricht nun der klassischen Mechanik, wobei sich in der hier gemachten Vereinfachung die Atome nur in Diagonalrichtung bewegen können. Alle anderen Richtungen sind nicht möglich. Abgesehen davon unterliegen die Gasatome Stößen zwischen ihnen und der Gefäßwand, die den Regeln der Mechanik folgen3. 2 Genauer: Man invertiere die Geschwindigkeiten aller Atome, wodurch die rückwärtige Bewegung entsteht. 3 Die hier verwendete Regel zur Beschreibung der Stöße der Gas-Atome untereinander ist kein zentraler Stoß, sondern ein schräger Stoß. Nichtsdestotrotz erhält er Energie und Impuls, folgt somit den Gesetzen der klassischen Mechanik.
In der nebenstehenden Graphik sind die elementaren Bewegungsmuster dieses sog. „Gittergases“ angegeben [Hardy, Pomeau, de Payssis 1976] entsprechend rotierte und gespiegelte Versionen der Spielregeln gelten natürlich ebenso. Um nun den Widerspruch zum Zweiten Hauptsatz nachvollziehen zu können, möchte ich von diesem Gas auch die Entropie messen. Hierzu bediene ich mich der Definition der Entropie über die Blockstatistik, wie sie im dritten Abschnitt eingeführt wurde. Der Computer übernimmt dabei die Aufgabe, die mittlere Anzahl der Fragen zu bestimmen, die bei optimaler Strategie die Platzierung der Atome im Raum ermittelt. Als Anfangskonfiguration wähle ich wie schon oben eine Konfiguration, bei der das Gas in einer Ecke des Containers platziert wird. Die erste Bildserie zeigt die anfängliche Konfiguration des Gases, rechts oben konzentriert in einer Region des roten Containers. Das Bild rechts daneben zeigt das Gas nach einer kurzen Weile mit dem Graphen der Entropie im Vordergrund. Die Startkonfiguration. Atome sind hellgrau, die Das Gas nach ca. 250 Zeitschritten. Oben links im Bild die Gefäßwand dunkelgrau. Entropie als Funktion der Zeit. Die im Gas zu sehenden Muster sind dadurch bedingt, dass die Bewegungsrichtungen der Gasatome auf die Diagonalen eingeschränkt sind; diese Muster verschwinden nach einiger Zeit. Die Entropie nimmt tendenziell zu, zeigt aber einige kleine Einbrüche. Lässt man die Simulation nun weiterlaufen, so verteilt sich das Gas gleichmäßig im Container und die Entropie nimmt weiter zu. Bis zu diesem Schritt stimmen die Beobachtungen mit den Aussagen des H-Theorems überein. Im nächsten Schritt werden die Geschwindigkeiten aller Gasatome invertiert, somit die Bewegung umgekehrt, und die Simulation erneut gestartet. Ganz nach den Vorhersagen von Loschmidt kehren die Gasatome in der Tat in die Ausgangskonfiguration zurück, und die Entropie nimmt ab. Dies ist im rechten Bild der nächsten Bilderserie zu erkennen. Da sich die Atome exakt in der umgekehrten Richtung bewegen, verläuft die Entropie auch von diesem Punkt an genau spiegelbildlich zur ersten Hälfte des Experimentes, nimmt ein Minimum bei der Startkonfiguration an und nimmt dann wieder zu. Das letzte Bild ist kurz nach dem Erreichen der ursprünglichen Konfiguration aufgenommen und zeigt das Gas wieder in einem geordneteren Zustand. Das ist ganz offensichtlich physikalisch unmöglich! Würde man stattdessen entsprechend des einleitenden Gedankenexperimentes die Flugbahn eines Balles aufzeichnen und diese rückwärts abspielen, so wäre der rückwärtige Bewegungsablauf hingegen sehr wohl möglich, und niemand würde unterscheiden können, ob der Film nun gerade vorwärts oder rückwärts läuft.
Das Gas nach vielen weiteren Zeitschritten. Die Entropie Nach Umkehrung der Geschwindingkeiten läuft das Gas hat weiter zugenommen. zurück in die Startkonfiguration. Die Entropie nimmt ab. Innerhalb des virtuellen Experimentes hingegen ist in der Tat eine Umkehr der Bewegungsrichtung und damit eine Verringerung der Entropie möglich. Was ist also am H-Theorem falsch? Sicherlich kann man in realen Experimenten anders als in einem Computerexperiment nicht die Geschwindigkeiten aller Gasatome umkehren, aber die entsprechende Konfiguration der Atome, die zu einem Zurücklaufen in den Anfangszustand führt, ist zumindest möglich und somit nicht von vorn herein auszuschließen, und der dabei ablaufende Prozess steht nicht im Widerspruch zur Mechanik. Trotzdem halten wir den einen Vorgang für realistisch – der rückwärts fliegende Ball – und den anderen für absurd. 7. Die Explosion der Möglichkeiten, und die Drei Fragen Obwohl also das Zurücklaufen der Gasatome in den Ursprungszustand einer physikalisch möglichen Bewegung entspricht, und somit nicht auszuschließen ist, ist es dennoch in der Realität nicht zu beobachten. Woher kommt also die Ausrichtung des Zeitpfeils? Um dieses Rätsel zu lösen, bedarf es eines weiteren Experimentes: Stellen wir also zunächst einmal wieder die Orte und Geschwindigkeiten der Atome wieder her, die zu einem Zurücklaufen in den Ausgangszustand führt, jedoch stören wir ein einzelnes Atom hierbei ein klein wenig und bewegen es ein winziges Stück beiseite: Wird die Simulation nun erneut gestartet, so geschieht... nichts! Kein Zurücklaufen ist zu beobachten, das Gas bleibt durchmischt im Container, und die Entropie steigt weiter an wie vom Zweiten Hauptsatz vorhergesagt. Was ist also passiert? Offenbar bedarf es für den zeitlich umgekehrten Vorgang einer sehr Nach dem Zurückstellen auf die chaotische Ausgangsposition genau definierten Gaskonfiguration, und wurde ein einzelnes Atom um einen Pixel beiseite bewegt und selbst die kleinste Abweichung – das wiederum die Simulation in Rückwärtsrichtung gestartet. Deplatzieren eines einzelnen Atoms ist hinreichend – zerstört den Effekt.
Um zu verstehen, woher diese Empfindlichkeit der Anfangsbedingungen kommt, stelle man sich den Weg dieses gestörten Atoms nach Umkehr aller Geschwindigkeiten vor: Auf seinem Weg zurück in die ursprüngliche Konfiguration ist das ungestörte Atom mit vielen weiteren zusammengestoßen, und hatte hierdurch für seine Stoßpartner genau die Bahnen erzeugt, die nötig waren, um die Atome korrekt in ihre Ausgangsposition zu führen. Und diese Stoßpartner wiederum sind mit weiteren Atomen kollidiert, und haben diese wiederum auf die korrekte Bahnkurve gelenkt. Durch das Verschieben des Atoms hingegen finden diese Stöße nicht mehr korrekt statt, und da nun die Stoßpartner nicht mehr entlang der für das Zurückkehren notwendigen Bahnen fliegen, stoßen auch diese nicht mehr mit den zugehörigen Partnern zusammen und lenken diese wiederum auf die korrekte Bahn. Frage 1: Was ist aber an der Ausgangsposition so besonders, dass diese durch das Verschieben eines Atoms derart gestört werden kann? Die Antwort mag verblüffen: Nichts! Genau das gleiche Experiment hätten wir mit einer beliebigen anderen Ausgangskonfiguration durchführen können, sogar mit einer augenscheinlich völlig chaotischen. Stellt man eine solche Startkonfiguration her, lässt die Atome vorwärts laufen, verrückt danach ein Atom und kehrt die Geschwindigkeiten um, so stellt sich auch hier wieder die Ausgangskonfiguration nicht wieder her. Der einzige Unterschied zwischen diesem und dem vorherigen Experiment ist der, dass bei einer beliebigen Startkonfiguration nicht zu erwarten ist, dass sich die Entropie weiter erhöht, das System ist schon recht gut durchmischt und die Entropie steigt dann nicht viel weiter. Der einzige Grund, weswegen die Entropie also bei der gegebenen Anfangsbedingung ansteigt ist der, dass die überwiegende Zahl der Anordnungen der Gasatome eine sehr große Entropie aufweist, Ausgangs- Physikalische wohingegen die aufgeräumten, konfigurationen Gesetze besonderen Zustände mit kleiner Entropie in einer Minderheit sind. Die Bewegungsgleichungen der Gase sind also nicht einer spukhaften Wirkung ausgesetzt, Zielkonfi- die die Entropie ansteigen lässt – gurationen hat die Ausgangsbedingung aber eine niedrige Entropie, so läuft das Die Ausgangskonfigurationen entwickeln sich immer gemäß den System nur aufgrund der identischen Gesetzen der Physik zu den Endkonfigurationen. Für das Überzahl der Zustände mit hoher hier betrachtete System genügt aber eine minimale Störung der Entropie in diese hinein. Startkonfiguration, um die Zielkonfiguration grundlegend zu ändern. Diese Empfindlichkeit gegenüber Störungen gilt für alle Ausgangsbedingungen gleichermaßen. Übertragen auf das Schreibtischbeispiel kann man also sagen, dass mein Schreibtisch deshalb immer chaotischer wird, weil es nur eine einzige Anordnung der Bücher gibt, bei dem er aufgeräumt ist, aber sehr viel mehr Anordnungen, bei denen er unaufgeräumt ist. Sortiere ich die Bücher nun auf ihm um, ohne dass ich mir dabei konkret vornehme, ihn aufzuräumen, so entstehen dabei zwangsläufig unordentlichere Anordnungen als vorher.
Frage 2: Kann man aus dieser Überzahl folgern, dass es mehr Zustände gibt, in deren zeitlichen Verlauf die Entropie zunimmt, als es Zustände gibt, bei denen sie abnimmt? Nein, es gibt exakt genauso viele Zustände, die zu einer Entropieverringerung gehören, wie die, die zu einem Entropieanstieg gehören. Das liegt einfach daran, dass zu jeder „normalen“ Konfiguration eine rückwärts laufende gehört, die man einfach durch Umkehr der Geschwindigkeiten erreicht. Da man eine in die andere spiegeln kann, muss es in der Gesamtmenge exakt genauso viele von jeder Sorte geben. Entropie Physikalische Bewegung Die überwiegende Zahl der Zustände hat hohe Entropie, die sich im Verlauf der physikalischen Bewegung nur noch geringfügig ändert (obere Kreise, waagerechte Pfeile). Nur eine Minderheit von Konfigurationen hat kleine Entropie, die sich aufgrund der Überzahl der Zustände mit großer Entropie vergrößert (Kreis unten links). Rückwärts laufende Konfigurationen sind dabei genauso häufig wie vorwärts laufende, nämlich genau die Zielpunkte der physikalischen Bewegung von Startzuständen kleiner Entropie, innerhalb der Gesamtmenge der Zustände großer Entropie aber in einer Minderheit. Die Entropie der meisten Zustände bleibt konstant hoch. Es ist nur richtig, dass in der Menge der Konfigurationen niedriger Entropie die Zustände in der Mehrheit sind, deren Entropie bei längerer Beobachtung zunehmen wird. Das liegt aber an der Antwort der ersten Frage. Frage 3: Wenn die Entropie immer weiter zunimmt, wird sie dann nicht irgendwann maximal und ändert sich dann nicht mehr? Leider ist auch das falsch. In meiner beschränkten Kästchenwelt der Gittergase muss ich nur lange genug warten, bis der Anfangszustand wieder hergestellt ist und die Entropie von alleine wieder absinkt. Auch das klingt für einen unvoreingenommenen Leser absurd, und tat es noch viel mehr für die Zeitgenossen Boltzmanns, die dieses Paradoxon auch entdeckten [Poincaré 1890, Zermelo 1896]. Diese Wiederkehr in den Ausgangszustand entsteht dadurch, dass es nur eine endliche Anzahl von Konfigurationen gibt. Am besten überlegt man sich dies in einer kleineren Welt: Nehmen wir an, der Bildschirm hätte nur eine Breite und Höhe von vier Kästchen. Da ich jedes Feld nur schwarz, grau oder hell färben kann, gibt es „nur“ 34×4=43046721 also ca. vier Millionen Möglichkeiten, diese Welt einzufärben. Zu jedem Zustand gehört aber eindeutig ein Nachfolger, der bei Vorwärtsbewegung entsteht, und ein eindeutiger Vorgänger, aus dem sich der Zustand entwickelte. Letzteres gilt, weil man ja die Zeitrichtung umkehren kann. Nach maximal vier Millionen Zeitschritten sind aber alle Konfigurationen schon einmal aufgetaucht, es muss sich also eine Anordnung von Atomen ergeben, die bereits einmal beobachtet worden ist. Für den ersten doppelt auftretenden Zustand gibt es aber auch einen eindeutigen Vorgänger, der aber bislang nur einmal aufgetaucht ist. Dies bedeutet aber, dass unser augenblicklicher Zustand, als
er das erste Mal auf dem Schirm zu beobachten war, noch gar keinen Vorgänger hatte, aus dem er sich entwickelte. Und es gibt nur einen solchen Zustand, nämlich die Ausgangskonfiguration (siehe Kasten). Übertragen auf mein Schreibtischbeispiel: Die Konsequenz von Boltzmanns Idee ist, dass wenn ich nur lange genug warte, mein Schreibtisch sich von selbst wieder aufräumen wird! Wenn Sie das jetzt als Begründung dafür verwenden wollen, nie mehr aufräumen zu müssen: Vergessen Sie's! Schon in der minimalen Welt von nur vier Kästchen Breite und Höhe muss man vier Millionen Zeitschritte warten. Mit unserer Kästchenwelt in der Gassimulation berechne ich für die Anzahl der notwendigen Schritte eine Zahl mit zehntausend Stellen bevor das passiert. Solche Zahlen haben noch nicht mal einen Namen - da ist vorher nicht nur der Schreibtisch und Computer hinüber, sondern auch sein Eigentümer und der Rest des Universums. Geschweige denn, wie lange ich bei einem realen Schreibtisch mit unweit mehr Stellmöglichkeiten für Bücher warten müsste! ? Ein System mit nur sieben Zuständen (Kreise). Der Nachfolger des letzten Zustandes (unten links) muss offenbar einer der bereits vorhandenen Zustände sein. Allerdings hat fast jeder der vorhandenen Zustände bereits einen eindeutigen Vorgänger, kann also nicht diesen Kreis noch als zweiten Vorgänger haben. Die einzige Ausnahme ist der Anfangszustand (oben links), der somit der Nachfolger vom letzten Zustand sein muss. Damit muss sich das Verhalten des Systems ab diesem Zustand wiederholen. Dieses Paradoxon heißt übrigens der Wiederkehreinwand, und war historisch zunächst von Poincaré und Zermelo [Poincaré 1890, Zermelo 1896] zur Demonstration der Unsinnigkeit von Boltzmanns Programm vorgebracht worden. Seine Auflösung besteht darin, dass die notwendige Wartezeit, wie eben oben schon abgeschätzt, sehr sehr groß ist, insbesondere ist sie viel größer als die bisherige (angenommene) Lebenszeit des Universums. 8. Das Leben, das Universum und der ganze Rest Identifiziert man also die Richtung des Zeitpfeils mit der Richtung der ansteigenden Entropie, so kann der einzige Grund dafür, dass wir die Entropie bei allen Experimenten als ansteigend messen der sein, dass ebenso wie beim Gittergas der Anfangszustand eine besonders niedrige Entropie haben musste. Eine weitere Begründung etwa durch ein noch unbekanntes Naturgesetz gibt es nicht, und der Zweite Hauptsatz ist „nur“ eine mathematische Formulierung dieser Erkenntnis. Nach dem heute allgemein akzeptierten Standardmodell der Kosmologie wurde genau ein solcher Zustand mit dem Urknall des Universums erzeugt, d.h. ein Anfangszustand niedriger Entropie ist die Startkonfiguration des Universums. Allerdings, wenn sich wie vom Zweiten Hauptsatz die Entropie immer nur weiter erhöhen könnte, wie ist es möglich, dass offenbar doch sehr wohlgeordnete Zustände niedriger Entropie möglich sind? Oder, weitaus prosaischer, wie kann ich entgegen dem Zweiten Hauptsatz meinen Schreibtisch trotzdem aufräumen? Im Sinne des Zweiten Hauptsatzes „Überlässt man die Dinge sich selbst, wird’s nur chaotischer“ scheinen wohlgeortnete Strukturen kaum möglich. Es gibt jedoch Systeme, bei denen ein Abfall, und nicht ein Anstieg der Entropie beobachtet wird. Warum dies nicht im Widerspruch zum Zweiten Hauptsatz ist, möchte ich im Folgenden darstellen.
Auch hierzu werde ich mich wieder einer Computersimulation bedienen, hier des so genannten „zweidimensionalen Ising-Modelles“ [Ising 1925]. Es beschreibt in einer ebenso kruden Abstraktion das Verhalten von magnetischen Materialien wie Eisen, Nickel und Kobalt wie das Gittergas reale Gase beschrieb. Ein magnetisches Material besteht aus Das entscheidende Phänomen ist hier, dass die oben Elementarmagneten, die sich in einem äußeren Feld ausrichten können. Im Ising-Modell, erwähnten Materialien innerhalb eines Magnetfeldes welches nur eine dünne Scheibe aus diesem drei- selbst magnetisch werden und dann in Abwesenheit dimensionalen Quader beschreibt, können die eines äußeren Magneten auch bleiben. Das von Erst Elementarmagnete allerdings anders als hier nur Ising in seiner Doktorarbeit erdachte Modell in zwei Richtungen zeigen. reproduziert genau dieses Verhalten [Ising 1925]. Gemäß seines Modells besteht ein magnetisches Material aus einzelnen Elementarmagneten – auch Spins genannt, die sich in einem Magnetfeld ausrichten können. Der Clou hierbei ist, dass diese Elementarmagneten natürlich selbst auch ein Magnetfeld erzeugen, mit dem sie auf ihre Nachbarn einwirken. Man möge sich etwa vorstellen, dass zwischen benachbarten Spins eine Feder befestigt ist, welche dann gespannt wird, wenn die Nachbarn unterschiedliche Ausrichtungen besitzen, und die entspannt ist, falls die Nachbarn in die gleiche Richtung zeigen. Ähnlich wie schon oben im Gas-Modell besteht auch diese Welt wieder aus quadratischen Gitterzellen, die hell oder dunkel eingefärbt Nordpol Nordpol werden, wobei hier allerdings die Farbe die Ausrichtung des Spins codiert. Ebenso wie schon im Gasmodell verwendet Ising eine Vereinfachung und lässt nur zwei Spinausrichtungen zu, hell für einen Spin, dessen Nordpol „nach unten“ zeigt, und dunkel für die Entspannte umgekehrte Orientierung. Die Elementarmagnete zeigen hier also Feder entweder auf den Betrachter, oder von ihm weg, man schaut also Südpol Südpol gewissermaßen „von vorne“ auf den oben abgebildeten Magneten. Nordpol Südpol In einem zweidimensionalen Modell hat ein Spin natürlich nicht nur einen Nachbarn wie oben im Bild, sondern deren vier: Jeweils ein Elementarmagnet zur Linken, Rechten, und ein weiteres Paar oben und unten, siehe das Bild am Ende der Seite. Zweidimensional deswegen, weil ich gewissermaßen nur einen dünnen Schnitt durch Gespannte den oben auf der Seite abgebildeten Magneten betrachte. Die Südpol Feder Nordpol Abbildung unten entspricht also der Sicht auf eine Schicht des Magneten oben von der Seite. Die Regeln, nach denen sich die Spins bewegen, sind auch nicht die des Gasmodells, da sich die Spins nur um die eigene Achse drehen, aber nicht von der Stelle bewegen können. Stattdessen versuchen die Spins sich derart zu drehen, dass die Federn möglichst entspannt sind. Genauer, ein Spin kann umklappen wenn er entweder dadurch die Summe der Federspannung der vier ihn haltenden Federn verringern kann, oder aber wenn er sich die zum Umklappen notwendige Energie aus der Umgebung ausborgen kann. Dieses Borgen von Energie funktioniert allerdings nur mit einer von der Temperatur abhängigen Wahrscheinlichkeit, d.h. hängt davon ab, wie sehr man das Material erwärmt. Man kann auch sagen: Durch die äußere Erwärmung werden die Elementarmagnete etwas geschüttelt, und mit einer Ein Elementarmagnet und gewissen Wahrscheinlichkeit kippen sie dann von selbst auch gelegentlich seine vier Nachbarn. entgegen der üblichen Regel. Bei hoher Temperatur geschieht dies öfter als bei niedriger Temperatur, und bei der Temperatur T = 0 überhaupt nicht.
Die Entropie messe ich hingegen wieder als die Block-Entropie, wie wir sie schon beim Gas kennen gelernt haben: Sie ist ein Maß für die Ordnung des Systems und misst die Verteilung der Spinmuster: Solche Anordnungen, die bestimmte Blockkonfigurationen bevorzugt, haben eine niedrigere Entropie, und solche, bei denen die Spins gut durchmischt sowohl nach oben als auch nach unten zeigen, haben eine hohe Entropie. Ich wähle diesmal als Ausgangskonfiguration für das Experiment eine vollkommen zufällige Ausrichtung der Spins, d.h. etwa die Hälfte von ihnen wird nach oben und die andere Hälfte nach unten zeigen. Damit ist die Entropie maximal, und es ergibt sich somit eine Anordnung der Spins wie im linken Bild auf dieser Seite: Man sieht hier von oben auf eine zweidimensionale Schicht von Elementarmagneten, und jeder Spin wird durch ein einziges Pixel des Bildschirms repräsentiert, das entweder gelb, also Südpol zeigt auf den Betrachter, oder schwarz ist; dann zeigt der Nordpol auf den Betrachter. Lässt man dieses Modell nun eine Weile laufen und misst die Entropie, so ergibt sich das Bild rechts daneben: Die chaotische Ausrichtung der Elementarmagnete ist einer regelmäßigeren Anordnung gewichen, in der sich Gruppen oder Inseln von Spins gleicher Ausrichtung gebildet haben. Entsprechende Gebiete in realen Ferromagnetika hatte auch Pierre-Ernest Weiss schon um die Jahrhundertwende entdeckt[Weiss 1907], nach ihm werden sie „Weisssche Bezirke“ genannt. Interessant ist nun der Verlauf der Entropie, zu erkennen im vorderen Fenster des Bildes: Anstatt zuzunehmen, nimmt die Entropie hier ab, entsprechend der im System spontan zunehmenden Ordnung. Die Startkonfiguration des Experimentes: Die Spins Der Ferromagnet nach einiger Zeit: Weisssche Bezirke zeigen in zufällige Richtungen haben sich gebildet Ist dies nun ein Widerspruch zum Zweiten Hauptsatz und hat sich der Zeitpfeil hier umgekehrt? Hierzu muss man sich vergegenwärtigen, dass dieses Modell keineswegs von seiner Umgebung unabhängig existiert: Klappt ein Spin um, und werden die vier Federn, mit denen er mit seinen Nachbarn in Wechselwirkung steht, entspannt, so fließt die hierbei frei werdende Energie in die Umgebung ab. Wird umgekehrt durch die Einwirkung der Wärme ein Spin zufällig gekippt und werden dabei die Federn gespannt, so entstammt die Energie hierzu ebenso der Umgebung. Das Modell ist also inhärent so definiert, dass es in Wechselwirkung mit seiner Umgebung steht.
Obwohl also die Entropie des Modellsystems abnimmt, wird die Entropie des Gesamtsystems hingegen zunehmen. Auch dieser Effekt lässt sich in der Simulation nachweisen, indem ich das Modell ein klein wenig ändere und den Austausch mit der Umgebung unterbinde: Elementarmagnete können in diesem geänderten System nur noch dann umklappen, wenn sie dabei weder Energie an die Umgebung abgeben, noch von ihr aufnehmen können. Das Resultat dieser Änderung findet sich im nebenstehenden Bild: Das anfangs chaotische System bleibt in seinem Zustand, und der Graph der Entropie wird zu einer kaum noch erkennbaren geraden Linie am oberen Rand der Das Verhalten des modifizierten Modelles: Die Messkurve. Kein Wunder! Die Entropie ist in diesem Entropie bleibt maximal Zustand maximal und kann sich nicht weiter verändern. Sind Systeme also nicht von ihrer Umwelt isoliert, so können sie aufgrund eines Austausches von Entropie mit dieser Umwelt durchaus lokal ihre Entropie verringern4. Warum kann ich also meinen Schreibtisch entgegen den Regeln der Thermodynamik doch aufräumen und die Entropie dort verringern? Weil ich die Entropie in meiner Umgebung erhöhe, etwa indem ich eine Kleinigkeit esse. Wie konnte aber auf der Erde mein Mittagessen heranwachsen und eine Entropiesenke für meinen Magen bereitstellen? Auch indem es auch die Entropie in der Umgebung absenkte. In gewisser Weise ähnelt unser Planet der Dampfmaschine aus dem ersten Kapitel: Sie wird auf der einen Seite von der Sonne geheizt, und auf der anderen Seite vom Weltraum gekühlt. Insbesondere ist sie also kein isoliertes System, sondern steht mit der Sonne und dem Weltall in Wechselwirkung und kann aus diesem Grunde lokal die Entropie verringern, indem im Gesamtsystem Sonne-Erde-Weltall die Entropie erhöht wird. Will man also den Zeitpfeil mit der Richtung zunehmender Entropie identifizieren, so ist es notwendig, sich auf abgeschlossene Systeme zu beschränken, und da die Erde selbst keines ist, muss man das System, innerhalb derer sie sich befindet, betrachten. Und das ist das Weltall als ganzes, in dem die Entropie zunimmt. Und das kann sie nach den oben gemachten Betrachtungen nur dann, wenn sie am Anfang klein war. 9. Zusammenfassung: Der thermodynamische Zeitpfeil Stellt man die Physik als ein Gedankengebäude dar, dessen Fundament durch die klassische Mechanik gebildet wird, so ist auf diesem untersten Niveau keinerlei Ausrichtung einer Zeitrichtung vorhanden: Ein entsprechend rückwärts ablaufender Prozess ist physikalisch genauso möglich wie der vorwärts gerichtete. Auf einer höheren Ebene hingegen, nämlich der der Thermodynamik, ist es nicht mehr sinnvoll, über einzelne Teilchen zu sprechen. Ein Gasvolumen eines Quaders der Kantenlänge von einem Zentimeter enthält immerhin 1023 Atome, deren Bewegungen man unmöglich einzeln beschreiben wollte. Stattdessen muss man sich mit Aussagen über Mittelwerte begnügen, womit man zu Größen wie der Temperatur als ein Maß für die mittlere Geschwindigkeit der Atome gelangt. Ein weiteres solches Maß ist die Entropie als mittlere 4 Man beachte: Natürlich ist es eine inhärente Eigenschaft des zuoberst definierten Ising-Modells, die Entropie abzusenken. Will man aber versuchen, dieses System als ein isoliertes thermodynamisches System zu verstehen, so bemerkt man, dass der 1. Hauptsatz, also Energieerhaltung dann nicht erfüllt ist. Man muss hierzu ein äußeres System ankoppeln, nämlich ein Wärmebad, welches dann die Energie aufnimmt oder abgibt. Selbstorganisation benötigt einen Energieaustausch, und bedingt damit eine Entropieerhöhung in der Umgebung des Systems.
Informationsdichte, die die zunächst nur phänomenologisch begründete Eigenschaft aufweist, mit fortschreitender Zeit nur zunehmen zu können, und die somit einen Zeitpfeil auszeichnet, im Gegensatz zu dem Fundament, auf dem die Thermodynamik aufbaut. Bei genauer Präparierung der Anfangsbedingungen des Gittergases etwa kann man durchaus erreichen, dass die Entropie von selbst abnimmt, wir haben aber gesehen, dass die Zahl derartiger Zustände verschwindend klein ist, weil die Zahl der Zustände mit kleiner Entropie so gering ist. Physikalische Phänomene laufen nicht deshalb in Zustände größerer Entropie, weil eine irgendwie geartete weitere Kraft sie dazu bewegt, sondern einfach weil die Chancen bei freier Bewegung auf solche Zustände zu stoßen einfach sehr viel größer ist, wenn man von einem Zustand niedriger Entropie startet. Das Präparieren von Zuständen mit niedriger Entropie, also etwas prosaischer etwa das Anfeuern einer Dampfmaschine, das Starten des Automotors oder das Präparieren eines Anfangszustandes in einem Computerexperiment gelingt nur deshalb, weil wir uns innerhalb einer lokalen Entropiesenke, des Erde-Sonne Systems, befinden. Denken wir diesen Gedanken weiter zu Ende, so muss dieser Überlegung zufolge in der Vergangenheit das Unversum eine niedrige Entropie aufgewiesen haben, einem Zustand, welcher im heutigen Standardmodell der Kosmologie mit dem Urknall identifiziert wird. Insofern ist die phänomenologische Beobachtung des Zunehmens der Entropie in unserer Umgebungswelt „lediglich“ dadurch begründet, dass sich das Universum als ganzes von einem Zustand niedriger Entropie, großer Informationsdichte oder hoher Ordnung von alleine im Raum der Konfigurationen frei bewegt und dabei, da diejenigen Zustände höherer Entropie überwiegen, die Entropie abnimmt. Von dieser Entropiedifferenz leben wir, indem wir die Entropiedifferenz der Sonne gegenüber dem Weltall ausnutzen. Der Zeitpfeil des Universums bekommt diesen Überlegungen zufolge seine Auszeichnung also dadurch, dass der Anfangszustand des Universums ganz speziell ausgezeichnet sein musste, und nicht dadurch, dass die zugrunde liegenden physikalischen Gesetze ihn auszeichnen würden. Wenn Sie das nächste Mal jemanden das Wort „Energieproblem“ sagen hören, schenken Sie dem keine Beachtung! Die Thermodynamik sagt nämlich in ihrem Ersten Hauptsatz, dass Energie gar nicht erzeugt oder vernichtet, sondern nur umgewandelt werden kann. Wir haben kein „Energieproblem“, sondern höchstens ein „Entropieproblem“, und leben von dem Entropievorrat, der bei Entstehung des Universums erzeugt wurde. Literaturverzeichnis Louis Gay-Lussac(1802): Das Ausdehnungsgesetz der Gase in: Ostwald's Klassiker der exakten Wissenschaften, Bd. 44 (Hrsg. der Übersetzung: W. Ostwald) , Neuauflage: Thun (Frankfurt a.M.) 1997 Lazare Nicolas Marguerite Carnot (1824): Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance (Betrachtungen über die bewegende Kraft des Feuers und die zur Entwicklung dieser Kraft geeigneten Maschinen) (Hrsg. der Übersetzung: 1892 W. Ostwald), Neuauflage: Vieweg 1988 Rudolph Clausius(1850): Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen (Hrsg: Max Planck), Neuauflage: Harri Deutsch, 1998 Rudolph Clausius(1862): Über die Anwendung des Satzes von der Äquivalenz der Verwandlungen auf die innere Arbeit. In: Vierteljahrschrift der Naturforschenden Gesellschaft in Zürich, 1862. Ludwig Boltzmann(1876): Über die Aufstellung und Integration der Gleichungen, welche die Molecularbewegung in Gasen bestimmen, Wien. Sitzungsber. II 74, 503 (1876).
Ludwig Boltzmann(1877): Über die Beziehung eines allgemeine mechanischen Satzes zum zweiten Haupsatze der Wärmetheorie in: Sitzungsberichte, K. Akademie der Wissenschaften in Wien, Math.-Naturwiss., vol. 75, pp. 67-73 J. Loschmidt (1876): Über den Zustand desWärmegleichgewichts eines Systems von Körpern mit Rücksicht auf die Schwerkraft I, Wien. Sitzungsber. II, 73, 128 (1876). J. Loschmidt (1876): Über den Zustand desWärmegleichgewichts eines Systems von Körpern mit Rücksicht auf die Schwerkraft II, Wien. Sitzungsber. II, 73, 366 (1876). J. Loschmidt(1877): Über den Zustand desWärmegleichgewichts eines Systems von Körpern mit Rücksicht auf die Schwerkraft III, Wien. Sitzungsber. II, 75, 287 (1877). J. Loschmidt(1877): Über den Zustand desWärmegleichgewichts eines Systems von Körpern mit Rücksicht auf die Schwerkraft IV, Wien. Sitzungsber. II, 76, 209 (1877). H. Poincaré(1890): Sur le problème des trois corps et les équations de dynamique, in Acta math. 13 (1890) E. Zermelo(1896): Über einen Satz der Dynamik und die mechanische Wärmelehre, Wied. Ann. 57, 485(1896) P. Weiss(1907): L´Hypothèse du champ moleculaire et la proprit ferromagnetique, in: J. de Physique vol. 6 (1907) pp. 661 E. Ising(1925): Beitrag zur Theorie des Ferromagnetismus, in: Zeitschrift für Physik, vol. 31, pp. 253-258 (1925) Claude Shannon(1948): A Mathematical Theory of Communication in: Bell System Technical Journal, vol. 27, pp. 379-423 und 623-656, Juli und Oktober, 1948. J. Hardy, Y. Pomeau, O. de Payssis(1976): Molecular dynamics of a classical lattice gas: Transport properties and time correlation functions, in: Physics Review A, vol. 13, pp. 1949-1961 (1976) T.Toffoli, N. Margolus(1987): Cellular Automata Machines, MIT Press Cambridge (1987)
Sie können auch lesen