Entropie: Unterschied zwischen den Versionen

Entropie: Unterschied zwischen den Versionen

imported>Mike Krüger
K (Tippfehler entfernt)
 
imported>Wassermaus
 
Zeile 1: Zeile 1:
{{Dieser Artikel|beschreibt den thermodynamischen Begriff. Für andere Bedeutungen siehe [[Entropie (Begriffsklärung)]].}}
{{Dieser Artikel|beschreibt den physikalischen Begriff aus der Thermodynamik. Für andere Bedeutungen siehe [[Entropie (Begriffsklärung)]].}}
{{Infobox Physikalische Größe
{{Infobox Physikalische Größe
|Name= Entropie
|Name= Entropie
Zeile 9: Zeile 9:
|cgs-Dimension=
|cgs-Dimension=
}}
}}
[[Datei:Ice water.jpg|mini|Beim [[Schmelzen]] von [[Eis]] wird die geordnete Eiskristallstruktur in eine ungeordnete Bewegung einzelner Wassermoleküle überführt: ''Die Entropie des Wassers im Eiswürfel nimmt dabei zu'' ([[Rudolf Clausius]] 1862)]]
[[Datei:Time-Lapse.ogv|mini|alternativtext=|Beim [[Schmelzen]] von [[Eis]] wird die geordnete Eiskristallstruktur in eine ungeordnete Bewegung einzelner Wassermoleküle überführt: ''Die Entropie des Wassers im Eiswürfel nimmt dabei zu'' ([[Rudolf Clausius]] 1862)]]
Die '''Entropie''' ([[Kunstwort]] {{grcS|ἐντροπία}} ''entropía'', von {{lang|grc|ἐν}} ''en'' ‚an‘, ‚in‘ und {{lang|grc|τροπή}} ''tropḗ'' ‚Wendung‘) ist eine fundamentale [[Thermodynamik|thermodynamische]] [[Zustandsgröße]] mit der [[Internationales Einheitensystem|SI-Einheit]] [[Joule]] pro [[Kelvin]] (J/K).


Die '''Entropie''' ([[Kunstwort]] {{grcS|ἐντροπία}} ''entropía'', von {{lang|grc|ἐν}} ''en'' ‚an‘, ‚in‘ und {{lang|grc|τροπή}} ''tropḗ'' ‚Wendung‘) ist eine fundamentale [[Thermodynamik|thermodynamische]] [[Zustandsgröße]] mit der [[Internationales Einheitensystem|SI-Einheit]] [[Joule]] pro [[Kelvin]], also J/K.
Die Entropie eines [[Thermodynamisches System|Systems]] steigt bei jedem spontan darin ablaufenden Prozess sowie bei Zufuhr von [[Wärme]] oder [[Materie]]. Spontan ablaufende Prozesse sind z. B. [[Gemisch|Vermischung]], [[Wärmeleitung]], [[chemische Reaktion]], aber auch Umwandlung von mechanischer [[Arbeit (Physik)|Arbeit]] in [[Innere Energie]] durch [[Reibung]] (siehe [[Dissipation]], [[Energieentwertung]]). Abnehmen kann die Entropie eines Systems nur durch Abgabe von Wärme oder Materie. Daher kann in einem [[Abgeschlossenes System (Thermodynamik)|''abgeschlossenen'' System]] (einem System, bei dem es keinen Energie- oder Materieaustausch mit der Umgebung gibt) die Entropie nicht abnehmen, sondern im Laufe der Zeit nur gleich bleiben oder zunehmen ([[Zweiter Hauptsatz der Thermodynamik]]). Hat ein System die maximal mögliche Entropie erreicht, kommen alle spontan darin ablaufenden Prozesse zum Erliegen, und das System ist in einem stabilen Gleichgewichtszustand.


Die in einem System vorhandene Entropie ändert sich bei Aufnahme oder Abgabe von [[Wärme]]. In einem [[Abgeschlossenes System|''abgeschlossenen'' System]], bei dem es keinen Wärme- oder Materieaustausch mit der Umgebung gibt, kann die Entropie nach dem [[Zweiter Hauptsatz der Thermodynamik|zweiten Hauptsatz der Thermodynamik]] nicht abnehmen. Mit anderen Worten: Entropie kann nicht vernichtet werden. Es kann im System jedoch Entropie entstehen. Prozesse, bei denen dies geschieht, werden als [[Irreversibler Prozess|irreversibel]] bezeichnet, d. h., sie sind – ohne äußeres Zutun – unumkehrbar. Entropie entsteht z. B. dadurch, dass mechanische Energie durch Reibung in thermische Energie umgewandelt wird. Da die Umkehrung dieses Prozesses nicht möglich ist, spricht man auch von einer „[[Energieentwertung]]“.
Beispielsweise beobachten wir, dass in einem System aus einem kalten und einem heißen Körper in einer Isolierbox, d.&nbsp;h. in einem praktisch abgeschlossenen System, Wärmetransport einsetzt und der Temperaturunterschied verschwindet. Beide Körper werden nach einer gewissen Zeit die gleiche Temperatur haben, womit das System den Zustand größter Entropie erreicht hat und sich nicht weiter verändert. Wir beobachten in einem solchen geschlossenen System praktisch niemals das spontane Abkühlen des kälteren Körpers und das Erhitzen des wärmeren.<ref group="Anm.">Temperaturdifferenzen können vorübergehend entstehen oder sich vergrößern, wenn zwischen den beiden Teilsystemen Phasenübergänge oder chemische Reaktionen möglich sind. Vgl. Erhitzung durch Feuer, Kühlung durch Verdunstung. Auf lange Sicht stellt sich aber immer eine einheitliche Temperatur ein.</ref>


In der [[Statistische Mechanik|statistischen Mechanik]] stellt die Entropie eines [[Makrozustand]]s ein Maß für die Zahl der zugänglichen, energetisch gleichwertigen [[Mikrozustand|Mikrozustände]] dar. Makrozustände höherer Entropie haben mehr Mikrozustände und sind daher statistisch wahrscheinlicher als Zustände niedrigerer Entropie. Folglich bewirken die inneren Vorgänge in einem sich selbst überlassenen System im statistischen Mittel eine Annäherung an den Makrozustand, der bei gleicher Energie die höchstmögliche Entropie hat. Diese Interpretation des Entropiebegriffs wird umgangssprachlich häufig dadurch umschrieben, dass Entropie ein „Maß für Unordnung“ sei. Allerdings ist ''Unordnung'' kein wohldefinierter Begriff und hat daher auch kein physikalisches Maß. Besser ist es, die Entropie als ein „Maß für die Unkenntnis des atomaren Zustands“ zu begreifen, welches die fehlende [[Information (Physik)|Information]] misst, um von einem bekannten Makrozustand auf den Mikrozustand des Systems schließen zu können.<ref name="Becker" />
Spontane Prozesse, bei denen die Entropie in einem abgeschlossenen System zunimmt, können ohne äußeren Eingriff nicht in umgekehrter zeitlicher Richtung ablaufen, sie werden als [[Irreversibler Prozess|irreversibel]] bezeichnet. Um ein System nach einem irreversiblen Prozess wieder in den Ausgangszustand zu bringen, muss es mit seiner Umgebung gekoppelt werden, die den Zuwachs an Entropie aufnimmt und ihren eigenen Zustand dadurch auch verändert.


== Ein einfacher Zugang zur Entropie ==
In der [[Statistische Mechanik|statistischen Mechanik]] wird durch makroskopische thermodynamische Größen ein [[Makrozustand]] eines Systems definiert, der durch eine hohe Anzahl verschiedener [[Mikrozustand|Mikrozustände]] realisiert sein kann. Diese Mikrozustände können durch innere Prozesse ineinander übergehen. Ihre Anzahl bestimmt die Entropie, die das System in diesem gegebenen Makrozustand besitzt. In einem System, das in einem beliebigen Anfangszustand ist und sich selbst überlassen wird, bewirken dann die spontan ablaufenden inneren Vorgänge, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände realisiert sein kann, also die höchstmögliche Entropie hat. Dieser Vorgang bewirkt die Annäherung an den (makroskopischen) Gleichgewichtszustand ([[Relaxation (Naturwissenschaft)|Relaxation]]).
Ein einfacher Zugang zur Entropie baut darauf auf, sich die Entropie als eine [[mengenartige Größe]] vorzustellen, die fließen oder in Körpern enthalten sein kann: Von zwei ansonsten gleichen Körpern enthält derjenige mehr Entropie, dessen Temperatur höher ist. Stehen zwei Körper unterschiedlicher Temperatur miteinander in Kontakt, so fließt Entropie vom wärmeren zum kälteren Körper; dadurch gleichen sich auch die Temperaturen der beiden Körper an. Fügt man zwei Körper zusammen, so addieren sich die Entropien beider Teile; die Entropie ist also eine [[extensive Größe]].<ref name="FalkRuppel" /><ref name="Herrmann" />


Als mengenartige Größe ist die Entropie zum Beispiel mit der [[Elektrische Ladung|elektrischen Ladung]] vergleichbar: Ein geladener [[Kondensator (Elektrotechnik)|Kondensator]] enthält elektrische Ladung, und damit auch elektrische Energie. Beim Entladevorgang fließt über den Stromkreis nicht nur elektrische Ladung von der einen Kondensatorplatte auf die andere, sondern es fließt auch Energie vom Kondensator zu einem [[Elektrischer Verbraucher|Verbraucher]], wo sie in andere Energieformen umgewandelt werden kann. Entsprechend wird bei der Wärmeübertragung von einem heißen auf einen kalten Körper außer der thermischen Energie noch eine andere mengenartige Größe übertragen: die ''Entropie''. Genauso wie der Potentialunterschied zwischen den Kondensatorplatten – sprich: die elektrische Spannung – den elektrischen Strom antreibt, sorgt der Temperaturunterschied zwischen den beiden Reservoirs für einen ''Entropiestrom''. Befindet sich zwischen den beiden Körpern eine [[Wärmekraftmaschine]], so kann ein Teil der [[Wärme]] in eine andere Energieform umgewandelt werden. Die Wärmeübertragung lässt sich also rein formal analog zu einem elektrischen Stromkreis beschreiben.<ref name="FalkRuppel" /><ref name="KPK" />
Dies wird umgangssprachlich häufig dadurch umschrieben, dass Entropie ein „Maß für Unordnung“ sei. Allerdings ist ''Unordnung'' kein definierter physikalischer Begriff und hat daher kein physikalisches Maß. Richtiger ist es, man begreift die Entropie als ein wohldefiniertes objektives Maß für die Menge an [[Information (Physik)|Information]], die benötigt würde, um von einem beobachtbaren Makrozustand auf den tatsächlich vorliegenden Mikrozustand des Systems schließen zu können. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird.<ref name="Becker" />
 
Eine Energieübertragung – also die Arbeit <math>W</math> oder die Wärme <math>Q</math> – lässt sich als das Produkt aus der Änderung einer mengenartigen extensiven Größe mit einer konjugierten intensiven Größe schreiben. Beispiele für solche Paare sind die elektrische Ladung <math>q</math> ''und'' das [[Elektrisches Potential|elektrische Potential]] <math>\varphi</math>, oder das Volumen ''und'' der (negative) Druck eines Gases. Durch Zufuhr der extensiven Größe steigt (im Allgemeinen) die intensive Größe. Fügt man beispielsweise eine kleine Ladungsmenge <math>\mathrm d q</math> einer Kondensatorplatte zu, die sich auf dem Potential <math>\varphi</math> befindet, so verrichtet man an der Kondensatorplatte die Arbeit <math>\delta W = \varphi \,\mathrm d q</math> und erhöht damit das Potential der Platte. Entsprechendes gilt auch für andere Größenpaare. Für thermische Vorgänge entspricht nun die Temperatur dem Potential und die Entropie der Ladung: Wenn man einem Körper die Entropiemenge <math>\mathrm d S</math> hinzufügt, wird die Wärme <math> \delta Q = T \,\mathrm d S</math> übertragen und es steigt (außer bei Phasenumwandlung) die Temperatur <math>T</math>.<ref name="FalkRuppel" />
 
Im Gegensatz zu anderen mengenartigen Größen ist die Entropie keine [[Erhaltungsgröße]]. Nach dem [[Zweiter Hauptsatz der Thermodynamik|zweiten Hauptsatz]] der Thermodynamik kann sie nicht vernichtet, aber sehr wohl erzeugt werden. Es gilt also <math>\Delta S \geq 0</math>. Solange in einem abgeschlossenen System die Entropie gleich bleibt <math>(\Delta S = 0)</math>, sind alle Vorgänge, die sich in dem System abspielen, umkehrbar (= ''reversibel''). Sobald jedoch Entropie erzeugt wird <math>(\Delta S > 0)</math>, was z.&nbsp;B. durch Reibung, durch Erwärmung eines ohmschen Widerstandes oder durch Mischungsvorgänge geschehen kann, gibt es ohne äußeres Zutun kein Zurück mehr. Man spricht dann von ''irreversiblen'' Vorgängen.
 
Eine weitere Besonderheit der Entropie ist, dass man einem Körper nicht beliebig viel Entropie entziehen kann. Während man der Platte eines Kondensators Ladung zuführen und wegnehmen kann, wodurch das Potential positiv oder negativ wird, so gibt es für die Entropieentnahme eine natürliche Grenze, nämlich den [[Absoluter Nullpunkt|absoluten Nullpunkt]] der Temperatur. Diesem Punkt kann man sich zwar beliebig nähern. Man kann ihn jedoch auch mit stärksten Bemühungen nie erreichen. Insbesondere kann die ''absolute'' Temperatur nie negativ werden. Auch diese Besonderheit hat einen Namen, es ist der [[Dritter Hauptsatz der Thermodynamik|dritte Hauptsatz]] der Thermodynamik.


== Geschichtlicher Überblick ==
== Geschichtlicher Überblick ==
In der [[Geschichte der Physik]] gab es lange Zeit eine Auseinandersetzung über die Bedeutung des Wärmebegriffs: Die eine Seite vertrat die Theorie, dass die ''[[vis viva]]'' („lebendige Kraft“&nbsp;=&nbsp;kinetische Energie) der Atome alleine Grund für die Wärmeerscheinungen sei; die andere behauptete, dass die Wärme eine Substanz sei, der man den Namen [[Caloricum]] ({{frS|''calorique''}}, {{enS|''caloric''}}) gab.
In der [[Geschichte der Physik]] gab es lange Zeit eine Auseinandersetzung über die Bedeutung von [[Wärme]]: Die eine Seite vertrat die Theorie, dass die Wärmeerscheinungen allein in der ''[[vis viva]]'' („lebendige Kraft“&nbsp;=&nbsp;kinetische Energie) der Atome begründet seien; die andere behauptete, dass die Wärme eine Substanz sei, und gab ihr den Namen [[Caloricum]] ({{frS|calorique}}, {{enS|caloric}}).


[[Antoine Laurent de Lavoisier]] unterschied 1789 ''chaleur'' (Wärme) von ''calorique'' (Caloricum). Das Caloricum war für ihn unter anderem eine abstoßende Kraft zwischen den Atomen eines Festkörpers; wenn dem Festkörper eine ausreichende Menge des Caloricums gegeben würde, so würde er flüssig und später auch gasförmig.<ref name="Lavoisier" /> Zusammen mit [[Pierre Simon Laplace]] konstruierte er einen [[Kalorimeter#Eiskalorimeter|Eiskalorimeter]]. Lavoisier und Laplace wollten sich aber nicht darauf festlegen, ob sie die ''vis viva'' oder die Caloricum-Substanz für die Wärmeerscheinungen verantwortlich machten.<ref name="Hahn" /> [[Joseph Black]] unterschied ''temperature'' von der ''quantity of heat'', u.&nbsp;a. anhand der [[Latente Wärme|latenten Wärme]] beim Schmelzen. Er bemerkte, dass die ''Wärmemenge'' mit dem aus einem Kessel entweichenden Dampf mittransportiert werden müsse.<ref name="Black" /><ref name="Kerszberg" />
[[Antoine Laurent de Lavoisier]] unterschied 1789 ''chaleur'' (Wärme) von ''calorique'' (Caloricum). Das Caloricum sollte unter anderem eine abstoßende Kraft zwischen den Atomen eines Festkörpers bewirken, so dass dieser bei Zufuhr einer ausreichenden Menge von Caloricum erst flüssig und dann gasförmig würde.<ref name="Lavoisier" /> Lavoisier wollte sich aber nicht festlegen, ob die ''vis viva'' oder die Caloricum-Substanz die Ursache für die Wärmeerscheinungen ist.<ref name="Hahn" /> [[Joseph Black]] unterschied ''temperature'' von der ''quantity of heat'', u.&nbsp;a. anhand der [[Latente Wärme|latenten Wärme]] beim Schmelzen. Er bemerkte, dass die ''Wärmemenge'' mit dem aus einem Kessel entweichenden Dampf mittransportiert werden müsse.<ref name="Black" /><ref name="Kerszberg" />


[[Benjamin Thompson]], Reichsgraf von Rumford untersuchte in seiner Münchner Zeit 1798 die Temperatur von Spänen, die beim Bohren von Kanonenrohren entstehen. Aufgrund der beliebig großen Wärmemenge, die dabei aus der mechanischen Bohrarbeit umgesetzt werden konnte, zweifelte er daran, dass das Caloricum eine (erhaltene) Substanz sein könnte, wodurch er den Vertretern der vis-viva-Theorie Auftrieb gab.<ref name="Stein" /><ref name="Kerszberg" />
[[Benjamin Thompson]], Reichsgraf von Rumford, untersuchte in seiner Münchner Zeit 1798 die Temperatur von Spänen, die beim Bohren von Kanonenrohren entstehen. Aufgrund der beliebig großen Wärmemenge, die dabei aus der mechanischen Bohrarbeit entstehen konnte, zweifelte er daran, dass das Caloricum eine (erhaltene) Substanz sein könnte, wodurch er den Vertretern der vis-viva-Theorie Auftrieb gab.<ref name="Stein" /><ref name="Kerszberg" />


Der Namensgeber des [[Carnot-Prozess]]es, [[Nicolas Léonard Sadi Carnot]], schrieb 1824, dass die Kraft einer Dampfmaschine nicht am Verbrauch von ''calorique'' liegt, sondern an ihrem Transport von einem warmen Körper auf einen kalten.<ref name="Carnot" /> Mit den Experimenten von [[Robert Mayer]] und [[James Prescott Joule]] wurde Anfang der 1840er Jahre gezeigt, dass sich mechanische Arbeit in [[Wärme]] umwandeln ließ. Dies war die Grundlage für den [[Energieerhaltung]]s<nowiki />satz, also den [[Erster Hauptsatz der Thermodynamik|ersten Hauptsatz]].
Der Namensgeber des [[Carnot-Prozess]]es, [[Nicolas Léonard Sadi Carnot]], schrieb 1824<ref name="Carnot" />, dass die Kraft einer Dampfmaschine nicht am Verbrauch von ''calorique'' liegt, sondern an ihrem Transport von einem warmen Körper auf einen kalten, und bereitete damit den Entropiebegriff vor. Mit den Experimenten von [[Robert Mayer]] und [[James Prescott Joule]] wurde Anfang der 1840er Jahre gezeigt, dass die mechanisch erzeugte Wärme in einem festen Verhältnis zur aufgewendeten mechanischen Arbeit steht. Dies war die Grundlage für den 1847 von [[Hermann von Helmholtz]] allgemein formulierten [[Energieerhaltung]]ssatz, also den [[Erster Hauptsatz der Thermodynamik|ersten Hauptsatz der Thermodynamik]]. Seitdem hat der physikalische Begriff Wärme die Bedeutung einer Energie.


Weitere 20 Jahre später stellte [[Rudolf Clausius]] fest, dass bei einer Übertragung der Energieform ''Wärme'' auch eine andere mengenartige Größe fließen muss. Diese Größe machte er für die ''Disgregation'' beim Schmelzen verantwortlich und nannte sie ''Entropie''.<ref name="Clausius65" /><ref name="Clausius67" /> Wie von [[Hugh Longbourne Callendar]] 1911 herausgearbeitet, entspricht Clausius’ ''Entropie'' dem ''calorique'' von Lavoisier und Carnot.<ref name="Callendar" /><ref name="FalkRuppel" />
Weitere 20 Jahre später stellte dann [[Rudolf Clausius]] fest, dass bei einer Übertragung der Energieform ''Wärme'' auch eine zweite mengenartige Größe fließen muss. Diese Größe, die er auch quantitativ definierte, sah er als die Ursache für die ''Disgregation''“ eines festen Körpers beim Schmelzen an und nannte sie ''Entropie''.<ref name="Clausius65" /><ref name="Clausius67" /> Wie von [[Wilhelm Ostwald]] 1908 sowie [[Hugh Longbourne Callendar]] 1911 herausgearbeitet, entspricht die ''Entropie'' bei Clausius dem ''calorique'' bei Lavoisier und Carnot.<ref name="Ostwald" /><ref name="Callendar" /><ref name="FalkRuppel" />


Mit Arbeiten von [[Ludwig Boltzmann]] und [[Willard Gibbs]] gelang es um 1875 der Entropie eine [[Statistik|statistische]] Definition zu geben, welche die zuvor makroskopisch definierte Größe mikroskopisch erklärt.<ref name="Down07" /> Die Entropie <math>S</math> eines [[Makrozustand]]s wird dabei durch die Wahrscheinlichkeiten <math>p_i</math> der [[Mikrozustand|Mikrozustände]] <math>i</math> berechnet:
Mit Arbeiten von [[Ludwig Boltzmann]] und [[Willard Gibbs]] gelang es um 1875, der Entropie eine [[Statistik|statistische]] Definition zu geben, welche die von Clausius makroskopisch definierte Größe mikroskopisch erklärt.<ref name="Down07" /> Die Entropie <math>S</math> eines [[Makrozustand]]s wird dabei durch die Wahrscheinlichkeiten <math>p_i</math> der [[Mikrozustand|Mikrozustände]] <math>i</math> berechnet:
:<math>S = - k_\mathrm{B}\sum_i p_i \ln(p_i)</math>
:<math>S = - k_\mathrm{B}\sum_i p_i \ln(p_i)</math>
Der Proportionalitätsfaktor <math>k_\mathrm{B}</math> ist die [[Boltzmannkonstante]].
Der Proportionalitätsfaktor <math>k_\mathrm{B}</math> wurde nach seinem Tod als [[Boltzmann-Konstante]] bezeichnet, Boltzmann selbst hat ihren Wert jedoch nie bestimmt.


Die Entropie ist also im Wesentlichen eine statistisch definierte Größe und kann so in vielen Kontexten sinnvoll verwendet werden. Unbeschadet dessen können Definitionen in den Einzeldisziplinen unterschiedlich sein. So nutzte [[Norbert Wiener]] den Begriff der Entropie ebenso zur Beschreibung von Informationsphänomenen wie [[Claude Elwood Shannon]], allerdings mit unterschiedlichem [[Vorzeichen (Zahl)|Vorzeichen]]. Dass sich die Konvention von Shannon durchgesetzt hat, ist vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben. Es wird aber aus diesem Beispiel deutlich, dass bei einer interdisziplinären Anwendung des Entropiebegriffes mindestens Vorsicht und eine genaue Quellenanalyse geboten ist.<ref name="FriggWerndl" />
Die so auf statistische Weise definierte Entropie kann in vielen Kontexten sinnvoll verwendet werden.


Zusammenhänge zwischen Entropie und Information ergaben sich schon im 19. Jahrhundert durch Diskussion des [[Maxwellscher Dämon|Maxwellschen Dämons]], einem Gedankenexperiment, das im Rahmen der Miniaturisierung im Computerzeitalter aktuell wurde. Die [[Informatik]] betrachtet abstrakte Informationen ohne direkten Bezug zur physikalischen Realisation mit der [[Information (Physik)|Shannonschen Informationsentropie]], die der statistischen Interpretation entspricht.
Zusammenhänge zwischen Entropie und Information ergaben sich schon im 19. Jahrhundert durch die Diskussion über den [[Maxwellscher Dämon|maxwellschen Dämon]], ein Gedankenexperiment, das im Rahmen der Miniaturisierung im Computerzeitalter wieder aktuell wurde. Die [[Informationstheorie]] nutzt die [[Information (Physik)|Shannonsche Informationsentropie]], die der statistischen Interpretation entspricht, als abstraktes Maß der Information ohne direkten Bezug zur physikalischen Realisation.
Auch [[Norbert Wiener]] nutzte den Begriff der Entropie zur Beschreibung von Informationsphänomenen, allerdings mit entgegengesetztem [[Vorzeichen (Zahl)|Vorzeichen]]. Dass sich die Konvention von Shannon durchgesetzt hat, ist vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben.<ref name="FriggWerndl" />


== Klassische Thermodynamik ==
== Klassische Thermodynamik ==
In der [[Thermodynamik]] kann ein System auf zwei Arten mit seiner Umgebung Energie austauschen: in Form von [[Wärme]] und [[Arbeit (Physik)|Arbeit]], wobei abhängig vom System und der Prozessführung verschiedene Varianten der Arbeit existieren, u.&nbsp;a. Volumenarbeit, chemische Arbeit und magnetische Arbeit. Im Zuge eines solchen Energieaustauschs ändert sich die Entropie sowohl des Systems als auch der Umgebung. Nur wenn die globale Summe der Entropieänderungen positiv ist, erfolgt die Änderung spontan.
In der [[Thermodynamik]] kann ein System auf zwei Arten mit seiner Umgebung Energie austauschen: als [[Wärme]] oder als [[Arbeit (Physik)|Arbeit]], wobei je nach System und Prozessführung verschiedene Varianten der Arbeit existieren, u.&nbsp;a. Volumenarbeit, Hubarbeit und magnetische Arbeit. Im Zuge eines solchen Energieaustauschs kann sich die Entropie sowohl des Systems als auch der Umgebung ändern. Nur wenn die Summe aller Entropieänderungen positiv ist, erfolgt die Änderung spontan.


=== Grundlagen ===
=== Grundlagen ===
Die Entropie <math>S</math> (Einheit [[Joule|J]]/[[Kelvin|K]]) ist eine extensive Zustandsgröße eines physikalischen Systems und verhält sich bei Vereinigung mehrerer Systeme additiv wie auch das [[Volumen]], die [[Elektrische Ladung]] oder die [[Stoffmenge]]. Der deutsche Physiker [[Rudolf Clausius]] führte diesen Begriff 1865 zur Beschreibung von [[Kreisprozess]]en ein. Dividiert man durch die [[Masse (Physik)|Masse]] des Systems, erhält man die ''spezifische Entropie'' <math>s</math> mit der Einheit J/([[Kilogramm|kg]]·K) als intensive Zustandsgröße.
Die Entropie <math>S</math> (Einheit [[Joule|J]]/[[Kelvin|K]]) ist eine [[extensive Zustandsgröße]] eines physikalischen Systems und verhält sich bei Vereinigung mehrerer Systeme additiv wie auch das [[Volumen]], die [[elektrische Ladung]] oder die [[Stoffmenge]]. Der Physiker [[Rudolf Clausius]] führte diesen Begriff 1865 zur Beschreibung von [[Kreisprozess]]en ein. Dividiert man <math>S</math> durch die [[Masse (Physik)|Masse]] des Systems, erhält man die ''spezifische Entropie'' <math>s</math> mit der Einheit J/([[Kilogramm|kg]]·K) als [[intensive Zustandsgröße]].
 
Das Differential <math>\mathrm{d}S</math> ist nach Clausius bei [[Reversibler Prozess|reversiblen]] Vorgängen zwischen Systemen im Gleichgewicht das Verhältnis von übertragener [[Wärme]] <math>\delta Q_{\mathrm{rev}}</math> und [[Absolute Temperatur|absoluter Temperatur]] <math>T</math>:
:<math>\mathrm{d}S = \frac{\delta Q_{\mathrm{rev}}}{T} \qquad (1)</math>
Diese Entropieänderung ist bei Wärmezufuhr positiv, bei Wärmeabfuhr negativ. In dieser Schreibweise wird bei <math>S</math> ein nicht-kursives <math>\mathrm d</math> benutzt, um hervorzuheben, dass es sich um ein [[vollständiges Differential]] handelt, im Gegensatz zu <math>\delta Q</math>, das kein vollständiges Differential sein kann, weil <math>Q</math> eine Prozessgröße ist. In diesem Zusammenhang spielt also die reziproke absolute Temperatur die Rolle eines „integrierenden Bewertungsfaktors“, der aus der reversibel zu- oder abgeführten Wärme, einem&nbsp;– mathematisch gesehen&nbsp;– unvollständigen Differential, ein zugehöriges ''vollständiges Differential'' <math>\mathrm{d}S</math> macht.<ref>Beim [[1. Hauptsatz der Thermodynamik]] tritt im Gegensatz zum [[2. Hauptsatz der Thermodynamik|2. Hauptsatz]] ein solcher „integrierender Faktor“ nicht auf. Der 1. Hauptsatz besagt, dass die Summe (!) der zugeführten Arbeit, <math>\delta W</math> und der zugeführten Wärme <math>\delta Q</math> immer das vollständige Differential <math>\mathrm d U</math> einer Zustandsfunktion <math>U</math> ergibt, der sogenannten [[Innere Energie|Inneren Energie]], obwohl die zwei einzelnen Differentiale ''nicht''&nbsp; vollständig sind. Bei der Funktion <math>U</math> wird im Gegensatz zu <math>S</math> auch nicht unterschieden, ob die Wärmezufuhr reversibel oder irreversibel erfolgt.</ref> Dadurch ist die Änderung der Entropie bei reversiblen Prozessen – im Gegensatz zur zu- oder abgeführten Wärme – wegunabhängig. Mit der Festlegung eines beliebigen Werts für einen Bezugszustand wird die Entropie damit zu einer allein durch den jeweiligen Zustand gegebenen [[Zustandsgröße]].
 
Insofern kann man die Entropie bei reversibler Prozessführung auch als die „mit <math>\tfrac 1 T</math> bewertete Wärmeenergie“ definieren. Weiter unten wird das Problem behandelt, wie weit die Energie eines Systems in [[Arbeit (Physik)|Arbeit]] umgewandelt werden kann.
 
Benutzt man den ersten Hauptsatz der Thermodynamik, <math>\mathrm{d}U = \delta W + \delta Q</math>, also dass die Energieänderung <math>\mathrm{d}U</math> sich zusammensetzt aus zugeführter Arbeit und Wärme, und setzt für die Arbeit <math>\delta W = -p\,\mathrm{d}V + \mu\,\mathrm{d}N + \dots</math> alle dem Experimentator mittels Änderung der Systemgrößen möglichen Prozesse, erhält man aus (1) für die Änderung der Entropie als Funktion der thermodynamischen Variablen (immer noch im reversiblen Fall)
 
:<math>\mathrm{d}S = \frac{1}{T}( \mathrm{d}U + p\,\mathrm{d}V - \mu\,\mathrm{d}N - \dots)</math>
 
Clausius behandelte auch irreversible Prozesse und zeigte, dass in einem [[Thermodynamisches System|isolierten thermodynamischen System]] die Entropie dabei nie abnehmen kann:
:<math> \Delta S \ge 0 \qquad (2), </math>
wobei das Gleichheitszeichen nur bei reversiblen Prozessen gilt. <math>\Delta S = S_e - S_a</math> ist die Entropieänderung des Systems mit <math>S_a</math> für die Entropie des Zustandes am Anfang der Zustandsänderung und <math>S_e</math> für den Zustand am Ende des Prozesses.
 
Aus (2) folgt für geschlossene Systeme, bei denen Wärmeenergie die Systemgrenzen passieren kann, die Ungleichung:
 
:<math>\Delta S \ge \Delta S_{Q} = \int \frac{\delta Q}{T} \qquad (3a)</math>
 
<math>\Delta S_{Q}</math> ist der Entropie-Anteil, der sich aus der Zufuhr von Wärme über die Systemgrenze hinweg ergibt. Die Formel gilt auch für die Abfuhr von Wärme aus dem System, in diesem Falle ist <math>\Delta S_{Q}</math> negativ. Die Ungleichung (3a) wird nur für rein reversible Prozesse zu einer Gleichung.


Das Differential <math>\mathrm{d}S</math> ist nach Clausius bei [[Reversibler Prozess|reversiblen]] Vorgängen das Verhältnis von übertragener [[Wärme]] <math>\delta Q_{\rm rev}</math> und [[Absolute Temperatur|absoluter Temperatur]] <math>T</math>:
Bei der Analyse thermodynamischer Systeme in der Technik führt man oft eine Bilanzanalyse durch. Hierzu schreibt man die Ungleichung (3a) in der folgenden Form:<ref name="BaehrKabelac_S_92" />
:<math>{\rm d}S = \frac{\delta Q_{\rm rev}}{T} \qquad  (1)</math>
Diese Entropieänderung ist bei Wärmezufuhr positiv, bei Wärmeabfuhr negativ. In dieser Schreibweise wird ein nicht-kursives <math>\mathrm d</math> benutzt, um hervorzuheben, dass es sich um ein [[vollständiges Differential]] handelt, im Gegensatz zu <math>\delta Q</math>, das kein vollständiges Differential sein kann, weil <math>Q</math> eine Prozessgröße ist. In diesem Zusammenhang spielt also die reziproke absolute Temperatur die Rolle eines „integrierenden Bewertungsfaktors“, der aus der reversibel zu- oder abgeführten Wärme, einem&nbsp;– mathematisch gesehen&nbsp;– unvollständigen Differential, ein zugehöriges ''vollständiges Differential'' <math>\mathrm{d}S</math> macht.<ref>Beim [[1. Hauptsatz der Thermodynamik]] tritt im Gegensatz zum [[2. Hauptsatz der Thermodynamik|2. Hauptsatz]] ein solcher „integrierender Faktor“ nicht auf. Der 1. Hauptsatz besagt, dass die Summe (!) der zugeführten Arbeit, <math>\delta W</math> und der zugeführten Wärme <math>\delta Q</math> immer das vollständige Differential <math>\mathrm d U</math> einer Zustandsfunktion <math>U</math> ergibt, der sogenannten [[Innere Energie|Inneren Energie]], obwohl die zwei einzelnen Differentiale ''nicht''&nbsp; vollständig sind. Bei der Funktion <math>U</math> wird im Gegensatz zu <math>S</math> auch nicht unterschieden, ob die Wärmezufuhr reversibel oder irreversibel erfolgt.</ref> Dadurch ist die Änderung der Entropie bei reversiblen Prozessen – im Gegensatz zur zu- oder abgeführten Wärme – wegunabhängig.


Insofern kann man die Entropie bei reversibler Prozessführung auch als die „mit <math>\tfrac 1 T</math> bewertete Wärmeenergie“ definieren. Weiter unten wird das Problem behandelt, wieweit die Energie <math>T\,\mathrm{d}S</math> in [[Arbeit (Physik)|Arbeit]] umgewandelt werden kann.
:<math>\Delta S = \Delta S_{Q} + \Delta S_\mathrm{irr} \qquad (3)</math>


Clausius behandelte aber auch irreversible Prozesse. Und zwar zeigte er, dass in einem [[Thermodynamisches System|isolierten thermodynamischen System]] die Entropie folgende Ungleichung erfüllt:
Dabei ist <math>\Delta S_\mathrm{irr} \ge 0</math> der Entropieanteil der durch irreversible Vorgänge im Inneren des Systems entsteht. Hierzu gehören etwa Vermischungsvorgänge nach dem Entfernen einer inneren Trennwand, thermische Ausgleichsvorgänge, die Umwandlung von elektrischer oder mechanischer Energie ([[ohmscher Widerstand]], Rührwerk) in Wärme und chemische Reaktionen.
:<math>\qquad {\rm d}{S} \ge 0 \qquad (2), </math>
Beschränken sich die irreversiblen Vorgänge ausschließlich auf die Dissipation von mechanischer oder elektrischer Arbeit <math>\delta W_\mathrm{diss}</math>, dann kann <math>\Delta S_\mathrm{irr}</math> durch die Arbeit bzw. die dissipierte Leistung <math>P_\mathrm{diss}</math> ausgedrückt werden.
wobei das Gleichheitszeichen nur bei reversiblen Prozessen gilt.


Man kann ein nicht-isoliertes System, wie es in (1) behandelt wird, immer zu einem isolierten System erweitern, und zwar durch Addition eines Zusatzes.  Dabei entspricht die ebenfalls additive Zusatzentropie einer reversiblen Wärmeänderung. Aus Gleichung (2) folgt also, dass bei irreversibler Wärmeänderung in (1) anstatt des Gleichheitszeichens das Größerzeichen gilt, und zwar selbst dann, wenn die Wärme nicht zugeführt, sondern abgeführt wird. Das Größerzeichen ist auch bei negativen Zahlen sinnvoll. Dem entspräche also die in vielen Lehrbüchern noch übliche Schreibweise
:<math>\Delta S_\mathrm{irr} = \int \frac{\delta W_\mathrm{diss}}{T} = \int \frac{P_\mathrm{diss}}{T} dt </math>
:<math>{\rm d}S \ge \frac{\delta Q}{T} \qquad  (3a, \text{veraltet})</math>


Auch hier gilt das Gleichheitszeichen nur bei reversiblen Prozessen. Diese veraltete Schreibweise ist unpräzise: Man unterscheidet heute genauer zwischen der ''transportierten'' Entropie (erste Ungleichung: In isolierten Systemen kann keine Wärme über die Systemgrenzen transportiert werden) und der ''produzierten'' Entropie (zweite Ungleichung). Man fasst beide Ungleichungen zu einer Gleichung zusammen, die allgemein gilt:
Läuft der irreversible Prozess quasistatisch ab, so dass das System immer nahe einem Gleichgewichtszustand ist, so kann (3) auch mit zeitlichen Ableitungen geschrieben werden.
:<math>\mathrm{d}S = \frac{\delta Q}{T} + \frac{\delta W_{\rm diss.,\,\,inn.}}{T} \qquad (3)</math>


Dabei ist <math>\delta W_{\rm diss.,\,\,inn.}</math> die ''innerhalb des Systems'' [[Dissipation|dissipierte]] Arbeit. Sie ist immer positiv, da sie dem System zugeführt wird (z.&nbsp;B. Reibungsarbeit). Auch diese dissipativen Prozesse treten als Wärme in Erscheinung und tragen zur Entropieänderung bei. Beispielsweise spricht man beim [[Ohmscher Widerstand|Ohmschen Widerstand]] in der Elektrizitätslehre von der erzeugten „Jouleschen Wärme“. Der „integrierende Nenner“ <math>T</math> tritt in beiden Termen auf. Um präzise zu vergleichen, muss man aber stets angeben, auf welchen Ausgangszustand genau sich die Änderungen beziehen.
:<math>\dot S = \dot S_{Q} + \dot S_\mathrm{irr} \qquad</math>


Gleichung (3) ist eine Form des [[Thermodynamik#Zweiter Hauptsatz|zweiten Hauptsatzes der Thermodynamik]]. Das [[Differential (Mathematik)|Differential]] <math>\mathrm{d}S</math> existiert allerdings nur für quasi-statische [[Zustandsänderung]]en. Das bedeutet, dass eine Folge von Zuständen messtechnisch erfasst werden können muss, und zwar Zustände mit nur geringen Ungleichgewichten. Sind nur Anfangs- und Endzustand bekannt, kann unter Umständen (z.&nbsp;B. bei idealen Gasen) auch ein Ersatzprozess zur Berechnung verwendet werden. Wie dies geschieht, wird in dem Anwendungsbeispiel zum  [[#Expansionsversuch von Gay-Lussac|Expansionsversuch von Gay-Lussac]] erklärt.
Dabei wird <math>\dot S_{Q}</math> als ''Entropietransportstrom'' und <math>\dot S_{irr}</math> als ''Entropieproduktionsstrom'' bezeichnet.<ref name="BaehrKabelac_S_92">{{Literatur |Autor=Hans Dieter Baehr, [[Stephan Kabelac]] |Titel=Thermodynamik – Grundlagen und technische Anwendungen |Auflage=16 |Verlag=Springer Vieweg |Ort=Braunschweig |Datum=2016 |ISBN=978-3-662-49567-4 |Kapitel=3.1.2 Die Formulierung des 2. Hauptsatzes durch Postulate und 3.1.3 Die Entropiebilanzgleichung für geschlossene Systeme |Seiten=92-101}}</ref>


Aus dem [[Thermodynamik#Erster Hauptsatz|ersten Hauptsatz der Thermodynamik]]
Aus dem [[Thermodynamik#Erster Hauptsatz|ersten Hauptsatz der Thermodynamik]]
Zeile 77: Zeile 87:
:<math>\Delta U = W + Q</math>
:<math>\Delta U = W + Q</math>


folgt, dass das Produkt <math>(Q =)\, T\Delta S </math> den nicht verwerteten Anteil („Abwärme“) bei der [[Isotherme Zustandsänderung|isothermen]] Erzeugung von Arbeit <math>W</math> aus vorhandener [[Innere Energie|innerer Energie]] <math>\Delta U</math> darstellt. Der Maximalwert dieser Arbeit ist die sogenannte [[Freie Energie]]
folgt, dass das Produkt <math>(Q =)\, T\Delta S </math> den nicht verwerteten Anteil („Abwärme“) bei der [[Isotherme Zustandsänderung|isothermen]] Erzeugung von Arbeit <math>W</math> aus vorhandener [[Innere Energie|innerer Energie]] <math>\Delta U</math> darstellt. Der Maximalwert dieser Arbeit ist die sogenannte [[freie Energie]]


:<math>\Delta F = \Delta U - T \Delta S</math>.
:<math>\Delta F = \Delta U - T \Delta S</math>.
Zeile 85: Zeile 95:
Eine Konsequenz dessen ist die Unmöglichkeit eines Perpetuum Mobile 2. Art. Clausius formulierte:
Eine Konsequenz dessen ist die Unmöglichkeit eines Perpetuum Mobile 2. Art. Clausius formulierte:


{{Zitat|Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.}}
{{Zitat
|Text=Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.}}


Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Wäre es nämlich möglich, einen solchen Kreisprozess zu konstruieren, dann könnte man dem warmen Reservoir unentwegt Energie entnehmen und damit Arbeit verrichten. Die dissipierte Arbeit würde dann dem kalten Reservoir zugeführt und käme über den erwähnten Kreisprozess wieder dem warmen Reservoir zugute. Äquivalent dazu ist die Formulierung von [[William Thomson, 1. Baron Kelvin|William Thomson]], dem späteren Lord Kelvin:
Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Wäre es nämlich möglich, einen solchen Kreisprozess zu konstruieren, könnte man dem warmen Reservoir unentwegt Energie entnehmen und damit Arbeit verrichten. Die dissipierte Arbeit würde dann dem kalten Reservoir zugeführt und käme über den erwähnten Kreisprozess wieder dem warmen Reservoir zugute. Äquivalent dazu ist die Formulierung von [[William Thomson, 1. Baron Kelvin|William Thomson]], dem späteren Lord Kelvin:


{{Zitat|Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.}}
{{Zitat
|Text=Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.}}


Ein idealer, jederzeit umkehrbarer Prozess ohne Reibungsverluste wird auch reversibel genannt. Oft bleibt die Entropie während eines Prozesses unverändert, <math>\Delta S = 0</math>, bekanntes Beispiel ist die adiabate Kompression und Expansion im Zyklus einer [[Carnot-Maschine]]. Man nennt Zustandsänderungen mit konstanter Entropie auch isentrop, allerdings sind nicht alle isentropen Zustandsänderungen adiabatisch. Ist ein Prozess adiabatisch ''und'' reversibel, folgt jedoch stets, dass er auch isentrop ist.
Ein idealer, jederzeit umkehrbarer Prozess ohne Reibungsverluste wird auch reversibel genannt. Oft bleibt die Entropie während eines Prozesses unverändert, <math>\Delta S = 0</math>, bekanntes Beispiel ist die adiabate Kompression und Expansion im Zyklus einer [[Carnot-Maschine]]. Man nennt Zustandsänderungen mit konstanter Entropie auch isentrop, allerdings sind nicht alle isentropen Zustandsänderungen adiabatisch. Ist ein Prozess adiabatisch ''und'' reversibel, folgt jedoch stets, dass er auch isentrop ist.


Wird in einem ''[[Kreisprozess]]'' bei der Temperatur <math>T_{\rm h}</math> die Wärme <math>Q_{\rm h}</math> aufgenommen und die Wärmemenge <math>Q_{\rm l}</math> bei <math>T_{\rm l}</math> wieder abgegeben, und erfolgen Wärmeaufnahme und Abgabe reversibel, so gilt, dass sich die Entropie dabei ''nicht'' ändert:
Wird in einem ''[[Kreisprozess]]'' bei der Temperatur <math>T_{\rm h}</math> die Wärme <math>Q_{\rm h}</math> aufgenommen und die Wärmemenge <math>Q_{\rm l}</math> bei <math>T_{\rm l}</math> wieder abgegeben und erfolgen Wärmeaufnahme und Abgabe reversibel, so gilt, dass sich die Entropie dabei ''nicht'' ändert:
: <math>\oint {\rm d} S=0</math>; &nbsp; &nbsp; oder &nbsp; <math>\frac{Q_{\rm h}}{T_{\rm h}} = \frac{Q_{\rm l}}{T_{\rm l}}\,,</math>.
: <math>\oint {\rm d} S=0</math>; &nbsp; &nbsp; oder &nbsp; <math>\frac{Q_{\rm h}}{T_{\rm h}} = \frac{Q_{\rm l}}{T_{\rm l}}\,</math>.


Daraus lassen sich die maximale verrichtete Arbeit <math>W = Q_{\rm h} - Q_{\rm l}</math> und der maximale [[Wirkungsgrad]] <math>\eta</math>, der so genannte [[Carnot-Wirkungsgrad]], ableiten:
Daraus lassen sich die maximale verrichtete Arbeit <math>W = Q_{\rm h} - Q_{\rm l}</math> und der maximale [[Wirkungsgrad]] <math>\eta</math>, der so genannte [[Carnot-Wirkungsgrad]], ableiten:
Zeile 100: Zeile 112:
Der carnotsche Wirkungsgrad stellt für alle Wärmekraftmaschinen das Maximum an Arbeitsausbeute dar. Reale Maschinen haben meistens einen erheblich geringeren Wirkungsgrad. Bei ihnen wird ein Teil der theoretisch verfügbaren Arbeit dissipiert, z.&nbsp;B. durch Reibung. Folglich entsteht in einer realen Maschine Entropie und es wird mehr Wärme an das kalte Reservoir abgeführt als notwendig. Sie arbeitet also irreversibel.
Der carnotsche Wirkungsgrad stellt für alle Wärmekraftmaschinen das Maximum an Arbeitsausbeute dar. Reale Maschinen haben meistens einen erheblich geringeren Wirkungsgrad. Bei ihnen wird ein Teil der theoretisch verfügbaren Arbeit dissipiert, z.&nbsp;B. durch Reibung. Folglich entsteht in einer realen Maschine Entropie und es wird mehr Wärme an das kalte Reservoir abgeführt als notwendig. Sie arbeitet also irreversibel.


Der [[Thermodynamik#Dritter Hauptsatz|dritte Hauptsatz]] (der so genannte „[[Nernst-Theorem|Nernstsche Wärmesatz]]“) legt die Entropie einer perfekt kristallinen Substanz, bei der beispielsweise keine Spinentartung auftritt, am [[Absoluter Nullpunkt|absoluten Nullpunkt]] als Null fest:
Der [[Thermodynamik#Dritter Hauptsatz|dritte Hauptsatz]] (der so genannte „[[Nernst-Theorem|Nernstsche Wärmesatz]]“) legt die Entropie einer perfekt kristallinen Substanz, bei der beispielsweise keine [[Entartung (Quantenmechanik)|Spinentartung]] auftritt, am [[Absoluter Nullpunkt|absoluten Nullpunkt]] als Null fest:
:<math>S(T=0) \equiv 0\,.</math>
:<math>S(T=0) \equiv 0\,.</math>


Eine Folgerung ist beispielsweise, dass die [[Wärmekapazität]] eines Systems bei tiefen Temperaturen verschwindet, und vor allem, dass der absolute Temperaturnullpunkt nicht erreichbar ist (das gilt auch bei Spinentartung).
Eine Folgerung ist beispielsweise, dass die [[Wärmekapazität]] eines Systems bei tiefen Temperaturen verschwindet, und vor allem, dass der absolute Temperaturnullpunkt nicht erreichbar ist (das gilt auch bei Spinentartung).


Erfüllt eine Substanz nicht die Bedingung ''perfekt kristallin'' (wenn z.&nbsp;B. mehrere Konfigurationen vorliegen oder es sich um ein Glas handelt), dann kann ihr auch am absoluten Nullpunkt eine Entropie zugeschrieben werden ([[Nullpunktsentropie]]).
Erfüllt eine Substanz nicht die Bedingung ''perfekt kristallin'' (wenn z.&nbsp;B. mehrere Konfigurationen vorliegen oder es sich um ein Glas handelt), kann ihr auch am absoluten Nullpunkt eine Entropie zugeschrieben werden ([[Nullpunktsentropie]]).


=== Partielle Ableitungen der Entropie ===
=== Partielle Ableitungen der Entropie ===
Aus dem '''2. Hauptsatz''' folgen auch die vielfach benötigten Aussagen über die ''partiellen Ableitungen'' der Entropie, z.&nbsp;B. nach der Temperatur ''T'' bzw. nach dem Volumen ''V'' eines flüssigen oder gasförmigen nichtmagnetischen Systems. Mit dem zweiten Hauptsatz gilt ja zunächst, dass bei reversiblen Zustandsänderungen <math>\mathrm dS=\frac{\delta Q_{\mathrm{reversibel}}}{T}</math> ist. Zusammen mit dem ersten Hauptsatz folgt daraus <math>\mathrm dS=\frac{\mathrm dU -\delta W}{T},</math> weil nach dem ersten Hauptsatz für die [[Innere Energie]] ''U'' gilt, dass die Summe der dem betrachteten System zugeführten Arbeit <math>\delta W</math> und der zugeführten Wärme <math>\delta Q</math> (&nbsp;einzeln keine Zustandsfunktionen!&nbsp;) eine Zustandsfunktion ergibt, eben die „Innere Energie“ des Systems. Dabei wurde vorausgesetzt, dass die Änderungen von Volumen und Temperatur adiabatisch-langsam erfolgen, sodass keine irreversiblen Prozesse erzeugt werden.
Aus dem '''2. Hauptsatz''' folgen Aussagen über die ''partiellen Ableitungen'' der Entropie, z.&nbsp;B. nach der Temperatur <math>T</math> oder dem Volumen <math>V</math>. Mit dem zweiten Hauptsatz gilt zunächst, dass bei reversiblen Zustandsänderungen <math>\mathrm dS=\tfrac{\delta Q_{\mathrm{reversibel}}}{T}</math> ist. Zusammen mit dem ersten Hauptsatz folgt daraus <math>\mathrm dS=\tfrac{\mathrm dU -\delta W}{T}</math>, weil nach dem ersten Hauptsatz für die [[Innere Energie]] <math>U</math> gilt, dass die Summe der dem betrachteten System zugeführten Arbeit <math>\delta W</math> und der zugeführten Wärme <math>\delta Q</math> (einzeln keine Zustandsfunktionen!) eine Zustandsfunktion ergibt, eben die „Innere Energie“ des Systems. Dabei wurde vorausgesetzt, dass die Änderungen von Volumen und Temperatur adiabatisch-langsam erfolgen, sodass keine irreversiblen Prozesse erzeugt werden.


Also
Also
:<math>\mathrm dS=\frac{1}{T}{\frac{\partial U(T,V)}{\partial V} }{\mathrm d V}+\frac{1}{T}\frac{\partial (U(T,V)+p\cdot V(T))}{\partial T} \mathrm d T,</math>
:<math>\mathrm dS=\frac{1}{T}{\frac{\partial U(T,V)}{\partial V} }\,{\mathrm d V}+\frac{1}{T}\frac{\partial (U(T,V)+p\cdot V(T))}{\partial T} \,\mathrm d T,</math>
wobei <math>\delta W=-p\mathrm dV</math> eingesetzt wurde.
wobei <math>\delta W=-p\,\mathrm dV</math> eingesetzt wurde.
:<math>\Rightarrow\frac{\partial S}{\partial V}=\frac{1}{T}{\frac{\partial U(T,V)}{\partial V} }</math> bzw.
:<math>\Rightarrow\frac{\partial S}{\partial V}=\frac{1}{T}{\frac{\partial U(T,V)}{\partial V} }</math> bzw.
:<math>\frac{\partial S}{\partial T}=\frac{1}{T}\frac{\partial (U(T,V)+p\cdot V(T))}{\partial T}</math>.
:<math>\frac{\partial S}{\partial T}=\frac{1}{T}\frac{\partial (U(T,V)+p\cdot V(T))}{\partial T}</math>.


Ähnliche Beziehungen ergeben sich, wenn das System außer von der Dichte bzw. vom Volumen noch von weiteren Variablen abhängt, z.&nbsp;B. noch von elektrischen oder magnetischen Momenten.
Ähnliche Beziehungen ergeben sich, wenn das System außer von der Dichte bzw. vom Volumen noch von weiteren Variablen abhängt, z.&nbsp;B. von elektrischen oder magnetischen Momenten.


Aus dem '''3. Hauptsatz''' folgt nunmehr, dass sowohl <math>\frac{\partial S}{\partial T}</math> als auch vor allem <math>\frac{\partial S}{\partial V}</math> für <math>T\to 0</math> verschwinden müssen, und zwar hinreichend rasch, was (wie man zeigen kann) nur erfüllt ist, wenn ''für tiefe Temperaturen nicht die klassische Physik, sondern die Quantenphysik gilt''.
Aus dem '''3. Hauptsatz''' folgt, dass sowohl <math>\tfrac{\partial S}{\partial T}</math> als auch <math>\tfrac{\partial S}{\partial V}</math> für <math>T\to 0</math> verschwinden müssen, und zwar hinreichend rasch, was (wie man zeigen kann) nur erfüllt ist, wenn für tiefe Temperaturen nicht die klassische Physik, sondern die Quantenphysik gilt.


== Statistische Physik ==
== Statistische Physik ==
Um 1880 konnte [[Ludwig Boltzmann]] mit der von ihm und [[James Clerk Maxwell|James Maxwell]] begründeten [[Statistische Physik|statistischen Physik]] auf mikroskopischer Ebene die Entropie erklären. In der statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzter Systeme wie [[Atom]]e und [[Molekül]]e, erklärt. Ein [[Mikrozustand]] ist klassisch gegeben durch Angabe aller Orte und Impulse der zum System zählenden Teilchen. Ein solcher Mikrozustand <math>(\vec{q},\vec{p}\,)</math> ist demnach ein Punkt in einem ''6N''-dimensionalen Raum, der in diesem Zusammenhang [[Phasenraum]] genannt wird. Die [[Kanonische Gleichungen|kanonischen Gleichungen]] der klassischen Mechanik beschreiben die zeitliche Evolution des Systems, die Phasentrajektorie.
In der u.&nbsp;a. von [[James Clerk Maxwell|James Maxwell]] begründeten statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzter Systeme wie [[Atom]]e und [[Molekül]]e, erklärt. Bezüglich der Entropie stellt sich die Frage, wie sie hier gedeutet werden kann, und ob der zeitlich gerichtete zweite Hauptsatz aus einer mikroskopischen zeitumkehrinvarianten Theorie hergeleitet werden kann.
 
Ein [[Mikrozustand]] ist klassisch gegeben durch Angabe aller Orte und Impulse der <math>N</math> zum System zählenden Teilchen. Ein solcher Mikrozustand <math>(\vec{q},\vec{p})</math> ist demnach ein Punkt in einem ''6N''-dimensionalen Raum, der in diesem Zusammenhang [[Phasenraum]] genannt wird. Die [[Kanonische Gleichungen|kanonischen Gleichungen]] der klassischen Mechanik beschreiben die zeitliche Evolution des Systems, die Phasentrajektorie. Alle unter gegebenen makroskopischen Randbedingungen, wie z.&nbsp;B. Gesamtenergie <math>E</math>, Volumen <math>V</math> und Teilchenzahl <math>N</math>, erreichbaren Phasenpunkte bilden ein zusammenhängendes Phasenraumvolumen <math>\Omega</math>.


Alle unter gegebenen makroskopischen Randbedingungen, wie z.&nbsp;B. Gesamtenergie E, Volumen V und Teilchenzahl N, erreichbaren Phasenpunkte bilden ein zusammenhängendes [[Phasenraum]]volumen <math>\Omega</math>. Die Entropie ist ein Maß für das unter bestimmten makroskopischen Randbedingungen zugängliche Phasenraumvolumen, also für die Zahl der zugänglichen Zustände. Je größer die Entropie ist, desto unbestimmter ist der mikroskopische Zustand, desto weniger Informationen sind über das System bekannt. Das grundlegende Postulat der statistischen Physik besagt, dass jeder der zugänglichen Mikrozustände eines vollständig abgeschlossenen Systems im Gleichgewicht mit gleicher Wahrscheinlichkeit auftritt und somit die Entropie maximal ist (siehe: [[Maximum-Entropie-Methode]], [[Mikrokanonisches Ensemble]]).
Um 1880 konnte [[Ludwig Boltzmann]] auf mikroskopischer Ebene eine Größe finden, die die Definition der thermodynamischen Entropie erfüllt:


Die Entropie ist proportional zum Logarithmus des zugänglichen Phasenraumvolumens (bzw. quantenmechanisch: der Zahl der zugänglichen Zustände) und berechnet sich im [[Internationales Einheitensystem|Internationalen Einheitensystem (SI)]] aus
:<math>S = k_\mathrm{B} \ln\,\Omega</math>
:<math>S = k_\mathrm{B} \ln\,\Omega</math>
in der Einheit J/K. Um diese Rechnung konkret ausführen zu können, müssen also zunächst die makroskopischen [[Observable]]n des betrachteten Systems bekannt sein. Die Konstante <math>k_\mathrm{B}</math> wird, in Anerkennung der Leistungen Ludwig Boltzmanns bei der Entwicklung der statistischen Theorie, als [[Boltzmann-Konstante]] bezeichnet, er selbst hat ihren Wert jedoch nicht bestimmt.


== Entropie als „Maß der Unordnung“ ==
Die Konstante <math>k_\mathrm{B}</math> ist die Boltzmannkonstante. Die Entropie ist also proportional zum Logarithmus des zu den Werten der thermodynamischen Variablen gehörigen Phasenraumvolumens.
[[Datei:Verteilung im Raum.jpg|mini|300px|Das Bild stellt vereinfacht die Zustände eines Systems dar, bei dem vier Atome jeweils entweder auf der rechten oder der linken Seite eines Behälters sein können. Die Spalten sind nach der Gesamtzahl der Teilchen auf der rechten bzw. linken Seite sortiert. ''W'' gibt dabei die Anzahl der Möglichkeiten in der jeweiligen Kategorie an und ist das im vorigen Abschnitt als <math>\Omega</math> bezeichnete Phasenraumvolumen.]]
 
Eine sehr geläufige, aber auch sehr umstrittene Definition der Entropie ist es, sie als ''Maß der Unordnung'' zu bezeichnen, siehe z.&nbsp;B. das [[Holleman-Wiberg Lehrbuch der Anorganischen Chemie|Chemiebuch von Holleman-Wiberg]].<ref name="HollemanWiberg" /> Insbesondere beim Betrachten des Bechers im [[#Mischungsentropie|Beispiel]] über Mischentropie sieht das rechte Bild mit der vollständigen Vermischung für die meisten ''ordentlicher'' aus, als das linke mit den Schlieren, weshalb es dann unverständlich erscheint, dieses als den ''unordentlicheren'' Zustand mit höherer Entropie zu bezeichnen.
Eine äquivalente Formel lautet
:<math>S = - k_\mathrm B \int w \, \ln(w) \mathrm d \Omega</math>
(mit <math>w</math> der Wahrscheinlichkeit für den Mikrozustand bei Kenntnis der zum thermodynamischen System gehörigen Variablen, und dem Integral über den Phasenraum). Sie führt – wenn man mit <math>\mathrm d^{3N} q\; \mathrm d^{3N}p</math> das natürliche Maß auf dem Phasenraum benutzt und die Wahrscheinlichkeit in Abwesenheit anderer Information als konstant ansieht (<math>w = 1 / \Omega</math> mit dem Phasenraumvolumen <math>\Omega</math>, das zu den Werten der thermodynamischen Variablen gehört) – sofort auf die „Boltzmann-Formel“ (da die Integration unabhängig von <math>w</math> ist: <math>\textstyle S = - k_\mathrm B  w \, \ln(w) \mathrm \int d\Omega= k_\mathrm{B} \ln\,\Omega </math> und <math>w = 1 / \Omega=\text{const}</math>). Ihre Ähnlichkeit mit [[Claude Shannon|Shannons]] Ausdruck für die Information legt nahe, die Entropie als das Informationsdefizit über den Mikrozustand zu interpretieren, das mit der Kenntnis der makroskopischen Variablen verbunden ist. Je größer die Entropie ist, desto weniger weiß man über den mikroskopischen Zustand und desto weniger Informationen sind über das System bekannt.
 
Letzteres wurde von [[Edwin Thompson Jaynes|E.T. Jaynes]] unter dem Stichwort „informationstheoretische Entropie“ zu einem Konzept ausgearbeitet, die Entropie als [[Erkenntnistheorie|epistemische]] (er nannte es „anthropomorph“) Größe zu verstehen, etwa in folgendem Zitat:
{{Zitat
|Text=For example, I have been asked several times whether, in my opinion, a biological system, say a cat, which converts inanimate food into a highly organized structure and behavior, represents a violation of the second law. The answer I always give is that, until we specify the set of parameters which define the thermodynamic state of the cat, no definite question has been asked!
|Autor=E. T. Jaynes
|lang=en
|Übersetzung=Zum Beispiel bin ich mehrmals gefragt worden, ob meiner Meinung nach ein biologisches System, etwa eine Katze, die unbelebte Nahrung in hoch organisierte Struktur und Verhalten verwandelt, eine Verletzung des zweiten Hauptsatzes darstellt. Die Antwort, die ich immer gebe, ist, dass, solange wir den Satz an Parametern, die den thermodynamischen Zustand der Katze festlegen, nicht spezifizieren, keine eindeutige Frage gestellt wurde.
|ref=<ref>E. T. Jaynes: ''Gibbs vs. Boltzmann Entropies.'' In: ''American Journal of Physics.'' Band 33 (Ausgabe 5), 1965. S. 398</ref>}}
Es wird deutlich, dass die Entropie – wie überhaupt ein thermodynamisches System – erst durch eine Auswahl an Variablen definiert und von diesen abhängig ist. Einem Mikrozustand kann sie nicht zugeordnet werden. Kritisiert wird daran, dass hier die Entropie den Rang einer subjektiven Größe zu haben scheint, was in einer objektiven Naturbeschreibung nicht angemessen ist.
 
=== Beweis des zweiten Hauptsatzes ===
Vor allem Boltzmann versuchte, den 2. Hauptsatz (dass die Entropie nur zunehmen kann) statistisch herzuleiten. Die anschauliche Vorstellung ist die, dass etwa bei einem Mischungsvorgang etwas sehr Wahrscheinliches passiert, während der umgekehrte Vorgang einer Entmischung sehr unwahrscheinlich wäre. Dies galt es mathematisch zu präzisieren, mit seinem [[H-Theorem]] hatte er hier einen Teilerfolg. Allerdings wird mit dem „Loschmidt'schen Umkehreinwand“ verdeutlicht, dass mikroskopisch jeder Vorgang genauso rückwärts laufen könnte und daher ein zeitgerichtetes Gesetz mikroskopisch grundsätzlich nicht hergeleitet werden kann. Auch der [[Wiederkehrsatz]] stellt die Möglichkeit eines solchen Gesetzes in Frage.


Diese Definition lässt sich allerdings anhand des rechts stehenden Bildes<ref>W. A. Kreiner: ''Entropie&nbsp;– was ist das?'' Ein Überblick. [[doi:10.18725/OPARU-2609]]</ref> mit den bisherigen Definitionen in Einklang bringen. Das Bild stellt einen Behälter dar, in dem sich vier Atome befinden, die entweder auf der rechten, oder auf der linken Seite des Behälters sein können. Wenn man annimmt, dass alle 16 Zustände gleich wahrscheinlich sind, so sind die [[Wahrscheinlichkeit]]en, für die einzelnen Spalten gerade mit <math>p=W/16</math> gegeben, wobei das ''W'' aus dem Bild gerade die Anzahl der Zustände in den jeweiligen Spalten bezeichnet.
Im informationstheoretischen Konzept verstanden bedeutet der 2. Hauptsatz, dass die Information über den Mikrozustand bei Beobachtung der makroskopischen Variablen nur abnehmen kann. Hier ist der Beweis viel einfacher möglich:


Nehmen wir nun an, dass wir makroskopisch unterscheiden könnten, wie viele Atome sich auf der linken Seite befinden. Die erste Spalte hat ''N=4'' Atome links, die zweite hat ''N=3'' Atome links usw. Die Wahrscheinlichkeit, dass sich alle vier Atome auf der linken Seite befinden, wäre als Beispiel daher gerade <math>p=1/16</math>, während die mittlere Spalte eine höhere Wahrscheinlichkeit von <math>p=6/16</math> besitzt. Mit der Formel <math>S = k_\mathrm{B} \ln\,W</math> hat der makroskopische Zustand mit ''N=2'' also die höchste Entropie.
Nach dem [[Satz von Liouville (Physik)|Satz von Liouville]] bleibt das Phasenraumvolumen der mit einem Anfangswert der thermodynamischen Variablen verbundenen Mikrozustände bei der Zeitentwicklung konstant.<ref>[[Harald J. W. Müller-Kirsten|H.J.W. Müller-Kirsten]], Basics of Statistical Physics, 2nd edition, World Scientific 2013, ISBN 978-981-4449-53-3, pp. 28–30.</ref> Wenn man noch voraussetzt, dass die Beschreibung durch die thermodynamischen Variablen eindeutig ist, das heißt alle Mikrozustände makroskopisch gesehen beim selben Endzustand landen, kann also das Phasenraumvolumen der mit diesem Endwert der thermodynamischen Variablen verbundenen Mikrozustände nicht kleiner sein als das anfängliche Phasenraumvolumen. Es kann aber größer sein, da nicht notwendigerweise alle Mikrozustände „angesteuert“ werden. Die Entropie kann also nur zunehmen.


In diesem Bild erkennt man nun aber auch deutlich, dass die erste und letzte Spalte ''ordentlicher'' sind als die dazwischenliegenden Fälle mit höherer Entropie. Es können nun folgende Feststellungen gemacht werden: wenn alle 16 Zustände gleich wahrscheinlich sind, und man beginnt mit dem Zustand ''N=4'', so ist es sehr wahrscheinlich, bei der nächsten Betrachtung einen der Zustände höherer Entropie vorzufinden. Allerdings kann das System auch von der mittleren Spalte in die erste oder letzte übergehen; es ist nur unwahrscheinlicher, den Zustand ''N=4'' mit niedriger Entropie vorzufinden als den Zustand mit ''N=2''. In diesem rein statistischen Sinne kann das System also auch spontan in einen Zustand niedrigerer Entropie wechseln, es ist nur unwahrscheinlich, dass er das tut.
Man kann das anders formulieren. Man unterscheidet zwischen Von-Neumann- oder „fine-grained“- oder „entanglement“-Entropie (also der von Mikrophysik, d.&nbsp;h. wellenmechanisch korrelierten Systemen) und thermischer Entropie (also der Entropie in klassischer, makroskopischer Thermodynamik, auch genannt „coarse-grained“-Entropie). Ohne Korrelation ist die Entanglement-Entropie (<math> S= k_B \ln N</math>) null (jeweils nur ein Zustand, <math>N=1</math>, der „reine Zustand“). Mit entanglement (Korrelation) stehen mehr Zustände zur Verfügung, und die Entanglement-Entropie ist größer als null. In der Makrophysik betrachtet man Phasenraumbereiche wie das Kugelvolumen („coarse-graining“) um einen Punkt, also nicht einzelne Punkte bzw. Mikrozustände. Der mit Anfangsbedingungen definierte Bereich des Phasenraums eines Systems wird demzufolge von Kugelvolumen bedeckt, die mehr Phasenraumpunkte umfassen als im mikroskopischen Anfangszustand. Damit ist die Fine-grained-Entropie immer kleiner als die Coarse-grained-Entropie. Dies ist die Aussage des 2. Hauptsatzes. Als [[Information]] bezeichnet man die Differenz zwischen Coarse-grained-Entropie und Fine-grained-Entropie. Details findet man im Buch von Susskind und Lindesay.<ref>L. Susskind and J. Lindesay: ''An Introduction to BLACK HOLES, INFORMATION and the STRING THEORY REVOLUTION''. World Scientific 2005, ISBN 978-981-256-083-4, S. 69–77.</ref>


Dies ist immer noch der Fall, wenn man <math>10^{23}</math> Atome in einem Behälter betrachtet. Die Wahrscheinlichkeit, dass diese spontan in den Zustand niedrigerer Entropie wechseln, bei dem sich alle Atome links befinden ist ''nicht auszuschließen'', aber sehr unwahrscheinlich.
Die zeitliche Asymmetrie des zweiten Hauptsatzes betrifft hier also die Kenntnis des Systems, nicht die Ontologie des Systems selbst. Dadurch werden die Schwierigkeiten, aus einer bezüglich Zeitumkehr symmetrischen Theorie ein asymmetrisches Gesetz zu erhalten, vermieden. Allerdings geht in den Beweis auch die Eindeutigkeit der thermodynamischen Beschreibung ein, die auf stochastischen Argumenten beruht. Um die zeitliche Asymmetrie des Weltgeschehens zu verstehen, ist weiterhin ein Bezug zum Anfangszustand des Universums nötig.
 
=== Entropie als „Maß der Unordnung“ ===
[[Datei:Possible-distributions-4-particles.svg|mini|300px|Abbildung 2: Dargestellt sind vereinfacht die Zustände eines Systems, bei dem vier Atome jeweils entweder auf der rechten oder der linken Seite eines Behälters sein können. Die Spalten sind nach der Gesamtzahl der Teilchen auf der rechten bzw. linken Seite sortiert. ''W'' gibt dabei die Anzahl der Möglichkeiten in der jeweiligen Kategorie an und ist das im vorigen Abschnitt als <math>\Omega</math> bezeichnete Phasenraumvolumen.]]
[[Datei:Mischentropie.jpg|mini|links|Abbildung 1: Der Becher im rechten Foto zeigt den wahrscheinlicheren Zustand größtmöglicher Durchmischung.]]
Eine anschauliche, aber wissenschaftlich nicht exakte Deutung der Entropie ist es, sie als ''Maß der Unordnung'' zu verstehen, siehe z.&nbsp;B. das [[Holleman-Wiberg Lehrbuch der Anorganischen Chemie|Chemiebuch von Holleman-Wiberg]].<ref name="HollemanWiberg" /> Insbesondere in der Fotografie des Bechers im [[#Mischungsentropie|Beispiel]] zur Mischentropie sieht das rechte Bild der Abbildung 1 der vollständig Durchmischung für die meisten Betrachter ''ordentlicher'' aus als das linke mit den Schlieren, weshalb es dann unverständlich erscheint, es als den ''unordentlicheren'' Zustand mit höherer Entropie zu bezeichnen.
 
Diese Definition lässt sich allerdings anhand der schematischen Abbildung 2<ref>W. A. Kreiner: ''Entropie&nbsp;– was ist das?'' Ein Überblick. [[doi:10.18725/OPARU-2609]]</ref> mit den bisherigen Definitionen in Einklang bringen. Abbildung 2 stellt die 16 Zustände in einem Behälter dar, in dem sich jedes der vier enthaltenen Atome entweder auf der rechten oder auf der linken Seite des Behälters befinden kann. Die erste Spalte enthält den einen Zustand mit <math>N = 4</math> Atomen links, die zweite die vier Zustände mit <math>N = 3</math> Atomen links usw. Wenn man annimmt, dass alle 16 Zustände gleich wahrscheinlich sind, sind die [[Wahrscheinlichkeit]]en, für die einzelnen Spalten gerade mit <math>\textstyle p=\frac{W}{16}</math> gegeben, wobei das <math>W</math> aus Abbildung 2 gerade die Anzahl der Zustände in den jeweiligen Spalten bezeichnet.
 
Nehmen wir nun an, dass wir makroskopisch unterscheiden könnten, wie viele Atome sich auf der linken Seite befinden. Die Wahrscheinlichkeit, dass sich alle vier Atome auf der linken Seite befinden, wäre als Beispiel daher gerade <math>\textstyle p=\frac{1}{16}</math>, während die mittlere Spalte eine höhere Wahrscheinlichkeit von <math>\textstyle p=\frac{6}{16}</math> besitzt. Mit der Formel <math>S = k_\mathrm{B} \ln\,W</math> hat der makroskopische Zustand mit <math>N = 2</math> also die höchste Entropie.
 
In Abbildung 2 erkennt man nun aber auch deutlich, dass die erste und letzte Spalte ''ordentlicher'' sind als die dazwischenliegenden Fälle mit höherer Entropie. Es können nun folgende Feststellungen gemacht werden: Wenn alle 16 Zustände gleich wahrscheinlich sind und man mit dem Zustand <math>N = 4</math> beginnt, ist es sehr wahrscheinlich, bei der nächsten Betrachtung einen der Zustände höherer Entropie vorzufinden. Allerdings kann das System auch von der mittleren Spalte in die erste oder letzte übergehen; es ist nur unwahrscheinlicher, den Zustand <math>N = 4</math> vorzufinden als den Zustand mit <math>N = 2</math>. In diesem rein statistischen Sinne kann das System also auch spontan in einen Zustand niedrigerer Entropie wechseln, es ist nur unwahrscheinlicher als der Wechsel in Richtung höherer Entropie.
 
Dies ist immer noch der Fall, wenn man <math>10^{23}</math> Atome in einem Behälter betrachtet. Die Möglichkeit, dass diese spontan in den Zustand niedrigerer Entropie wechseln, bei dem sich alle Atome links befinden, ist ''nicht auszuschließen'', aber sehr unwahrscheinlich.
 
== Entropie als mengenartige Größe ==
Für die Entropie als [[Extensive Größe|extensive]] Größe kann eine lokale [[Bilanzgleichung]] ([[Kontinuitätsgleichung]]) formuliert werden<ref name="Jaumann" /> <ref name="Lohr" />:
 
: <math>\frac{\partial \rho_S}{\partial t} + \vec \nabla \cdot \vec\jmath_S = \sigma</math>
 
Hier ist <math>\rho_S</math> die Dichte der Entropie, <math> \vec\jmath_S </math> die Stromdichte und <math>\sigma</math> die Erzeugungsrate pro Volumen.
In manchen Lehrwerken zur Physik, insbesondere denen des [[Karlsruher Physikkurs]]es, wird eine Vorstellung der Entropie als eine [[Extensive Größe|extensive]] und „[[mengenartige Größe]]“ nahegelegt. Im Fall der Entropie ist das, was sie misst, nach [[Wilhelm Ostwald]] und [[Hugh Longbourne Callendar]] mit dem carnotschen Caloricum zu identifizieren.<ref name="Ostwald" /><ref name="Callendar" /> Da das Caloricum weitgehend mit dem umgangssprachlichen Wärmebegriff übereinstimmt, kann die Entropie demnach auch als Maß für die (umgangssprachliche) Wärme verstanden werden.<ref name="Job" /><ref name="KPK" /><ref name="Fuchs" /><ref name="JobRueffler" /> Man beachte dabei, dass in der Kontinuitätsgleichung auf der rechten Seite eine Erzeugungsrate <math>\sigma</math> steht, weshalb aus ihr ''kein'' [[Erhaltungssatz]] abgeleitet werden kann.
 
Von zwei ansonsten gleichen Körpern enthält derjenige mehr Entropie, dessen Temperatur höher ist. Fasst man zwei Körper zu einem einzigen System zusammen, ist die Gesamtentropie die Summe der Entropien beider Körper.<ref name="FalkRuppel" /><ref name="Herrmann" />
 
Stehen zwei Körper unterschiedlicher Temperatur miteinander in wärmeleitendem Kontakt, verursacht die Temperaturdifferenz einen Entropiestrom. Aus dem wärmeren Körper fließt Entropie ab, wodurch sich dessen Temperatur absenkt. Der kältere Körper nimmt diese Entropie (und die zusätzlich in diesem Prozess neu erzeugte Entropie) auf, wodurch seine Temperatur steigt. Der Prozess kommt zum Erliegen, wenn die Temperaturen beider Körper gleich geworden sind.
 
Als mengenartige Größe ist die Entropie zum Beispiel mit der [[Elektrische Ladung|elektrischen Ladung]] vergleichbar (für die allerdings ein strikter Erhaltungssatz gilt): Ein geladener [[Kondensator (Elektrotechnik)|Kondensator]] enthält elektrische Ladung, und damit auch elektrische Energie. Beim Entladevorgang fließt über den Stromkreis nicht nur elektrische Ladung von der einen Kondensatorplatte auf die andere, sondern es fließt auch Energie vom Kondensator zu einem [[Elektrischer Verbraucher|Verbraucher]], wo sie in andere Energieformen umgewandelt werden kann. Entsprechend wird bei der Wärmeübertragung von einem heißen auf einen kalten Körper außer der thermischen Energie noch eine andere mengenartige Größe übertragen: die ''Entropie''. Genauso wie der Potentialunterschied zwischen den Kondensatorplatten – sprich: die elektrische Spannung – den elektrischen Strom antreibt, sorgt der Temperaturunterschied zwischen den beiden Reservoirs für einen ''Entropiestrom''. Befindet sich zwischen den beiden Körpern eine [[Wärmekraftmaschine]], kann ein Teil der [[Wärme]] in eine andere Energieform umgewandelt werden. Die Wärmeübertragung lässt sich also rein formal analog zu einem elektrischen Stromkreis beschreiben, wobei allerdings die während des Vorgangs neu erzeugte Entropie zusätzlich zu berücksichtigen ist.<ref name="FalkRuppel" /><ref name="KPK" />
 
Eine Energieübertragung – also die Arbeit <math>W</math> oder die Wärme <math>Q</math> – lässt sich als das Produkt aus der Änderung einer mengenartigen extensiven Größe mit einer konjugierten intensiven Größe schreiben. Beispiele für solche Paare sind die elektrische Ladung <math>q</math> ''und'' das [[Elektrisches Potential|elektrische Potential]] <math>\varphi</math> oder das Volumen ''und'' der (negativ genommene) Druck eines Gases. Durch Zufuhr der extensiven Größe steigt (im Allgemeinen) die intensive Größe. Fügt man beispielsweise eine kleine Ladungsmenge <math>\mathrm d q</math> einer Kondensatorplatte zu, die sich auf dem Potential <math>\varphi</math> befindet, verrichtet man an der Kondensatorplatte die Arbeit <math>\delta W = \varphi \,\mathrm d q</math> und erhöht damit das Potential der Platte. Entsprechendes gilt auch für andere Größenpaare. Für thermische Vorgänge entspricht nun die Temperatur dem Potential und die Entropie der Ladung: Wenn man einem Körper die Entropiemenge <math>\mathrm d S</math> hinzufügt, wird die Wärme <math> \delta Q = T \,\mathrm d S</math> übertragen und es steigt (außer bei Phasenumwandlung) die Temperatur <math>T</math>.<ref name="FalkRuppel" />
 
Die Entropie ist zwar keine [[Erhaltungsgröße]] wie die elektrische Ladung, denn Entropie kann erzeugt werden. Nach dem [[Zweiter Hauptsatz der Thermodynamik|zweiten Hauptsatz]] der Thermodynamik kann sie aber nicht vernichtet werden. Es gilt also <math>\Delta S \geq 0</math>. Solange in einem abgeschlossenen System die Entropie gleich bleibt <math>(\Delta S = 0)</math>, sind alle Vorgänge, die sich in dem System abspielen, umkehrbar (= ''reversibel''). Sobald jedoch Entropie erzeugt wird <math>(\Delta S > 0)</math>, was z.&nbsp;B. durch Reibung, durch Erwärmung eines ohmschen Widerstandes oder durch Mischungsvorgänge geschehen kann, gibt es kein Zurück mehr, ohne dass durch äußeres Zutun Entropie abfließen kann. Man spricht dann von ''irreversiblen'' Vorgängen.
 
Eine weitere Besonderheit der Entropie ist, dass man einem Körper nicht beliebig viel Entropie entziehen kann. Während man der Platte eines Kondensators Ladung zuführen und wegnehmen kann, wodurch das Potential positiv oder negativ wird, gibt es für die Entropieentnahme eine natürliche Grenze, nämlich den [[Absoluter Nullpunkt|absoluten Nullpunkt]] der Temperatur. Insbesondere kann die ''absolute'' Temperatur nie negativ werden.


== Anwendungsbeispiele ==
== Anwendungsbeispiele ==
=== Mischung von warmem und kaltem Wasser ===
=== Mischung von warmem und kaltem Wasser ===
In einem System, welches mit seiner Umgebung weder Masse noch Energie austauscht, kann die Entropie niemals spontan abnehmen. Beispiel: Ein Kilogramm Wasser besitzt bei 10&nbsp;°C die Entropie <math>S = 151\ \mathrm{J/K}</math>, bei 20&nbsp;°C <math>S = 297\ \mathrm{J/K}</math>, bei 30&nbsp;°C <math>S = 437\ \mathrm{J/K}</math>. 1&nbsp;kg kaltes Wasser (10&nbsp;°C) und 1&nbsp;kg warmes Wasser (30&nbsp;°C) können bei Berührung spontan in den Zustand 2&nbsp;kg lauwarmes Wasser (20&nbsp;°C) übergehen, weil die Entropie des Anfangszustandes (151&nbsp;J/K + 437&nbsp;J/K = 588&nbsp;J/K) kleiner ist als die Entropie des Endzustandes (297&nbsp;J/K + 297&nbsp;J/K = 594&nbsp;J/K). Die spontane Umkehrung dieses Vorganges ist nicht möglich, weil sich hierbei die Entropie des aus 2&nbsp;kg Wasser bestehenden Systems von 594&nbsp;J/K auf 588&nbsp;J/K verringern müsste, was dem zweiten Hauptsatz der Thermodynamik widerspräche.
Die Zunahme der Entropie wird an einem System, das mit der Umgebung weder Masse noch Energie austauscht (abgeschlossenes System), durch die Vermischung von zwei Wassermengen unterschiedlicher Temperatur gezeigt. Da es sich um einen isobaren Vorgang handelt, wird für die Energiebilanz die Zustandsgröße [[Enthalpie]] verwendet.
 
Zustandsgrößen für Wasser nach den Gleichungen aus: ''Properties of Water and Steam Industrie-Standard IAPWS-IF97''
 
System<sub>10</sub>: Masse m<sub>10</sub> = 1 kg, Druck = 1 bar, Temperatur = 10 °C, Enthalpie h<sub>10</sub> = 42,12 kJ/kg, Entropie s<sub>10</sub> = 151,1 J/kg K;
System<sub>30</sub>: Masse m<sub>30</sub> = 1 kg, Druck = 1 bar, Temperatur = 30 °C, Enthalpie h<sub>30</sub> = 125,83 kJ/kg, Entropie s<sub>30</sub> = 436,8 J/kg K
 
'''Irreversible Mischung'''
 
Der thermodynamische Zustand der irreversiblen Mischung (adiabat, keine Abgabe von Arbeit) ergibt sich aus dem Energieerhaltungssatz:
:H<sub>M</sub> = H<sub>10</sub> + H<sub>30</sub>, h<sub>M</sub> = (m<sub>10</sub>*h<sub>10</sub> + m<sub>30</sub>*h<sub>30</sub>)/(m<sub>10</sub> + m<sub>30</sub>), h<sub>M</sub> = 83,97 kJ/kg
 
Mit den Zustandsgrößen Enthalpie und Druck ergeben sich weitere Zustandsgrößen des Mischungszustandes:
:Temperatur t<sub>M</sub> = 19,99 °C (293,14 K), Entropie s<sub>M</sub> = 296,3 J/kg K
 
'''Reversible Mischung'''
 
Bei einer reversiblen Vermischung (dS<sub>irr</sub> = 0) nimmt die Entropie des Gesamtsystems nicht zu, sie ergibt sich aus der Summe der Entropien der Teilsysteme:
:S<sub>M</sub> = S<sub>10</sub> + S<sub>30</sub> + dS<sub>irr</sub>, s<sub>M</sub> = 293,9 J/kg K
 
Mit den Zustandsgrößen Entropie und Druck ergeben sich weitere Zustandsgrößen des Mischungszustandes:
:Temperatur t<sub>M</sub> = 19,82 °C (292,97 K), Enthalpie h<sub>M</sub> = 83,26 kJ/kg
 
Das Gesamtsystem ist in diesem Fall nicht mehr abgeschlossen, sondern tauscht mit der Umgebung Arbeit aus.
 
Differenzen zwischen irreversibler und reversibler Mischung:
Entropie: 2,4 J/kg K, Enthalpie: 0,71 kJ/kg, Temperatur: 0,17 K
 
Nach der irreversiblen Mischung ist die Entropie des Gesamtsystems um 2,4 J/kg K größer als beim reversiblen Vorgang. Die reversible Mischung könnte durch den Einsatz einer Carnot-Maschine erreicht werden. Dabei würde dem Teilsystem mit der höheren Temperatur eine unendlich kleine Menge Energie entnommen. In Form von Wärme wird diese Energie an der Systemgrenze bei einer unendlich kleinen Temperaturdifferenz an die Carnot-Maschine übertragen. Auf entsprechende Weise wird die Energie dem Teilsystem mit der tieferen Temperatur zugeführt. Die Temperaturen der beiden Teilsysteme würden sich dadurch immer weiter angleichen und der Carnot-Faktor der Maschine von anfänglich 0,066 gegen Null streben. Die Carnot-Maschine würde dabei dem Gesamtsystem die sonst entwertete Enthalpiedifferenz von 0,71 kJ/kg als mechanische Arbeit entnehmen. Im irreversiblen Fall entspricht diese Energie der innerhalb des Systems dissipierten Arbeit. Durch die dissipierte Arbeit wird die produzierte Entropie vom absoluten Nullpunkt auf die Temperatur von 19,99 °C angehoben.


=== Mischungsentropie {{Anker|Mischungsentropie}} ===
=== Mischungsentropie {{Anker|Mischungsentropie}} ===
[[Datei:Mischentropie.jpg|mini|Die [[Mischungsentropie]] charakterisiert den „gut durchmischten“ Zwei-Flüssigkeits-Zustand im '''rechten''' Glas]]
[[Datei:Mischentropie.jpg|mini|Abbildung 3: Die [[Mischungsentropie]] charakterisiert den „gut durchmischten“ Zwei-Flüssigkeits-Zustand im '''rechten''' Glas]]
{{Hauptartikel|Ideales Gas#Mischungsentropie eines idealen Gasgemischs}}
{{Hauptartikel|Ideales Gas#Mischungsentropie eines idealen Gasgemischs|titel1=„Mischungsentropie eines idealen Gasgemischs“ im Artikel Ideales Gas}}
Das Bild rechts zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine gleichmäßige Färbung an.
Abbildung 3 zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine gleichmäßige Färbung an.


Die Entropie ist ein ''Maß der Unwissenheit'', d.&nbsp;h. der ''Unkenntnis'' darüber, in welchem mikroskopischen Zustand sich das betrachtete System befindet. Als ''Maß der Unordnung'' muss man auf die Begrifflichkeit achten. So ist im Bildbeispiel die Flüssigkeit im rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Es gibt dort mehr mikroskopisch mögliche Zustände, in denen das Glas sein könnte. Mithin ist dort die Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten Glas überall im Wasser verteilt ist. Das linke Bild sagt uns mehr. Wir können Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist, oder Bereiche, die frei sind von Farbe.
Die Entropie ist ein ''Maß der Unwissenheit'', d.&nbsp;h. der ''Unkenntnis'' darüber, in welchem mikroskopischen Zustand sich das betrachtete System befindet. Als ''Maß der Unordnung'' muss man auf die Begrifflichkeit achten. So ist im Bildbeispiel (Abbildung 3) die Flüssigkeit im rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Es gibt dort mehr mikroskopisch mögliche Zustände, in denen das Glas sein könnte. Mithin ist dort die Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten Glas überall im Wasser verteilt ist. Das linke Bild in Abbildung 3 sagt uns mehr. Wir können Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist, oder Bereiche, die frei sind von Farbe.


[[Josiah Willard Gibbs]] wies auf den Widerspruch hin, dass der Entropiezuwachs auch auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird ([[Gibbssches Paradoxon]]).
[[Josiah Willard Gibbs]] wies auf den Widerspruch hin, dass der Entropiezuwachs auch auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird ([[Gibbssches Paradoxon]]).


Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die, wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind nur auf wenige Bereiche konzentriert. Im rechten Bild können sie sich im gesamten Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Laufe der Zeit dieser Gleichverteilung zustrebt.<ref>Dem entspricht die Clausius’sche Gleichung (2), die auch folgendermaßen in Worte gefasst werden kann: „In einem abgeschlossenen Thermodynamischen System nimmt die Entropie solange zu, bis Gleichgewicht erreicht ist“.</ref>
Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die, wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind nur auf wenige Bereiche konzentriert. Im rechten Bild von Abbildung 3 können sie sich im gesamten Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Laufe der Zeit dieser Gleichverteilung zustrebt.<ref>Dem entspricht die Clausius’sche Gleichung (2), die auch folgendermaßen in Worte gefasst werden kann: „In einem abgeschlossenen Thermodynamischen System nimmt die Entropie solange zu, bis Gleichgewicht erreicht ist“.</ref>


=== Entropiezunahme bei irreversibler und reversibler isothermer Expansion ===
=== Entropiezunahme bei irreversibler und reversibler isothermer Expansion ===
Es gibt zwei Experimente, in denen, vom gleichen Anfangszustand ausgehend, über eine isotherme Expansion der gleiche Endzustand erreicht wird und bei Vergrößerung des Volumens dieselbe Entropieänderung eintritt. Eines ist der [[Gay-Lussac-Versuch]], er dient als Modell für die Vorstellung des Entropiebegriffs  nach [[Ludwig Boltzmann|Boltzmann]]. Das zweite Experiment, an dem man die Formulierung der Entropie nach Clausius nachvollziehen kann, ist die isotherme Ausdehnung im ersten Schritt des [[Carnot-Prozess|Carnot-Zyklus]].
Die spontane Expansion eines Gases in ein leeres Volumen ist irreversibel, daher ist zur Berechnung der Entropieänderung eine direkte Anwendung der Definition von Clausius nicht möglich. Hierfür wird ein reversibler Ersatzprozess benötigt, der vom gleichen Anfangszustand zum gleichen Endzustand führt. Für einen Prozess bei konstanter Temperatur <math>T</math> erhält man die Entropieänderung <math>\Delta S = Q / T </math>. Diese Methode beruht darauf, dass die Entropie eine Zustandsgröße ist, ihre Wertänderung also nicht davon abhängen kann, durch welchen Prozess man vom Anfangs- zum Endzustand kommt.
 
Seien zwei Behälter durch einen Absperrhahn getrennt, siehe Abbildung. Der eine Behälter hat das Volumen <math>V_A</math> und ist mit einem Gas gefüllt, im anderen Behälter herrscht Vakuum. Dann wird der Absperrhahn geöffnet und das Gas verteilt sich gleichmäßig auf das Gesamtvolumen <math>V_B</math> beider Behälter zusammen. Anfangs bilden die <math>N</math> Teilchen des Gases den Anfangszustand mit der Entropie <math>S_A</math>. Im Endzustand, wenn nach dem Öffnen sich wieder ein Gleichgewicht eingestellt hat, haben die <math>N</math> Teilchen die Entropie <math>S_B</math>. Für ein ideales Gas, so zeigt der [[Gay-Lussac-Versuch]], bleibt dabei die Temperatur konstant, ohne dass Wärme mit der Umgebung ausgetauscht wird. Da die Expansion ohne Gegendruck erfolgt, wird auch keine Arbeit geleistet.
 
[[Datei:Der Versuch von Gay-Loussac.svg|mini|Gay-Lussac-Versuch.]]
 
Ein für die Berechnung der Entropieänderung <math>\Delta S = S_B - S_A</math> geeigneter Ersatzprozess ist die reversible isotherme Expansion, wie sie z.&nbsp;B. im [[Carnot-Prozess#Isotherme Expansion|Carnot-Zyklus]] eingesetzt wird. Bei diesem Prozess befindet sich das Gas in einem Zylinder mit Kolben und in Kontakt mit einem Wärmebad gleicher Temperatur. Dann drückt das Gas den Kolben nach außen, während ihm gleichzeitig soviel Wärme zugeführt wird, dass die Temperatur gehalten wird. Ist das Gasvolumen von <math>V_A</math> auf <math>V_B</math> angewachsen, wurde bei einem idealen Gas die Arbeit
 
:<math>- W = \int_A^B p \,\mathrm d V = \int_A^B \frac{N k_\mathrm B T}{V} \mathrm d V = N\, k_\mathrm B\, T \, \ln \frac{V_B}{V_A}</math>
 
geleistet, wobei der Druck <math>p</math> nach der Zustandsgleichung des idealen Gases eingesetzt wurde. Da mit der Temperatur auch die innere Energie des idealen Gases unverändert bleibt, ist nach dem 1. Hauptsatz die zugeführte Wärme <math>Q</math> gleich dem negativen der geleisteten Arbeit, also <math>Q=-W</math>.<ref name="Wolfgang_Nolting_4/2_S58"/> Daraus folgt für die Entropieänderung:
 
:<math>\Delta S = S_B - S_A = \frac{Q}{T} = \frac{- W}{T} = k_\mathrm B \, N \,\ln \frac{V_B}{V_A}</math>


==== Irreversible Expansion, thermodynamisch ====
Wegen <math>V_B > V_A</math> ist dies eine Entropiezunahme.
[[Datei:Der Versuch von Gay-Loussac.svg|miniatur|Gay-Lussac-Versuch. Der Versuch mit einem idealen Gas in einem [[Abgeschlossenes System|abgeschlossenen System]] zeigt, dass sich nach dem Druck- und Temperaturausgleich die Anfangstemperatur einstellt (<math>t_2 = t_1</math>)]]
Die nebenstehende Abbildung zeigt das Überströmexperiment von [[Gay-Lussac]]. Wenn man von einem ideal abgeschlossenen System ausgeht, besagt der erste Hauptsatz der Thermodynamik, dass sich die Gesamtenergie des Systems nicht ändert (<math>\mathrm{d}U=0</math>). Für ein ideales Gas gilt daher, dass beim Überströmen in ein größeres Volumen insgesamt keine Temperaturänderung stattfindet.  


Da die Entropie eine Zustandsgröße ist, ist sie wegunabhängig. Anstatt den Hahn zu öffnen, kann man sich auch vorstellen, dass das Gas langsam expandiert, indem es eine Trennwand nach rechts schiebt. Für eine infinitesimale Verschiebung vergrößert sich das Volumen um <math>\mathrm{d}V</math>, die Entropie steigt um <math>\mathrm{d}S = \delta Q / T</math>. Aus dem ersten Hauptsatz <math> \mathrm{d}U = \delta Q + \delta W</math> folgt wegen <math>\mathrm{d}U = 0</math>, dass sämtliche vom Gas geleistete Expansionsarbeit ihm wieder in Form von Wärme zugute kommen muss. Es gilt also <math>\delta Q = -\delta W</math>. Daraus ergibt sich <math>\delta Q = -(-p \mathrm d V)</math> und somit
Zum gleichen Ergebnis kommt man auch über die statistische Deutung der Entropie
:<math>\mathrm{d}S = \frac{p}{T} \mathrm{d}V</math>
:<math>\Delta S = k_\mathrm{B}\,\Delta (\ln \Omega) = k_\mathrm{B}\,\ln \frac{\Omega_B}{\Omega_A}</math>.
Aus der [[Zustandsgleichung]] für [[Ideales Gas|ideale Gase]] (<math>N\,</math> ist die Anzahl der Gasatome):
Darin sind <math>\Omega_A \ ,\ \Omega_B</math> die Phasenraumvolumen für Anfangs- bzw. Endzustand.
:<math>p=\frac{k_\mathrm{B}NT}{V}</math>
folgt:
:<math>\mathrm{d}S = \frac{k_\mathrm{B}N}{V} \mathrm{d}V</math>.
Hieraus ergibt sich durch Integration:
:<math>\Delta S= \int_{S_1}^{S_2} \mathrm{d}S
  = \int_{V_1}^{V_2} \frac{k_\mathrm{B} N}{V} \mathrm{d}V
  = k_\mathrm{B} N \ln (V_2/V_1)</math>.
Für ein Mol eines Gases ergibt sich bei Verdopplung des Volumens
:<math>\Delta S = N_\mathrm{A} \cdot k_\mathrm{B} \ln 2 = 5{,}76\,\mathrm{J/K}</math>.
Durch Einsetzen von Zahlenwerten für die Boltzmannkonstante <math>k_\mathrm{B} = 1{,}3807 \cdot 10^{-23}\,\mathrm{J/K}</math> und Avogadro-Zahl <math>N_\mathrm{A} = 6{,}0220 \cdot 10^{23}\,\mathrm{mol}^{-1}</math>.


==== Irreversible Expansion, statistisch ====
Da sich die Temperatur nicht ändert, bleibt das Phasenraumvolumen im Impulsraum konstant und kann herausgekürzt werden. Es bleibt zu berechnen, um welchen Faktor der Ortsanteil des Phasenraumvolumens sich vergrößert. Diesen Faktor kann man einfach verstehen: er ist der Kehrwert der Wahrscheinlichkeit, die <math>N</math> Teilchen zufällig im kleineren Volumen <math>V_A</math> zu finden statt im größeren <math>V_B</math>.<ref name="Stierstadt_Th2_Entropie"/>
Die Überlegung geht vom Überströmversuch nach Gay-Lussac aus. Ein Hahn wird geöffnet und ein ideales Gas breitet sich spontan über das doppelte Volumen aus. Nach Boltzmann erhält man über die statistischen Gewichte (=Anzahl der Mikrozustände) vor und nach der Expansion die jeweils entsprechenden Entropiewerte: Sind <math>n\,</math> Moleküle auf zwei Raumhälften so verteilt, dass sich in der einen Hälfte <math>n_1</math> und in der anderen <math>n_2</math> Moleküle befinden, dann ist das statistische Gewicht dieses Makrozustands
Bei einem Teilchen ist die Wahrscheinlichkeit, im Endzustand das Teilchen im Volumen <math>V_A</math> zu finden, gleich <math>{V_A}/{V_B}</math>. Im Falle von zwei Teilchen wäre diese Wahrscheinlichkeit <math>({V_A}/{V_B})^2</math> und bei N Teilchen <math>({V_A}/{V_B})^N</math>.<ref name="Demtröder_Entropie"/><ref name="Berkeley_Kurs_Stat_79"/> Also gilt für die Wahrscheinlichkeit, spontan den Ausgangszustand wieder anzutreffen
:<math>W(n_1, n_2) = \frac{n!}{n_1!\,n_2!}</math>
und die Entropie dieses Zustands <math> S(n_1, n_2) = k_\mathrm{B}\cdot \ln\,W</math>. Befindet sich ein ganzes Mol (<math>n = N_\mathrm{A}</math>) in einer Hälfte (und in der anderen nichts), dann ist
:<math>W(N_\mathrm{A},0) = \frac{N_\mathrm{A}!}{N_\mathrm{A}!\,0!} = 1</math>
und die Entropie
:<math>S(N_\mathrm{A}, 0) = k_\mathrm{B} \cdot \ln 1 = 0 </math>.
Bei gleichmäßiger Aufteilung wird
:<math>W\left(\frac{N_\mathrm{A}}{2}, \frac{N_\mathrm{A}}{2}\right) = \frac{6\cdot10^{23}!}{3\cdot10^{23}! \,3\cdot10^{23}!} </math>.
Die Fakultät kann man mit der [[Stirling-Formel]] annähern, wobei man sich auf <math>n! \approx n^n</math> beschränken kann. Der Logarithmus von <math>n^n</math> ist <math>n\cdot \ln\,n</math>.
Damit wird
:<math>\ln(6\cdot10^{23}!) \approx 6\cdot10^{23}\cdot \ln\,(6\cdot10^{23})</math>
und
:<math>\ln\left[W\left(\frac{N_\mathrm{A}}{2},\frac{N_\mathrm{A}}{2}\right)\right]\approx6\cdot10^{23}\cdot \ln(6\cdot10^{23})- 2\cdot3\cdot10^{23}\cdot \ln(3\cdot10^{23}) = 6\cdot10^{23}\cdot(\ln 6 - \ln 3)</math> .


Man erhält für die Entropie nach der Expansion
:<math>\left(\frac{V_A}{V_B}\right)^N = \exp\left( - N \,\ln\left( \frac{V_B}{V_A} \right) \right)</math>
:<math>S = k_\mathrm{B} \cdot \ln \left[W\left(\frac{N_\mathrm{A}}{2},\frac{N_\mathrm{A}}{2}\right)\right] = 5{,}76\,\mathrm{J/K}</math>.               
:<math> \Delta S = 5{,}76\,\mathrm{J/K} -0 = 5{,}76\,\mathrm{J/K} </math>.


Da die Teilchen keine Anziehungskräfte besitzen und die Wände des Gefäßes starr sind, wird keine Arbeit geleistet, auch nicht gegen einen äußeren Luftdruck. Die Moleküle prallen zwar gegen die Wand und werden reflektiert, verlieren dabei jedoch keine Energie. Das System ist während des Überströmens nicht im Gleichgewicht.  
Diese Wahrscheinlichkeit ist für <math>V_B = 2\,V_A</math> typischerweise von der Größenordnung <math>2^{-10^{23}}</math>.


==== Reversible isotherme Expansion ====
So ergibt auch die Definition aus der statistischen Physik für den Entropieunterschied den gleichen Wert wie oben, nämlich:
Das zweite Experiment entspricht der isothermen Ausdehnung im ersten Schritt des Carnot-Zyklus. Wärme wird von außen auf die Substanz übertragen. Damit wird Arbeit geleistet, indem die ihr entsprechende Energie im Lauf der Expansion abgegeben wird an eine angeschlossene Mechanik, die sie als potenzielle Energie extern speichert. Davon verbleibt nichts im Medium und das System ist stets im Gleichgewicht. Der Vorgang ist umkehrbar.
Clausius hat nun die Änderung der Entropie unter Einbeziehung dieser zugeführten Wärme formuliert als <math>\Delta S =\frac{ Q_\mathrm{rev}} {T} </math>. Mit <math> Q_\mathrm{rev}</math> <math>= nRT\cdot\ln\frac{V_\mathrm{2}}{V_\mathrm{1}} </math> erhält man im reversiblen Fall für ein Mol ebenfalls <math>\Delta S = 5{,}76\,\mathrm{J/K} </math>.


==== Numerische Äquivalenz der Ergebnisse ====
:<math>S_B - S_A = k_\mathrm B \ln\left( \frac{V_B^N}{V_A^N} \right) = k_\mathrm B\, N\, \ln \frac{V_B}{V_A} </math>.
Zur Boltzmann-Konstanten <math>k_\mathrm{B}</math>:  In der Überlegung nach Boltzmann anhand des Überströmversuchs kommt erst einmal weder eine Wärme noch eine Temperatur vor, also keine dimensionsbehaftete Größe, sondern nur der Logarithmus dimensionsloser statistischer Gewichte, <math>\ln W</math>. Da aber die Entropieänderung dieselbe ist (gleicher Anfangs- und Endzustand; Zustandsfunktion) wie im reversiblen Fall, führte [[Max Planck|Planck]] die Konstante <math>k_\mathrm B</math> ein. Mit ihr erhält man für die Änderung der Entropie bei der irreversiblen isothermen Expansion dasselbe numerische Ergebnis mit der gleichen Einheit J/K wie für die reversible aus dem Experiment, bei dem Wärme zugeführt wird. Dies ist im realen Experiment allerdings erst dann der Fall, wenn das System das Gleichgewicht, also das maximale [[statistisches Gewicht|statistische Gewicht]] nach der [[Boltzmann-Verteilung|Boltzmann-Verteilung]] erreicht hat.<ref>Wedler, G.: ''Lehrbuch der Physikalischen Chemie''. Verlag Chemie, Weinheim, Deerfield Beach, Basel 1982. ISBN 3-527-25880-9. Kap. 4.2, S. 632.</ref>


=== Biomembranen ===
=== Biomembranen ===
Gibt man [[Lipid]]e, bei [[Lebewesen]] beispielsweise als Bausteine der [[Biomembran]]en vorkommend, in Wasser, so bilden sich spontan geschlossene Membranstrukturen, sogenannte [[Vesikel (Biologie)|Vesikel]]. Da hier Temperatur und Druck gegeben sind ([[Wärmebad]] und [[Druckensemble]]) ist das [[Thermodynamisches Potential|thermodynamische Potential]], das ein Minimum anstrebt die [[Gibbs-Energie|freie Enthalpie]] <math>\Delta G = \Delta H - T\Delta S</math>. Die [[Enthalpie]] <math>\Delta H</math> lässt sich experimentell nachweisen, ist also messbar und ist positiv. Da der Prozess spontan abläuft, muss aber <math>\Delta G</math> negativ sein; d.&nbsp;h., die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend, da die Entropie meistens dafür verantwortlich ist, dass sich Stoffe vermischen (Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen [[Wasserstoffbrückenbindung]]en aus, die ständig fluktuieren und somit einen hohen Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide entsteht bei Lösung in Wasser ein größerer Bereich, in dem keine Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung treibt. Letztlich ist diese Eigenschaft auch mit für die schlechte Löslichkeit vieler unpolarer Stoffe verantwortlich, die die Bildung von Wasserstoffbrückenbindungen stören.
Gibt man [[Lipid]]e, bei [[Lebewesen]] beispielsweise als Bausteine der [[Biomembran]]en vorkommend, in Wasser, so bilden sich spontan geschlossene Membranstrukturen, sogenannte [[Vesikel (Biologie)|Vesikel]]. Da hier Temperatur und Druck gegeben sind ([[Wärmebad]] und [[Druckensemble]]), ist das [[Thermodynamisches Potential|thermodynamische Potential]], das ein Minimum anstrebt, die [[Gibbs-Energie|freie Enthalpie]] <math>\Delta G = \Delta H - T\Delta S</math>. Die [[Enthalpie]] <math>\Delta H</math> lässt sich experimentell kalorimetrisch nachweisen, ist also messbar, und sie ist positiv. Da der Prozess spontan abläuft, muss aber <math>\Delta G</math> negativ sein; d.&nbsp;h., die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend, da die Entropie meistens die Ursache dafür ist, dass sich Stoffe vermischen (Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen [[Wasserstoffbrückenbindung]]en aus, die ständig fluktuieren und somit einen hohen Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide herum entsteht bei deren Lösung in Wasser ein größerer Bereich, in dem keine Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung treibt. Letztlich ist diese Eigenschaft auch mit die Ursache für die schlechte Löslichkeit vieler unpolarer Stoffe, die die Bildung von Wasserstoffbrückenbindungen stören, und für die Senkung der Oberflächenspannung des Wassers durch Tenside.


=== Berechnung und Verwendung tabellierter Entropiewerte ===
=== Berechnung und Verwendung tabellierter Entropiewerte ===
Zeile 227: Zeile 297:


== Quantenmechanik ==
== Quantenmechanik ==
In der [[Quantenstatistik]] ist ein Mikrozustand (auch [[reiner Zustand]] genannt) gegeben durch einen Vektor <math>|n\rangle</math> im [[Hilbertraum]] <math>\mathcal{H}</math> des Systems. Typischerweise ist dieser Raum 10<sup>23</sup> dimensional und steht demnach für genauso viele Teilchen. Dies orientiert sich an der [[Avogadro-Konstante]]n, welche gleich der Zahl <math>6{,}022 \cdot 10^{23}</math> ist. Den zugehörigen Makrozustand beschreibt man durch einen ''statistischen Operator'', der auch als ''[[Dichteoperator]]'' bezeichnet wird.
In der [[Quantenstatistik]] ist ein Mikrozustand ein [[reiner Zustand]], der durch einen Vektor <math>|n\rangle</math> im [[Hilbertraum]] <math>\mathcal{H}</math> des [[Vielteilchensystem]]s gegeben ist. Wie in der klassischen statistischen Mechanik ist dies ein Raum mit außerordentlich vielen Dimensionen, selbst wenn dem einzelnen Teilchen nur wenige verschiedene [[Energieeigenzustand|Energieeigenzustände]] zur Verfügung stehen. Zum Beispiel gibt es bei der [[Magnetische Kernresonanz|magnetischen Kernresonanz]] für jeden Protonenspin nur zwei Energieeigenzustände, damit aber einen Hilbertraum mit doppelt so vielen Dimensionen, wie Protonen in der Probe sind (etwa <math> 10^{20}</math> in einem kleinen Wassertröpfchen). Der zugehörige Makrozustand ist ein [[gemischter Zustand]], der durch einen ''statistischen Operator'' oder auch ''[[Dichteoperator]]'' beschrieben wird.


Dieser enthält alle Informationen über das System, die durch eine ''ideale Messung'' zugänglich sind (das ist viel weniger als bei dem ''reinen Zustand'' <math>|n\rangle</math>, dem ''Mikrozustand''). Der ''Makrozustand'' ist klassisch gegeben durch ein Ensemble von Mikrozuständen, die mit <math>|n\rangle </math> als „typische makroskopische Werte“ bestimmte Erhaltungsgrößen gemein haben, wie z.&nbsp;B. Energie, Volumen und Teilchenzahl. Die Verteilung der Mikrozustände im Phasenraum ist klassisch durch eine Verteilungsfunktion gegeben. An deren Stelle tritt in der quantenmechanischen Beschreibung der Dichteoperator:
Dieser enthält alle Informationen über das System, die durch eine ''ideale Messung'' zugänglich sind (das ist viel weniger als bei dem ''reinen Zustand'' <math>|n\rangle</math>, dem ''Mikrozustand''). Der ''Makrozustand'' ist klassisch gegeben durch ein Ensemble von denjenigen Mikrozuständen, die mit <math>|n\rangle </math> bestimmte „typische makroskopische Größen“ gemein haben, wie z.&nbsp;B. Energie, Volumen und Teilchenzahl. Die Verteilung der Mikrozustände im Phasenraum ist klassisch durch eine Verteilungsfunktion gegeben. An deren Stelle tritt in der quantenmechanischen Beschreibung der Dichteoperator:
:<math>\rho = \sum_i p_i |i\rangle\langle i|</math>.
:<math>\rho = \sum_i p_i |i\rangle\langle i|</math>.


<math>p_i</math> ist die Wahrscheinlichkeit, dass sich das betrachtete System im „reinen“ quantenmechanischen Zustand <math>|i\rangle </math> befindet falls die Zustände <math>|i\rangle</math> alle orthogonal sind. Dabei ist jetzt die Zahl der betrachteten Freiheitsgrade gewöhnlich viel kleiner als <math> 3\cdot 10^{23}\,.</math>
Falls die Zustände <math>|i\rangle</math> alle orthogonal sind, ist <math>p_i</math> die Wahrscheinlichkeit, dass sich das betrachtete System im „reinen“ quantenmechanischen Zustand <math>|i\rangle </math> befindet.


Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen ''[[Zustandsgemisch]]'' ist gegeben durch eine Spurbildung:
Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen ''[[Zustandsgemisch]]'' ist gegeben durch eine Spurbildung:
Zeile 240: Zeile 310:


=== Von-Neumann-Entropie {{Anker|Von-Neumann-Entropie}} ===
=== Von-Neumann-Entropie {{Anker|Von-Neumann-Entropie}} ===
Die '''von-Neumann Entropie''' (nach [[John von Neumann]]) ist definiert als:
Die '''Von-Neumann Entropie''' (nach [[John von Neumann]]) ist definiert als Erwartungswert des Dichteoperators:
:<math>S = - \operatorname{Tr} \left(\rho\ln\,\rho\right)</math>.
:<math>S = - \operatorname{Tr} \left(\rho\ln\,\rho\right) = - \langle \ln\, \rho \rangle</math>.
Multipliziert man diese dimensionslose von-Neumann-Entropie mit der Boltzmann-Konstanten, so erhält man eine Entropie mit der gewöhnlichen Einheit.
Multipliziert man diese dimensionslose Von-Neumann-Entropie mit der [[Boltzmann-Konstante]]n <math>k_\mathrm{B}</math>, so erhält man eine Entropie mit der gewöhnlichen Einheit.


Die Entropie ist über die Wahrscheinlichkeiten der einzelnen reinen quantenmechanischen Zustände <math>|i\rangle</math> im Makrozustand gegeben durch
Die Entropie ist über die Wahrscheinlichkeiten der einzelnen reinen quantenmechanischen Zustände <math>|i\rangle</math> im Makrozustand gegeben durch
:<math>S = -k_\mathrm{B} \langle \ln\, \rho \rangle = - k_\mathrm{B} \operatorname{Tr} \left(\rho \ln\, \rho\right) = - k_\mathrm{B} \sum_{i} p_i \ln\,p_i \qquad (*)</math>,
:<math>S = - k_\mathrm{B} \operatorname{Tr} \left(\rho \ln\, \rho\right) = - k_\mathrm{B} \sum_{i} p_i \ln\,p_i \qquad (*)</math>,
wobei <math>p_i</math> die Wahrscheinlichkeit ist, im ''i''-ten Mikrozustand zu sein. <math>k_\mathrm{B}</math> ist die [[Boltzmann-Konstante]]. Die Wahrscheinlichkeiten <math>p_i</math> können Werte zwischen <math>0</math> und <math>1</math> annehmen. Somit ist <math>p_i \ln\,p_i\leq 0</math> und die Entropie <math>S=-k_{\mathrm{B}} \sum\nolimits_{i}p_{i} \ln\,p_{i}\geq0</math> [[positiv semidefinit]]. Für reine Zustände hat eine dieser Wahrscheinlichkleiten den Wert <math>1</math>, während alle anderen den Wert Null annehmen. In diesem Fall ist die Entropie Null, da jeder einzelne Summand in (*) den Wert Null hat. Entweder ist er Null, weil <math>p_i = 0</math>. Oder er ist Null, weil  <math>\ln(1)=0</math>. Von Null verschiedene Werte der Entropie erhält man wenn mehr als ein Mikrozustand eine von Null verschiedene Wahrscheinlichkeit haben.
wobei <math>p_i</math> die Wahrscheinlichkeit ist, im ''i''-ten Mikrozustand zu sein. Die Wahrscheinlichkeiten <math>p_i</math> können Werte zwischen <math>0</math> und <math>1</math> annehmen. (Die Singularität des Logarithmus im Falle <math>p_i=0</math> ist unerheblich, weil <math>\lim_{x\rightarrow 0} x\ln\,x = 0</math>.) Somit ist <math>p_i \ln\,p_i\leq 0</math> und die Entropie <math>S=-k_{\mathrm{B}} \sum\nolimits_{i}p_{i} \ln\,p_{i}\geq0</math> [[positiv semidefinit]]. Liegt das Gemisch in einem reinen Zustand vor, hat eine dieser Wahrscheinlichkeiten den Wert <math>1</math>, während alle anderen den Wert Null annehmen. In diesem Fall ist die Entropie Null, hat also den Minimalwert. Positive Werte der Entropie erhält man, wenn mehr als ein Mikrozustand eine von Null verschiedene Wahrscheinlichkeit haben.


Als Beispiel nehmen wir ein Spinsystem mit vier Elektronen. Spin und magnetisches Moment sind antiparallel. Das heißt, das magnetische Moment <math>\mu</math> eines nach unten zeigenden Spins besitzt im äußeren Magnetfeld <math>B</math> die Energie <math>-\mu B</math>. Die Grundzustandenergie <math>E_0</math> des Systems soll insgesamt <math>-2\mu B</math> sein. Dies führt zu den vier Zuständen:
Als Beispiel nehmen wir ein Spinsystem mit vier Elektronen. Spin und magnetisches Moment sind antiparallel. Das heißt, das magnetische Moment <math>\mu</math> eines nach unten zeigenden Spins besitzt im äußeren Magnetfeld <math>B</math> die Energie <math>-\mu B</math>. Die Energie <math>E_0</math> des Systems soll insgesamt <math>-2\mu B</math> sein. Dies führt zu den vier Mikrozuständen:
:<math>[\uparrow \downarrow \downarrow \downarrow]\,, \quad [\downarrow \uparrow \downarrow \downarrow]\,, \quad [\downarrow \downarrow \uparrow \downarrow]\,, \quad [\downarrow \downarrow \downarrow \uparrow]\,.</math>
:<math>[\uparrow \downarrow \downarrow \downarrow]\ , \quad [\downarrow \uparrow \downarrow \downarrow]\ , \quad [\downarrow \downarrow \uparrow \downarrow]\ , \quad [\downarrow \downarrow \downarrow \uparrow]\,.</math>


Daraus folgt, dass die Spinentartung <math>\Omega = 4\,</math> ist mit <math>p_1=p_2=p_3=p_4=1/4\,</math> und wie oben auch hier <math>S(T=0)=k_{\mathrm{B}} \cdot\ln\,\Omega</math> gilt.
Daraus folgt, dass die Spinentartung <math>\Omega = 4\,</math> ist mit <math>p_1=p_2=p_3=p_4=\frac{1}{4}\,</math> und wie oben auch hier <math>S=k_{\mathrm{B}} \cdot\ln\,\Omega</math> gilt.


Die obige allgemeine Formel, (*), ist bis auf einen konstanten Faktor identisch mit der Formel für die [[Entropie (Informationstheorie)|Shannon'sche Informationsentropie]]. Das bedeutet, die physikalische Entropie ist auch ein Maß für die [[Information]], die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.
Die obige allgemeine Formel, (*), ist bis auf einen konstanten Faktor identisch mit der Formel für die [[Entropie (Informationstheorie)|Shannon'sche Informationsentropie]]. Das bedeutet, die physikalische Entropie ist auch ein Maß für die [[Information]], die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.
Zeile 262: Zeile 332:
:<math>S(\rho) = -k_\mathrm{B} \operatorname{Tr}\left(\rho \ln\,\rho\right) \leq -k_\mathrm{B} \operatorname{Tr}\left(\rho \ln\,\tilde{\rho}\right)</math>
:<math>S(\rho) = -k_\mathrm{B} \operatorname{Tr}\left(\rho \ln\,\rho\right) \leq -k_\mathrm{B} \operatorname{Tr}\left(\rho \ln\,\tilde{\rho}\right)</math>


* Invarianz unter [[Unitärer Operator|unitären Transformationen]] von <math>\rho\,</math> (mit <math>U U^\dagger = 1</math>)
* Invarianz unter [[Unitärer Operator|unitären Transformationen]] von <math>\rho\,</math> (mit <math>U U^\dagger = 1</math>)
:<math>S(U \rho U^\dagger)=S(\rho)</math>
:<math>S(U \rho U^\dagger)=S(\rho)</math>


Zeile 283: Zeile 353:
{{Hauptartikel|Bekenstein-Hawking-Entropie}}
{{Hauptartikel|Bekenstein-Hawking-Entropie}}
[[Jacob Bekenstein]]<ref name="Bekenstein" /> stellte in seiner Doktorarbeit Ähnlichkeiten zwischen der Physik [[Schwarzes Loch|Schwarzer Löcher]] und der [[Thermodynamik]] heraus. Unter anderem verglich er den Zweiten Hauptsatz der Thermodynamik <math>\Delta S \geq 0</math> damit, dass die Oberfläche von Schwarzen Löchern mit einfallender Materie anscheinend immer anwächst und keine Materie entweichen kann. Es ergab sich als Formel für die Entropie
[[Jacob Bekenstein]]<ref name="Bekenstein" /> stellte in seiner Doktorarbeit Ähnlichkeiten zwischen der Physik [[Schwarzes Loch|Schwarzer Löcher]] und der [[Thermodynamik]] heraus. Unter anderem verglich er den Zweiten Hauptsatz der Thermodynamik <math>\Delta S \geq 0</math> damit, dass die Oberfläche von Schwarzen Löchern mit einfallender Materie anscheinend immer anwächst und keine Materie entweichen kann. Es ergab sich als Formel für die Entropie
:<math>S_\mathrm{SL} = \frac{k_\mathrm{B} c^3\,A}{4 \hbar G}</math>.
:<math>S_\mathrm{SL} = \frac{k_\mathrm{B} c^3 A}{4 \hbar G}</math>,
Dabei ist ''G'' die [[Gravitationskonstante]], ''c'' die [[Lichtgeschwindigkeit]] und <math>k_\mathrm{B}</math> die [[Boltzmannkonstante]].
Hier ist <math>A</math> die Oberfläche des Ereignishorizonts,
<math>G</math> die [[Gravitationskonstante]], <math>c</math> die [[Lichtgeschwindigkeit]] und <math>k_\mathrm{B}</math> die [[Boltzmannkonstante]].
 
[[Stephen Hawking]] kritisierte daran, dass damit das Schwarze Loch auch eine Temperatur besitzen müsse. Ein Körper mit einer nicht verschwindenden Temperatur emittiert jedoch eine [[Schwarzkörperstrahlung]], die der Annahme widerspricht, dass aus dem Schwarzen Loch nichts mehr entweicht. Hawking löste dieses Paradoxon durch die Postulierung der nach ihm benannten [[Hawking-Strahlung]] auf: In der quantenmechanischen Beschreibung des Vakuums sind ständig [[Vakuumfluktuation]]en aus Teilchen-Antiteilchen-Paaren vorhanden. Wenn bei einer Paarbildung knapp außerhalb des Ereignishorizonts eines der beiden Partnerteilchen vom Schwarzen Loch „eingefangen“ wird, das andere aber entkommt, entspricht dies physikalisch einer thermischen Strahlung des Schwarzen Lochs.<ref name="Hawking-Strahlung" /><ref>Susskind, Lindesay, ''An Introduction to Black Holes, Information and the String Theory Revolution: The Holographic Universe''. World Scientific, Singapur 2004, S.&nbsp;39–42.</ref> Zur Realität solcher thermischer Strahlung ist zu sagen, dass Beobachter in unterschiedlichen Bezugssystemen unterschiedliche Beobachtungen machen, also Temperatur <math>0</math> oder Eigentemperatur. Erst die Entdeckung von Hawking, dass ein Beobachter, der von einem schwarzen Loch mit Ereignishorizont bei <math>r=2MG/c^2</math> weit entfernt ist, die Schwarzschild-Temperatur


[[Stephen Hawking]] kritisierte daran, dass damit das Schwarze Loch auch eine Temperatur besitzen müsse. Ein Körper mit einer nicht verschwindenden Temperatur emittiert jedoch eine [[Schwarzkörperstrahlung]], die der Annahme widerspricht, dass aus dem Schwarzen Loch nichts mehr entweicht. Hawking löste dieses Paradoxon durch die Entdeckung der nach ihm benannten [[Hawking-Strahlung]] auf: In der quantenmechanischen Beschreibung des Vakuums sind ständig [[Vakuumfluktuation]]en aus Teilchen-Antiteilchen-Paaren vorhanden. Wenn bei einer Paarbildung knapp außerhalb des Ereignishorizonts eines der beiden Partnerteilchen vom Schwarzen Loch „eingefangen“ wird, das andere aber entkommt, entspricht dies physikalisch einer thermischen Strahlung des Schwarzen Lochs.<ref name="Hawking-Strahlung" />
:<math>T = \frac{\hbar c^3}{8\pi G M \, k_\mathrm{B}}</math>
 
beobachtet, und Untersuchung einer freien Quantenfeldtheorie in Rindler-Raum-Koordinaten, führte zu der Erkenntnis der Hawking-Strahlung als Evaporation des schwarzen Lochs von Teilchen mit niedrigem Drehimpuls, während andere mit höheren Drehimpulsen von den Wänden des Lochs reflektiert werden.<ref>Susskind, Lindesay, ''An Introduction to Black Holes, Information and the String Theory Revolution: The Holographic Universe''. World Scientific, Singapur 2004, S. 48–49.</ref>


Das Schwarze Loch kann sich auflösen, wenn die Energie der abgestrahlten Hawking-Strahlung (durch die die Masse des Schwarzen Lochs abnimmt) für einen ausreichend langen Zeitraum den Energieinhalt der einfallenden Materie übersteigt.<ref name="Hawking-Zeit" />
Das Schwarze Loch kann sich auflösen, wenn die Energie der abgestrahlten Hawking-Strahlung (durch die die Masse des Schwarzen Lochs abnimmt) für einen ausreichend langen Zeitraum den Energieinhalt der einfallenden Materie übersteigt.<ref name="Hawking-Zeit" />


== Siehe auch ==
== Siehe auch ==
* [[Blockentropie]]
* [[Adiabatische Erreichbarkeit]]
* [[Elastomer#Entropie-Elastizität|Entropie-Elastizität]]
* [[Entropie (Informationstheorie)]]
* [[Entropiebilanz]]
* [[Entropiekraft]]
* [[Entropieschätzung]]
* [[Information (Physik)]]
* [[Rotationsentropie]]
* [[Sackur-Tetrode-Gleichung]] (ideales Gas)


== Literatur ==
== Literatur ==
; Skripte
; Skripte
* {{Internetquelle
* {{Internetquelle |autor=Georg Job, Regina Rüffler |url=http://www.job-stiftung.de/index.php?id=8,22,0,0,1,0 |titel=Physikalische Chemie |titelerg=Teil 1: Grundzüge der Stoffdynamik |hrsg=Eduard-Job-Stiftung für Thermo- und Stoffdynamik |datum=2008-09 |abruf=2014-12-10 |kommentar=darin insbesondere Kapitel 2}}
  |url=http://www.job-stiftung.de/index.php?id=8,22,0,0,1,0
* {{Internetquelle |autor=F. Herrmann |url= http://www.physikdidaktik.uni-karlsruhe.de/skripten/thermod.pdf| archiv-url=https://web.archive.org/web/20160316083928/http://www.physikdidaktik.uni-karlsruhe.de/skripten/thermod.pdf |titel=Thermodynamik |titelerg=Physik III |hrsg=Abteilung für Didaktik der Physik, Universität Karlsruhe |datum=2003-09 |abruf=2020-06-06 |format=PDF; 12,87 MB}}
  |titel=Physikalische Chemie
  |titelerg=Teil 1: Grundzüge der Stoffdynamik
  |autor=Georg Job, Regina Rüffler
  |hrsg=Eduard-Job-Stiftung für Thermo- und Stoffdynamik
  |datum=September 2008
  |zugriff=2014-12-10
  |kommentar=darin insbesondere Kapitel 2}}
* {{Internetquelle
  |url=http://www.physikdidaktik.uni-karlsruhe.de/skripten/thermod.pdf
  |titel=Thermodynamik
  |titelerg=Physik III
  |autor=F. Herrmann
  |hrsg=Abteilung für Didaktik der Physik, Universität Karlsruhe
  |datum=September 2003
  |zugriff=2014-12-10
  |format=PDF, 12,87 MB}}


; Lehrbücher und Übersichtsartikel
; Lehrbücher und Übersichtsartikel
Zeile 330: Zeile 381:
   |Datum=2010
   |Datum=2010
   |ISBN=978-3-642-05097-8
   |ISBN=978-3-642-05097-8
   |Online={{Google Buch   | BuchID   = J46szKXgkZAC   | Seite   = 133 | Hervorhebung = Entropie   }}}}
   |Online={{Google Buch |BuchID=J46szKXgkZAC |Seite=133 |Hervorhebung=Entropie}}}}
* R. Frigg, C. Werndl: [http://charlottewerndl.net/Entropy_Guide.pdf ''Entropy&nbsp;– A Guide for the Perplexed''] (PDF; 301&nbsp;kB). In: C. Beisbart, S. Hartmann (Hrsg.): ''Probabilities in Physics''. Oxford University Press, Oxford 2010. (Überblick über die verschiedenen Entropiebegriffe und deren Verknüpfungen)
* R. Frigg, C. Werndl: [http://charlottewerndl.net/Entropy_Guide.pdf ''Entropy&nbsp;– A Guide for the Perplexed''] (PDF; 301&nbsp;kB). In: C. Beisbart, S. Hartmann (Hrsg.): ''Probabilities in Physics.'' Oxford University Press, Oxford 2010. (Überblick über die verschiedenen Entropiebegriffe und deren Verknüpfungen).
* G. Adam, [[Otto Hittmair|O. Hittmair]]: ''Wärmetheorie.'' 4. Auflage. Vieweg, Braunschweig 1992, ISBN 3-528-33311-1.
* G. Adam, [[Otto Hittmair|O. Hittmair]]: ''Wärmetheorie.'' 4. Auflage. Vieweg, Braunschweig 1992, ISBN 3-528-33311-1.
* [[Richard Becker (Physiker)|Richard Becker]]: ''Theorie der Wärme.'' 3., erg. Auflage. Springer, 1985, ISBN 3-540-15383-7.
* [[Richard Becker (Physiker)|Richard Becker]]: ''Theorie der Wärme.'' 3., erg. Auflage. Springer, 1985, ISBN 3-540-15383-7.
* Arieh Ben-Naim: ''Statistical Thermodynamics Based on Information: A Farewell to Entropy.'' 2008, ISBN 978-981-270-707-9.
* Arieh Ben-Naim: ''Statistical Thermodynamics Based on Information: A Farewell to Entropy.'' 2008, ISBN 978-981-270-707-9.
* Johan Diedrich Fast: ''Entropie.'' Huethig, 1982, ISBN 3-87145-299-8.
* Johan Diedrich Fast: ''Entropie. Die Bedeutung des Entropiebegriffes und seine Anwendung in Wissenschaft und Technik.'' 2. Aufl. Hilversum 1960.
* Ulrich Nickel: ''Lehrbuch der Thermodynamik. Eine verständliche Einführung.'' 2. Auflage. PhysChem, 2011, ISBN 978-3-937744-06-3.
* Ulrich Nickel: ''Lehrbuch der Thermodynamik. Eine anschauliche Einführung.'' 3., überarbeitete Auflage. PhysChem, Erlangen 2019, ISBN 978-3-937744-07-0.
* E. P. Hassel, T. V. Vasiltsova, T. Strenziok: ''Einführung in die Technische Thermodynamik''. FVTR GmbH, Rostock 2010, ISBN 978-3-941554-02-3.
* E. P. Hassel, T. V. Vasiltsova, T. Strenziok: ''Einführung in die Technische Thermodynamik.'' FVTR GmbH, Rostock 2010, ISBN 978-3-941554-02-3.
* [[Arnold Sommerfeld]]: ''Vorlesungen über theoretische Physik&nbsp;– Thermodynamik und Statistik.'' Nachdruck der 2. Auflage. Harri Deutsch, 1988, ISBN 3-87144-378-6.
* [[Arnold Sommerfeld]]: ''Vorlesungen über theoretische Physik&nbsp;– Thermodynamik und Statistik.'' Nachdruck der 2. Auflage. Harri Deutsch, 1988, ISBN 3-87144-378-6.
* Andre Thess: ''Das Entropieprinzip&nbsp;– Thermodynamik für Unzufriedene''. Oldenbourg-Wissenschaftsverlag, 2007, ISBN 978-3-486-58428-8.
* [[Leonard Susskind]] and James Lindesay: ''An Introduction to BLACK HOLES, INFORMATION and the STRING THEORY REVOLUTION,'' World Scientific, 2005, ISBN 978-981-256-083-4.
* Wolfgang Glöckner, Walter Jansen, Hans Joachim Bader (Hrsg.): ''Handbuch der experimentellen Chemie. Sekundarstufe II.'' Band 7: Mark Baumann: ''Chemische Energetik''. Aulis Verlag Deubner, Köln 2007, ISBN 978-3-7614-2385-1.
* André Thess: ''Das Entropieprinzip&nbsp;– Thermodynamik für Unzufriedene''. Oldenbourg-Wissenschaftsverlag, 2007, ISBN 978-3-486-58428-8.
* Wolfgang Glöckner, [[Walter Jansen (Chemiker)|Walter Jansen]], Hans Joachim Bader (Hrsg.): ''Handbuch der experimentellen Chemie. Sekundarstufe II.'' Band 7: Mark Baumann: ''Chemische Energetik''. Aulis Verlag Deubner, Köln 2007, ISBN 978-3-7614-2385-1.
* {{Literatur
* {{Literatur
   |Autor=André Thess
   |Autor=André Thess
  |Hrsg=
   |Titel=Was ist Entropie? Eine Antwort für Unzufriedene
   |Titel=Was ist Entropie? Eine Antwort für Unzufriedene
   |Sammelwerk=Forschung im Ingenieurwesen
   |Sammelwerk=Forschung im Ingenieurwesen
   |Band=72
   |Band=72
   |Nummer=1
   |Nummer=1
  |Verlag=
   |Datum=2008-01-17
   |Datum=2008-01-17
   |Seiten=11–17
   |Seiten=11–17
Zeile 355: Zeile 405:
; Populärwissenschaftliche Darstellungen
; Populärwissenschaftliche Darstellungen
* Arieh Ben-Naim: ''Entropy Demystified&nbsp;– The Second Law Reduced to Plain Common Sense.'' World Scientific, Expanded Ed., New Jersey 2008, ISBN 978-981-283-225-2. (populärwissenschaftliche, aber exakte Erklärung auf Grundlage der statistischen Physik).
* Arieh Ben-Naim: ''Entropy Demystified&nbsp;– The Second Law Reduced to Plain Common Sense.'' World Scientific, Expanded Ed., New Jersey 2008, ISBN 978-981-283-225-2. (populärwissenschaftliche, aber exakte Erklärung auf Grundlage der statistischen Physik).
* H. Dieter Zeh: ''Entropie.'' Fischer, Stuttgart 2005, ISBN 3-596-16127-4.
* [[Dieter Zeh|H. Dieter Zeh]]: ''Entropie.'' Fischer, Stuttgart 2005, ISBN 3-596-16127-4.
* Jeremy Rifkin, Ted Howard: ''Entropy: A New World View.'' Viking Press, New York 1980 (dt.: ''Entropie: Ein neues Weltbild.'' Hofmann & Campe, Hamburg 1984).
* Eric Johnson: ''Anxiety and the Equation: Understanding Boltzmann's Entropy.'' The MIT Press, Cambridge, Massachusetts 2018, ISBN 978-0-262-03861-4.
* [[Jeremy Rifkin]], Ted Howard: ''Entropy: A New World View.'' Viking Press, New York 1980 (dt.: ''Entropie: Ein neues Weltbild.'' Hofmann & Campe, Hamburg 1984).


== Weblinks ==
== Weblinks ==
{{Commonscat|Entropy|Entropie}}
{{Commonscat|Entropy|Entropie}}
{{Wiktionary}}
{{Wikibooks}}
{{Wikibooks}}
{{Wikiquote}}
{{Wikiquote}}
{{Wiktionary}}
* {{Alpha Centauri|152}}
* {{Alpha Centauri|152}}
* {{Scholarpedia|http://www.scholarpedia.org/article/Entropy|Entropy|Tomasz Downarowicz}}
* {{Scholarpedia|http://www.scholarpedia.org/article/Entropy|Entropy|Tomasz Downarowicz}}
* [[Martin Buchholz (Science-Slammer)|Martin Buchholz]]: [https://www.youtube.com/watch?v=z64PJwXy--8 Entropie&nbsp;– Von Kühltürmen und der Unumkehrbarkeit der Dinge] <small> Siegerbeitrag beim Science Slam Deutschland 2010 auf Youtube</small>
* [[Martin Buchholz (Science-Slammer)|Martin Buchholz]]: [https://www.youtube.com/watch?v=z64PJwXy--8 Entropie&nbsp;– Von Kühltürmen und der Unumkehrbarkeit der Dinge] <small>Siegerbeitrag der [[Science-Slam#Deutsche Meisterschaften|Deutschen Meisterschaft im Science Slam]] 2010 auf Youtube</small>
* Ulf von Rauchhaupt: [http://www.faz.net/aktuell/wissen/physik-chemie/entropie-zeit-tod-und-schmutziges-geschirr-1354351.html Zeit, Tod und schmutziges Geschirr] <small> Artikel in der Frankfurter Allgemeinen Zeitung über Ludwig Boltzmann und die Entropie </small>
* [[Ulf von Rauchhaupt]]: [http://www.faz.net/aktuell/wissen/physik-chemie/entropie-zeit-tod-und-schmutziges-geschirr-1354351.html Zeit, Tod und schmutziges Geschirr] <small>Artikel in der Frankfurter Allgemeinen Zeitung über Ludwig Boltzmann und die Entropie</small>
* Thomas Neusius: [http://tneusius.com/thermo.htm Entropie und Richtung der Zeit] <small>Kursmaterial, beginnend auf Schulniveau</small>
* Thomas Neusius: [http://tneusius.com/thermo.htm Entropie und Richtung der Zeit] <small>Kursmaterial, beginnend auf Schulniveau</small>
* {{SEP|http://plato.stanford.edu/entries/information-entropy/|Information Processing and Thermodynamic Entropy|Owen Maroney}}
* {{SEP|http://plato.stanford.edu/entries/information-entropy/|Information Processing and Thermodynamic Entropy|Owen Maroney}}
* Nico G. van Kampen: [http://pluslucis.univie.ac.at/PlusLucis/973/entropie.pdf Entropie] (PDF; 18&nbsp;kB) <small>kurze, gut verständliche Erläuterung</small>
* [[Nico van Kampen|Nico G. van Kampen]]: [http://pluslucis.univie.ac.at/PlusLucis/973/entropie.pdf ''Entropie''] (PDF; 18&nbsp;kB) <small>kurze, gut verständliche Erläuterung</small>
* W. A. Kreiner: ''Thermodynamik und Informationstheorie&nbsp;– Deutungen und Bedeutungsunterschiede im Entropiebegriff''. {{doi|10.18725/OPARU-4097}} Eine vergleichende Gegenüberstellung.
* W. A. Kreiner: ''Thermodynamik und Informationstheorie&nbsp;– Deutungen und Bedeutungsunterschiede im Entropiebegriff.'' [[doi:10.18725/OPARU-4097]] Eine vergleichende Gegenüberstellung.
* {{TIBAV |15662 |Linktext=Konzept der Entropie nach CLAUSIUS und BOLTZMANN - wie viel Chaos steckt in einem System? |Herausgeber=Lauth |Jahr=2013 |DOI=10.5446/15662}}
* {{TIBAV |15662 |Linktext=Konzept der Entropie nach CLAUSIUS und BOLTZMANN wie viel Chaos steckt in einem System? |Herausgeber=Lauth |Jahr=2013 |DOI=10.5446/15662}}


== Einzelnachweise und Anmerkungen ==
== Einzelnachweise und Anmerkungen ==
<references group="Anm." />
<references>
<references>
<ref name="Bekenstein">
<ref name="Bekenstein">
{{Literatur
{{Literatur
Zeile 408: Zeile 461:
  |Datum=1807
  |Datum=1807
  |Kommentar=posthume Veröffentlichung von Vorlesungen aus dem Jahr 1760
  |Kommentar=posthume Veröffentlichung von Vorlesungen aus dem Jahr 1760
  |Online={{Google Buch | BuchID=lqI9AQAAMAAJ | Seite=155 | Linktext=Original von Michigan State University, digitalisiert 16. Okt. 2013 | Hervorhebung=heut temperature}}}}
  |Online={{Google Buch |BuchID=lqI9AQAAMAAJ |Seite=155 |Linktext=Original von Michigan State University, digitalisiert 16. Okt. 2013 |Hervorhebung=heut temperature}}}}
</ref>
</ref>
<ref name="Callendar">
<ref name="Callendar">
{{Literatur
{{Literatur
  |Autor=[[Hugh Longbourne Callendar]]
  |Autor=[[Hugh Longbourne Callendar]]
  |Titel=Proceedings of the Royal Society of London.|TitelErg= Series A: Containing Papers of a Mathematical and Physical Character
  |Titel=Proceedings of the Royal Society of London. Series A: Containing Papers of a Mathematical and Physical Character
  |Band=134|Nummer=825
  |Band=134
|Nummer=825
  |Datum=1932-01-02
  |Datum=1932-01-02
  |Seiten=xxv
  |Seiten=xxv
  |Online={{Google Buch | BuchID=AMUBAAAAMAAJ | Linktext=Snippet | Hervorhebung=entropy caloric}}}}
  |Online={{Google Buch |BuchID=AMUBAAAAMAAJ |Linktext=Snippet |Hervorhebung=entropy caloric}}}}
</ref>
</ref>
<ref name="Carnot">
<ref name="Carnot">
Zeile 425: Zeile 479:
  |Verlag=Bachelier
  |Verlag=Bachelier
  |Datum=1824
  |Datum=1824
  |Online={{Google Buch | BuchID=BuN3PWUpQ_IC | Seite=10 | Linktext=Original von Lyon Public Library, digitalisiert 29. Sept. 2014 | Hervorhebung=chaleur calorique}}}}
  |Online={{Google Buch |BuchID=BuN3PWUpQ_IC |Seite=10 |Linktext=Original von Lyon Public Library, digitalisiert 29. Sept. 2014 |Hervorhebung=chaleur calorique}}}}
</ref>
</ref>
<ref name="Clausius65">
<ref name="Clausius65">
{{Literatur
{{Literatur
  |Autor=[[Rudolf Clausius]]
  |Autor=[[Rudolf Clausius]]
  |Titel=''Über verschiedene, für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie''
  |Titel=Über verschiedene, für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie
|TitelErg=(auch Vortrag vor der Zürcher Naturforschenden Gesellschaft)
  |Sammelwerk=Annalen der Physik und Chemie
  |Sammelwerk=Annalen der Physik und Chemie
  |Band=125
  |Band=125
  |Datum=1865
  |Datum=1865
  |Seiten=353–400}}
  |Seiten=353–400
|Kommentar=auch Vortrag vor der Zürcher Naturforschenden Gesellschaft
|Online={{archive.org|annalenderphysi243unkngoog|Blatt=n377}}
|Abruf=2019-04-24}}
</ref>
</ref>
<ref name="Clausius67">
<ref name="Clausius67">
{{Literatur
{{Literatur
  |Autor=[[Rudolf Clausius]]
  |Autor=Rudolf Clausius
  |Titel=Über den zweiten Hauptsatz der mechanischen Wärmetheorie
  |Titel=Über den zweiten Hauptsatz der mechanischen Wärmetheorie
|TitelErg=Vortrag, gehalten in einer allgemeinen Sitzung der 41. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt am Main am 23. September 1867
  |Datum=1867
  |Datum=1867
  |Online={{Google Buch | BuchID=9_U4AAAAMAAJ | Seite=17 | Linktext=Original von Michigan State University, digitalisiert 29. Juni 2007 | Hervorhebung=Entropie}}}}
|Kommentar=Vortrag, gehalten in einer allgemeinen Sitzung der 41. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt am Main am 23. September 1867
  |Online={{Google Buch |BuchID=9_U4AAAAMAAJ |Seite=17 |Linktext=Original von Michigan State University, digitalisiert 29. Juni 2007 |Hervorhebung=Entropie}}}}
</ref>
</ref>
<ref name="Down07">
<ref name="Down07">
Zeile 455: Zeile 511:
  |Seiten=3901
  |Seiten=3901
  |Kommentar=revision #126991
  |Kommentar=revision #126991
|Online=[http://www.scholarpedia.org/article/Entropy scholarpedia.org]
  |DOI=10.4249/scholarpedia.3901}}
  |DOI=10.4249/scholarpedia.3901}}
</ref>
</ref>
Zeile 468: Zeile 523:
<ref name="FriggWerndl">
<ref name="FriggWerndl">
{{Internetquelle
{{Internetquelle
|autor=Roman Frigg and Charlotte Werndl
  |url=http://charlottewerndl.net/Entropy_Guide.pdf
  |url=http://charlottewerndl.net/Entropy_Guide.pdf
  |titel=Entropy – A Guide for the Perplexed
  |titel=Entropy – A Guide for the Perplexed
|autor=Roman Frigg and Charlotte Werndl
  |datum=2010-06
  |datum=Juni 2010
  |abruf=2014-12-12
  |zugriff=2014-12-12
  |format=PDF; 294 kB
  |sprache=en
  |sprache=en}}
  |format=PDF, 294 kB}}
</ref>
</ref>
<ref name="Hahn">
<ref name="Hahn">
Zeile 482: Zeile 537:
  |Verlag=Harvard University Press
  |Verlag=Harvard University Press
  |Datum=2005
  |Datum=2005
  |ISBN=978-0-674-01892-1
  |ISBN=0-674-01892-3
  |Online={{Google Buch | BuchID=ROu0P-pYQekC | Seite=94 | Hervorhebung=calorimetry }}}}
  |Online={{Google Buch |BuchID=ROu0P-pYQekC |Seite=94 |Hervorhebung=calorimetry }}}}
</ref>
</ref>
<ref name="Hawking-Strahlung">
<ref name="Hawking-Strahlung">
Zeile 493: Zeile 548:
  |Datum=1975
  |Datum=1975
  |Seiten=199–220
  |Seiten=199–220
|Online=[http://link.springer.com/article/10.1007%2FBF02345020 Springer Link]
  |DOI=10.1007/BF02345020}}
  |DOI=10.1007/BF02345020
|Abruf=2014-12-09}}
</ref>
</ref>
<ref name="Hawking-Zeit">
<ref name="Hawking-Zeit">
{{Literatur
{{Literatur
  |Autor=[[Stephen Hawking|Stephen W. Hawking]]
  |Autor=Stephen Hawking
  |Titel=Eine kurze Geschichte der Zeit
  |Titel=Eine kurze Geschichte der Zeit
  |Auflage=1
  |Auflage=1
Zeile 505: Zeile 558:
  |Datum=1988
  |Datum=1988
  |ISBN=3-498-02884-7
  |ISBN=3-498-02884-7
  |Online={{Google Buch | BuchID=-oVtAgAAQBAJ}}}}
  |Online={{Google Buch |BuchID=-oVtAgAAQBAJ}}}}
</ref>
</ref>
<ref name="Herrmann">
<ref name="Herrmann">
{{Internetquelle
{{Internetquelle
|url=http://www.physikdidaktik.uni-karlsruhe.de/skripten/thermod.pdf
|titel=Physik III - Thermodynamik, Skripten zur Experimentalphysik
  |autor=F. Herrmann
  |autor=F. Herrmann
  |datum=2003
|url=http://www.physikdidaktik.uni-karlsruhe.de/download/thermodynamik_hochschule.pdf
  |zugriff=2015-01-12
|titel=KPK – Hochschulskripten, Thermodynamik
  |format=PDF, 12,9 MB}}
  |datum=2015
  |abruf=2020-06-08
  |format=PDF; 20,8 MB}}
</ref>
</ref>
<ref name="HollemanWiberg">
<ref name="HollemanWiberg">
Zeile 529: Zeile 582:
  |Datum=2006
  |Datum=2006
  |ISBN=0-521-86743-6
  |ISBN=0-521-86743-6
  |Online={{Google Buch | BuchID=s6ExSHrknywC | Seite=894 | Hervorhebung=caloric heat temperature}}}}
  |Online={{Google Buch |BuchID=s6ExSHrknywC |Seite=894 |Hervorhebung=caloric heat temperature}}}}
</ref>
</ref>
<ref name="KPK">
<ref name="KPK">
Zeile 535: Zeile 588:
  |Autor=Friedrich Herrmann
  |Autor=Friedrich Herrmann
  |Titel=Der Karlsruher Physikkurs
  |Titel=Der Karlsruher Physikkurs
  |TitelErg=Teil 1 Energie Impuls Entropie
  |Band=Teil 1: ''Energie Impuls Entropie''
  |Auflage=9
  |Auflage=9
  |Verlag=Aulis Verlag
  |Verlag=Aulis Verlag
Zeile 547: Zeile 600:
  |Verlag=Basic Books
  |Verlag=Basic Books
  |Datum=2011
  |Datum=2011
  |Online={{Google Buch | BuchID=LVw1yX7xS64C | Seite=81 | Hervorhebung=caloric entropy heat}}}}
  |Online={{Google Buch |BuchID=LVw1yX7xS64C |Seite=81 |Hervorhebung=caloric entropy heat}}}}
</ref>
</ref>
<ref name="Lavoisier">
<ref name="Lavoisier">
Zeile 556: Zeile 609:
  |Datum=1864
  |Datum=1864
  |Kommentar=Registereintrag aus dem Jahr 1789
  |Kommentar=Registereintrag aus dem Jahr 1789
  |Online={{Google Buch | BuchID=lARAAAAAcAAJ | Seite=410 | Linktext=Seite 410, Original der Bayerischen Staatsbibliothek, digitalisiert 8. Dez. 2009 | Hervorhebung=chaleur calorique | KeinText=<j>}}}}
  |Online={{Google Buch |BuchID=lARAAAAAcAAJ |Seite=410 |Linktext=Seite 410, Original der Bayerischen Staatsbibliothek, digitalisiert 8. Dez. 2009 |Hervorhebung=chaleur calorique |KeinText=1}}}}
</ref>
<ref name="Ostwald">
{{Literatur |Autor=[[Wilhelm Ostwald]] |Titel=Die Energie |Hrsg= |Sammelwerk= |Band= |Nummer= |Auflage= |Verlag=Verlag von Johann Ambrosius Barth |Ort=Leipzig |Datum=1908 |ISBN= |Seiten=77}}
</ref>
 
<ref name="Job">
{{Literatur
|Autor=Georg Job
|Titel=Neudarstellung der Wärmelehre – Die Entropie als Wärme
|Verlag=Akademische Verlagsgesellschaft
|Ort=Frankfurt am Main |Kommentar=Nachdruck von 1961}}
</ref>
 
<ref name="Fuchs">
{{Literatur
|Autor=Hans Fuchs
|Titel=The Dynamics of Heat
|Verlag=Springer
|Ort=New York
|Datum=2010}}
</ref>
 
<ref name="JobRueffler">
{{Literatur
|Autor=Georg Job und Regina Rüffler
|Titel=Physikalische Chemie - Eine Einführung nach neuem Konzept
|Verlag=Vieweg + Teubner
|Ort=Wiesbaden
|Datum=2011}}
</ref>
 
<ref name="Lohr">
{{Literatur
|Autor=[[Erwin Lohr]]
|Titel= Entropieprinzip und abgeschlossenes Gleichungssystem
|Sammelwerk=Denkschrift der Akad. Wiss. Wien
|Band= Nat.-Naturwiss. Klasse
|Nummer=93
|Datum=1916
|Seiten=339-421
|Online=[http://www.phys.huji.ac.il/~bekenste/PRD7-2333-1973.pdf phys.huji.ac.il]
|Format=PDF
|KBytes=
|Abruf=2020-06-11}}
</ref>
 
<ref name="Jaumann">
{{Literatur
|Autor=[[Gustav Jaumann]]
|Titel= Geschlossenes System physikalischer und chemischer Differentialgesetze
|Sammelwerk= Sitzungsber. Akad. Wiss. Wien, Nat.-Naturwiss. Klasse
|Band=IIA
|Nummer=120
|Datum=1911
|Seiten=385-503}}
</ref>
<ref name="Wolfgang_Nolting_4/2_S58">
{{Literatur
|Autor=[[Wolfgang Nolting (Physiker)|Wolfgang Nolting]]
|Titel=Grundkurs Theoretische Physik
|Band=4/2 Thermodynamik
|Verlag=Springer-Verlag
|Ort=Berlin, Heidelberg, New York
|ISBN=978-3-662-49032-7
|DOI=10.1007/978-3-662-49033-4
|Datum=2016
|Auflage=9
|Kapitel=2.7 Entropie als Zustandsfunktion
|Seiten=58-59
|Kommentar=isotherme Expansion des idealen Gases}}
</ref>
<ref name="Demtröder_Entropie">
{{Literatur
|Autor=Wolfgang Demtröder
|Titel=Experimentalphysik 1
|Verlag=Springer Verlag
|Auflage=9 Auflage
|Kapitel=10.3.7 Die Entropie
|Seiten= 326-328 }}
</ref>
<ref name="Stierstadt_Th2_Entropie">
{{Literatur
|Autor=Klaus Stierstadt
|Titel=Thermodynamik für das Bachelorstudium
|Verlag=Springer Verlag
|Ort=Heidelberg
|Auflage=2 vollst. überarbeitete Auflage
|Datum=2018
|DOI=10.1007/978-3-662-55716-7
|Kapitel=2.4, 4.1, 4.2, 4.3
|ISBN=978-3-662-55715-0
|Seiten= 54,85-96
|Kommentar=z.&nbsp;B. Formel 2.31 oder 4.10}}
</ref>
<ref name="Berkeley_Kurs_Stat_79">
{{Literatur
|Autor=Frederik Reif
|Titel=Berkeley Physik Kurs Band 5
|Verlag=Vieweg
|Auflage=2 Auflage
|Datum=1985
|Seiten= 79-80 }}
</ref>
</ref>
</references>
</references>
Zeile 562: Zeile 717:
[[Kategorie:Thermodynamische Zustandsgröße]]
[[Kategorie:Thermodynamische Zustandsgröße]]
[[Kategorie:Physikalische Größenart]]
[[Kategorie:Physikalische Größenart]]
[[Kategorie:Wikipedia:Artikel mit Video]]

Aktuelle Version vom 22. Februar 2022, 10:21 Uhr

Physikalische Größe
Name Entropie
Formelzeichen $ S $
Größen- und
Einheitensystem
Einheit Dimension
SI J·K−1 L2·M·T−2·Θ−1
Beim Schmelzen von Eis wird die geordnete Eiskristallstruktur in eine ungeordnete Bewegung einzelner Wassermoleküle überführt: Die Entropie des Wassers im Eiswürfel nimmt dabei zu (Rudolf Clausius 1862)

Die Entropie (Kunstwort {{Modul:Vorlage:lang}} Modul:ISO15924:97: attempt to index field 'wikibase' (a nil value) entropía, von {{Modul:Vorlage:lang}} Modul:Multilingual:149: attempt to index field 'data' (a nil value) en ‚an‘, ‚in‘ und {{Modul:Vorlage:lang}} Modul:Multilingual:149: attempt to index field 'data' (a nil value) tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße mit der SI-Einheit Joule pro Kelvin (J/K).

Die Entropie eines Systems steigt bei jedem spontan darin ablaufenden Prozess sowie bei Zufuhr von Wärme oder Materie. Spontan ablaufende Prozesse sind z. B. Vermischung, Wärmeleitung, chemische Reaktion, aber auch Umwandlung von mechanischer Arbeit in Innere Energie durch Reibung (siehe Dissipation, Energieentwertung). Abnehmen kann die Entropie eines Systems nur durch Abgabe von Wärme oder Materie. Daher kann in einem abgeschlossenen System (einem System, bei dem es keinen Energie- oder Materieaustausch mit der Umgebung gibt) die Entropie nicht abnehmen, sondern im Laufe der Zeit nur gleich bleiben oder zunehmen (Zweiter Hauptsatz der Thermodynamik). Hat ein System die maximal mögliche Entropie erreicht, kommen alle spontan darin ablaufenden Prozesse zum Erliegen, und das System ist in einem stabilen Gleichgewichtszustand.

Beispielsweise beobachten wir, dass in einem System aus einem kalten und einem heißen Körper in einer Isolierbox, d. h. in einem praktisch abgeschlossenen System, Wärmetransport einsetzt und der Temperaturunterschied verschwindet. Beide Körper werden nach einer gewissen Zeit die gleiche Temperatur haben, womit das System den Zustand größter Entropie erreicht hat und sich nicht weiter verändert. Wir beobachten in einem solchen geschlossenen System praktisch niemals das spontane Abkühlen des kälteren Körpers und das Erhitzen des wärmeren.[Anm. 1]

Spontane Prozesse, bei denen die Entropie in einem abgeschlossenen System zunimmt, können ohne äußeren Eingriff nicht in umgekehrter zeitlicher Richtung ablaufen, sie werden als irreversibel bezeichnet. Um ein System nach einem irreversiblen Prozess wieder in den Ausgangszustand zu bringen, muss es mit seiner Umgebung gekoppelt werden, die den Zuwachs an Entropie aufnimmt und ihren eigenen Zustand dadurch auch verändert.

In der statistischen Mechanik wird durch makroskopische thermodynamische Größen ein Makrozustand eines Systems definiert, der durch eine hohe Anzahl verschiedener Mikrozustände realisiert sein kann. Diese Mikrozustände können durch innere Prozesse ineinander übergehen. Ihre Anzahl bestimmt die Entropie, die das System in diesem gegebenen Makrozustand besitzt. In einem System, das in einem beliebigen Anfangszustand ist und sich selbst überlassen wird, bewirken dann die spontan ablaufenden inneren Vorgänge, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände realisiert sein kann, also die höchstmögliche Entropie hat. Dieser Vorgang bewirkt die Annäherung an den (makroskopischen) Gleichgewichtszustand (Relaxation).

Dies wird umgangssprachlich häufig dadurch umschrieben, dass Entropie ein „Maß für Unordnung“ sei. Allerdings ist Unordnung kein definierter physikalischer Begriff und hat daher kein physikalisches Maß. Richtiger ist es, man begreift die Entropie als ein wohldefiniertes objektives Maß für die Menge an Information, die benötigt würde, um von einem beobachtbaren Makrozustand auf den tatsächlich vorliegenden Mikrozustand des Systems schließen zu können. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird.[1]

Geschichtlicher Überblick

In der Geschichte der Physik gab es lange Zeit eine Auseinandersetzung über die Bedeutung von Wärme: Die eine Seite vertrat die Theorie, dass die Wärmeerscheinungen allein in der vis viva („lebendige Kraft“ = kinetische Energie) der Atome begründet seien; die andere behauptete, dass die Wärme eine Substanz sei, und gab ihr den Namen Caloricum (französisch calorique, englisch caloric).

Antoine Laurent de Lavoisier unterschied 1789 chaleur (Wärme) von calorique (Caloricum). Das Caloricum sollte unter anderem eine abstoßende Kraft zwischen den Atomen eines Festkörpers bewirken, so dass dieser bei Zufuhr einer ausreichenden Menge von Caloricum erst flüssig und dann gasförmig würde.[2] Lavoisier wollte sich aber nicht festlegen, ob die vis viva oder die Caloricum-Substanz die Ursache für die Wärmeerscheinungen ist.[3] Joseph Black unterschied temperature von der quantity of heat, u. a. anhand der latenten Wärme beim Schmelzen. Er bemerkte, dass die Wärmemenge mit dem aus einem Kessel entweichenden Dampf mittransportiert werden müsse.[4][5]

Benjamin Thompson, Reichsgraf von Rumford, untersuchte in seiner Münchner Zeit 1798 die Temperatur von Spänen, die beim Bohren von Kanonenrohren entstehen. Aufgrund der beliebig großen Wärmemenge, die dabei aus der mechanischen Bohrarbeit entstehen konnte, zweifelte er daran, dass das Caloricum eine (erhaltene) Substanz sein könnte, wodurch er den Vertretern der vis-viva-Theorie Auftrieb gab.[6][5]

Der Namensgeber des Carnot-Prozesses, Nicolas Léonard Sadi Carnot, schrieb 1824[7], dass die Kraft einer Dampfmaschine nicht am Verbrauch von calorique liegt, sondern an ihrem Transport von einem warmen Körper auf einen kalten, und bereitete damit den Entropiebegriff vor. Mit den Experimenten von Robert Mayer und James Prescott Joule wurde Anfang der 1840er Jahre gezeigt, dass die mechanisch erzeugte Wärme in einem festen Verhältnis zur aufgewendeten mechanischen Arbeit steht. Dies war die Grundlage für den 1847 von Hermann von Helmholtz allgemein formulierten Energieerhaltungssatz, also den ersten Hauptsatz der Thermodynamik. Seitdem hat der physikalische Begriff Wärme die Bedeutung einer Energie.

Weitere 20 Jahre später stellte dann Rudolf Clausius fest, dass bei einer Übertragung der Energieform Wärme auch eine zweite mengenartige Größe fließen muss. Diese Größe, die er auch quantitativ definierte, sah er als die Ursache für die „Disgregation“ eines festen Körpers beim Schmelzen an und nannte sie Entropie.[8][9] Wie von Wilhelm Ostwald 1908 sowie Hugh Longbourne Callendar 1911 herausgearbeitet, entspricht die Entropie bei Clausius dem calorique bei Lavoisier und Carnot.[10][11][12]

Mit Arbeiten von Ludwig Boltzmann und Willard Gibbs gelang es um 1875, der Entropie eine statistische Definition zu geben, welche die von Clausius makroskopisch definierte Größe mikroskopisch erklärt.[13] Die Entropie $ S $ eines Makrozustands wird dabei durch die Wahrscheinlichkeiten $ p_{i} $ der Mikrozustände $ i $ berechnet:

$ S=-k_{\mathrm {B} }\sum _{i}p_{i}\ln(p_{i}) $

Der Proportionalitätsfaktor $ k_{\mathrm {B} } $ wurde nach seinem Tod als Boltzmann-Konstante bezeichnet, Boltzmann selbst hat ihren Wert jedoch nie bestimmt.

Die so auf statistische Weise definierte Entropie kann in vielen Kontexten sinnvoll verwendet werden.

Zusammenhänge zwischen Entropie und Information ergaben sich schon im 19. Jahrhundert durch die Diskussion über den maxwellschen Dämon, ein Gedankenexperiment, das im Rahmen der Miniaturisierung im Computerzeitalter wieder aktuell wurde. Die Informationstheorie nutzt die Shannonsche Informationsentropie, die der statistischen Interpretation entspricht, als abstraktes Maß der Information ohne direkten Bezug zur physikalischen Realisation. Auch Norbert Wiener nutzte den Begriff der Entropie zur Beschreibung von Informationsphänomenen, allerdings mit entgegengesetztem Vorzeichen. Dass sich die Konvention von Shannon durchgesetzt hat, ist vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben.[14]

Klassische Thermodynamik

In der Thermodynamik kann ein System auf zwei Arten mit seiner Umgebung Energie austauschen: als Wärme oder als Arbeit, wobei je nach System und Prozessführung verschiedene Varianten der Arbeit existieren, u. a. Volumenarbeit, Hubarbeit und magnetische Arbeit. Im Zuge eines solchen Energieaustauschs kann sich die Entropie sowohl des Systems als auch der Umgebung ändern. Nur wenn die Summe aller Entropieänderungen positiv ist, erfolgt die Änderung spontan.

Grundlagen

Die Entropie $ S $ (Einheit J/K) ist eine extensive Zustandsgröße eines physikalischen Systems und verhält sich bei Vereinigung mehrerer Systeme additiv wie auch das Volumen, die elektrische Ladung oder die Stoffmenge. Der Physiker Rudolf Clausius führte diesen Begriff 1865 zur Beschreibung von Kreisprozessen ein. Dividiert man $ S $ durch die Masse des Systems, erhält man die spezifische Entropie $ s $ mit der Einheit J/(kg·K) als intensive Zustandsgröße.

Das Differential $ \mathrm {d} S $ ist nach Clausius bei reversiblen Vorgängen zwischen Systemen im Gleichgewicht das Verhältnis von übertragener Wärme $ \delta Q_{\mathrm {rev} } $ und absoluter Temperatur $ T $:

$ \mathrm {d} S={\frac {\delta Q_{\mathrm {rev} }}{T}}\qquad (1) $

Diese Entropieänderung ist bei Wärmezufuhr positiv, bei Wärmeabfuhr negativ. In dieser Schreibweise wird bei $ S $ ein nicht-kursives $ \mathrm {d} $ benutzt, um hervorzuheben, dass es sich um ein vollständiges Differential handelt, im Gegensatz zu $ \delta Q $, das kein vollständiges Differential sein kann, weil $ Q $ eine Prozessgröße ist. In diesem Zusammenhang spielt also die reziproke absolute Temperatur die Rolle eines „integrierenden Bewertungsfaktors“, der aus der reversibel zu- oder abgeführten Wärme, einem – mathematisch gesehen – unvollständigen Differential, ein zugehöriges vollständiges Differential $ \mathrm {d} S $ macht.[15] Dadurch ist die Änderung der Entropie bei reversiblen Prozessen – im Gegensatz zur zu- oder abgeführten Wärme – wegunabhängig. Mit der Festlegung eines beliebigen Werts für einen Bezugszustand wird die Entropie damit zu einer allein durch den jeweiligen Zustand gegebenen Zustandsgröße.

Insofern kann man die Entropie bei reversibler Prozessführung auch als die „mit $ {\tfrac {1}{T}} $ bewertete Wärmeenergie“ definieren. Weiter unten wird das Problem behandelt, wie weit die Energie eines Systems in Arbeit umgewandelt werden kann.

Benutzt man den ersten Hauptsatz der Thermodynamik, $ \mathrm {d} U=\delta W+\delta Q $, also dass die Energieänderung $ \mathrm {d} U $ sich zusammensetzt aus zugeführter Arbeit und Wärme, und setzt für die Arbeit $ \delta W=-p\,\mathrm {d} V+\mu \,\mathrm {d} N+\dots $ alle dem Experimentator mittels Änderung der Systemgrößen möglichen Prozesse, erhält man aus (1) für die Änderung der Entropie als Funktion der thermodynamischen Variablen (immer noch im reversiblen Fall)

$ \mathrm {d} S={\frac {1}{T}}(\mathrm {d} U+p\,\mathrm {d} V-\mu \,\mathrm {d} N-\dots ) $

Clausius behandelte auch irreversible Prozesse und zeigte, dass in einem isolierten thermodynamischen System die Entropie dabei nie abnehmen kann:

$ \Delta S\geq 0\qquad (2), $

wobei das Gleichheitszeichen nur bei reversiblen Prozessen gilt. $ \Delta S=S_{e}-S_{a} $ ist die Entropieänderung des Systems mit $ S_{a} $ für die Entropie des Zustandes am Anfang der Zustandsänderung und $ S_{e} $ für den Zustand am Ende des Prozesses.

Aus (2) folgt für geschlossene Systeme, bei denen Wärmeenergie die Systemgrenzen passieren kann, die Ungleichung:

$ \Delta S\geq \Delta S_{Q}=\int {\frac {\delta Q}{T}}\qquad (3a) $

$ \Delta S_{Q} $ ist der Entropie-Anteil, der sich aus der Zufuhr von Wärme über die Systemgrenze hinweg ergibt. Die Formel gilt auch für die Abfuhr von Wärme aus dem System, in diesem Falle ist $ \Delta S_{Q} $ negativ. Die Ungleichung (3a) wird nur für rein reversible Prozesse zu einer Gleichung.

Bei der Analyse thermodynamischer Systeme in der Technik führt man oft eine Bilanzanalyse durch. Hierzu schreibt man die Ungleichung (3a) in der folgenden Form:[16]

$ \Delta S=\Delta S_{Q}+\Delta S_{\mathrm {irr} }\qquad (3) $

Dabei ist $ \Delta S_{\mathrm {irr} }\geq 0 $ der Entropieanteil der durch irreversible Vorgänge im Inneren des Systems entsteht. Hierzu gehören etwa Vermischungsvorgänge nach dem Entfernen einer inneren Trennwand, thermische Ausgleichsvorgänge, die Umwandlung von elektrischer oder mechanischer Energie (ohmscher Widerstand, Rührwerk) in Wärme und chemische Reaktionen. Beschränken sich die irreversiblen Vorgänge ausschließlich auf die Dissipation von mechanischer oder elektrischer Arbeit $ \delta W_{\mathrm {diss} } $, dann kann $ \Delta S_{\mathrm {irr} } $ durch die Arbeit bzw. die dissipierte Leistung $ P_{\mathrm {diss} } $ ausgedrückt werden.

$ \Delta S_{\mathrm {irr} }=\int {\frac {\delta W_{\mathrm {diss} }}{T}}=\int {\frac {P_{\mathrm {diss} }}{T}}dt $

Läuft der irreversible Prozess quasistatisch ab, so dass das System immer nahe einem Gleichgewichtszustand ist, so kann (3) auch mit zeitlichen Ableitungen geschrieben werden.

$ {\dot {S}}={\dot {S}}_{Q}+{\dot {S}}_{\mathrm {irr} }\qquad $

Dabei wird $ {\dot {S}}_{Q} $ als Entropietransportstrom und $ {\dot {S}}_{irr} $ als Entropieproduktionsstrom bezeichnet.[16]

Aus dem ersten Hauptsatz der Thermodynamik

$ \Delta U=W+Q $

folgt, dass das Produkt $ (Q=)\,T\Delta S $ den nicht verwerteten Anteil („Abwärme“) bei der isothermen Erzeugung von Arbeit $ W $ aus vorhandener innerer Energie $ \Delta U $ darstellt. Der Maximalwert dieser Arbeit ist die sogenannte freie Energie

$ \Delta F=\Delta U-T\Delta S $.

Dies ist eine äquivalente Form des 2. Hauptsatzes.

Eine Konsequenz dessen ist die Unmöglichkeit eines Perpetuum Mobile 2. Art. Clausius formulierte:

„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“

Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Wäre es nämlich möglich, einen solchen Kreisprozess zu konstruieren, könnte man dem warmen Reservoir unentwegt Energie entnehmen und damit Arbeit verrichten. Die dissipierte Arbeit würde dann dem kalten Reservoir zugeführt und käme über den erwähnten Kreisprozess wieder dem warmen Reservoir zugute. Äquivalent dazu ist die Formulierung von William Thomson, dem späteren Lord Kelvin:

„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.“

Ein idealer, jederzeit umkehrbarer Prozess ohne Reibungsverluste wird auch reversibel genannt. Oft bleibt die Entropie während eines Prozesses unverändert, $ \Delta S=0 $, bekanntes Beispiel ist die adiabate Kompression und Expansion im Zyklus einer Carnot-Maschine. Man nennt Zustandsänderungen mit konstanter Entropie auch isentrop, allerdings sind nicht alle isentropen Zustandsänderungen adiabatisch. Ist ein Prozess adiabatisch und reversibel, folgt jedoch stets, dass er auch isentrop ist.

Wird in einem Kreisprozess bei der Temperatur $ T_{\rm {h}} $ die Wärme $ Q_{\rm {h}} $ aufgenommen und die Wärmemenge $ Q_{\rm {l}} $ bei $ T_{\rm {l}} $ wieder abgegeben und erfolgen Wärmeaufnahme und Abgabe reversibel, so gilt, dass sich die Entropie dabei nicht ändert:

$ \oint {\rm {d}}S=0 $;     oder   $ {\frac {Q_{\rm {h}}}{T_{\rm {h}}}}={\frac {Q_{\rm {l}}}{T_{\rm {l}}}}\, $.

Daraus lassen sich die maximale verrichtete Arbeit $ W=Q_{\rm {h}}-Q_{\rm {l}} $ und der maximale Wirkungsgrad $ \eta $, der so genannte Carnot-Wirkungsgrad, ableiten:

$ \eta ={\frac {W}{Q_{\rm {h}}}}={\frac {T_{\rm {h}}-T_{\rm {l}}}{T_{\rm {h}}}}\,. $

Der carnotsche Wirkungsgrad stellt für alle Wärmekraftmaschinen das Maximum an Arbeitsausbeute dar. Reale Maschinen haben meistens einen erheblich geringeren Wirkungsgrad. Bei ihnen wird ein Teil der theoretisch verfügbaren Arbeit dissipiert, z. B. durch Reibung. Folglich entsteht in einer realen Maschine Entropie und es wird mehr Wärme an das kalte Reservoir abgeführt als notwendig. Sie arbeitet also irreversibel.

Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie einer perfekt kristallinen Substanz, bei der beispielsweise keine Spinentartung auftritt, am absoluten Nullpunkt als Null fest:

$ S(T=0)\equiv 0\,. $

Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen Temperaturen verschwindet, und vor allem, dass der absolute Temperaturnullpunkt nicht erreichbar ist (das gilt auch bei Spinentartung).

Erfüllt eine Substanz nicht die Bedingung perfekt kristallin (wenn z. B. mehrere Konfigurationen vorliegen oder es sich um ein Glas handelt), kann ihr auch am absoluten Nullpunkt eine Entropie zugeschrieben werden (Nullpunktsentropie).

Partielle Ableitungen der Entropie

Aus dem 2. Hauptsatz folgen Aussagen über die partiellen Ableitungen der Entropie, z. B. nach der Temperatur $ T $ oder dem Volumen $ V $. Mit dem zweiten Hauptsatz gilt zunächst, dass bei reversiblen Zustandsänderungen $ \mathrm {d} S={\tfrac {\delta Q_{\mathrm {reversibel} }}{T}} $ ist. Zusammen mit dem ersten Hauptsatz folgt daraus $ \mathrm {d} S={\tfrac {\mathrm {d} U-\delta W}{T}} $, weil nach dem ersten Hauptsatz für die Innere Energie $ U $ gilt, dass die Summe der dem betrachteten System zugeführten Arbeit $ \delta W $ und der zugeführten Wärme $ \delta Q $ (einzeln keine Zustandsfunktionen!) eine Zustandsfunktion ergibt, eben die „Innere Energie“ des Systems. Dabei wurde vorausgesetzt, dass die Änderungen von Volumen und Temperatur adiabatisch-langsam erfolgen, sodass keine irreversiblen Prozesse erzeugt werden.

Also

$ \mathrm {d} S={\frac {1}{T}}{\frac {\partial U(T,V)}{\partial V}}\,{\mathrm {d} V}+{\frac {1}{T}}{\frac {\partial (U(T,V)+p\cdot V(T))}{\partial T}}\,\mathrm {d} T, $

wobei $ \delta W=-p\,\mathrm {d} V $ eingesetzt wurde.

$ \Rightarrow {\frac {\partial S}{\partial V}}={\frac {1}{T}}{\frac {\partial U(T,V)}{\partial V}} $ bzw.
$ {\frac {\partial S}{\partial T}}={\frac {1}{T}}{\frac {\partial (U(T,V)+p\cdot V(T))}{\partial T}} $.

Ähnliche Beziehungen ergeben sich, wenn das System außer von der Dichte bzw. vom Volumen noch von weiteren Variablen abhängt, z. B. von elektrischen oder magnetischen Momenten.

Aus dem 3. Hauptsatz folgt, dass sowohl $ {\tfrac {\partial S}{\partial T}} $ als auch $ {\tfrac {\partial S}{\partial V}} $ für $ T\to 0 $ verschwinden müssen, und zwar hinreichend rasch, was (wie man zeigen kann) nur erfüllt ist, wenn für tiefe Temperaturen nicht die klassische Physik, sondern die Quantenphysik gilt.

Statistische Physik

In der u. a. von James Maxwell begründeten statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzter Systeme wie Atome und Moleküle, erklärt. Bezüglich der Entropie stellt sich die Frage, wie sie hier gedeutet werden kann, und ob der zeitlich gerichtete zweite Hauptsatz aus einer mikroskopischen zeitumkehrinvarianten Theorie hergeleitet werden kann.

Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der $ N $ zum System zählenden Teilchen. Ein solcher Mikrozustand $ ({\vec {q}},{\vec {p}}) $ ist demnach ein Punkt in einem 6N-dimensionalen Raum, der in diesem Zusammenhang Phasenraum genannt wird. Die kanonischen Gleichungen der klassischen Mechanik beschreiben die zeitliche Evolution des Systems, die Phasentrajektorie. Alle unter gegebenen makroskopischen Randbedingungen, wie z. B. Gesamtenergie $ E $, Volumen $ V $ und Teilchenzahl $ N $, erreichbaren Phasenpunkte bilden ein zusammenhängendes Phasenraumvolumen $ \Omega $.

Um 1880 konnte Ludwig Boltzmann auf mikroskopischer Ebene eine Größe finden, die die Definition der thermodynamischen Entropie erfüllt:

$ S=k_{\mathrm {B} }\ln \,\Omega $

Die Konstante $ k_{\mathrm {B} } $ ist die Boltzmannkonstante. Die Entropie ist also proportional zum Logarithmus des zu den Werten der thermodynamischen Variablen gehörigen Phasenraumvolumens.

Eine äquivalente Formel lautet

$ S=-k_{\mathrm {B} }\int w\,\ln(w)\mathrm {d} \Omega $

(mit $ w $ der Wahrscheinlichkeit für den Mikrozustand bei Kenntnis der zum thermodynamischen System gehörigen Variablen, und dem Integral über den Phasenraum). Sie führt – wenn man mit $ \mathrm {d} ^{3N}q\;\mathrm {d} ^{3N}p $ das natürliche Maß auf dem Phasenraum benutzt und die Wahrscheinlichkeit in Abwesenheit anderer Information als konstant ansieht ($ w=1/\Omega $ mit dem Phasenraumvolumen $ \Omega $, das zu den Werten der thermodynamischen Variablen gehört) – sofort auf die „Boltzmann-Formel“ (da die Integration unabhängig von $ w $ ist: $ \textstyle S=-k_{\mathrm {B} }w\,\ln(w)\mathrm {\int } d\Omega =k_{\mathrm {B} }\ln \,\Omega $ und $ w=1/\Omega ={\text{const}} $). Ihre Ähnlichkeit mit Shannons Ausdruck für die Information legt nahe, die Entropie als das Informationsdefizit über den Mikrozustand zu interpretieren, das mit der Kenntnis der makroskopischen Variablen verbunden ist. Je größer die Entropie ist, desto weniger weiß man über den mikroskopischen Zustand und desto weniger Informationen sind über das System bekannt.

Letzteres wurde von E.T. Jaynes unter dem Stichwort „informationstheoretische Entropie“ zu einem Konzept ausgearbeitet, die Entropie als epistemische (er nannte es „anthropomorph“) Größe zu verstehen, etwa in folgendem Zitat:

„For example, I have been asked several times whether, in my opinion, a biological system, say a cat, which converts inanimate food into a highly organized structure and behavior, represents a violation of the second law. The answer I always give is that, until we specify the set of parameters which define the thermodynamic state of the cat, no definite question has been asked!“

„Zum Beispiel bin ich mehrmals gefragt worden, ob meiner Meinung nach ein biologisches System, etwa eine Katze, die unbelebte Nahrung in hoch organisierte Struktur und Verhalten verwandelt, eine Verletzung des zweiten Hauptsatzes darstellt. Die Antwort, die ich immer gebe, ist, dass, solange wir den Satz an Parametern, die den thermodynamischen Zustand der Katze festlegen, nicht spezifizieren, keine eindeutige Frage gestellt wurde.“

E. T. Jaynes[17]

Es wird deutlich, dass die Entropie – wie überhaupt ein thermodynamisches System – erst durch eine Auswahl an Variablen definiert und von diesen abhängig ist. Einem Mikrozustand kann sie nicht zugeordnet werden. Kritisiert wird daran, dass hier die Entropie den Rang einer subjektiven Größe zu haben scheint, was in einer objektiven Naturbeschreibung nicht angemessen ist.

Beweis des zweiten Hauptsatzes

Vor allem Boltzmann versuchte, den 2. Hauptsatz (dass die Entropie nur zunehmen kann) statistisch herzuleiten. Die anschauliche Vorstellung ist die, dass etwa bei einem Mischungsvorgang etwas sehr Wahrscheinliches passiert, während der umgekehrte Vorgang einer Entmischung sehr unwahrscheinlich wäre. Dies galt es mathematisch zu präzisieren, mit seinem H-Theorem hatte er hier einen Teilerfolg. Allerdings wird mit dem „Loschmidt'schen Umkehreinwand“ verdeutlicht, dass mikroskopisch jeder Vorgang genauso rückwärts laufen könnte und daher ein zeitgerichtetes Gesetz mikroskopisch grundsätzlich nicht hergeleitet werden kann. Auch der Wiederkehrsatz stellt die Möglichkeit eines solchen Gesetzes in Frage.

Im informationstheoretischen Konzept verstanden bedeutet der 2. Hauptsatz, dass die Information über den Mikrozustand bei Beobachtung der makroskopischen Variablen nur abnehmen kann. Hier ist der Beweis viel einfacher möglich:

Nach dem Satz von Liouville bleibt das Phasenraumvolumen der mit einem Anfangswert der thermodynamischen Variablen verbundenen Mikrozustände bei der Zeitentwicklung konstant.[18] Wenn man noch voraussetzt, dass die Beschreibung durch die thermodynamischen Variablen eindeutig ist, das heißt alle Mikrozustände makroskopisch gesehen beim selben Endzustand landen, kann also das Phasenraumvolumen der mit diesem Endwert der thermodynamischen Variablen verbundenen Mikrozustände nicht kleiner sein als das anfängliche Phasenraumvolumen. Es kann aber größer sein, da nicht notwendigerweise alle Mikrozustände „angesteuert“ werden. Die Entropie kann also nur zunehmen.

Man kann das anders formulieren. Man unterscheidet zwischen Von-Neumann- oder „fine-grained“- oder „entanglement“-Entropie (also der von Mikrophysik, d. h. wellenmechanisch korrelierten Systemen) und thermischer Entropie (also der Entropie in klassischer, makroskopischer Thermodynamik, auch genannt „coarse-grained“-Entropie). Ohne Korrelation ist die Entanglement-Entropie ($ S=k_{B}\ln N $) null (jeweils nur ein Zustand, $ N=1 $, der „reine Zustand“). Mit entanglement (Korrelation) stehen mehr Zustände zur Verfügung, und die Entanglement-Entropie ist größer als null. In der Makrophysik betrachtet man Phasenraumbereiche wie das Kugelvolumen („coarse-graining“) um einen Punkt, also nicht einzelne Punkte bzw. Mikrozustände. Der mit Anfangsbedingungen definierte Bereich des Phasenraums eines Systems wird demzufolge von Kugelvolumen bedeckt, die mehr Phasenraumpunkte umfassen als im mikroskopischen Anfangszustand. Damit ist die Fine-grained-Entropie immer kleiner als die Coarse-grained-Entropie. Dies ist die Aussage des 2. Hauptsatzes. Als Information bezeichnet man die Differenz zwischen Coarse-grained-Entropie und Fine-grained-Entropie. Details findet man im Buch von Susskind und Lindesay.[19]

Die zeitliche Asymmetrie des zweiten Hauptsatzes betrifft hier also die Kenntnis des Systems, nicht die Ontologie des Systems selbst. Dadurch werden die Schwierigkeiten, aus einer bezüglich Zeitumkehr symmetrischen Theorie ein asymmetrisches Gesetz zu erhalten, vermieden. Allerdings geht in den Beweis auch die Eindeutigkeit der thermodynamischen Beschreibung ein, die auf stochastischen Argumenten beruht. Um die zeitliche Asymmetrie des Weltgeschehens zu verstehen, ist weiterhin ein Bezug zum Anfangszustand des Universums nötig.

Entropie als „Maß der Unordnung“

Abbildung 2: Dargestellt sind vereinfacht die Zustände eines Systems, bei dem vier Atome jeweils entweder auf der rechten oder der linken Seite eines Behälters sein können. Die Spalten sind nach der Gesamtzahl der Teilchen auf der rechten bzw. linken Seite sortiert. W gibt dabei die Anzahl der Möglichkeiten in der jeweiligen Kategorie an und ist das im vorigen Abschnitt als $ \Omega $ bezeichnete Phasenraumvolumen.
Abbildung 1: Der Becher im rechten Foto zeigt den wahrscheinlicheren Zustand größtmöglicher Durchmischung.

Eine anschauliche, aber wissenschaftlich nicht exakte Deutung der Entropie ist es, sie als Maß der Unordnung zu verstehen, siehe z. B. das Chemiebuch von Holleman-Wiberg.[20] Insbesondere in der Fotografie des Bechers im Beispiel zur Mischentropie sieht das rechte Bild der Abbildung 1 der vollständig Durchmischung für die meisten Betrachter ordentlicher aus als das linke mit den Schlieren, weshalb es dann unverständlich erscheint, es als den unordentlicheren Zustand mit höherer Entropie zu bezeichnen.

Diese Definition lässt sich allerdings anhand der schematischen Abbildung 2[21] mit den bisherigen Definitionen in Einklang bringen. Abbildung 2 stellt die 16 Zustände in einem Behälter dar, in dem sich jedes der vier enthaltenen Atome entweder auf der rechten oder auf der linken Seite des Behälters befinden kann. Die erste Spalte enthält den einen Zustand mit $ N=4 $ Atomen links, die zweite die vier Zustände mit $ N=3 $ Atomen links usw. Wenn man annimmt, dass alle 16 Zustände gleich wahrscheinlich sind, sind die Wahrscheinlichkeiten, für die einzelnen Spalten gerade mit $ \textstyle p={\frac {W}{16}} $ gegeben, wobei das $ W $ aus Abbildung 2 gerade die Anzahl der Zustände in den jeweiligen Spalten bezeichnet.

Nehmen wir nun an, dass wir makroskopisch unterscheiden könnten, wie viele Atome sich auf der linken Seite befinden. Die Wahrscheinlichkeit, dass sich alle vier Atome auf der linken Seite befinden, wäre als Beispiel daher gerade $ \textstyle p={\frac {1}{16}} $, während die mittlere Spalte eine höhere Wahrscheinlichkeit von $ \textstyle p={\frac {6}{16}} $ besitzt. Mit der Formel $ S=k_{\mathrm {B} }\ln \,W $ hat der makroskopische Zustand mit $ N=2 $ also die höchste Entropie.

In Abbildung 2 erkennt man nun aber auch deutlich, dass die erste und letzte Spalte ordentlicher sind als die dazwischenliegenden Fälle mit höherer Entropie. Es können nun folgende Feststellungen gemacht werden: Wenn alle 16 Zustände gleich wahrscheinlich sind und man mit dem Zustand $ N=4 $ beginnt, ist es sehr wahrscheinlich, bei der nächsten Betrachtung einen der Zustände höherer Entropie vorzufinden. Allerdings kann das System auch von der mittleren Spalte in die erste oder letzte übergehen; es ist nur unwahrscheinlicher, den Zustand $ N=4 $ vorzufinden als den Zustand mit $ N=2 $. In diesem rein statistischen Sinne kann das System also auch spontan in einen Zustand niedrigerer Entropie wechseln, es ist nur unwahrscheinlicher als der Wechsel in Richtung höherer Entropie.

Dies ist immer noch der Fall, wenn man $ 10^{23} $ Atome in einem Behälter betrachtet. Die Möglichkeit, dass diese spontan in den Zustand niedrigerer Entropie wechseln, bei dem sich alle Atome links befinden, ist nicht auszuschließen, aber sehr unwahrscheinlich.

Entropie als mengenartige Größe

Für die Entropie als extensive Größe kann eine lokale Bilanzgleichung (Kontinuitätsgleichung) formuliert werden[22] [23]:

$ {\frac {\partial \rho _{S}}{\partial t}}+{\vec {\nabla }}\cdot {\vec {\jmath }}_{S}=\sigma $

Hier ist $ \rho _{S} $ die Dichte der Entropie, $ {\vec {\jmath }}_{S} $ die Stromdichte und $ \sigma $ die Erzeugungsrate pro Volumen. In manchen Lehrwerken zur Physik, insbesondere denen des Karlsruher Physikkurses, wird eine Vorstellung der Entropie als eine extensive und „mengenartige Größe“ nahegelegt. Im Fall der Entropie ist das, was sie misst, nach Wilhelm Ostwald und Hugh Longbourne Callendar mit dem carnotschen Caloricum zu identifizieren.[10][11] Da das Caloricum weitgehend mit dem umgangssprachlichen Wärmebegriff übereinstimmt, kann die Entropie demnach auch als Maß für die (umgangssprachliche) Wärme verstanden werden.[24][25][26][27] Man beachte dabei, dass in der Kontinuitätsgleichung auf der rechten Seite eine Erzeugungsrate $ \sigma $ steht, weshalb aus ihr kein Erhaltungssatz abgeleitet werden kann.

Von zwei ansonsten gleichen Körpern enthält derjenige mehr Entropie, dessen Temperatur höher ist. Fasst man zwei Körper zu einem einzigen System zusammen, ist die Gesamtentropie die Summe der Entropien beider Körper.[12][28]

Stehen zwei Körper unterschiedlicher Temperatur miteinander in wärmeleitendem Kontakt, verursacht die Temperaturdifferenz einen Entropiestrom. Aus dem wärmeren Körper fließt Entropie ab, wodurch sich dessen Temperatur absenkt. Der kältere Körper nimmt diese Entropie (und die zusätzlich in diesem Prozess neu erzeugte Entropie) auf, wodurch seine Temperatur steigt. Der Prozess kommt zum Erliegen, wenn die Temperaturen beider Körper gleich geworden sind.

Als mengenartige Größe ist die Entropie zum Beispiel mit der elektrischen Ladung vergleichbar (für die allerdings ein strikter Erhaltungssatz gilt): Ein geladener Kondensator enthält elektrische Ladung, und damit auch elektrische Energie. Beim Entladevorgang fließt über den Stromkreis nicht nur elektrische Ladung von der einen Kondensatorplatte auf die andere, sondern es fließt auch Energie vom Kondensator zu einem Verbraucher, wo sie in andere Energieformen umgewandelt werden kann. Entsprechend wird bei der Wärmeübertragung von einem heißen auf einen kalten Körper außer der thermischen Energie noch eine andere mengenartige Größe übertragen: die Entropie. Genauso wie der Potentialunterschied zwischen den Kondensatorplatten – sprich: die elektrische Spannung – den elektrischen Strom antreibt, sorgt der Temperaturunterschied zwischen den beiden Reservoirs für einen Entropiestrom. Befindet sich zwischen den beiden Körpern eine Wärmekraftmaschine, kann ein Teil der Wärme in eine andere Energieform umgewandelt werden. Die Wärmeübertragung lässt sich also rein formal analog zu einem elektrischen Stromkreis beschreiben, wobei allerdings die während des Vorgangs neu erzeugte Entropie zusätzlich zu berücksichtigen ist.[12][25]

Eine Energieübertragung – also die Arbeit $ W $ oder die Wärme $ Q $ – lässt sich als das Produkt aus der Änderung einer mengenartigen extensiven Größe mit einer konjugierten intensiven Größe schreiben. Beispiele für solche Paare sind die elektrische Ladung $ q $ und das elektrische Potential $ \varphi $ oder das Volumen und der (negativ genommene) Druck eines Gases. Durch Zufuhr der extensiven Größe steigt (im Allgemeinen) die intensive Größe. Fügt man beispielsweise eine kleine Ladungsmenge $ \mathrm {d} q $ einer Kondensatorplatte zu, die sich auf dem Potential $ \varphi $ befindet, verrichtet man an der Kondensatorplatte die Arbeit $ \delta W=\varphi \,\mathrm {d} q $ und erhöht damit das Potential der Platte. Entsprechendes gilt auch für andere Größenpaare. Für thermische Vorgänge entspricht nun die Temperatur dem Potential und die Entropie der Ladung: Wenn man einem Körper die Entropiemenge $ \mathrm {d} S $ hinzufügt, wird die Wärme $ \delta Q=T\,\mathrm {d} S $ übertragen und es steigt (außer bei Phasenumwandlung) die Temperatur $ T $.[12]

Die Entropie ist zwar keine Erhaltungsgröße wie die elektrische Ladung, denn Entropie kann erzeugt werden. Nach dem zweiten Hauptsatz der Thermodynamik kann sie aber nicht vernichtet werden. Es gilt also $ \Delta S\geq 0 $. Solange in einem abgeschlossenen System die Entropie gleich bleibt $ (\Delta S=0) $, sind alle Vorgänge, die sich in dem System abspielen, umkehrbar (= reversibel). Sobald jedoch Entropie erzeugt wird $ (\Delta S>0) $, was z. B. durch Reibung, durch Erwärmung eines ohmschen Widerstandes oder durch Mischungsvorgänge geschehen kann, gibt es kein Zurück mehr, ohne dass durch äußeres Zutun Entropie abfließen kann. Man spricht dann von irreversiblen Vorgängen.

Eine weitere Besonderheit der Entropie ist, dass man einem Körper nicht beliebig viel Entropie entziehen kann. Während man der Platte eines Kondensators Ladung zuführen und wegnehmen kann, wodurch das Potential positiv oder negativ wird, gibt es für die Entropieentnahme eine natürliche Grenze, nämlich den absoluten Nullpunkt der Temperatur. Insbesondere kann die absolute Temperatur nie negativ werden.

Anwendungsbeispiele

Mischung von warmem und kaltem Wasser

Die Zunahme der Entropie wird an einem System, das mit der Umgebung weder Masse noch Energie austauscht (abgeschlossenes System), durch die Vermischung von zwei Wassermengen unterschiedlicher Temperatur gezeigt. Da es sich um einen isobaren Vorgang handelt, wird für die Energiebilanz die Zustandsgröße Enthalpie verwendet.

Zustandsgrößen für Wasser nach den Gleichungen aus: Properties of Water and Steam Industrie-Standard IAPWS-IF97

System10: Masse m10 = 1 kg, Druck = 1 bar, Temperatur = 10 °C, Enthalpie h10 = 42,12 kJ/kg, Entropie s10 = 151,1 J/kg K; System30: Masse m30 = 1 kg, Druck = 1 bar, Temperatur = 30 °C, Enthalpie h30 = 125,83 kJ/kg, Entropie s30 = 436,8 J/kg K

Irreversible Mischung

Der thermodynamische Zustand der irreversiblen Mischung (adiabat, keine Abgabe von Arbeit) ergibt sich aus dem Energieerhaltungssatz:

HM = H10 + H30, hM = (m10*h10 + m30*h30)/(m10 + m30), hM = 83,97 kJ/kg

Mit den Zustandsgrößen Enthalpie und Druck ergeben sich weitere Zustandsgrößen des Mischungszustandes:

Temperatur tM = 19,99 °C (293,14 K), Entropie sM = 296,3 J/kg K

Reversible Mischung

Bei einer reversiblen Vermischung (dSirr = 0) nimmt die Entropie des Gesamtsystems nicht zu, sie ergibt sich aus der Summe der Entropien der Teilsysteme:

SM = S10 + S30 + dSirr, sM = 293,9 J/kg K

Mit den Zustandsgrößen Entropie und Druck ergeben sich weitere Zustandsgrößen des Mischungszustandes:

Temperatur tM = 19,82 °C (292,97 K), Enthalpie hM = 83,26 kJ/kg

Das Gesamtsystem ist in diesem Fall nicht mehr abgeschlossen, sondern tauscht mit der Umgebung Arbeit aus.

Differenzen zwischen irreversibler und reversibler Mischung: Entropie: 2,4 J/kg K, Enthalpie: 0,71 kJ/kg, Temperatur: 0,17 K

Nach der irreversiblen Mischung ist die Entropie des Gesamtsystems um 2,4 J/kg K größer als beim reversiblen Vorgang. Die reversible Mischung könnte durch den Einsatz einer Carnot-Maschine erreicht werden. Dabei würde dem Teilsystem mit der höheren Temperatur eine unendlich kleine Menge Energie entnommen. In Form von Wärme wird diese Energie an der Systemgrenze bei einer unendlich kleinen Temperaturdifferenz an die Carnot-Maschine übertragen. Auf entsprechende Weise wird die Energie dem Teilsystem mit der tieferen Temperatur zugeführt. Die Temperaturen der beiden Teilsysteme würden sich dadurch immer weiter angleichen und der Carnot-Faktor der Maschine von anfänglich 0,066 gegen Null streben. Die Carnot-Maschine würde dabei dem Gesamtsystem die sonst entwertete Enthalpiedifferenz von 0,71 kJ/kg als mechanische Arbeit entnehmen. Im irreversiblen Fall entspricht diese Energie der innerhalb des Systems dissipierten Arbeit. Durch die dissipierte Arbeit wird die produzierte Entropie vom absoluten Nullpunkt auf die Temperatur von 19,99 °C angehoben.

Mischungsentropie

Abbildung 3: Die Mischungsentropie charakterisiert den „gut durchmischten“ Zwei-Flüssigkeits-Zustand im rechten Glas

Abbildung 3 zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine gleichmäßige Färbung an.

Die Entropie ist ein Maß der Unwissenheit, d. h. der Unkenntnis darüber, in welchem mikroskopischen Zustand sich das betrachtete System befindet. Als Maß der Unordnung muss man auf die Begrifflichkeit achten. So ist im Bildbeispiel (Abbildung 3) die Flüssigkeit im rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Es gibt dort mehr mikroskopisch mögliche Zustände, in denen das Glas sein könnte. Mithin ist dort die Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten Glas überall im Wasser verteilt ist. Das linke Bild in Abbildung 3 sagt uns mehr. Wir können Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist, oder Bereiche, die frei sind von Farbe.

Josiah Willard Gibbs wies auf den Widerspruch hin, dass der Entropiezuwachs auch auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird (Gibbssches Paradoxon).

Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die, wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind nur auf wenige Bereiche konzentriert. Im rechten Bild von Abbildung 3 können sie sich im gesamten Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Laufe der Zeit dieser Gleichverteilung zustrebt.[29]

Entropiezunahme bei irreversibler und reversibler isothermer Expansion

Die spontane Expansion eines Gases in ein leeres Volumen ist irreversibel, daher ist zur Berechnung der Entropieänderung eine direkte Anwendung der Definition von Clausius nicht möglich. Hierfür wird ein reversibler Ersatzprozess benötigt, der vom gleichen Anfangszustand zum gleichen Endzustand führt. Für einen Prozess bei konstanter Temperatur $ T $ erhält man die Entropieänderung $ \Delta S=Q/T $. Diese Methode beruht darauf, dass die Entropie eine Zustandsgröße ist, ihre Wertänderung also nicht davon abhängen kann, durch welchen Prozess man vom Anfangs- zum Endzustand kommt.

Seien zwei Behälter durch einen Absperrhahn getrennt, siehe Abbildung. Der eine Behälter hat das Volumen $ V_{A} $ und ist mit einem Gas gefüllt, im anderen Behälter herrscht Vakuum. Dann wird der Absperrhahn geöffnet und das Gas verteilt sich gleichmäßig auf das Gesamtvolumen $ V_{B} $ beider Behälter zusammen. Anfangs bilden die $ N $ Teilchen des Gases den Anfangszustand mit der Entropie $ S_{A} $. Im Endzustand, wenn nach dem Öffnen sich wieder ein Gleichgewicht eingestellt hat, haben die $ N $ Teilchen die Entropie $ S_{B} $. Für ein ideales Gas, so zeigt der Gay-Lussac-Versuch, bleibt dabei die Temperatur konstant, ohne dass Wärme mit der Umgebung ausgetauscht wird. Da die Expansion ohne Gegendruck erfolgt, wird auch keine Arbeit geleistet.

Gay-Lussac-Versuch.

Ein für die Berechnung der Entropieänderung $ \Delta S=S_{B}-S_{A} $ geeigneter Ersatzprozess ist die reversible isotherme Expansion, wie sie z. B. im Carnot-Zyklus eingesetzt wird. Bei diesem Prozess befindet sich das Gas in einem Zylinder mit Kolben und in Kontakt mit einem Wärmebad gleicher Temperatur. Dann drückt das Gas den Kolben nach außen, während ihm gleichzeitig soviel Wärme zugeführt wird, dass die Temperatur gehalten wird. Ist das Gasvolumen von $ V_{A} $ auf $ V_{B} $ angewachsen, wurde bei einem idealen Gas die Arbeit

$ -W=\int _{A}^{B}p\,\mathrm {d} V=\int _{A}^{B}{\frac {Nk_{\mathrm {B} }T}{V}}\mathrm {d} V=N\,k_{\mathrm {B} }\,T\,\ln {\frac {V_{B}}{V_{A}}} $

geleistet, wobei der Druck $ p $ nach der Zustandsgleichung des idealen Gases eingesetzt wurde. Da mit der Temperatur auch die innere Energie des idealen Gases unverändert bleibt, ist nach dem 1. Hauptsatz die zugeführte Wärme $ Q $ gleich dem negativen der geleisteten Arbeit, also $ Q=-W $.[30] Daraus folgt für die Entropieänderung:

$ \Delta S=S_{B}-S_{A}={\frac {Q}{T}}={\frac {-W}{T}}=k_{\mathrm {B} }\,N\,\ln {\frac {V_{B}}{V_{A}}} $

Wegen $ V_{B}>V_{A} $ ist dies eine Entropiezunahme.

Zum gleichen Ergebnis kommt man auch über die statistische Deutung der Entropie

$ \Delta S=k_{\mathrm {B} }\,\Delta (\ln \Omega )=k_{\mathrm {B} }\,\ln {\frac {\Omega _{B}}{\Omega _{A}}} $.

Darin sind $ \Omega _{A}\ ,\ \Omega _{B} $ die Phasenraumvolumen für Anfangs- bzw. Endzustand.

Da sich die Temperatur nicht ändert, bleibt das Phasenraumvolumen im Impulsraum konstant und kann herausgekürzt werden. Es bleibt zu berechnen, um welchen Faktor der Ortsanteil des Phasenraumvolumens sich vergrößert. Diesen Faktor kann man einfach verstehen: er ist der Kehrwert der Wahrscheinlichkeit, die $ N $ Teilchen zufällig im kleineren Volumen $ V_{A} $ zu finden statt im größeren $ V_{B} $.[31] Bei einem Teilchen ist die Wahrscheinlichkeit, im Endzustand das Teilchen im Volumen $ V_{A} $ zu finden, gleich $ {V_{A}}/{V_{B}} $. Im Falle von zwei Teilchen wäre diese Wahrscheinlichkeit $ ({V_{A}}/{V_{B}})^{2} $ und bei N Teilchen $ ({V_{A}}/{V_{B}})^{N} $.[32][33] Also gilt für die Wahrscheinlichkeit, spontan den Ausgangszustand wieder anzutreffen

$ \left({\frac {V_{A}}{V_{B}}}\right)^{N}=\exp \left(-N\,\ln \left({\frac {V_{B}}{V_{A}}}\right)\right) $

Diese Wahrscheinlichkeit ist für $ V_{B}=2\,V_{A} $ typischerweise von der Größenordnung $ 2^{-10^{23}} $.

So ergibt auch die Definition aus der statistischen Physik für den Entropieunterschied den gleichen Wert wie oben, nämlich:

$ S_{B}-S_{A}=k_{\mathrm {B} }\ln \left({\frac {V_{B}^{N}}{V_{A}^{N}}}\right)=k_{\mathrm {B} }\,N\,\ln {\frac {V_{B}}{V_{A}}} $.

Biomembranen

Gibt man Lipide, bei Lebewesen beispielsweise als Bausteine der Biomembranen vorkommend, in Wasser, so bilden sich spontan geschlossene Membranstrukturen, sogenannte Vesikel. Da hier Temperatur und Druck gegeben sind (Wärmebad und Druckensemble), ist das thermodynamische Potential, das ein Minimum anstrebt, die freie Enthalpie $ \Delta G=\Delta H-T\Delta S $. Die Enthalpie $ \Delta H $ lässt sich experimentell kalorimetrisch nachweisen, ist also messbar, und sie ist positiv. Da der Prozess spontan abläuft, muss aber $ \Delta G $ negativ sein; d. h., die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend, da die Entropie meistens die Ursache dafür ist, dass sich Stoffe vermischen (Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen Wasserstoffbrückenbindungen aus, die ständig fluktuieren und somit einen hohen Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide herum entsteht bei deren Lösung in Wasser ein größerer Bereich, in dem keine Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung treibt. Letztlich ist diese Eigenschaft auch mit die Ursache für die schlechte Löslichkeit vieler unpolarer Stoffe, die die Bildung von Wasserstoffbrückenbindungen stören, und für die Senkung der Oberflächenspannung des Wassers durch Tenside.

Berechnung und Verwendung tabellierter Entropiewerte

Die molare Entropie Smol bei einer bestimmten Temperatur T2 und bei konstantem Druck p erhält man mit Hilfe der molaren Wärmekapazität cp(T) durch Integration vom absoluten Nullpunkt bis zur aktuellen Temperatur:

$ S_{\mathrm {mol} }=\int _{0}^{T_{2}} $ $ {\frac {c_{p}}{T}}\ \mathrm {d} T=\int _{0}^{T_{2}}c_{p}\ \mathrm {d} (\ln \,T) $

Dazu kommen noch Entropieanteile bei Phasenübergängen. Nach Planck wird die Entropie ideal kristallisierter, reiner Festkörper am absoluten Nullpunkt gleich null gesetzt (Gemische oder frustrierte Kristalle behalten dagegen eine Restentropie). Unter Standardbedingungen spricht man von der Standardentropie S0. Auch nach der statistischen Betrachtungsweise hängen Entropiewert und Wärmekapazität miteinander zusammen: Eine hohe Wärmekapazität bedeutet, dass ein Molekül viel Energie speichern kann, und das kann z. B. auf einer großen Zahl niedrig liegender und daher leicht erreichbarer Energieniveaus beruhen. Entsprechend viele unterschiedliche Verteilungsmöglichkeiten auf diese Niveaus gibt es dann auch für die Moleküle und das führt auch auf einen hohen Entropiewert für den wahrscheinlichsten Zustand.

In elektrochemischen Reaktionen ergibt sich die Reaktionsentropie ∆S aus der gemessene Änderung von dE (elektromotorische Kraft) mit der Temperatur:

$ \Delta S=z\cdot F\cdot {\bigg (}{\frac {\mathrm {d} E}{\mathrm {d} T}}{\bigg )}_{p} $ (z = Ladungszahl, F = Faraday-Konstante)

Die Entropieänderung bei idealen Mischungen erhält man mit Hilfe der Molenbrüche xi der beteiligten Substanzen:

$ \Delta S_{\mathrm {id} }\ =\ -R\cdot \sum _{i=1}^{k}x_{i}\cdot \ln \,x_{i} $

wobei sich in realen Mischungen noch eine Zusatzentropie durch die Veränderung der zwischenmolekularen Kräfte beim Mischen ergibt.

Entstehen bei einer chemischen Reaktion neue Moleküle, dann tritt die höchste Entropie in einem ganz bestimmten Gleichgewichtszustand auf, bei dem sich die Moleküle sowohl auf die Edukt- wie auch auf die Produktniveaus verteilen können. Über die folgende Beziehung, in der die Differenzen der Standard-Entropiewerte ∆S0 der beteiligten Substanzen eine wesentliche Rolle spielen, kann die Gleichgewichtskonstante K berechnet werden:

$ \ln \,K=-{\frac {\Delta H^{0}-T\cdot \Delta S^{0}}{RT}} $

(das ∆ bedeutet in diesem Fall die Änderung der Größe bei vollständigem Reaktionsablauf). Woran man bei einem spontanen Vorgang (z. B. chemischen Reaktionen, Lösungs- und Mischungsvorgängen, Einstellung von Phasengleichgewichten und deren Temperaturabhängigkeit, Osmose u. a.) die Intensität dieses Vorgangs abschätzen kann, das ist die Zunahme der gesamten Entropie zwischen Anfangs- und Gleichgewichtszustand, die der Reaktanten und die der Umgebung zusammengenommen (→ chemisches Gleichgewicht). Die spontane Zunahme der Entropie wiederum ist eine Folge der ständigen Bewegung der Moleküle.

Kurz: Die Standard-Entropie von Stoffen kann aus dem Verlauf der Wärmekapazität mit der Temperatur berechnet werden. Die Kenntnis tabellierter Entropiewerte ermöglicht (zusammen mit den Reaktionsenthalpien) die Voraussage des chemischen Gleichgewichts.

Quantenmechanik

In der Quantenstatistik ist ein Mikrozustand ein reiner Zustand, der durch einen Vektor $ |n\rangle $ im Hilbertraum $ {\mathcal {H}} $ des Vielteilchensystems gegeben ist. Wie in der klassischen statistischen Mechanik ist dies ein Raum mit außerordentlich vielen Dimensionen, selbst wenn dem einzelnen Teilchen nur wenige verschiedene Energieeigenzustände zur Verfügung stehen. Zum Beispiel gibt es bei der magnetischen Kernresonanz für jeden Protonenspin nur zwei Energieeigenzustände, damit aber einen Hilbertraum mit doppelt so vielen Dimensionen, wie Protonen in der Probe sind (etwa $ 10^{20} $ in einem kleinen Wassertröpfchen). Der zugehörige Makrozustand ist ein gemischter Zustand, der durch einen statistischen Operator oder auch Dichteoperator beschrieben wird.

Dieser enthält alle Informationen über das System, die durch eine ideale Messung zugänglich sind (das ist viel weniger als bei dem reinen Zustand $ |n\rangle $, dem Mikrozustand). Der Makrozustand ist klassisch gegeben durch ein Ensemble von denjenigen Mikrozuständen, die mit $ |n\rangle $ bestimmte „typische makroskopische Größen“ gemein haben, wie z. B. Energie, Volumen und Teilchenzahl. Die Verteilung der Mikrozustände im Phasenraum ist klassisch durch eine Verteilungsfunktion gegeben. An deren Stelle tritt in der quantenmechanischen Beschreibung der Dichteoperator:

$ \rho =\sum _{i}p_{i}|i\rangle \langle i| $.

Falls die Zustände $ |i\rangle $ alle orthogonal sind, ist $ p_{i} $ die Wahrscheinlichkeit, dass sich das betrachtete System im „reinen“ quantenmechanischen Zustand $ |i\rangle $ befindet.

Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen Zustandsgemisch ist gegeben durch eine Spurbildung:

$ \langle A\rangle =\operatorname {Tr} \,\left(\rho A\right) $.

Die Spur eines Operators ist folgendermaßen definiert: $ \operatorname {Tr} \,(A)=\sum \nolimits _{m}\langle m|A|m\rangle $ für eine beliebige (vollständige) Basis $ \left\{|m\rangle \right\} $.

Von-Neumann-Entropie

Die Von-Neumann Entropie (nach John von Neumann) ist definiert als Erwartungswert des Dichteoperators:

$ S=-\operatorname {Tr} \left(\rho \ln \,\rho \right)=-\langle \ln \,\rho \rangle $.

Multipliziert man diese dimensionslose Von-Neumann-Entropie mit der Boltzmann-Konstanten $ k_{\mathrm {B} } $, so erhält man eine Entropie mit der gewöhnlichen Einheit.

Die Entropie ist über die Wahrscheinlichkeiten der einzelnen reinen quantenmechanischen Zustände $ |i\rangle $ im Makrozustand gegeben durch

$ S=-k_{\mathrm {B} }\operatorname {Tr} \left(\rho \ln \,\rho \right)=-k_{\mathrm {B} }\sum _{i}p_{i}\ln \,p_{i}\qquad (*) $,

wobei $ p_{i} $ die Wahrscheinlichkeit ist, im i-ten Mikrozustand zu sein. Die Wahrscheinlichkeiten $ p_{i} $ können Werte zwischen $ 0 $ und $ 1 $ annehmen. (Die Singularität des Logarithmus im Falle $ p_{i}=0 $ ist unerheblich, weil $ \lim _{x\rightarrow 0}x\ln \,x=0 $.) Somit ist $ p_{i}\ln \,p_{i}\leq 0 $ und die Entropie $ S=-k_{\mathrm {B} }\sum \nolimits _{i}p_{i}\ln \,p_{i}\geq 0 $ positiv semidefinit. Liegt das Gemisch in einem reinen Zustand vor, hat eine dieser Wahrscheinlichkeiten den Wert $ 1 $, während alle anderen den Wert Null annehmen. In diesem Fall ist die Entropie Null, hat also den Minimalwert. Positive Werte der Entropie erhält man, wenn mehr als ein Mikrozustand eine von Null verschiedene Wahrscheinlichkeit haben.

Als Beispiel nehmen wir ein Spinsystem mit vier Elektronen. Spin und magnetisches Moment sind antiparallel. Das heißt, das magnetische Moment $ \mu $ eines nach unten zeigenden Spins besitzt im äußeren Magnetfeld $ B $ die Energie $ -\mu B $. Die Energie $ E_{0} $ des Systems soll insgesamt $ -2\mu B $ sein. Dies führt zu den vier Mikrozuständen:

$ [\uparrow \downarrow \downarrow \downarrow ]\ ,\quad [\downarrow \uparrow \downarrow \downarrow ]\ ,\quad [\downarrow \downarrow \uparrow \downarrow ]\ ,\quad [\downarrow \downarrow \downarrow \uparrow ]\,. $

Daraus folgt, dass die Spinentartung $ \Omega =4\, $ ist mit $ p_{1}=p_{2}=p_{3}=p_{4}={\frac {1}{4}}\, $ und wie oben auch hier $ S=k_{\mathrm {B} }\cdot \ln \,\Omega $ gilt.

Die obige allgemeine Formel, (*), ist bis auf einen konstanten Faktor identisch mit der Formel für die Shannon'sche Informationsentropie. Das bedeutet, die physikalische Entropie ist auch ein Maß für die Information, die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.

$ S=-k_{\mathrm {B} }\sum _{i}p_{i}\ln \,p_{i}=-k_{\mathrm {B} }\sum _{i}p_{i}{\frac {\log _{2}p_{i}}{\log _{2}e}}={\frac {k_{\mathrm {B} }}{\log _{2}e}}S_{\text{Shannon}} $

Eigenschaften der statistischen Entropie eines quantenmechanischen Zustandes

Seien $ \rho $ und $ {\tilde {\rho }} $ Dichteoperatoren auf dem Hilbertraum $ {\mathcal {H}} $.

  • Gibbs-Ungleichung
$ S(\rho )=-k_{\mathrm {B} }\operatorname {Tr} \left(\rho \ln \,\rho \right)\leq -k_{\mathrm {B} }\operatorname {Tr} \left(\rho \ln \,{\tilde {\rho }}\right) $
  • Invarianz unter unitären Transformationen von $ \rho \, $ (mit $ UU^{\dagger }=1 $)
$ S(U\rho U^{\dagger })=S(\rho ) $
  • Minimum
$ S(\rho )\geq 0 $
Minimum wird bei reinen Zuständen $ \rho =|\Psi \rangle \langle \Psi | $ angenommen
  • Maximum
$ S(\rho )\leq k_{\mathrm {B} }\ln \,(\operatorname {dim} {\mathcal {H}}) $
Maximum wird angenommen, wenn alle möglichen Zustandsvektoren mit gleicher Wahrscheinlichkeit $ 1/\operatorname {dim} {\mathcal {H}} $ auftreten
  • Konkavität
$ S\left(\lambda \rho +(1-\lambda ){\tilde {\rho }}\right)\geq \lambda S(\rho )+\left(1-\lambda \right)S\left({\tilde {\rho }}\right) $   mit   $ 0\leq \lambda \leq 1 $
  • Dreiecksungleichung
Sei $ \rho \, $ Dichteoperator auf $ {\mathcal {H}}={\mathcal {H}}_{a}\otimes {\mathcal {H}}_{b} $   und   $ \rho _{a}\, $ bzw. $ \rho _{b}\, $ reduzierte Dichteoperatoren auf $ {\mathcal {H}}_{a} $ bzw. $ {\mathcal {H}}_{b} $
$ |S(\rho _{a})-S(\rho _{b})|\leq S(\rho )\leq S(\rho _{a})+S(\rho _{b}) $

Bekenstein-Hawking-Entropie von Schwarzen Löchern

Jacob Bekenstein[34] stellte in seiner Doktorarbeit Ähnlichkeiten zwischen der Physik Schwarzer Löcher und der Thermodynamik heraus. Unter anderem verglich er den Zweiten Hauptsatz der Thermodynamik $ \Delta S\geq 0 $ damit, dass die Oberfläche von Schwarzen Löchern mit einfallender Materie anscheinend immer anwächst und keine Materie entweichen kann. Es ergab sich als Formel für die Entropie

$ S_{\mathrm {SL} }={\frac {k_{\mathrm {B} }c^{3}A}{4\hbar G}} $,

Hier ist $ A $ die Oberfläche des Ereignishorizonts, $ G $ die Gravitationskonstante, $ c $ die Lichtgeschwindigkeit und $ k_{\mathrm {B} } $ die Boltzmannkonstante.

Stephen Hawking kritisierte daran, dass damit das Schwarze Loch auch eine Temperatur besitzen müsse. Ein Körper mit einer nicht verschwindenden Temperatur emittiert jedoch eine Schwarzkörperstrahlung, die der Annahme widerspricht, dass aus dem Schwarzen Loch nichts mehr entweicht. Hawking löste dieses Paradoxon durch die Postulierung der nach ihm benannten Hawking-Strahlung auf: In der quantenmechanischen Beschreibung des Vakuums sind ständig Vakuumfluktuationen aus Teilchen-Antiteilchen-Paaren vorhanden. Wenn bei einer Paarbildung knapp außerhalb des Ereignishorizonts eines der beiden Partnerteilchen vom Schwarzen Loch „eingefangen“ wird, das andere aber entkommt, entspricht dies physikalisch einer thermischen Strahlung des Schwarzen Lochs.[35][36] Zur Realität solcher thermischer Strahlung ist zu sagen, dass Beobachter in unterschiedlichen Bezugssystemen unterschiedliche Beobachtungen machen, also Temperatur $ 0 $ oder Eigentemperatur. Erst die Entdeckung von Hawking, dass ein Beobachter, der von einem schwarzen Loch mit Ereignishorizont bei $ r=2MG/c^{2} $ weit entfernt ist, die Schwarzschild-Temperatur

$ T={\frac {\hbar c^{3}}{8\pi GM\,k_{\mathrm {B} }}} $

beobachtet, und Untersuchung einer freien Quantenfeldtheorie in Rindler-Raum-Koordinaten, führte zu der Erkenntnis der Hawking-Strahlung als Evaporation des schwarzen Lochs von Teilchen mit niedrigem Drehimpuls, während andere mit höheren Drehimpulsen von den Wänden des Lochs reflektiert werden.[37]

Das Schwarze Loch kann sich auflösen, wenn die Energie der abgestrahlten Hawking-Strahlung (durch die die Masse des Schwarzen Lochs abnimmt) für einen ausreichend langen Zeitraum den Energieinhalt der einfallenden Materie übersteigt.[38]

Siehe auch

Literatur

Skripte
  • Georg Job, Regina Rüffler: Physikalische Chemie. Teil 1: Grundzüge der Stoffdynamik. Eduard-Job-Stiftung für Thermo- und Stoffdynamik, September 2008, abgerufen am 10. Dezember 2014 (darin insbesondere Kapitel 2).
  • F. Herrmann: Thermodynamik. (PDF; 12,87 MB) Physik III. Abteilung für Didaktik der Physik, Universität Karlsruhe, September 2003, archiviert vom Original; abgerufen am 6. Juni 2020.
Lehrbücher und Übersichtsartikel
  • Klaus Stierstadt, Günther Fischer: Thermodynamik: Von der Mikrophysik zur Makrophysik (Kap. 5). Springer, Berlin, New York 2010, ISBN 978-3-642-05097-8 (eingeschränkte Vorschau in der Google-Buchsuche).
  • R. Frigg, C. Werndl: Entropy – A Guide for the Perplexed (PDF; 301 kB). In: C. Beisbart, S. Hartmann (Hrsg.): Probabilities in Physics. Oxford University Press, Oxford 2010. (Überblick über die verschiedenen Entropiebegriffe und deren Verknüpfungen).
  • G. Adam, O. Hittmair: Wärmetheorie. 4. Auflage. Vieweg, Braunschweig 1992, ISBN 3-528-33311-1.
  • Richard Becker: Theorie der Wärme. 3., erg. Auflage. Springer, 1985, ISBN 3-540-15383-7.
  • Arieh Ben-Naim: Statistical Thermodynamics Based on Information: A Farewell to Entropy. 2008, ISBN 978-981-270-707-9.
  • Johan Diedrich Fast: Entropie. Die Bedeutung des Entropiebegriffes und seine Anwendung in Wissenschaft und Technik. 2. Aufl. Hilversum 1960.
  • Ulrich Nickel: Lehrbuch der Thermodynamik. Eine anschauliche Einführung. 3., überarbeitete Auflage. PhysChem, Erlangen 2019, ISBN 978-3-937744-07-0.
  • E. P. Hassel, T. V. Vasiltsova, T. Strenziok: Einführung in die Technische Thermodynamik. FVTR GmbH, Rostock 2010, ISBN 978-3-941554-02-3.
  • Arnold Sommerfeld: Vorlesungen über theoretische Physik – Thermodynamik und Statistik. Nachdruck der 2. Auflage. Harri Deutsch, 1988, ISBN 3-87144-378-6.
  • Leonard Susskind and James Lindesay: An Introduction to BLACK HOLES, INFORMATION and the STRING THEORY REVOLUTION, World Scientific, 2005, ISBN 978-981-256-083-4.
  • André Thess: Das Entropieprinzip – Thermodynamik für Unzufriedene. Oldenbourg-Wissenschaftsverlag, 2007, ISBN 978-3-486-58428-8.
  • Wolfgang Glöckner, Walter Jansen, Hans Joachim Bader (Hrsg.): Handbuch der experimentellen Chemie. Sekundarstufe II. Band 7: Mark Baumann: Chemische Energetik. Aulis Verlag Deubner, Köln 2007, ISBN 978-3-7614-2385-1.
  • André Thess: Was ist Entropie? Eine Antwort für Unzufriedene. In: Forschung im Ingenieurwesen. Band 72, Nr. 1, 17. Januar 2008, S. 11–17, doi:10.1007/s10010-007-0063-7.
Populärwissenschaftliche Darstellungen
  • Arieh Ben-Naim: Entropy Demystified – The Second Law Reduced to Plain Common Sense. World Scientific, Expanded Ed., New Jersey 2008, ISBN 978-981-283-225-2. (populärwissenschaftliche, aber exakte Erklärung auf Grundlage der statistischen Physik).
  • H. Dieter Zeh: Entropie. Fischer, Stuttgart 2005, ISBN 3-596-16127-4.
  • Eric Johnson: Anxiety and the Equation: Understanding Boltzmann's Entropy. The MIT Press, Cambridge, Massachusetts 2018, ISBN 978-0-262-03861-4.
  • Jeremy Rifkin, Ted Howard: Entropy: A New World View. Viking Press, New York 1980 (dt.: Entropie: Ein neues Weltbild. Hofmann & Campe, Hamburg 1984).

Weblinks

Commons: Entropie – Sammlung von Bildern, Videos und Audiodateien
Wiktionary: Entropie – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
Wikibooks: Entropie – Lern- und Lehrmaterialien
 Wikiquote: Entropie – Zitate

Einzelnachweise und Anmerkungen

  1. Temperaturdifferenzen können vorübergehend entstehen oder sich vergrößern, wenn zwischen den beiden Teilsystemen Phasenübergänge oder chemische Reaktionen möglich sind. Vgl. Erhitzung durch Feuer, Kühlung durch Verdunstung. Auf lange Sicht stellt sich aber immer eine einheitliche Temperatur ein.
  1. Richard Becker: Theorie der Wärme. Springer, Heidelberg 2013, S. 253 (books.google.de [abgerufen am 16. Juni 2015] Nachdruck von 1961).
  2. Antoine Laurent Lavoisier: Oeuvres de Lavoisier: Traité élémentaire de chimie, opuscules physiques et chimiques, Band 1. Ministre de L’instruction Publique et des Cultes, 1864 (Seite 410, Original der Bayerischen Staatsbibliothek, digitalisiert 8. Dez. 2009 – Registereintrag aus dem Jahr 1789).
  3. Roger Hahn: Pierre Simon Laplace, 1749–1827: A Determined Scientist. Harvard University Press, 2005, ISBN 0-674-01892-3 (eingeschränkte Vorschau in der Google-Buchsuche).
  4. Joseph Black: Lectures on the elements of Chemistry. Edinburgh, 1807 (Original von Michigan State University, digitalisiert 16. Okt. 2013 in der Google-Buchsuche – posthume Veröffentlichung von Vorlesungen aus dem Jahr 1760).
  5. 5,0 5,1 Pierre Kerszberg: Natural philosophy. In: Knud Haakonssen (Hrsg.): The Cambridge History of Eighteenth-Century Philosophy. Band 1. Cambridge University Press, 2006, ISBN 0-521-86743-6 (eingeschränkte Vorschau in der Google-Buchsuche).
  6. James D. Stein: Cosmic Numbers: The Numbers That Define Our Universe. Basic Books, 2011 (eingeschränkte Vorschau in der Google-Buchsuche).
  7. Sadi Carnot: Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance. Bachelier, 1824 (Original von Lyon Public Library, digitalisiert 29. Sept. 2014 in der Google-Buchsuche).
  8. Rudolf Clausius: Über verschiedene, für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie. In: Annalen der Physik und Chemie. Band 125, 1865, S. 353–400 (Textarchiv – Internet Archive [abgerufen am 24. April 2019] auch Vortrag vor der Zürcher Naturforschenden Gesellschaft).
  9. Rudolf Clausius: Über den zweiten Hauptsatz der mechanischen Wärmetheorie. 1867 (Original von Michigan State University, digitalisiert 29. Juni 2007 in der Google-Buchsuche – Vortrag, gehalten in einer allgemeinen Sitzung der 41. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt am Main am 23. September 1867).
  10. 10,0 10,1 Wilhelm Ostwald: Die Energie. Verlag von Johann Ambrosius Barth, Leipzig 1908, S. 77.
  11. 11,0 11,1 Hugh Longbourne Callendar: Proceedings of the Royal Society of London. Series A: Containing Papers of a Mathematical and Physical Character. Band 134, Nr. 825, 2. Januar 1932, S. xxv (Snippet in der Google-Buchsuche).
  12. 12,0 12,1 12,2 12,3 Gottfried Falk, Wolfgang Ruppel: Energie und Entropie. Springer-Verlag, 1976, ISBN 3-540-07814-2.
  13. Tomasz Downarowicz: Entropy. In: Scholarpedia. Band 2, Nr. 11, 2007, S. 3901, doi:10.4249/scholarpedia.3901 (revision #126991).
  14. Roman Frigg and Charlotte Werndl: Entropy – A Guide for the Perplexed. (PDF; 294 kB) Juni 2010, abgerufen am 12. Dezember 2014 (Lua-Fehler in Modul:Multilingual, Zeile 149: attempt to index field 'data' (a nil value)).
  15. Beim 1. Hauptsatz der Thermodynamik tritt im Gegensatz zum 2. Hauptsatz ein solcher „integrierender Faktor“ nicht auf. Der 1. Hauptsatz besagt, dass die Summe (!) der zugeführten Arbeit, $ \delta W $ und der zugeführten Wärme $ \delta Q $ immer das vollständige Differential $ \mathrm {d} U $ einer Zustandsfunktion $ U $ ergibt, der sogenannten Inneren Energie, obwohl die zwei einzelnen Differentiale nicht  vollständig sind. Bei der Funktion $ U $ wird im Gegensatz zu $ S $ auch nicht unterschieden, ob die Wärmezufuhr reversibel oder irreversibel erfolgt.
  16. 16,0 16,1 Hans Dieter Baehr, Stephan Kabelac: Thermodynamik – Grundlagen und technische Anwendungen. 16. Auflage. Springer Vieweg, Braunschweig 2016, ISBN 978-3-662-49567-4, 3.1.2 Die Formulierung des 2. Hauptsatzes durch Postulate und 3.1.3 Die Entropiebilanzgleichung für geschlossene Systeme, S. 92–101.
  17. E. T. Jaynes: Gibbs vs. Boltzmann Entropies. In: American Journal of Physics. Band 33 (Ausgabe 5), 1965. S. 398
  18. H.J.W. Müller-Kirsten, Basics of Statistical Physics, 2nd edition, World Scientific 2013, ISBN 978-981-4449-53-3, pp. 28–30.
  19. L. Susskind and J. Lindesay: An Introduction to BLACK HOLES, INFORMATION and the STRING THEORY REVOLUTION. World Scientific 2005, ISBN 978-981-256-083-4, S. 69–77.
  20. A. F. Holleman, E. Wiberg, N. Wiberg: Lehrbuch der Anorganischen Chemie. 101. Auflage. de Gruyter, Berlin 1995, ISBN 3-11-012641-9, S. 54 (eingeschränkte Vorschau in der Google-Buchsuche).
  21. W. A. Kreiner: Entropie – was ist das? Ein Überblick. doi:10.18725/OPARU-2609
  22. Gustav Jaumann: Geschlossenes System physikalischer und chemischer Differentialgesetze. In: Sitzungsber. Akad. Wiss. Wien, Nat.-Naturwiss. Klasse. IIA, Nr. 120, 1911, S. 385–503.
  23. Erwin Lohr: Entropieprinzip und abgeschlossenes Gleichungssystem. In: Denkschrift der Akad. Wiss. Wien. Nat.-Naturwiss. Klasse, Nr. 93, 1916, S. 339–421 (phys.huji.ac.il [PDF; abgerufen am 11. Juni 2020]).
  24. Georg Job: Neudarstellung der Wärmelehre – Die Entropie als Wärme. Akademische Verlagsgesellschaft, Frankfurt am Main (Nachdruck von 1961).
  25. 25,0 25,1 Friedrich Herrmann: Der Karlsruher Physikkurs. 9. Auflage. Teil 1: Energie Impuls Entropie. Aulis Verlag, 2010, ISBN 978-3-7614-2517-6.
  26. Hans Fuchs: The Dynamics of Heat. Springer, New York 2010.
  27. Georg Job und Regina Rüffler: Physikalische Chemie - Eine Einführung nach neuem Konzept. Vieweg + Teubner, Wiesbaden 2011.
  28. F. Herrmann: KPK – Hochschulskripten, Thermodynamik. (PDF; 20,8 MB) 2015, abgerufen am 8. Juni 2020.
  29. Dem entspricht die Clausius’sche Gleichung (2), die auch folgendermaßen in Worte gefasst werden kann: „In einem abgeschlossenen Thermodynamischen System nimmt die Entropie solange zu, bis Gleichgewicht erreicht ist“.
  30. Wolfgang Nolting: Grundkurs Theoretische Physik. 9. Auflage. 4/2 Thermodynamik. Springer-Verlag, Berlin, Heidelberg, New York 2016, ISBN 978-3-662-49032-7, 2.7 Entropie als Zustandsfunktion, S. 58–59, doi:10.1007/978-3-662-49033-4 (isotherme Expansion des idealen Gases).
  31. Klaus Stierstadt: Thermodynamik für das Bachelorstudium. 2 vollst. überarbeitete Auflage. Springer Verlag, Heidelberg 2018, ISBN 978-3-662-55715-0, 2.4, 4.1, 4.2, 4.3, S. 54,85–96, doi:10.1007/978-3-662-55716-7 (z. B. Formel 2.31 oder 4.10).
  32. Wolfgang Demtröder: Experimentalphysik 1. 9 Auflage. Springer Verlag, 10.3.7 Die Entropie, S. 326–328.
  33. Frederik Reif: Berkeley Physik Kurs Band 5. 2 Auflage. Vieweg, 1985, S. 79–80.
  34. Jacob D. Bekenstein: Black holes and entropy. In: Phys.Rev. D, Nr. 7, 1973, S. 2333–2346 (phys.huji.ac.il [PDF; abgerufen am 9. Dezember 2014]).
  35. Stephen W. Hawking: Particle Creation by Black Holes. In: Commun. Math. Phys. Band 43, 1975, S. 199–220, doi:10.1007/BF02345020.
  36. Susskind, Lindesay, An Introduction to Black Holes, Information and the String Theory Revolution: The Holographic Universe. World Scientific, Singapur 2004, S. 39–42.
  37. Susskind, Lindesay, An Introduction to Black Holes, Information and the String Theory Revolution: The Holographic Universe. World Scientific, Singapur 2004, S. 48–49.
  38. Stephen Hawking: Eine kurze Geschichte der Zeit. 1. Auflage. Rowohlt Verlag, 1988, ISBN 3-498-02884-7 (eingeschränkte Vorschau in der Google-Buchsuche).

Die News der letzten Tage