Mit dem Begriff der Information ist in der statistischen Physik eine anschauliche Verknüpfung zwischen Entropie (hier: fehlende Information oder Informationsentropie) und Wahrscheinlichkeit für eine Interpretation des Entropiebegriffs möglich.[1] Die fehlende Information eines Systems ist die Information, die benötigt wird, um zu beschreiben, in welchem Zustand sich ein System befindet.
Die fehlende Information eines abgeschlossenen Systems ist die gewichtete Summe der Logarithmen der Zustandswahrscheinlichkeiten
wobei die Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): p_i\, die Wahrscheinlichkeiten der $ n $ Zustände des Systems sind.
Als Informationsentropie $ S $ wird die fehlende Information bezeichnet, die beschreibt, in welchem Zustand sich ein willkürlich herausgegriffener Repräsentant eines Ensembles befindet.
Setzt man $ k=\ln(2)^{-1} $, so ergibt sich der Informationsgehalt aus der Informationstheorie in der Einheit Shannon bzw. Bit. Für $ k=1 $ erhält man den Informationsgehalt in der Einheit Nit bzw. Nat. In der Statistischen Physik benutzt man $ k $ die Boltzmann-Konstante Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): k=k_\mathrm{B} als Proportionalitätsfaktor, weil dann die Informationsentropie eines Ensembles mit der thermodynamischen Entropie übereinstimmt.
Das Gleichgewichtssystem ist in diesem Sprachgebrauch das System mit dem Maximum an fehlender Information.
Im mikrokanonischen Ensemble sind alle Zustände gleich häufig vertreten. Gibt es für den makroskopischen Zustand $ (E,N,V,\dots ) $, bei dem z. B. Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): E die Energie, Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): N die Teilchenzahl und $ V $ das Volumen sind, eine Anzahl $ W(E,\dots ) $ mikroskopischer Zustände, so sind folglich die Energieniveaus $ E_{n}\, $ mit den Wahrscheinlichkeiten $ p_{n}=1/W(E,\dots ) $ vertreten.
Die Informationsentropie beträgt dann
beziehungsweise für eine bestimmte Energie $ E_{n} $
Für das kanonische Ensemble sind die Wahrscheinlichkeiten für verschiedene Energien $ p_{n}={\frac {1}{Z}}\exp \left(-\beta E_{n}\right) $. Und die Informationsentropie beträgt
wobei $ F $ die Freie Energie und $ U $ die Innere Energie sind.