Arieh Ben-Naim: Entropy Demystified: The Second Law Reduced To Plain Common Sense
Der Autor erklärt die Entropie im Wesentlichen mit einem Würfelwurfexperiment: Bei N Würfeln, z.B. alle mit der Sechs oben, wählt man einen beliebigen Würfel (Chance Nr. 1) und würfelt (Chance Nr. 2). Wenn das Experiment oft genug durchgeführt wird, nähert sich die Summe der Würfelzahlen recht stabil einem Wert an. Es ist sehr wahrscheinlich, dass der Wert 6N nicht mehr erreicht wird, wenn N ausreichend groß ist.
Aus dem Experiment geht klar hervor, was mit (im Allgemeinen nicht direkt messbaren) spezifischen Ereignissen (die Zahlen auf den einzelnen Würfeln) und mit (direkt messbaren) “dim”-Ereignissen (die Summe der Zahlen auf den Würfeln) gemeint ist. Es hätte mich interessiert, ob die Beziehung zwischen spezifischen und gemessenen Ereignissen immer linear sein muss.
Die Tatsache, dass 6N höchstwahrscheinlich nicht wieder erreicht wird, ist eine Illustration des “Pfeils der Zeit”. Es gibt viel mehr spezifische Ereignisse, die zu einer Summe 3N oder 4N führen als zu 6N. Dies scheint mir der Hauptpunkt des Buches zu sein.
Der Autor setzt “Entropie” mit Suchkosten gleich, d. h. als Maß für fehlende Informationen. Ich hätte gerne einen Beweis der Äquivalenz zur üblichen Definition von Entropie (Summe von p log p über alle p) gesehen.
Für mich sind das auf jeden Fall wichtige Erkenntnisse. Ich bin mir nicht sicher, ob ich das in dieser Länge lesen musste, um es zu verstehen. Warum muss das für 2, 4, 10, 100 und 10000 Würfel diskutiert werden? Und dann stellen Sie sich noch vor, dass es nicht um Würfelzahlen geht, sondern um Farben, Gerüche, Geschmäcker oder Geräusche?
Ich finde das Buch nicht unterhaltsam geschrieben. Die Beispiele aus der Physik (Bose-Einstein-Konfigurationen, Fermi-Dirac-Konfigurationen) haben mir als Nicht-Physiker nicht geholfen. Beim Lesen kam mir die Idee, dass man ein Buch “Entropie mystifiziert” schreiben könnte, in dem die vielen Anwendungen dieses genialen Konzepts vorgestellt werden.