ENTROPIE


Metapher - das Leben

(Deutung)

Wenn eine Animation  "stottert", so laden Sie das gif-Bild in Ihre Bilddatei  (Rechtssklick aufs Bild und "Bildspeichern" wählen) und betrachten
sie dann die  Biddatei direkt durch Doppelklick auf diese (also ohne Verwendung des Browsers).

Bei Berührung von zwei Körpern K1 und K2 findet ein Temperaturausgleich statt, d.h. Wärmeenergie wird vom wärmeren an den kälteren abgegeben. Der Prozess des Temperaturausgleichs startet immer, sobald  K1 und K2 die Möglichkeit haben, Wärmeenergie auszutauschen (d.h.sobald sie einader berühren). Der Befund des Temperaturausgleichs wurde bis anhin immer und ausnahmslos erhoben. Er gilt darum (und nur darum) als Naturgesetz und wird "zweiter Hauptsatz der Thermodynamik" (2.HS) genannt (erstmals formuliert von Clausius und Kelvin).

Der 2.HS klingt nicht sehr aufregend ("nicht sehr aufregend" bedeutet aber lediglich: "aus dem Alltag allen Menschen bekannt"). Dem 2.HS würdewohl kaum viel Beachtung geschenkt, wenn die Physiker nicht dauernd betonen würden, dass es einzig und alleine auf Grund des 2.HS möglich ist, von zwei Zustandsbeschreibungen A und B zu sagen, ob A vor oder nach B aufgetreten ist. Dasselbe etwas anschaulicher ausgedrückt: Dass eine Filmaufnahme vorwärts und nicht rückwärts abgespielt wird, zeigt sich einzig und alleine an der Übereinstimmung  mit dem 2.HS.

Jeder Philosoph, der über das  Phänomen "Zeit" nachdenkt, kommt also kaum darum herum, sich mit dem 2.HS zu beschäftigen; und wenn er dies mathematisch tun will, muss er versuchen, sich den Begriff  "Entropie"  S (Gibbs 1928) anzueignen. Elliott Lieb und Jakob Yngvason  (ftp://ftp.esi.ac.at/pub/Preprints/esi469.pdf) machten sich anheischig, den 2.HS und den zugehörigen mathematischen Apparat (ähnlich wie Giles 1964)  unabhängig von der Thermodynamik zu entwickeln, doch sind deren Gedankengänge ohne höhere Bildung in Mathematik nicht nachvollziehbar. Es empfiehlt sich darum, sich der Entropie auf historischem Weg anzuschleichen; auch dann noch besteht Gefahr, dass sie (die Entropie) es vorzeitig merkt und Reissaus nimmt.

Man kann über einen Mechanismus ähnlich einer Pendeluhr mit Gewichten ein Rührwerk in einem möglichst total-wärmeisolierten ("adiabatischen") Gefäss betreiben. Das Gefäss enthalte Wasser (z.B. M kg), das durch das Rühren erwärmt wird. Um das Wasser um 1 Grad zu erwärmen, muss das Gewicht G von (z.B. 500 g) sich um z.B. L cm gesenkt haben. Die aufgewendete Arbeit A für die Erwärmung beträgt dann A= L· G. Bei adiabatischen Bedingungen muss man annehmen, dass die Temperaturzunahme T2-T1 des Wassers der Zunahme der Wärmeenergie Q2-Q1=A entspreche. Die  "spezifische Wärmekapazität"  Cw von Wasser beträgt dann 
Cw =Q/M und wir schreiben dQ= Cw · dT 

Entropie S ist definiert als Q/T . Der absolute Nullpunkt T ist nicht erreichbar. Differenziert wird dS=dQ/T und also  dQ/dS=T>0
Es wird behauptet, der 2.HS könne mathematisch formuliert werden mit der Formel dS/dt 0.  Weil  T nur positiv sein kann, ist die Aussage von dS/dt = dQ/dt T 0  gleichbedeutend mit dQ/dt   0 , und dies bedeutet ganz offensichtlich nichts anderes, als dass in einem geschlossenen System die Wärmeenergie nur zunehmen kann.
 
Zwei Dinge sind schwer verständlich:

1. Warum soll zur mathematisch Formulierung des 2.HS die "Entropie" notwendig sein? Es genügt doch zu sagen: In einem geschlossenen System ist die Steigung der Funktion  Q=f(t)  immer positiv. Der Aussagewert von dQ/dt   0 und  dS/dt = dQ/dt T 0 ist doch (wenn T nur positiv sein kann) genau derselbe.
2. Der 2.HS lautete in seiner Urfassung: "Wo es möglich ist, findet der Prozess des Temperaturausgleichs statt". Die Formel dS/dt >= 0 bzw. dQ/dt >=  0 sagt aber doch eher etwas aus über die Art der Energierhaltung aus. Wenn man den Satz hinzunimmt, dass in einem geschlossenen System (Gesamt-)Wärmeenergie sich nur dann in andere Energieform umwandeln kann, wenn ein Temperaturgradient besteht, dann allerdings kann man aus dQ/dt ≥0 schliessen, dass Wärmeenergie, die durch mechanische Prozesse lokalisiert (klassischerweise durch Reibung) entsteht, sofort durch Verbreitung (Temperaturausgleich mit der Umgebung) für die Rückverwandlung in andere Energieformen nicht mehr zur Verfügung steht.
Die Uni Zürich gibt auf der Internetseite www.pci.unizh.ch/e/documents/Kapitel3_000.pdf  eine "Erklärung" der dubiosen Zusammenhänge zwischen 2.HS und Entropie und kommt zur Schlussfolgerung:   Also ist der Satz: "Wärmeenergie 'fliesst'  immer vom wärmeren zum kälteren Körper" gleichwertig mit dem Satz "Die Entropie in einem geschlossenen System nimmt immer zu". "Na ja", kann man da sagen, "das ist immer noch nichts besonders Aufregendes."

Nun traten aber gegen Ende des vorletzten Jahrhunderts Boltzmann und Planck auf den Plan und entwickelten die "statistische Physik" und  die "kinetische Gastheorie":  Wärmeenergie war nun nichts anderes als die kinetische Energie (das Herumsausen) der Moleküle. Und Temperatur war  nun proportional zur durchschnittlichen kinetischen Energie der Einzelmoleküle (abhängig noch vom "Freiheitsgrad", d.h. der Anzahl Möglichkeiten, kinetische Energie aufzunehmen). Die Zustandgleichung der idelaen Gase pV=RT wurde also zu:

pV = N kB T  :  p  = Druck (mbL-2) ; V=Volumen (L3) ; N = Teilchenzahl ;
                        kB = Boltzmannsche Konstante = R/NA = 1.38  10 -23  J/K wobei:
                        K  = Kelvin (abs.Temperatur) ; J=Joule ; R = universelle Gaskonstante ;
                        NA= Avogadro_Konstante = 6.022   10 23   Mol -1
                             = Anzahl von Atomen oder Molekülen in einer Stoffmenge von einem Mol

Parallel mit dieser wissenschaftshistorischen Entwicklung wurde die Interpretation des Begriffes "Entropie" erweitert und verkompliziert. Man glaubte mit der kinetischen Gastheorie plus dem "Entropiesatz" (2.HS)  nun den "Wärmeausgleich" und das "Vermischungungsgesetz" (die Beobachtung, dass in geschlossenen Systemen, die veschiedene Gase oder verschiedene Flüssigkeiten enthalten, die Durchmischung immer zunimmt) auf einen Nenner gebracht zu haben. Die "Entropie"  betrachtete man nun als "Mass für die Unordnung". Auf die Frage, wie denn "Unodnung" definiert sei, gibt es nur eine klare Antwort: "Unordnung" ist die Entropie S=Cm dT / T,  wobei  C die spezifische Wärmekapazität, m die Masse und in der kinetischen Gastheorie T =  (pV)/( N kB)

Was aber ist "Entropie"? Darauf antworten manche Physiker mehr intuitiv als mathematisch "Entropie ist so etwas wie die Unordnung in einem System".  Die etwas willkürliche Gleichung Entropie=Unodnung ist nun aber philosophisch nicht bedeutungslos, weil "Unordnung" und vor allem die Verursachung von Unordnung mit dem Prinzip des Bösen, Schlechten, Zu-Meidenend gleichgesetzt wird. Mit der Gleichsetzung von Entropie=Unordnung vermittelt nämlich der 2.HS : "Im Universum (lat Physukerphilosophie das "geschlossene System par excellence") nimmt die Unordnung irreversibel zu bis sie total ist". Damit wird sozusagen der Sieg des Bösen proklamiert. Physiker mögen lachend beifügen: "...so man denn an das Böse glaubt, und es mit Unordnung identifiziert".  Man sollte aber nicht über An- oder Einsichten  lachen, die  viele Jahrtausende alt sind. Solches Lachen wäre totale Überheblichkeit.

Noch undurchsichtiger wurde die Entropie, als Boltzmann  den Zusammenhang S=k[ln(W)] proklamierte, wobei nun S=Entropie bedeutete, k die "Boltzmann-Konstante" und W die Anzahl möglicher "Mikrozustände" (=Zustände, welche die Mikroteilchen, das sind i.A. die Moleküle, eines 'geschlossenen Systems' bei gegebenem Makrozustand, das ist i.A. der Zustand ausgedrückt mit den makroskopisch messbaren Parametern Druck, Temperatur, Freiheitsgrad, Materialkonstanten, spezifische Wärmekapazität, usw. einnehmen können). Wenn Temperatur verstanden wird als durchschnittliche kinetische Energie der Mikroteilchen, dann gibt es in einem System bei hoher Temperatur - so die Theorie - mehr Mikrozustände (höhere Entropie) als bei tiefer. (vgl. Internetseiten Uni-Kiel)
[Wenn nämlich sozusagen alle Teilchen zu Stein und Bein gefroren sind (sprich: bei T=0 jedes Teilchen unbeweglich an "seinem" Ort verharrt), dann gibt es mit der Bedingung T=0 nur einen Mikrozustand. Man kann sich das etwa so vorstellen: Jedes Teilchen trägt sozusagen sein Haus mir sich, das wir uns als Würfel mit Kantenlänge z.B. 5 vorstellen wollen. Das Teilchen hat in seinem Haus Räume von der Gösse einer Kubikeinheit, also 5x5x5=125 Räume. Es sitzt ursprünglich in dem Zimmer, das die Mitte des Hauses bildet. Es kann aber die andern Zimmer besuchen: Wenn es heiss hat, ist das synonym zu; es besucht alle Zimmer. Wenn es weniger heiss hat, dann ist das synonym zu: es besucht nur die benachbarten Räume (also 3x3x3=27). Und wenn es eiskalt (T=0) ist, bleibt es im zentralen Ursprungzimmer sitzen. Wenn sich zwei Häuser H(a) und H(b) der beiden Teilchen A und B überschneiden, so gibt es im Überschneidungsraum Zimmer, die von Teilchen A und Teilchen B zugänglich sind. Ein Zimmer ist aber für A nur zugänglich, wenn sich nicht schon B darin aufhält; und umgekehrt natürlich auch. So ist offensichtlich, dass die Anzahl möglichen Zimmerbezüge (Mikroszustände) grösser ist, wenn A und B Abstand voneinander halten. Ein Beispiel: Nehmen wir an, ich habe ein Glas Wasser in der rechten Hand und ein Glas Rotwein in der linken. Nun leere ich beide in eine Schüssel. Im allerersten Augenblick sind die roten Farbstoffmoleküle noch alle links in der Schüssel. Aber schon nach Bruchteilen von Sekunden verteilen sie sich. Die Entropie nimmt dabei zu, weil es für die Farbstoffteilchen in einem grösseren Volumen verteilt mehr mögliche Mikrozustände gibt. Bei statistisch gleichmässiger Verteilung ist die Entropie (betreffend Verteilung) aus oben dargelegtem Grund am grössten.]
Die Bezeichnung des Begriffes Entropie als  "Mass der Unordnung" ist verwirrend. Die statistisch gleichmässige Verteilung der roten Farbstoffmoleküle macht ja gewiss einen geordneteren Eindruck als die wirbelförmige Verteilung des Farbstoffs in den ersten Augenblicken des Zusammenschüttens. Aber "Entropie" hat eigentlich nicht viel mit dem alltagssprachlichen Begriff  "Ordnung" zu tun, sondern mit der Wahrscheinlichkeit des kollektiven Verhaltens von Teilchen, die sich, einzeln betrachtet zufällig benehmen, als Population betrachtet aber statistisch gesetzmässig.

Diese Unklarheit der Bedeutung der "Entropie" wurde humoristisch aufgelockert von Jos Uffink (Utrecht University, The Netherlands), allerdings gleichzeitig mit umso grösserem Anspruch an methematischer Präzision versehen. In seinem Essay "Bluff your way in the Second Law of Thermodynamics"  schreibt Uffink:
It appears then that it is not unanimously established what the Second Law actually says and what kind of relationship it has with the arrow of time. The aim of the present paper is to chart this amazing and confusing multifariousness of the Second Law; if only to help prevent embarrassment when, at a birthday party, the reader is faced with the obvious counter-question by literary companions. Or, if the reader wishes to be counted as a person of literary culture, and guard against arrogant physicists, one can also read this article as a guide to how to bluff your way in the Second Law of Thermodynamics.
(...)
If someone can be said to have codified the second law, and given it its definitive classical formulation, that someone is Max Planck. His Vorlesungen über Thermodynamik went through eleven successive editions between 1897 and 1966 and represent the authoritative exposition of thermodynamics par excellence for the first half of this century.
[But even the Vorlesungen have not received unanimous acclaim. Truesdell (1968, p. 328) describes the work as ‘gloomy murk’, Khinchin (1949, p. 142) calls it an ‘aggregate of logical and mathematical errors superimposed on a general confusion in the definition of the basic quantities’. Still, apart from a review by Orr (1904) of the first English translation, I do not know of any attempt to analyse the arguments in this book in some detail.]
It is no exaggeration to claim that all later writers on the topic have been influenced by this book. Planck puts the second law, the concepts of entropy and irreversibility at the very centre of thermodynamics. For him, the second law says that for all processes taking place in nature the total entropy of all systems involved increases, or, in a limiting case, remains constant. In the first case these processes are irreversible, in the second case reversible. Increase of entropy is therefore a necessary and sufficient criterion for irreversibility. (...)

In Planck’s work we encounter a passage which is quite similar to Clausius (1862), cited above on page 34: "Von besonderer theoretische Wichtigkeit sind diejenigen thermodynamischen Prozesse, welche, wie man sagt, unendlich langsam verlaufen, und daher aus lauter Gleichgewichtszust¨anden bestehen. Wörtlich genommen ist zwar diese Ausdrucksweise undeutlich, da ein Prozess notwendig Ver¨anderungen, also Störungen des Gleichgewichts zur Voraussetzung hat. Aber man kann diese Störungen, wenn es nicht auf die Schnelligkeit, sondern nur auf das Resultat der Veränderungen ankommt, so klein nehmen wie man irgend will, namentlich auch beliebig klein gegen die übrigen Größen, welche im Zustand des betrachteten Systems eine Rolle spielen. Die hohe Bedeutung dieser Betrachtungsweise besteht darin, daß man jeden “unendlich langsamen” Prozeß auch in entgegengesetzer Richtung ausgeführt denken kann. Besteht nämlich ein Prozeß bis auf minimale Abweichungen aus lauter Gleichgewichtszuständen, so genügt offenbar immer eine ebenso minimal passend angebrachte Änderung, um ihn in entgegengesetzter Richtung ablaufen zu lassen, und diese minimale Änderung kann durch einen Grenz übergang ebenso ganz zum verschwinden gebracht werden."

But Planck is full of confidence. He predicts that future metaphysicians will assign the entropy principle a status even higher than empirical facts, and recognise it as an a priori truth. The quotation from Eddington in section 2 confirms that Planck was right about that. This view led, in particular in the work of Planck, to a grand universal generalization, according to which the second law says that for all processes in nature the total entropy of the systems involved never decreases, and that therefore all processes (with the exception of those in which the entropy remains constant) are irreversible. A convincing argument for this claim has never been given.
(...) It is striking that this version of the second law can be obtained without invoking time-asymmetry at all. However, the result does have consequences in terms of irreversibility (in the sense of recoverability). But this consequence is rather mild: it does not follow that all such processes from s to t are irreversible. Here too, the universal formulation of Planck has not been attained. One can even ask whether the result is so interesting for the philosophy of time, or threatening for the harmony between different parts of physics. After all, Hamiltonian mechanics also allows the existence of irreversible processes, for example, the motion of a free particle in an otherwise empty universe.
(...)This summary leads to the question whether it is fruitful to see irreversibility or time-asymmetry as the essence of the second law. Is it not more straightforward, in view of the unargued statements of Kelvin, the bold claims of Clausius and the strained attempts of Planck, to give up this idea? I believe that Ehrenfest Afanassjewa was right in her verdict that the discussion about the arrow of time as expressed in the second law of the thermodynamics is actually a red herring.

There are serious discussions about the entropy of a footprint on the beach, or about the question whether the second law can perhaps explain the flow of time itself. It seems to me that theses discussions can only be understood if we construe terms like ‘entropy’, ‘second law’ or even ‘thermodynamics’ as metaphors that do not literally refer to a actually existing physical theory. According to the proposal such discussion can be avoided, or at least sharpened.

Soweit Uffink.

Eine Illustration (ungefähr gleichwertig derjenigen des Footprint-on-the-beach) der Irreversibilität von "thermodynamischen Prozessen im weitesten Sinne" gibt auch das Kinder-Rätselverschen vom Humpty-Dumpty:



Die ganze "Entropie-Duskussion" wurde nochmals bereichert, als Shannon 1948 die geniale Idee besass, Informationsmenge als Entropie zu bezeichnen. Es geht das Gerücht, er habe einen Freund gefragt, wie er seinen neuen Parameter

H [von i bis z] = - pi log2(pi )

benennen sollte, und dieser ihm riet: Nenne doch H einfach Entropie; was das ist, weiss ohnehion niemand recht; dann bist du sicher, dass du darüber sagen kannst, was du willst, ohne dass jemand wagt, unangenehme Fragen zu stellen... -  Natürlich hat Shannon, wenn tatsächlich ein solcher Freundesrat erfolgt ist, noch andere  Gründe (und gute Gründe) gehabt, den Rat zu befolgen. In der informationtheoretischen Mathematik ist es so, dass ein "unregelmässiger" Zustand mehr Information zu liefern im Stande ist, als ein geordneter. Man kann das leicht verstehen, wenn man z.B die folgende Buchstabenmenge von 18 Buchstaben einmal "geordnet" so:  "aaeeegggnrstttu***"  und einmal ungeordnet so: "er*sagte*guten*tag"  präsentiert bekommt. Wenn man von der Bedeutung absieht (welche sich erst ergibt, wenn der Betrachter der Buchstabenfolge nicht nur das lateinische Alfabeth kennt, sondern auch die deutsche Sprache!) ist klar, dass die beiden Folgen gleich viel Informationspotential haben. (mehr auf www.Uni Kiel)

Shannon erkannte, dass die  Informationsmenge, die in einer bestimmten Besetzung eines Möglichkeitenraumes (in obigem Beispiel 18 Blätze für lateinisches Alfabeth plus *) steckt, mit der Anzahl Ja-Nein-Fragen zu tun hat, die man bei systematischer Befragung stellen muss, um die Besetzung zu reproduzieren.Angeblich ist es gegen Ende letztes Jahrhundert gelungen, die thermodynamische Entropie physikalisch und mathematisch mit der informationstheoretischen zu verknüpfen: Die Arbeiten von Leo Szilard versuchen zu zeigen, dass eine Entropieerhöhung von 0,957 · 10–23 JK–1 einem Informations-bit entspricht. Etwas weniger physikalisch und mehr philosophisch ausgedrückt heisst das: Spontane Zunahme der Informationsmenge ist in einem geschlossenen System ist nicht möglich.

Bei Shannons Definition Informationsmenge I=S lb(1/pi) muss man stets daran denken, dass sie rein gar nichts zu tun mit Bedeutung. Shannons Informationsmenge ist definiert als der Digital-Logarithmus (lb) der Anzahl aneinandergereihter Ja/Nein-Antworten, die in einer Information stecken. In einem Alfabeth von z.B. 32 Zeichen steckt in jedem Buchstaben die Antwort auf 5 Ja/Nein-Fragen, weil nämlich die 32 Zeichen an den Enden der Endzweige eines Baumes mit 5 Verzweigungsebenen Platz haben, und man nur 5 Mal eine Wegweisung brauch, um zum erwünschten Buchstaben zu gelangen. Die Informationsmenge eines einzelnen Buchstabens wird dann noch gewichtet nach Wahrscheinlichkeit pi des Auftretens dieses Buchstabens (z.B. ist "e" in der deutschen Sprache sehr viel häufiger als z.B. "v").

Aus dem Gesagten geht jedenfalls Folgendes hervor: Shannons Informationsmenge ist ein mathematisch definierter Begriff, mit dem sich gut rechnen lässt, und der sich gut eignet zur technologischen Abklärung z.B. des  Datenkanal-Bandbreitenbedarfs  für die Übermittlung bestimmter Datenmengen pro Zeiteinheit. Aber schon in oben gegebenem Beispiel der Datenmenge, die mit einer Buchstabensequenz übermittelt wird, wird uns bewusst, dass die tatsächliche Datenmenge (nicht nur die über Datenkanal übermittelte) auch Informationen betreffend die Decodierung enthalten muss, wenn eine Information Sinn ergeben soll (wie sind die Zeichen im Alfabeth bzw im "Abfragebaum" angeordnet? Wann beginnt eine "Buchstabenermittlung im Abfragebaum"? Was bedeutet "*", was "guten" und was ist ein "Tag", usw.?) 

Die Folgerung aus dem  2.HS der Thermodynamik, es gebe eine (und nur eine) Laufrichtung der Zeit; und zweitens Entropieverminderung in einem geschlossenen System sei unmöglich, höchst brisant, weil sie nämlich einerseits völlig einleuchtend (sozusagen axiomatisch-trivial) ist, andererseits aber bei Annahme eines endlichen Universums die rein-physikalische Weltanschauung desavouiert (Wie kann eine Welt, in der die Entropie zunimmt, Diamanten, Blumen, und sogar Menschen hervorbringe?). Der Physiker wird entgegnen, man müsse eben den Planeten Erde als ein offenes System verstehen, das, durch Sonnenenergie gespiesen, sehr wohl seine Entropie vermindern bzw. geordnete Muster und Strukturen entwickeln könne; gemäss der Formel dS=dQ/T verliere die Sonne, weil sie heisser sei als die Erde, bei Übermittlung einer Energiemenge dQ an die Erde weniger Entropie als die Erde gewinnt; und so stimme eben doch, dass das Quasi-geschlossene System Erde-Sonne in der Bilanz seine Entropie dauernd erhöhe. Wir geben uns aber mit dieser Antwort nicht zufrieden und möchten wissen: Wie ist denn die Sonne zu ihrer enormen Temperatur gekommen? Und wenn in dieser Weise der Regress immer weiter geführt wird, gelangt man zur Frage: Besass denn vor Entstehung der Sterne (Sonnen) das All die Entropie Null?  Und was könnte das bedeuten? Wenn ich die Äquivalenz von Entropie und Informationsmenge richtig verstanden habe, kann das  nur bedeuten, dass die Informationsmenge vor der Weltentstehung auch Null war. Sind solche Schlussfolgerungen nicht absurd, gegen die Vernunft? Wie und wo haben Physiker, wenn nicht einmal die Erde ein abgeschlossenens System ist, ein solches denn je beobachtet? Ist dieses berühmte "abgeschlossene System" nicht vielmehr etwas, das nur in den Physikerköpfen existiert? Und wenn ja: Wie kommt es, dass die Hirne "exakter Naturwissenschafter"  nur "geschlossene Systeme" aushecken, die zu "Wärmetod" und "absoluter Sauordnung" führen?

"Nun gut", wird der Physiker zugeben, "wir können tatsächlich nicht viel darüber sagen, was vor der Welt war, und ob überhaupt etwas war. Es liegt schlicht und einfach nicht in unserer Möglichkeit, uns etwas ohne Raum, Zeit und Information vorzustellen. Wir Physiker kümmern uns jedenfalls ausschliesslich um Raumzeitliches. Mag sein, dass wir im "Urknall" einen Berührungspunkt mit der Theologie haben; aber es ist mit diesem Punkt wie mit allen Punkten: Er hat keine Ausdehnung. Also können wir ihn getrost ignorieren"

So endet dann also der Dialog, auch wenn offensichtlich "Erklärungslücken" bestehen bleiben (im Klartext: wir eigentlich nicht wissen, was die Welt zusammen hält  - und es gar nicht wissen können, und darum eigentlich nur zwei Möglichkeiten haben, darauf zu reagieren: Aufgeben oder hinhören auf den, der uns liebt, d.h. das Dasein im Sein schenkt). Gewiss gibt es unter den Physikern solche (prozentual vermutlich gleich viel wie unter den Nichtphysikern), die bereit sind, sich über das Nichtwissbare (d.h. über den Glauben) Gedanken zu machen.Der Nobelpreisträger Prigogine z.B. ergänzte die offizielle Physik, die zur Erklärung der Vielfalt der Natur nicht befriedigen kann, mit seiner Chaostheorie, in welcher die "dissipativen Strukturen" eine zentrale Rolle spielen, das sind Materienmuster, die bei energetisch ausgesprochen offenen Systemen scheinbar grundlos auftreten. Prigogine und Stengers schliessen daraus: "Wenn die Welt wirklich derart beschaffen ist, daß ein Dämon - also letzten Endes ein Wesen wie wir, mit derselben Wissenschaft, aber mit schärferen Sinnen und größeren Rechenfähigkeiten - aufgrund der Beobachtung eines augenblicklichen Zustands ihre Zukunft und ihre Vergangenheit berechnen kann [der sog. "Laplacescher Dämon"]; wenn die Dynamik tatsächlich die Wahrheit der Natur enthält und wenn qualitativ nichts die einfachen Systeme, die wir zu beschreiben vermögen, von den komplexeren unterscheidet, für die es eines Dämons bedarf - dann ist die Welt nichts als eine ungeheure Tautologie [etwas, das ausser sich selbst nichts bedeutet], ewig und willkürlich, ebenso notwendig und absurd in jedem ihrer Details wie in ihrer Totalität."   

Da rein materialistische tautologische Erklärung der Welt keinen vernünftigen Menschen wirklich überzeugen kann, müssen wir uns genauer mit dem Begriff  "Information" befassen. Information ist ja etwas und doch nichts Materielles. Sie besteht in den Beziehungen von Gegenständen, Buchstaben, Lauten usw. zueinander. In einem Text z.B.enthalten ja nicht die Buchstaben selbst (per se betrachtet) die Information (bzw. jeder Buchstabe enthält höchstens Information über sich selbst), sondern die gegenseitige Beziehung (Reihenfolge) der Buchstaben ergeben die Information des Textes.

Papst Benedickt XVI. sagte, als er noch Professor für Fundamentaltheologie war: "Gott ist Beziehung" (wie ja auch Liebe eine Beziehung bezeichnet). Beziehungen können insofern als losgelöst vom Raumzeitlichen gedacht werden, als wir sie entweder zeitunabhängig als nur räumliche, oder ortsunabhängig nur als zeitliche Beziehung beschreiben können. Damit ahnen wir, dass sowohl die räumliche wie auch die zeitlichen Beschreibung einer "Beziehung" nur eine metaphorische Beschreibung ist, dass aber in Wahrheit  "Beziehung" eine nichtraumzeitliche Kategorie ist. Das ist dem intuitiv denkenden Menschen seit Jahrtausenden bekannt. Darum nennt er Liebe ewig. Erst die modernen Hirnforscher versuchen alles, sogar die Kategorie "Beziehung" auf Materie zu reduzieren. Im zeitgenössischen Verständnis, was anerkennenswerte (Natur-)Wissenschaft sei,  spielt die Reduktion auf Rein-Physikalisches die ausschlaggebende Rolle.

Es ist nun faszinierend, dass in der Umgangssprache, die offenbar mehr Vernunft widerspiegelt als die Hochsprache der Wissenschaft, "Reduktion" nicht wie ursprünglich (und bei den Wissenschaftern noch heute) einfach "Rück-führung" bedeutet, sondern "Verminderung". Wenn man geistige Prozesses auf physikalische Prozesse reduziert, dann ist (ausser den materialistischen Hirnforschern) jedem sprachbewussten Menschen klar, dass eine Verminderung, Verkleinerung, Vernichtung vorliegt, entweder eine naive Reduktion im Sinne einer terrible simplification oder eine nicht eben harmlose im Sinne einer Bemächtigung. Bei der  Reduktion des Geistigen auf Materielles geschieht das Gleiche wie z.B. beim Reduzieren der Flamme eines Butankochers: Man würgt die Flamme schliesslich ab. Vielleicht ist das Metapher noch treffender, wenn man sagt: Die Naturwissenschafter (im heutigen Sinne des Wortes) hatten gar nie das Rüstzeug (Zündhölzchen) den Butankocher zu entzünden.    

Informatik wird eigentlich erst interessant, wenn einer Informationsmenge auch eine Menge Bedeutung zukommt. Die oben gegebenen Beispiele von Zeichenfolgen  suggerieren, Bedeutungsmenge und Informationsmengezwei seien zwei völlig verschiedene, voneinander unabhängige Dinge. Aber wir können in Gedanken ganz ähnlich wie Buchstaben durch die Alfabethordnung auch die Dinge durchnummerieren und in einem Codebaum unterbringen: Erster Bit steht für "lebendig?: Ja-oder Nein" ; falls Antwort "Ja" (=1), zweiter Bit: "Tier: Ja-oder Nein" ; falls Antwort "Ja" (=1),  dritter Bit  "Haustier?"; falls Antwort = 1, vierter Bit: "Auf  Weiden gehalten?" ; falls Antwort = 0,  fünfter Bit:  "grösser als eine Katze?" usw. bis zur Frage: "Ist es ein Schäferhund?" ... Mit 5 Bits (11101...) wäre man (vorausgesetzt es sei ein guter Bedeutungsbaum vorgegeben) der Bedeutung von "Schäferhund" schon recht nahe zu Leibe gerückt, während die Buchstabensequenz  "fuhäerhnscd" (mit der gleichen Informationsmenge wie "Schäferhund")  im Bedeutungscodierungsbaum lauter 00000...ergeben würde. - Könnte man nun also die (auf Bedeutung) "erweiterte Informationsmenge" auch als eine Bedeutungsmenge auffassen? Keineswegs! Es bleibt dabei, dass ein Bewusstsein vorhanden sein muss, welches die Informationsmenge deutet. Bedeutung entsteht immer erst durch Deutung von Information durch ein Bewusstsein. Es kann also nicht sein, das Bewusstsein erst durch Deutung von Information entsteht, weil ja Deutung Bewusstsein voraussetzt. Und damit sind wir voll ins "Platonisieren" geraten!  Konsequenz: Wenn  in den Neuronen, wie uns die Neurologen immer wieder einschärfen, der Informationsfluss grundsätzlich wie im Computer auf Ja/Nein (Feuern-/-nicht Feuern) beruht, so wird die Annahme eines "Decoders" unumgänglich. Es ist leicht einzusehen, dass Modewörter wie "Decoder", "Bit", "Informationsmenge" usw. nichts anderes sind als Wortschöpfungen zur Beschreibung von Platons Lehre, die von der Realität der Ideen und vom Vorwissen derselben und Teilhabe an denselben spricht. Wie aber soll ich mir die Zusammenhänge von Information, Bedeutung und Bewusstsein vorstellen?

Es ist klar, dass die Deutung einer Informationsmenge durch den Menschen eminent zu tun hat mit der Zeit. Jede Zeichenfolge muss nämlich zur Deutung in eine zeitliche Abfolge übergehen, ganz gleichgültig, ob die Zeichenfolge mit den Augen gelesen oder mit andern Mitteln abgetastet wird, oder ob die Zeichenfolge in Phonemen besteht, die, zeitlich aneinandergereiht, Worte ergeben. Auch Pantomimen, Comics, Morsezeichen, überhaupt alle aneinandergereihten Äquivalente von Worten und  Sätzen, jede Informationsmenge, wie sie auch immer gestaltet sein mag, gelangt letztlich stets zeitlich gestaffelt an ein Bewusstsein und kann von diesem tatsächlich nur infolge dieser zeitlichen Ordnung gedeutet werden. Würde die zeitliche Staffelung der Informationseinheiten beim Herantragen derselben an ein Bewusstsein wegfallen bzw. nicht realisiert, wäre die Deutungsmöglichkeit der Informationsmenge dahin. Vielleicht wird jemand entgegnen: Die Buchstaben in einem Buch sind doch alle gleichzeitig im Buch geordnet vorhanden, also steckt doch die Informationsmenge nicht in der zeitlichen, sondern in der räumlichen Anordnung der Buchstaben. Darauf muss man antworten: Ja gewiss; aber die Deutung von Informationseinheiten (Buchstaben, Worten) ist erst möglich, wenn die in der Reihenfolge konstituierte Information als zeitliche Folge in ein Bewusstsein gelangt.

Was könnte sich dahinter sich verbergen, dass Information nur in Verbindung mit der Zeit dem Bewusstsein ermöglicht, einer Information Bedeutung zu verleihen, und andererseits, dass in einem geschlossenen System der Zeitverlauf dadurch determiniert erscheint, dass die (mathematische) Gesamtinformationsmenge zunimmt? Wird diese "Infodynamik" (wie man in Anlehnung an die Thermodynamik sagen könnte) dadurch widergespiegelt, dass jede Frage, welche die Wissenschafter als "gelöst" erklären, tausend neue Fragen aufwirft? Der Radius des Wissenskreises wird zwar vergrössert, die Ausstrahlung (doppelter Radius) des Wissensterrain also vergrössert, damit aber auch die Terraingrenze (als Metapher für die anstehenden Fragen) mit dem Faktor π verstärkt.