Muss man zum Sehen reden können?

Vortrag im Triemlispital gehalten am 17.5.05

Der Referattitel ist eine Frage. Ich will vorweg die Antwort geben: Sie lautet in Bezug im ersten Teil meines Referates Nein, im zweiten Teil Ja. Das ist natürlich nur möglich, weil die Frage so gestellt ist, wie man Fragen eigentlich nicht stellen sollte, nämlich zweideutig. Die Frage ist zweideutig, weil „zum“ sowohl „beim“ wie auch „um zu“ (damit) bedeuten kann. Wir stehen also einmal vor der Frage „Muss man  beim Sehen (bzw. während des Sehens) auch noch schwatzen können? Oberflächlich und spontan wird man antworten: Nein, es ist nicht nötig, dass wir dauernd palavern.
Dann aber kann, wie gesagt, die Frage eben auch bedeuten: Muss jemand sagen können, was er sieht, damit er im vollgültigen Sinne des Wortes „sieht“?  Wobei Sagen-können besser ersetzt wird durch Mitteilen-können, weil nämlich z.B. ein Hund, dem man ein Leckerchen zeigt, ohne sprechen zu können durch sein Wedeln sehr deutlich mitteilt, was er sieht.

 Abb.1:


Nun also zur Titelfrage im erstgenannten Sinne: Muss man beim Sehen Reden können? Die Frage ist doch nicht ganz so banal, wie man im ersten Augenblick denken mag, weil es nämlich Sehhilfen gibt, die das Sprechen (genauer: Das Führen einer Konversation) beeinträchtigen oder gar verunmöglichen. Des Augenarztes Intention ist, den Patienten zu besserem Sehen zu verhelfen. Wenn das weder mit Medikamenten noch mit Operationen möglich ist, dann verschreibt man Sehhilfen. Dabei muss man aber klar unterscheiden zwischen Patienten mit funktionierendem Opticus und solchen mit zerstörtem Opticus. Unter Sehhilfen stellen wir uns meistens Lupen, Videolesegeräte und dergleichen vor. Ist es da nicht ein Widerspruch in sich selbst, Orientierungshilfen für Ganzblinde, die keinen funktionierenden Opticus mehr haben,  „Sehhilfen“ zu nennen?  Um diese Frage zu beantworten müssen wir definieren, was wir unter Sehen verstehen wollen.

Die Definition wird vermutlich etwas anders lauten, je nach dem, ob ein Physiker oder ein Hirnforsche sie gibt. Der Physiker wird sagen: „Sehen ist Wahrnehmen von Objekten auf Grund elektromagnetischer Wellen, die das Objekt aussendet“ und der Neurobiologe: „Sehen ist alles, was im unteren Temporallappen Aktionspotentiale verursacht“

Abb.2:


Nun haben die Amerikaner - sie haben noch naiven Fortschrittsglauben und Pioniergeist - gesagt: Na gut, wenn der Opticus kaputt ist, dann müssen wir ihn eben ersetzen. Das sah dann so aus und war ziemlich unbefriedigend. Auflösung etwa 8 Pixel.

Abb.3: 


Es gibt aber auch einen etwas subtileren Approach, der darin besteht, dass man sich zunächst einmal fragt: Ja was machen denn eigentlich die Hirnteile, die normalerweise mit dem Sehen beschäftigt sind, beim Blinden? Und da erlebte man eine grosse Überraschung:

Abb.4: 



Die sekundären Sehzentren sind beim Blinden aktiv wenn er z.B. Braille liest. Nach der neurobiologischen Definition von Sehen sieht der Blinde die Blindenschrift, denn in den Sehzentren kommen tatsächlich entsprechende Aktionspotentiale an. Es ist interessant, dass beim Späterblindeten, der sich an visuelle Eindrücke erinnert und sich also Objekte auch visuell (im üblichen Sinne gemeint) vorstellen kann, die Brailleschrift auch occipital in der Area striata Aktivität auslöst, während beim Früherblindeten (Blindgeborenen), der ja keine Vorstellung davon haben kann, was visuelles Wahrnehmen ist, nur die sekundären Sehzentren aktiv werden.

Jedenfalls ist das Hirn viel weniger starr in funktionelle Areale eingeteilt, als dies unter dem Einfluss von Broca, Brodmann usw. fast 150 Jahre lang geglaubt wurde. Wenn wir geschichtlich weiter zurück gehen, dann allerdings wären die Wissenschafter wohl kaum sehr überrascht gewesen, dass der Blindgeborene visuelle Hirnkapazität nicht brach liegen lässt sondern für seine Zwecke umfunktioniert.

 Diese Flexibilität ist den Menschen seit Jahrtausenden bekannt. Man weiss seit Urzeiten,

1. dass das Sehen über den Sehnerven ins Hirn und dort irgendwie ins Bewusstsein gelangt (wohl trifft es zu, dass Kepler als erster den Strahlengang des Lichtes im Auge und damit die Retina als Bildrezeptor erkannt hat, und Descartes sich für die Verbindung des Auges mit dem Hirn interessierte; ebenso evident aber ist, dass schon die trepanierenden Steinzeitmenschen gewusst haben mussten, dass es zum Sehen drei Dinge braucht: Licht, Augen und Hirn, und dass diese drei irgendwie miteinander verbunden sein müssen. Sic!)

2. dass „blinde Seher“ taktile und auditive Fähigkeiten haben, die Sehende nicht erwerben können (einem Sehenden ist es nicht möglich, Brailleschrift lesen zu lernen).

Daraus konnte  Hyppokrates (auch ohne PET) schliessen, dass Blinde Hirnvalenzen, die sonst zum Sehen gebraucht werden, für andere Leistungen umfunktionieren. Die ausserordentlichen Fähigkeiten von Blinden, taktile und akustische Wahrnehmungen zu deuten, geriet sozusagen wegen der Brodmann-Manie („Brodmanie“) in Vergessenheit, und daher konnte die Positronen-Emissions-Tomographie (PET) bei Braille-lesenden Blinden Überraschung auslösen.

Nun kann man sagte: Na gut, wenn das Hirn tatsächlich so flexibel und lernfähig ist, dann wollen wir das nutzen und den Blinden TV-Kamerabilder über andere Kanäle als den Opticus in den Temporallappen liefern. Den amerikanischsten Lösungvorschlag habe ich schon mit Abb.3 gezeigt. Etwas vernünftiger sind die Vorschläge, welche bestehende Nervenverbindungen zum Hirn nutzen, um dem Bewusstsein Informationen über die visueller Umgebung zu liefern.

 Abb.5:     

Man kann ein ertastbares Graphikdisplay basteln, und die zugehörige TV-Kamera in ein Brillengestell montieren. Das funktioniert gut, hat aber den Nachteil, dass dem Blinden beide Hände blockiert werden: Eine Hand muss den Disply herumtragen, die andere - wenn man so sagen will - das Bild "anschauen".

Also hat man Alternativen gesucht. Inspiriert von den Fledermäusen - bei denen das akustische Radarsystem allerdings weder die physikalische noch die neurobiologische Definition des Sehens erfüllt - hat man den Versuch gemacht, ein TV-Kamerabild umzusetzen in ein akustisches Signal.

Abb.6: 


Mit Lernprogrammen (und viel, viel Geduld) sollte dann der Anwender solcher Apparate lernen, die Töne zurück zu übersetzen in eine bildliche Vorstellung (Demo 1, PowerPoint; Bild wall.gif mit zugehörigem Ton wall.wav). Selbstverständlich berichtet die US-Firma, die das Gerät auf den Markt gebracht hat, von guten Erfolgen. Es sind aber Zweifel angebracht, ob die Kunden die Geräte im Alltag tatsächlich verwenden. Und eines ist ganz sicher: Es stellt sich die Titelfrage meines Referates! Denn reden (mit jemandem akustisch kommunizieren) und gleichzeitig Fledermaus spielen dürfte doch etwas schwierig sein.

Die Nutzung der taktilen Sensibilität scheint wesentlich geeigneter zur Entwicklung von „Sehhilfen“ für Opticusgeschädigte. Intuitiv werden an erster Stelle die Finger zum Betasten verwendet. Sie sind denn auch auf dem sensiblen Cortex sehr gut repräsentiert. Ebenfalls ganz überdurchschnittlich gut repräsentiert ist die Zunge.

Abb.7: 

 

Das hat sicher mit dem Sprechen zu tun und auch mit dem Essen. Aber wir sprechen und essen ja nicht andauernd. Mehrheitlich liegt die Zunge träg im Mund und tut nicht viel.

Abb.8: 


Ermutigend sind auch die PET-Untersuchungen betreffend Zungensensibilität bei Blinden: Hier wurde ein Elektrodengitter mit 16x16 Pixel der Zunge dargeboten und der Proband musste zwischen verschiedenen T-Orientierungen unterscheiden lernen. Blinde lernten dies deutlich rascher als Sehende und nutzen stärker als diese die sekundären Sehzentren.

Abb.9: 


Das Prinzip, die Zunge als Eingangsportal für Blinde zur taktilen Umwelterfassung zu nutzen wurde in den USA bereits patentiert. Beachten Sie die Kamera im Brillengestell, die das Bild drahtlos auf das der Zunge aufliegende Elektrodendisplay überträgt. Nach meiner Überzeugung könnte der Erfolg wesentlich verbessert werden, wenn man der Zunge eine aktivere Rolle geben würde, d.h. wenn man ein Display entwickeln würde, das tatsächlich kleine, ertastbare Nocken präsentieren würde, und zwar mit sehr unterschiedlicher Pixeldichte: Einem dichten Zentrum (Fovea) für die Zungenspitze und einer Peripherie (Gesichtsfeld), welches den Blinden bloss informieren würde, wohin er blicken soll (wo eine Bewegung auftritt, wo grössere Bildobjekte auftreten usw.) Das „Sehen mit der Zunge“ würde dann eher dem normalen Sehen entsprechen. Selbstverständlich ist auch bei einer derartigen Sehhilfe das gleichzeitige Reden unmöglich.

Die Kommunikationserschwerung durch Sehhilfe muss als schwerwiegende Nebenwirkung der genannten Sehhilfen bezeichnet werden. Ganz generell sollten sich die Entwickler solcher Hilfen fragen, ob sie nicht einem High-Tech-Narzissmus huldigen. Wenn man einem Ganzblinden eine Sehhilfe aufdrängt, dann muss man sich bewusst sein, dass man damit die natürlichen cerebralen Anpassungen hemmen wird. Ich habe schon erwähnt, welch erstaunliche taktile Fähigkeiten Blinde entwickeln. Sie lernen aber auch, die Geräuschkulisse viel subtiler zu deuten, als Sehende das je können: Die Klangveränderung der eigenen Schritte z.B., wenn der Blinde auf eine Mauer zugeht, wird ohne jede elektronische Hilfe den Blinden über das Hindernis informieren. Wir kommen also nicht darum herum, uns zu fragen, wie verschafft sich der Mensch überhaupt eine Vorstellung von der Welt, die ihn umgibt? Und dazu müssen wir etwas genauer und differenzierter auf die Frage eingehen, was „Sehen“ abgesehen von der Auge-Sehrinden-Kanal bedeutet. Soll jede Reaktion auf Lichtreize als Sehen bezeichnet werden? Es ist nicht ungewöhnlich zu sagen, die automatische Migros-Türe, die sich öffnet, wenn der Infrarotstrahlenpegel im montierten Sensor schwankt, „sehe“ ein Personen kommen.  Als Augenärzte würden wir das aber nicht als „Sehen“ bezeichnen wollen. Wenn jede Reaktion auf Licht „Sehen“ genannt wird, dann sieht der Fels die Sonne, weil er auf die Lichtstrahlen reagiert und sich erwärmt.

Wie ist es nun aber bei Pflanzen, die auf Licht reagieren? Wie ist es bei niedrigen Tieren, die auf Licht reagieren? - Ich denke, wir sind uns einig, dass
wir uns unter „Sehen“ mehr vorstellen als bloss „Reaktion auf Licht“. Die Photoplatte sieht das Bild nicht, das sie aufnimmt. Wir bezeichnen also nicht jede Reaktion auf Lichtreize als Sehen. Es ist zwar nicht ungewöhnlich zu sagen, die automatische Migros-Türe, die sich öffnet, wenn der Infrarotstrahlenpegel im montierten Sensor schwankt, „sehe“  Personen kommen.  Als Augenärzte würden wir das aber nicht als „Sehen“ bezeichnen wollen. Wenn jede Reaktion auf Licht „Sehen“ genannt wird, dann sieht der Fels die Sonne, weil er auf die Lichtstrahlen reagiert und sich erwärmt.

Abb.10: 


Vom Frosch ist bekannt, dass sein Opticus keinerlei Aktionspotentiale sendet, wenn er still im Wasser hockt und sich in seinem Gesichtsfeld nichts bewegt. Erst bei Bewegung feuert seine Netzhaut entsprechende Aktionspotentiale, das Froschhirn, so klein es ist, errechnet blitzschnell Was/Wo/Wann und schon schnappt der Frosch nach Beute, - oder (je nach Diagnose, die das Hirn liefert) flüchtet vor dem nahenden Storch. Hier haben wir keine Hemmungen zu sagen, der Frosch habe Feind oder Beute gesehen. Beim Regenwurm, welcher lernt, den Weg im Y-Röhrchen nach links oder nach rechts zu wählen, um Lichtreiz zu vermeiden, haben wir eher Mühe, von „Sehen“ zu sprechen.

Wenn eine reagierendes System sich Gesehenes merken kann und beim Widererauftreten des selben Lichtreizes differenziert reagiert, liegt dann „Sehen“ vor? - Nicht unbedingt: Wir können der Migrostür einen Chip einbauen, der die Frequenz der ankommenden Personen feststellt und, solange die Frequenz 10/Minute übersteigt, dafür sorgt, dass die Türe permanent offen bleibt. Wir können die kritische Frequenz noch temperaturabhängig machen, usw. Wir gelangen dann in den Bereich, den man mit AI (artificial intelligence) bezeichnet. Selbstverständlich wollen wir trotzdem nicht zulassen, dass man Migrostüren vermenschlicht, indem man sagt, sie würden sehen. Wir müssen die Definition von „Sehen“ also unsern Wünschen anpassen: Normale, gesunde Menschen und höhere Tiere sehen, aber Migrostüren sehen nicht.

Ist es vielleicht korrekt zu sagen: „Wenn Lichtreiz eine Reaktion auslöst und das reagierende System sich dieser Reaktion bewusst wird, dann liegt Sehen vor“. Hier kommt eine neue Dimension ins Spiel: Das Bewusstsein. Es gibt unter den AI-Entwicklern (Kybernetiker-Informatiker-Mikroelektroniker) solche, die einem Computer „Bewusstsein“  zugestehen wollen, genau so, wie es Hirnforscher gibt (es ist sogar die Mehrheit der Hirnforscher), die sagen, das kybernetische Zusammenspiel der Myriarden von Neuronen, das sei das Bewusstsein; mehr stecke nicht dahinter; das was wir Bewusstsein nennen, sei bloss das „Rechnungsergebnis“ des immens-komplexen Regelsystems „Hirn“ auf die absonderliche Rechnungsaufghabe: Wie kommt es, dass ich nicht nur über meine Umwelt, sondern sogar über die Algorithmen, welche meine Reaktionen auf die Umwelt bestimmen, Auskunft verlange? Das Hirn, gewohnt, komplizierte Fragen zu behandeln, antworte: „Das lass uns einfach mal „Bewusstsein“ nennen.

 Wir erkennen, dass das Problem, „Sehen“ zu definieren, sehr ähnlich (wenn nicht identisch) ist mit dem Problem, „Bewusstsein“ zu definieren. Bedeutet „Bewusstsein“ die Fähigkeit zum Sprechen, oder zum Leiden, oder zum willentlich Handeln, - und in diesem Falle: Was bedeutet „willentlich“ ?  Wir kennen die Problematik des „freien Willens“ (auch da tun viele Hirnforscher so, als hätten sie die Problematik entdeckt und nie etwas von griechischer Philosophie gehört, geschweige denn von Calvin und Prädestination).

Betrachten wir folgenden Fall: Ich zeige einem Patienten die Löhleintafel in 6 Meter und er bestätig, „etwas“ in der untersten Reihe zu sehen. Aber er kann nicht sagen, was es ist. Dann zeige ich das grösste Bildchen, die Tasse und frage, was er sehe. Gibt er keine Antwort, so gehe ich auf 50 cm Distanz zu ihm hin und frage wieder, wohl wissend, dass er nun die Tasse sehen sollte, wenn er in 6 Meter das kleinsten Bildchens als Objekt identifiziert hat (wenn auch nur als amorphen Punkt). Sagt nun der Patient wieder nichts, dann denke ich an eine Aphasie. Nun stelle ich eine Tasse Tee aufs Nebentischen und fordere den Patienten auf, zu trinken. Vielleicht muss ich ihn mit Gesten dazu auffordern. Nimmt er die Tasse und trinkt Tee, so hat er die Tasse gesehen. Nimmt er die Tasse in die Hand und leert sie aus, weil er sie verkehrt hält, dann hat er die Bedeutung des Objektes nicht erkannt. Hat er in diesem Falle die Tasse gesehen? Er hat ein Objekt gesehen und danach gegriffen, aber er konnte das Objekt nicht deuten.

Sicher hat der umgangssprachliche Begriff „Bewusstsein“ etwas zu tun mit Sprache (umgangssprachliche Begriffe haben ja die schöne Eigenschaft, zwar schillernd zu sein, dann aber in einem spezifischen Kontext oft eine erstaunlich klare Bedeutung zu gewinnen). Unter „Sprache im weitesten Sinne“ sei im Folgenden semantische Fähigkeit gemeint (Fähigkeit, eine Wahrnehmung zu deuten, wobei die Wahrnehmung nicht nur ein gesprochenes Wort sein kann, sondern auch z.B. ein Bild auf der Netzhaut, eine Streicheleinheit oder etwas anderes). Wenn wir nun also „Sehen“ definieren als „Erfassen (Wissen) der Bedeutung eines Objektes auf Grund der Lichtwellen, die das Objekt aussendet“, dann hat der beschriebene Patient die Tasse nicht gesehen. Wir würden als Augenärzte widersprechen und sagen: „Der Patient hat sehr wohl ein Objekt gesehen, aber er hat nicht erkannt, dass es sich um eine Tasse handelt“. Es geht also darum, „Sehen“ von „Erkennen“ abzugrenzen.

Der Patient, der die Bedeutung der Tasse zwar nicht erkennen konnte, sagte gleichwohl, er sehe „das Objekt“. Wie ist nun aber die Situation bei Patienten, die nachweislich etwas erkennen, aber sagen, sie würden nichts sehen? Bei Patienten mit homonymen Gesichtsfelddefekten kann man mit dem Perimeter ein Licht in den Bereich des Skotoms (das für eine derartige Untersuchung über 70% des GF ausmachen sollte) proijzieren; der Patient sagt dann selbstverständlich, er sehe kein Licht („selbstverständlich“ weil wir ja so das Skotom definieren). Wenn man ihn nun aber auffordert, jedesmal auf ein akustisches Signal hin das Licht so rasch als möglich anzuschauen, dann geschieht etwas Bemerkenswertes: Schon zu Beginn der Untersuchung fällt auf, dass überzufällig häufig der Patient ohne Suchen zum Licht hinschaut. Nach kurzer Zeit blickt er sogar immer unverzüglich ohne Suchen zum Licht, sagt aber weiterhin, er sehe das Licht nicht, bevor er es anschaue. Wollen wir nun behaupten, der Patient sehe das Licht, auch wenn er dies verneint? Wenn wir uns herausreden und sagen: Er sieht das Licht, aber eben unbewusst, dann dürfen wir auch sagen: Die Migrotüre sieht, aber eben unbewusst. Aber das klingt blödsinnig. Die Migrostüre hat ja überhaupt kein Bewusstsein. Der Patient am Perimeter dagegen ist voll bei Bewusstsein.

Es  kommt noch ein weitere Variation des „Sehens“ hinzu: Die reinen Vorstellungen, seien sie willentlich oder unwillentlich in Träumen oder Visionen. Wenn die Visionen nicht als irreal erkannt werden, sind sie pathologisch und bedürfen der psychiatrischen Behandlung. Es ist nun recht faszinierend, dass beim „Sehen“  irrealer Dinge die gleichen PET-Aktivitäten auftreten wie beim Sehen realer Objekte. Diese Analogie im PET-Muster betrifft vor allem die sekundären Sehzentren.

Abb. 11:


  Hier wurde ein Proband aufgefordert, sich mit geschlossenen Augen einen Elefanten vorzustellen; alsdann wurde er geheissen, sich die Farbe des Elefanten vorzustellen. Das ergab zusätzlich die grün markierte PET-Aktivität. Anschliessend musste der Proband sich vorstellen, wie sich der Elefant bewegt. Das ergab die grau markierte PET-Aktivität (Blau auf der Abb. = Über­schneidung grau + grün). Die PET-Muster entsprechen den Arealen, die für Farbanalyse oder für Bewegungsanalyse zuständig sind (vgl. Abb.4 links oben). Wenn dem Probanden diese Bildchen, die sie jetzt anschauen, gezeigt werden, dann ergeben sich die gleichen PET-Muster.

Solche „Vorstellungen“ ohne reale Objekte genügen nicht den Definitionen von „Sehen“, die wir bis dahin gegeben haben. Bei Vorstellungen und Träumen werden Dinge ganz ohne Lichtwellen „gesehen“ und es ist eigentlich erstaunlich, dass es fast immer mühelos gelingt, das „Gesehene“ richtig einzuordnen, beim Realen oder beim Irrealen.

(Demo 2: Sie sehen hier ein Bewegungsnachbild und haben keine Schwierigkeit, dies als Sinnestäuschung einzuordnen, wobei diese Sinnestäuschung in anderem Kontext nicht mühelos als solche erkannt würde, weil sie nämlich von der Netzhaut kommt und also über die Area striata geht.)

(Demo 3: Hier können Sie die sogenannte „Bewegungsblindheit“ erleben und eine Vorstellung davon bekommen, wie vielleicht ein Frosch „sieht“, wenn sich nichts bewegt.)

(Demo 4: Und hier Die sogenannte „Veränderungsblindheit“: Allmähliche Veränderungen auf einem Bild werden nicht bemerkt. Diese Demo illustriert, dass wir nur das sehen, was wir bewusst sehen.)

Wenn wir Veränderungen sehen wollen, dann spielt das Gedächnis eine grosse Rolle:  Wenn wir etwas sehen ohne uns klar bewusst zu machen, dass wir es sehen, dann wird das Gesehene lediglich ins „ultrakurze Arbeitsgedächnis“ aufgenommen. Alles im Ultrakurzgedächnis wird innert Bruchteilen von Sekunden wieder gelöscht, wenn die Bildkontinuität generell unterbrochen wird, z.B. durch eine Skkade. Darum ist es nicht leicht, einen Detailunterschied zwischen zwei sonst identischen Bildern zu finden; man muss das Detail bewusst identifizieren, das heisst ins längerfristige Gedächnis bringen, damit man den Unterschied finden kann. (Abb. 12a bis 12d

       

Abb.13:



Die cerebralen Prozesse, die vom Bild auf der Netzhaut bis zur Objekterkennung ablaufen, sind keineswegs klar. Sicher werden die Bildinformationen schon in der Netzhaut, die ja ein Teil des Gehirns ist, sortiert und verarbeitet. Über die weiteren Schritte der „Kognition“ kann man durch Selbstbeobachtung, Logik und Vermutung Hpothesen aufstellen, wie das z.B. Biedermann getan hat (Konturanalysen, Geone usw.) oder Gregory mit seinem „Hypothesengenerator“, welcher auf Grund von „top-down-Einflüssen“ (conceptual and perceptual knowledge) und den „sideway-rules“ (z.B. Okklusions-rule: Ein Objekt A verdeckt Objekt B; A liegt näher als B) zu einer „wahrscheinlichsten Hypothese“ (betreffend Bedeutung des gesehenen Objektes) gelangt, die dann „Realität“ heisst. Schon John Locke hat darauf hingewiesen, dass Erfahrung bedeutungslos wäre, wenn sie nicht über das Gedächnis mit früheren Erfahrungen verknüpft werden könnten, und dass solches Assoziieren Erkennen und Denken bedeutet.

„Bedeutung-haben“ heisst also: Ein Symbol (Zeichen), d.h. ein Wort, oder auch (wie Berkeley uns darlegte) ein optisch erfasstes Objekt, einen Duft oder eine andere Wahrnehmung mit Gedächnisinhalten verknüpfen. Dies aber ist die Funktion des Wernicke-Areals in Bezug auf Worte, vielleicht aber auch allgemein. Jedenfalls haben „Erkennen“ und „Bewusstsein“ etwas mit Sprache zu tun. Das ist nicht so sehr ein Ergebnis der Hirnforschung, sondern eher der Introspektion und schlug sich schon in der vorchristlichen Philosophie nieder in der Lehre vom Logos. Später bekam dies durch das Johannesevangelium  besonderes Gewicht.

Abb.14:

 

Das Hirn besitzt für besonders anspruchsvolle kognitive Aufgaben spezialisierte Areale: Auf der rechten Hirnhälfte, in ähnlicher Position wie das linksseitige Wernicke-Zentrum, findet man im Gyrus fusiformis ein funktionelles Areal, das sich besonders der Gesichtserkennung widmet. Bei Ausfall des Areals tritt Prosopagnosie auf. Patienten mit Prosopagnesie können Gesichter nicht bestimmten Personen zuordnen, d.h. Personen werden am Gang, an Kleidern, an der Stimme, aber nicht an den Gesichtszügen erkannt.

Abb.15: Personen-Erkennung

 


Abb.16: Gesichts-Ausdrücke werden in Abhängigkeit von der Oben-Unten-Orientierung gelesen.


  

 



Abb.17+Abb.18: Oft spielen aber bei der Personenerkennung auch „Top-down-Einflüsse“ eine Rolle.

 

Abb.19:


Die Sprache scheint eine recht grosse Rolle zu spielen beim Sehen. Denn es ist ja ein wesentlicher Unterschied, ob jemand hier sagt, er sehe „etwas“ oder „einen Menschen“ oder „eine Frau“ oder „die Monalisa“.

 In Bezug auf den Zusammenhang Sprache-Bewusstsein-Sehen sind die Split-Brain-Patienten aufschlussreich: Der Balken (Corpus callosum) verbindet die beiden Gehirnhälften. Damit stehen lateralisiert erarbeitete Informationen (z.B. sprachliche Konstruktionen, vgl. Abb.22) beiden Hirnhälften zur Verfügung.  Bei Split-Brain-Patienten funktioniert dieser Informationsaustausch nicht. Wenn also einem Patienten ein geschriebenes Wort (z.B. „KEY“) so präsentiert wird, dass das Schriftbild nur in die rechte Hirnhälfte gelangt (durch kurze Projektion von „KEY“ auf dem linken Feld eines Projektionsschirmes, während der Patient ein Kreuz in der Mitte fixiert), und dann den Patienten auffordert, mit der linken (von der rechten Hirnhälfte gesteuerten) Hand eines (von vorher ertasteten) Objekten heraus zu greifen, so wird der Patient mit Sicherheit den Schlüssel wählen, gleichzeitig aber sagen, er habe nichts gesehen, weder eine Schrift noch irgend eine Projektion.

Abb. 20: Sie sehen dieses Experiment in der folgenden Animation zusammengfasst.



Das Experiment beweist übrigens, dass Wortbilderkennung - also Lesen und Deutung! - auch in der rechten Hemisphäre stattfindet, dass aber die Bewusstwerdung und Umsetzung in mitteilbare Sprache fehlt.

Abb. 21:

Dasselbe Prinzip ist auch für andere Wahrnehmungen, z.B. olfaktorische nachweisbar. Solche Versuche zeigen, dass eine Wahrnehmung, die (wegen Unfähigkeit des Wahrnehmenden, nicht wegen Abwesenheit eines Adressaten!) nicht mitgeteilt werden kann, auch nicht als bewusste Wahrnehmung wahrgenommen wird. Dieser Satz klingt etwas verwirrlich. Es ist eben nicht ganz einfach, den Split-Brain-Sachverhalt sprachlich korrekt zu beschreiben, weil der Wortschatz dazu fehlt. Wenn wir aber den Ausdruck „lokal-cerebrale Kognition“ statt „unbewusste Wahrnehmung“ verwenden und Wahr-Nehmung nur für die bewusste Wahrnehmung reservieren, dann lautet der Satz:

 

Ohne Mitteilungsfähigkeit ist zwar lokal-cerebrale Kognition möglich, aber nicht  Wahrnehmung,

 

was ziemlich gut dem entspricht, was Schelling (ganz ohne Hirnforschung!) gepredigt hat (objektiver Idealismus). Tiere haben selbstverständlich auch Mitteilungsfähigkeit und damit also auch Wahr-Nehmung und Bewusstsein.

Allerdings sind wir damit dem Geheimnis „Bewusstsein“ nicht wirklich auf die Spur gekommen. Wenn eine simple Relation zwischen interindividueller Mitteilungsfähigkeit und Bewusstsein bestünde, dann müsste die Biene mehr Bewusstsein haben als das einsam durch die Arktis wanderne Eisbärenmännchen. Eigentlich müssten wir nun der Frage nachgehen, was denn eine „echte Mitteilung“ von einem instinktiv (absichtslos) gegebenen Signal unterscheidet. Das würde uns aber vermutlich nur auf neue Holzwege führen. - Ergötzen wir uns doch lieber an weiteren PET-Bildern.

 Abb.22:

Hier sehen Sie, welche Cortexareale bei sprachlichen Leistungen aktiv werden. Beachten Sie die logische Anordnung des primären Hörzentrums und des Lesezentrums in Bezug auf das sprachanalytische Wernicke-Areal. Die sozusagen entschlüsselte (gedeutete) Sprache hat dann über den Fasciculus arcuatus Verbindung mit dem eher sprachkreativen Broca-Areal. Selbstverständlich sind die beiden Areale völlig aufeinander angewiesen; eine Broca-Aphasie hat aber doch andere Characteristika als eine Wernicke-Aphasie: Erstere produziert sinnvolle, aber stotternde, syntaktisch fehlerhafte Sprache, letztere dagegen gleichsam fliessenden Unsinn. 


Hier sehen Sie, dass bei Taubstummen, welche die Gebärdensprache sprechen, die gleichen Temporallappenareale aktiv werden, wie bei Normalen:

Abb.23:


PET-Bilder beim Lösen sprachlicher Aufgaben zeigen, dass die Sprachfunktionen unvollständig lateralisiert sind, und dass bei Frauen der Beitrag der rechten Hirnhälfte deutlich grösser ist:

Abb.24:


Und hier sehen Sie das PET-Ergebnis einer Untersuchung, bei welcher die Probanden verschiedene Wortklassen sortieren mussten. Und siehe da: Es gab Aktivität im Stirnhirn...! - Mit Verlaub: Solche Untersuchungsergebnisse sind beinahe etwas trivial. Es werden auf der Welt täglich zu Hauf PET-Bilder produziert (immerhin unter Verwendung von radioaktivem O15 ). Eine wahre PETomanie hat die Hirnforscher erfasst:

Abb.25:



Abb.26:

Die „PETomanie“ hat sich sozusagen mit der „Brodmanie“  verheiratet und zeugt nun pet-brodmanische Nachkommenschaft.

Sie spüren, dass ich die Hirnforschung nicht unkritisch hochjuble. Ich betrachte die Geschichte der Hirnfoschung eher wie folgt:

 Abb.27:

Schon vor rund 7000 Jahren haben Neurochirurgen Schädel trepaniert. Gemäss den antropoplogischen Funden kann man auf Grund der Callusbildungen an den Trepanationslöchern annehmen, dass 70% der Patienten den Eingriff überlebten. Ich kann mir nicht vorstellen, dass diese Medizinmänner grundlos Schädel trepanierten. Vielleicht behandelten sie Patienten mit Anzeichen von Subduralhämatom, oder Epilepsien? Wir wissen es nicht. Das heisst aber nicht, dass sie es nicht wussten. - Jedenfalls ist von Alkmaion, einem Anhänger des ersten pythagoräischen Bundes (ca.530 v.Chr.), überliefert, dass die Sinnesorgane (Auge, Ohren, Nase, Tastsinn) ihre Wahrnehmungen über Nerven dem Hirn übermitteln. Hippokrates hatte eine genaue Vorstellung davon, was das Hirn leistet. Sicher kam er nicht ohne entsprechende Beobachtungen an Gesunden und Kranken zur Einsicht, dass intellektuelle und psychische Leistungen im Hirn stattfinden. Aus seinen Schriften weiss man: Ihm war klar, dass Epilepsie eine Hirnerkrankung ist. Auch für Platon war selbstverständlich, dass geistige Leistungen ein intaktes Hirn voraussetzen. Aristoteles, der gerne seinem Lehrer etwas am Zeug flickte, betonte, dass die emotionalen psychischen Fähigkeiten von andern Organen her kommen. Von Virchow bis Barnard lächelte man gerne über diese aristotelische Auffassung; erst im letzten Viertel des letzten Jahrhunderts hat man die Bedeutung der endokrinen Organe, des vegetativen NS, des Sinusknotens usw. bei der Entstehung von Emotionen wieder entdeckt.

Um 1800 präsentierte Galvani seine Versuche mit Froschschenkeln. Das war zwar für die Physik eine ganz entscheidende Endeckung, weil Galvanis Beobachtung die Physik der Elektrizität und des Magnetismus initiierte; für die Hirnforschung aber - seien wir ehrlich - war und ist es nicht entscheidend, ob nun Informationen durch Aktionspotentiale oder z.B. „Materialstösse“ weitergegeben werden („Materialstösse“  wie sie am einen Ende einer Wasserleitung auftreten, wenn man am andern der Hahnen öffnet, ergäben etwa gleich schnelle Reizleitung wie Aktionspotentiale).

 1825 formulierte Johannes Müller sein Gesetz von den spezifischen Sinnes-Substanzen, was in etwa der Erkenntnis entspricht, dass man mit den Augen nur sehen und mit den Ohren nur hören kann. Wieder ein viertel Jahrhundert später erregt Broca Aufsehen, indem er beschrieb, dass es gewissen Hirnverletzten die Sprache verschlagen habe. Vielleicht hat Broca etwas genauer hingeschaut, welche Hirnteile bei diesen Verletzungen geschädigt waren; ich kann mir aber nicht vorstellen, dass Hippokrates nicht schon gewusst haben sollte, dass Hirnschäden Aphasie verursachen können.

Dann kam Bernstein mit seiner Membrantheorie, die für das Verständnis der Funktionsweise des Hirns etwa so bedeutsam ist wie Galvanis Entdeckung. Und schon sind wir bei Pawlov, dem Entdecker des bedingten Reflexes, der herausgefunden hat, dass man die Erbeeren erst kennen lernen muss, bevor es geschehen kann, dass einem beim blossen Anblick von Erdbeeren das Wasser im Munde zusammenläuft. Dann hat Eccles den Nobelpreis dafür erhalten, dass er gesagt hat, es gebe im Hirn auch hemmende Einflüsse... (ich denke, Platon hätte darauf geantwortet: Ja selbstverständlich und zum Glück gibt es im Hirn auch hemmende Einflüsse), und Libet hat Furore gemacht mit der Mitteilung, wenn man das Handgelenk bewege, gebe es Aktionspotentiale, die auftreten, bevor man sich zur Bewegung entschliesst. Das wurde dann dahin gedeutet, der vielgerühmte „freie Wille“ des Menschen sei nur eine Illusion... So sieht die Geschichte der Hirnforschung kurz zusammengefasst aus, wenn man (wie heute üblich) das, was die Philosophie über Denken, Sprache, Wille, Freiheit usw. erarbeitet hat, nicht zur Hirnfoschung zählen will. Es ist also ziemlich abwegig zu behaupten, die Hirnforschung habe in den letzten Jahrzehnten „riesige Fortschritte“ gemacht. Das Gegenteil ist wahr: Während in fast allen Wissenszeigen eindrücklich fleissig und viele Daten gesammelt wurden, kam die Hirnforschung nicht vom Fleck. Wir wissen über das Hirn grundsätzlich kaum mehr als die alten Griechen, vielleicht sogar weniger, weil im Namen der „exakten Natiurwissenschaften“ die Introspektion als Forschungsmethode in Misskredit geraten ist. Ich lese Ihnen aus einem sogenannten Manifest vor, das elf deutsche Hirnprofessoren aufgesetzt haben:

 Abb.28:

 

(gelb markierte Texte) Das Manifest ist entweder eine unglaubliche Selbstüberschätzung oder ein schlauer Schachzug zur Finanzierung von Hirnforschungsinstituten. Die Selbstüberschätzung ist natürlich ansteckend, und so schreibt denn die Firma, welche das vorhin dargelegte akustische Sehgerät auf den Markt gebracht hat:


Abb.29:

(gelb markierten Text lesen). Wie Sie wissen, haben die englischen Empiristen die These aufgestellt, der Mensch komme ohne irgend ein Vorwissen zur Welt und müsse grundsätzlich alles durch Erfahrung lernen. Dennoch - oder eben gerade darum - ist die Molyneux-Frage sehr interessant. Man kann nämlich argumentieren, die fiktive Person, die plötzlich sehend wird, habe ja auch als blinde sich den Zahlenbegriff aneignen können und gelernt, was 4 oder 12 usw. bedeutet; sie weiss nun, dass der Quader abzählbare Kanten hat, die Kugel jedoch nicht, usw. Demnach müsste die Molyneux-Frage mit „Ja“ beantwortet werden. Demgegenüber kann man aber einwenden: Wie kann die fiktive Person etwas abzählen, was sie noch nie gesehen hat und also gar nicht diagnostizieren kann? usw. usw. Wir wissen, dass Locke und Molyneux sich schliesslich einig waren, dass die fiktive Person die beiden Körper nicht auseinander halten könnte. Gut. - Aber wie sollte die akustische Sehhilfe der Firma VOICE die Philosophen dazu bewegen, die Frage anders zu beurteilen? Das ist in keiner Weise ersichtlich.

 


Abb.30
Auch George Berkeley, ein anglikanischer Priester, beschäftigte sich intensiv mit dem Sehen (er schrieb „Theory of Vision“) und gelangte lange vor den deutschen Idealisten zum quasi-idealistischen Slogan „esse est percipi“ (=Sein ist Wahrgenommenwerden). Später dann sagte Kant: „Der Verstand schöpft seine Gesetze a priori nicht aus der Natur, sondern schreibt sie dieser vor“ und Fichte mit seinem subjektiven Idealismus: „Das Ich setzt das Sein“ Schliesslich wird bei Hegel der Weltgeist Eins mit dem Ich und mit Gott (was man nur dann nicht als Hybris lesen kann, wenn man Hegels Frühwerk Das Leben Jesu kennt). Am Ende des 19.Jahrhunderts wurde schliesslich der Idealismus durch Husserls Phänomenologie, durch den Existenzialismus und den marxistischen Materialismus angegriffen und geriet aus der Mode. Ich erwähne all das, weil sich seit einigen Jahrzehnten eine philosophische Strömung als das Neuste vom Neuen ausgibt und doch nichts anderes ist als absoluter Idealismus. Ich meine den Konstruktivismus:

 

Abb.31: Sie sehen hier die drei Hauptschulen, die sich in der Hirnforschung herauskristallisierten. Allen gemeinsam ist, dass sie sich jeglicher metaphsischen Betrachtung enthalten. Unterschliedlich sind sie bloss darin, wie sie an das Problem „Bewusstsein“ herangehen. Ich habe hier aufgeführt

1) Den Behaviourismus, - als Begründer dieser Zunft gelten Ivan Petrowitch Pawlov und John Watson; Konrad Lorenz war einer der prominentesten Vertreter  - 

2) den Kognitivismus auf der Basis von  Wertheimers Gestaltpsychologie

3) den Konstruktivismus auf der Basis von Piagets kognitiver Entwicklungsphysiologie.

 

In der ersten Gruppe interessiert man sich für das Resultat und nicht für die Prozesse (Analysen und Synthesen) im Hirn, das heisst also:

Hier z.B. (Abb.32) haben wir den Input rotes BMW-Cabriolet, -  und hier die Reaktion, die dieser Input bei Frauen auslöst. Die Blackbox „Hirn“ wird also rein durch Input und Output beschrieben. Das Innere der Blackbox heisst „Bewusstsein“, und von diesem gelingt nicht einmal eine anständige Definition. Darum wird der Begriff „Bewusstsein“ auf die Tabu-Liste gesetzt.

Abb.32:



In der zweiten Gruppe (Kognitivismus) sitzen die Leute, die im Gegenteil sagen: Gerade das, was im Hirn abläuft interessiert uns; denn es ist offensichtlich, dass das Hirn den Inputs etwas beifügt und damit aus dem Ganzen etwas macht, das in den einzelnen Inputs nicht vorhanden war. Das Slogan der Gestaltpsychologie (die als Ursprung des Kognitivismus gelten kann) lautet: „Das Ganze ist mehr als die Summe der Einzelteile“ . Mit diesen Zeichnungen kann man das hübsch demonstrieren.
Abb. 33:

 


Und schliesslich haben wir den Konstruktivismus, der sich in die Aussage verbohrt: Alles, was ich über mein eigenes Sein weiss, ist, dass es von einem sog. ZNS (aus fiktiven? Nervenzellen?) in ungeheuer komplexen, ineinander geschachtelten kybernetischen Systemen errechnet wurde und wird.

Abb.34:

Donald Hoffman schildert diesen Grundgedanken recht unterhaltend im vorletzten Kapitel seines Buches „Visuelle Intelligenz“; er beschreibt dort, wie er in Kalifornien eine Ausstellung über „Kyberspace“ und „Artificial Intelligence“ (AI) besucht; als Attraktion kann man auf dem Messegelände für die Dauer von 10 oder 20 Minuten einen „Kyberspaceanzug“ mieten; wenn man ihn angezogen hat, sieht und hört man nicht nur über Stereoaudionvideobrillen eine „virtual reality“, sondern man bekommt über den Anzug mikromechanisch auch Tastdruck und Bewegungswiderstände zu spüren. Umgekehrt registriert der Anzug jede Bewegung, jedes gesproche Wort und jede Geste und gibt die Informationen dem Zentralcomputer weiter. Der Anzugträger ist kardanisch in einer Ringsystem aufgehängt (Abb.34 rechts unten), sodass er sich zwar frei bewegen kann, aber seine Bewegungen sich nicht als reale Ortsveränderung auswirken. Der Buchautor beschreibt, wie er mit einem derartigen „virtual-reality-suit“ ausgerüstet mit einer fiktiven Mannschaft Volleyball spielte, wie der fiktive Mitspieler den vom  Anzugträger virtuell geworfene Ball auffängt und weiter gibt, wie der Mannschafts-Capten Zeichen gibt, wie ein anderer Spieler ihm zulacht, wenn er ihm versehentlich den Ball an den Kopf wirf, usw. Dann, nach zehn Minuten zieht der Autor den Virtual-reality-suit aus. Er hat die Erinnerung einer Mannschaft, die Erinnerung an einen guten Wurf, der ihm gelungen ist, usw. Aber er weiss: All diese Einzelheiten waren nur kleine Strömchen in Millionen von Transistoren, Schaltungen, Drähten, die absolut keine Aehnlichkeit haben mit einer echtenVolleyballmannschaft... und nun kommt der Ausstellungsbesucher Hoffman beim Ausgang dieses „Virtual-Reality-Funparks“ am Souvenierladen vorbei, wo man zur Erinnerung an das Erlebte ein Mannschaftsleibchen oder einen Volleyball kaufen kann. Und nun fragt sich der Autor:  „Wie kann ich denn wissen, ob ich nicht immer noch in einer Virtual-Reality stecke?  Vielleicht lebe immer ich in einer Art Virtual-Reality und die Kyberspace-Ausstellung ist nur eine virtuelle Welt in einer andern virtuellen Welt. Letztlich kann ich nicht wissen, was hinter meinen Erlebnissen steckt, ob bloss eine grosse Rechnungsmaschine, die auch Hirnforschungsinstitute (und Aktionspotentiale mit dazu passenden Apparaturen usw.)  „erfindet“ bzw. errechnet, um den Myriarden in Regelkreis-Schaltungen herumschwirrenden „Ereignis-Quanten“ einen Sinn abzugewinnen... - Die Konstruktivisten begnügen sich mit der Feststellung: Wir können tatsächlich nicht wissen, was letztlich „hinter“ dem Erlebten steckt. - Damit aber sind die Konstruktivisten, auch wenn sie vorgeben, etwas Neues entdeckt zu haben, bei Kant und seinem „Ding an sich“gelandet, was man auch so illustrieren kann:

Abb.35




Allerdings ist in den 200 Jahren vom Idealismus zum Konstruktivismus etwas auf der Strecke geblieben: Nämlich die von Kant nie in Abrede gestellte Kategorie des Geistigen. Kant, so sehr er sich auch gegen die Beschäftigung mit dem Metaphysischen gesträubt hat, hat dessen Vorrang doch nie geleugnet.
 Abb.36:


Heute dagegen scheint in Europa dieses Menschenbild (Abb.36) das wohl am meisten verbreitete zu sein.

 Abb.37:
Glücklicherweise gibt es Philosophen, die erkannt haben, wie fragwürdig die Aussagen der Hirnforschung,  ja: wie absurd die Redensweise der Neurobiologen oft ist: (gelb unterstrichene Texte lesen Abb.37).

 Abb.3: Auf dieser Abbildung sehen Sie, welche Mühe Hirnforscher haben, „Bewusstsein“ zu definieren.



8: 

Der SBB ist nach meiner Meinung eine bessere Definition gelungen als dem Hirnforscher Gerhard Roth.  Es ist überigens  bemerkenswert, dass das so schwer definierbare „Bewusstsein“ in allen andern Sprachen „Mit-Wissen“ (con-science) genannt wird. Dies wiederum erinnert an den wenig bekannten Idealisten Franz von Baader (1765-1841), der gelehrt hat, Wissen sei stets immer nur Mit-Wissen am göttlichen Urwissen. Ebenfalls bemerkenswert ist, dass es im Englischen zwei Begriffe für „Bewusstsein“ gibt: Consciousness und Awareness. Es wäre vielleicht nützlich, in deutschsprachigen Abhandlungen über das Bewusstsein, den Begriff „Bewusstsein“ systematisch durch den Ausdruck „Mit-Wissen“ zu ersetzen.

Nun möchte ich aber zum Abschluss noch auf einen ganz anderen Zusammmenhang zwischen Sehen und Bewusstsein aufmerksam machen. Er ergänzt ganz erstaunlich gut, was wir bis jetzt besprochen haben:  Wir haben ja bis dahin die Frage gestellt: „Was ist Sehen“ und haben dann über die Vorgänge im Hirn einen Zusammenhang gefunden mit der Kommunikationsfähigkeit und dadurch auch mit dem Bewusstsein. In den Definitionen von „Sehen“ kam aber auch immer wieder das Licht vor. Also ist es gerechtfertigt, auch einmal zu fragen: Was ist das denn, das mysteriöse Licht, welches Nachricht von Objekten ins Auge bringt?

 Abb. 39:


Wenn wir das Auge als den Nabel der Welt betrachetn (etwas, das ich Ihnen als Augenärzte zumuten darf), dann bemerken wir, dass wir bis dahin unsere Aufmerksamkeit stets nur in Richtung Hirn gelenkt haben. Wenn wir nun in die andere Richtung blicken, dann begegnen wir dem Licht und dem Objekt, das gesehen wird. Und da nun erleben wir die grosse Überraschung: Wir begegnen auch in dieser Richtung dem Problem „Bewusstsein“. Ich will Ihnen das nur ganz Stichwortartig erläutern, weil ich Ihnen ja nicht in den verbleibenden 5 Minuten die Quantenphysik erklären kann.

 Abb. 40:

Bekannt ist Ihnen sicher die Doppelnatur des Lichtes: Einerseits Wellennatur mit Hauptcharakteristikum Interferenz, und andererseits Korpuskelnatur mit Hauptcharakteristikum Impuls, zwei Naturen, die sich niemals gleichzeitig manifestieren können, weil sie in gewissem Sinne widersprüchlich sind.



Abb.42:




Nun haben die Quantenphysiker bzw. Mathematiker einen mathematischen Formalismus aufgestellt, der diesen Sachverhalt gut wiederspiegelt. Dieser Formalismus beinhaltet aber - und darin liegt die philosophische Herausforderung der Quantenmechanik - dass physikalische Gegebenheiten (Zustände) gewisse Eigenschaften erst haben, wenn sie „bestimmt“ werden. Z.B. hat ein Photon erst dann eine Polarisation, wenn man diese „bestimmt“. Von „Messung“ zu sprechen ist also eigentlich unsinnig, weil man ja davon ausgeht, dass man nur Dinge messen kann, die bestehen. Die Polarisation ist aber vor der Bestimmung eine Eigenschaft, die das Photon gar nicht hat. Bei der Polarisation ist dies noch eine annehmbare Aussage, weil man sie sich irgendwie noch vorstellen kann. Weniger gut vorstellbar ist, dass ein Photon existieren soll, ohne die Eigenschaft „Lokalisation“ (Ort)  zu haben. (In diesem Zusammenhang scheint mir äusserst bemerkenswert, dass   die Verben „bestimmen“ und „messen“ schon lange vor der Quantenmechanik fast synonym verwendet wurden!).

Jetzt werden Sie vielleicht achselzuckend sagen: Nun ja, das ist eben die schwer verständliche Natur des Lichtes; das Licht ist eben etwas ganz Besonderes...

In den 20-er-Jahren aber verfasste der junge de Broglie eine Doktorarbeit, in welcher er den Gedanken äusserte, dass sich Elektronen, ja vielleicht alle Elementarteilchen, gleich verhalten wie Photonen, d.h. gemäss der Doppelnatur der Photonen. Und tatsächlich dauerte es nicht lange, bis man Interferenz von Elektronen nachweisen konnte.  Später dann auch von Protonen, dann von Atomen und in jüngster Zeit sogar von kleinen Molekülen. Da stellte sich natürlich die Frage: Wenn wir den mathematischen Formalismus auch auf Materie anwenden müssen, was bedeutet dann die Aussage, dass Zustände erst durch „Messung“ ( bzw. besser gesagt durch „Bestimmung“) determiniert werden?

Der Formalismus der Quantenphysik geht für Systeme mit gegen unendlich vielen Elementarteilchen in die Newton’sche Mechanik über. Das ist natürlich sehr befriedigend und spricht sehr für die Richtigkeit des Quantenformalismus. Die Quantenphysik, angewandt für den makroskopischen Bereich, zeitigt zwar die gleichen Vorhersagen wie die klassische Physik, aber - und das ist der springende Punkt - der Quantenformalismus behält auch bei Anwendung auf makroskopische Systeme seine Grundaussage, dass ein Zustand erst dann reale Eigenschaften bekommt, wenn eine „Bestimmung“ (Messung) derselben durchgeführt wird. Das ist eine unerhörte Aussage, die man für Atome (die man ohnehin nicht bzw. nur sehr, sehr indirekt sehen kann, und die darum ohnehin vielleicht nur in unserem Kopf existieren...) noch hinnehmen mag, die aber für markroskopische Zustände verwirrlich erscheint.

Abb.43:



Denn: Was heisst „Bestimmen“? Was ist ein Messapparat? Kann man nicht unser Auge als Messapparat betrachten? Irgendein Detektor misst irgendetwas, leitet die Messung in ein elektronisches Schaltsystem, von dort in den Verstärker, von dort auf den Potentiometer bzw. den Anzeigezeiger des Gerätes, von dort über Lichtwellen zum Auge, von dort in den Thalamus, von da in die Area striata usw. All diese biologischen Abfolgen können physikalisch gesehen immer noch als Teil des Mess-Systems gedeutet werden.

Dann aber kommt der mysteriöse Sprung in die „con-sciousness“! Und auf einmal ist alles determiniert, die Doppelnatur aufgehoben, der Zustand real. Schrödinger, einer der bedeutensten Entwickler der Quantenmechanik, beschrieb zur Illustration dieser schwer akzeptierbaren Interpretation das Gedankenexperiment mit der berühmten „Schödingerkatze“:

Abb.45:


Die Katze wird für eine Stunde in eine Kiste gesteckt. Der Zerfall eines Isotops (ein typisches quantenphysikalisches Ereignis) löse einen Mechanismus aus, welcher die Katze vergiftet und tötet. Es ist allerdings völlig ungewiss, ob der Isotopenzerfall in der Experimentierstunde stattfinden wird. Die Wahrscheinlichkeit sei 0.5, weil nur ein einziges Isotop mit Halbwertszeit = 60 Minuten in die Kiste gegeben wurde. Solange das Experiment bei offener Kiste stattfindet, ist stets offensichtlich, ob die Katze noch lebt.


Abb.46:

Nun schliessen wir aber die Kiste für die Dauer der Experimentstunde völlig hermetisch ab. Laut Quantenmechanik bekommt das Isoptop die Eigenschaft „zerfallen“ oder „nicht-zerfallen“ erst, wenn nachgeschaut wird.


Abb.47:


Logischerweise wird auch die Katzeneigenschaft „tot“ oder „lebendig“ erst real, wenn man die Kiste öffnet. Nach Quantenmechanischem Formalismus, der beansprucht, die ganze Welt grundsätzlich zu beschreiben, ist spielt also das „Wahrnehmen“ eine bedeutende Rolle beim Konstituieren der Welt. Wir werden auf wunderbare Weise erinnert an den Satz von Berkeley: Esse est percipi. Und sozusagen weit draussen in der Welt, ja sogar beim Betrachten der Sterne, begegnen wir unverhofft wieder unserem Bewusstsein, unserem „Mit-Wissen“! Es wird auch offensichtlich, dass man niemals Physik oder Philosophie je gesondert betreiben kann. Ebenso ist auch Neurologie ohne Philosophie belanglos - und umgekehrt. Der Physiker Alastair Rae, der ein kleines Büchlein über Quantenphysik für Laien geschrieben hat sagt dazu: (vgl oben Text unter der Abb.47....)

 Wir sind also über die Betrachtung des Sehens zum Licht, von da zur Quantenmechanik und von da unversehens wieder zum Idealismus gelangt, und man mag sich fragen: Ja was ist denn von der Welt vorhanden, wenn ich sie NICHT betrachte. Zu dieser Frage gibt es einen hübschen Limerick:


Abb.49
. Aus 333 Limericks. Ausgewählt, importiert, übersetzt, kommentiert und herausgegeben von Walter Dietze, Leipzig 1977:

Abb.50:



Damit, meine Damen und Herren, bin ich zum Schluss meiner Ausführungen gelangt. Und sie verstehen nun den Alternativtitel meines Referates: Das Auge als Nabel der Welt. Richtung Hirn wird alles ungewiss und schwer verständlich. Richtung Licht und Objekt ist die Situation nicht viel besser. Nur hier im Auge ist alles ganz klar: Da gibt es Netzhautablösungen, Maculadegenerationen, Blutungen, usw., lauter sonnenklare Dinge. Und hier haben wir Augenärzte unsern Platz. Man kann wirklich sagen: Eine privilegierte Stellung im Universum! 

Gute Bücher im
  im Grünkreuzverlag !

*****************