1. Die Überlegungen zu den Begriffen ‚Bewusstsein/ Nichtbewusstsein‘ setzen indirekt voraus, dass wir in unserer ‚Bewusstheit‘, und darin in unserem ‚Denken‘, verschiedene ‚Einstellungen‘ unterscheiden können.
2. Ein klares Reden über diese verschiedenen Einstellungen ist schwierig, da es sich um Sachverhalte handelt, die sowohl ‚in‘ einer Person verortet sind als auch ‚immateriell‘ in dem Sinne sind, dass sie sich nicht direkt in der ‚Hardware‘ des Körper – sprich: nicht direkt in den Zellstrukturen – ausdrücken. Es handelt sich vielmehr um ‚Funktionen‘ dieser Hardware, um ‚funktionelle Eigenschaften‘, die im ‚Verhalten‘ von großen Zellverbänden ’sichtbar‘ werden, aber auch nicht unbedingt in einem ‚äußerlich beobachtbaren‘ Verhalten, sondern in der ‚Innenperspektive‘ des Gehirns, in jener Form, die wir ’subjektive Erfahrung‘ nennen, wir sprechen von ‚Bewusstsein‘ als der Gesamtheit dieser subjektiven (introspektiven) Erfahrungen. Diese subjektive Erfahrung repräsentiert das ‚funktionelle Verhalten‘ großer Zellverbände, ohne dass dieses Verhalten an den materiellen Eigenschaften der beteiligten Zellen direkt abgelesen werden könnte.
3. Alle die unterscheidbaren Ereignisse, die wir als ‚bewusste Ereignisse‘ unterscheiden können, nennen wir hier ‚Phänomene‘ [PH]. Man könnte daher auch sagen, dass das ‚Bewusstsein‘ [CONSC] gleichbedeutend ist mit der Menge dieser Phänomene, also CONSC = PH.
4. Man kann herausfinden (lernen), dass es eine bestimmte Teilmenge [PHe] der Phänomene [PH] gibt, die zwar subjektive Erlebnisse sind, aber mit etwas ‚korrelieren‘, was ‚außerhalb‘ des Bewusstseins zu existieren scheint, etwas, was auch andere ‚Bewusstseine‘ ‚ähnlich‘ wahrnehmen können, das, was wir ‚intersubjektiv‘ – oder im engeren Sinne ‚empirische‘ – nennen.Das Empirische lässt sich nicht direkt durch das eigene ‚Wollen‘ beeinflussen.
5. Eine Sonderstellung nehmen jene Phänomene ein, die mit dem korrelieren, was wir unseren ‚Körper‘ nennen. Diese sind sowohl empirisch wie auch subjektiv [PHb]. Im Gegensatz zu den ‚reinen empirischen‘ Phänomenen PHe lassen sich die Körperphänomene PHb begrenzt direkt durch das eigene ‚Wollen‘ beeinflussen.
6. Wendet man auf Körperobjekte in der unterstellten Außenwelt die Methoden der Anatomie und Physiologie an, dann kan man ein ‚Modell der Körperstrukturen‘ [BODY] erstellen.
7. Wendet man auf einen Teilaspekt der Außenweltkörper die Methoden der Gehirnwissenschaft an, dann kann man ‚Modelle des Gehirns‘ [NN, BRAIN] erstellen.
8. Wendet man auf das ‚Verhalten‘ der biologischen Außenweltkörper die Methoden der empirischen Psychologie (verhaltensbasierten Psychologie) an, dann kann man Modelle möglicher interner Verarbeitungsstrukturen‘ erstellen, z.B. bzgl. der verschiedenen Gedächtnisfunktionen.
9. Die Beziehung zwischen verhaltensbasierten funktionalen Modellen der Psychologie und den zellbasierten Modellen der Gehirnforschung ist zunächst unbestimmt. Eine wechselseitige Korrelation ist erstrebenswert (dies wären dann Modelle der ‚Neuropsychologie‘).
10. Liegen solche Modelle vor – egal, ob wirklich ‚zutreffend‘ oder ’nicht zutreffend‘ –, dann stehen diese dem bewussten Denken als ‚Orientierungsbilder‘ zur Verfügung, um die verschiedenen aktuellen Phänomene in solche ‚begrifflichen Zusammenhänge‘ einzuordnen und sie dadurch zu ‚deuten‘, zu ‚interpretieren‘.
11. Hier liegt natürlich eine gewisse ‚Selbstreferenz‘ vor: Um die Phänomene unseres Bewusstseins zu deuten, benutzen wir konzeptuelle Modelle (z.B. die funktionalen Modelle der Psychologie). Andererseits haben wir selbst diese konzeptuellen Modelle erstellt. M.a.W. wir selbst konstruieren Zusammenhänge, machen sie explizit, verleihen ihnen einen gewissen ‚deutenden‘, d.h. ’normativen‘, Status, und dann benutzen wir diese Modelle so, als ob sie die Wirklichkeit der unterstellten Außenwelt ‚angemessen repräsentieren‘.
12. Die Modelle selbst sind ’normalerweise‘ nicht vollständig bewusst; sie können aber aufgrund von Ereignissen anhand von ‚verbindenden Ähnlichkeiten‘ ‚aktiviert‘ werden, und zwar so, dass sie deutend wirksam sind. Mit Bezug auf das pschologische Modell würden wir sagen, dass diese Modelle im Langzeitgedächtnis (‚Long Term Memory‘, LTM) ‚gespeichert‘ sind und über sensorische Ereignisse wie auch durch Ereignisse im Kurzzeitgedächtnis ‚aktiviert‘ werden können. Die Neuropsychologie ist leider noch nicht weit genug, um uns hier entscheidend helfen zu können.
13. In der Nutzung von ‚Modellen‘ unterscheidet sich das ‚Alltgsdenken‘ vom ‚wissenschaftlichen‘ Denken nur graduell: im wissenschaftlichen Denken unterliegt der Gebrauch von Modellen und deren Bezug zur unterstellten Außenwelt Regeln der Transparenz, Wiederholbarkeit und Überprüfbarkeit.
14. Allerdings gibt es hier eine ‚historische Altlast‘, deren Aufarbeitung noch aussteht. Die moderne formale Logik (mit Frege, Russel-Whitehead als Bezugspunkt des fortschreitenden Beginns) hat durch die Trennung von ‚Form und Inhalt‘, die sich in der Logik seit Ariostoteles bis ins 19.Jahrhundert gefunden hatte, eine radikale Umwälzung vollzogen, sie hat es aber versäumt, dieses neue Konzept mit dem Alltagsdenken konstruktiv zu versöhnen. Die verschiedenen formalen Semantiken und Ontologien, die für verschiedenste Anlässe entwickelt wurden, bilden in keiner Weise einen ‚Ersatz‘ für den klassischen Bedeutungsinhalt, wie er im Kontext eines sprachlichen Denkens vorliegt. So sehr die aristotelische Logik durch ide unkritische Verknüpfung von Form und Inhalt Schwächen zeigte, so sehr hat die moderne formale Logik hier ein Defizit, das ihren Einsatz im Bereich sprachbasierten Denkens bislang eher einschränkt.
MUSIK
Es gab schon ein Instrumentalstück, aber es hatte so eine eigentümliche ‚Stimmung‘ … das regte mich an, es fortzusetzen mit dem Titel ‚Wenn aus dem Nichtbewusstsein Worte aufsteigen wie Sterne …‘. Ja, es passt zunm Thema. Wenn wir die Sache mit dem Nichtbewusstsein ernst nehmen, dann ist es eine Art von unfaßbarer ‚Dunkelheit‘, die zugleich ein Maximum an Licht bereit hält … es sind die Worte die aus diesem Dunkel-Nichts aufsteigen können wie Sterne… und sie können Licht bringen, nicht nur Hass oder Lüge. Es ist letztlich schwer zu begreifen, warum die einen mehr so, die anderen mehr so fühlen, denken, sprechen, handeln… Es ist sicher nicht so einfach, wie wir uns das oft so gerne zurecht rücken. Es gibt keine absoluten Mauern, keine absolute Dunkelheit, keine totales Ende … was tatsächlich da ist ist etwas ganz anderes, scheint mir …
Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.
1. In einem vorausgehenden Blogeintrag hatte ich den Begriff des ‚Nichtbewusstseins‘ als Komplementärbegriff zum Begriff des ‚Bewusstseins‘ eingeführt. Der so eingeführte Begriff des ‚Nichtbewusstseins‘ ist rein technischer Natur und hat mit den sich im Umlauf befindlichen Begriffen wie ‚Unterbewusstsein‘, ‚Vorbewusstsein‘, ‚Tiefenbewusstsein‘ usw. aus dem Bereich der Psychotherapie oder Psychoanalyse zunächst nichts zu tun.
2. Wie im Schaubild angedeutet, setzt der hier eingeführte technische Begriff des ‚Nichtbewusstseins‘ voraus, dass es ein intuitives-vorwissenschaftliches Verständnis von ‚Bewusstsein‘ gibt, verbunden mit der Annahme, dass alle beteiligten Sprecher-Hörer biologisch eine hinreichend ähnliche Struktur besitzen und in der Lage sind/ waren, den sprachlichen Ausdruck ‚Bewusstsein‘ mit diesem Vorverständnis ‚irgendwie‘ zu ‚verknüpfen‘. Ob dies tatsächlich der Fall ist lässt sich im Alltag immer nur ’näherungsweise‘ feststellen. Es bleibt eine unaufhebbare ‚Unschärfe‘ dahingehend, dass wir niemals genau wissen können, was der/ die andere ‚tatsächlich‘ meint, wenn er/ sie von ‚Bewusstsein spricht. Letztlich gilt dies auch immer für ‚uns selbst‘: unsere eigenen ‚Bewusstseinsinhalte‘ sind nicht konstant, wechseln beständig, zeigen immer wieder neue, überraschende Seiten, usw. Unser eigenes ‚Konzept‘ von unserem eigenen ‚Bewusstsein‘ ist daher auch immer schon eine ‚Annäherung‘ an etwas, was wir ‚vorfinden‘!
3. Benutzt man nun die Erkenntnisse der experimentellen Psychologie aus den letzten ca. 100 Jahren, dann kann man erste Anhaltspunkte zum Verhalten und zur Struktur einzelner Phänomene des ‚Bewusstseins‘ samt möglicher Wechselwirkungen mit einem hypothetischen Bereich ‚jenseits des Bewusstseins‘ – hier global ‚Nichtbewusstsein‘ genannt – finden. In einem beständigen Kreislauf von theoretischen Annahmen und empirischen Experimenten hat die Psychologie diverse Erkenntnisse zur potentiellen Struktur des menschlichen Gedächtnisses herausgearbeitet, die in dem schon erwähnten groben Schema von ‚Sensorischem Gedächtnis‘, ‚Kurzzeitspeicher‘ sowie ‚Langzeitspeicher‘ zusammengefasst sind. Das, was subjektiv als ‚Bewusstsein‘ erlebt wird, korreliert ungefähr mit dem Begriff des ‚Kurzzeitspeichers‘ im psychologischen Modell (parallel versuchen seit einiger Zeit die Neurowissenschaften ’neuronale Korrelate des Bewusstseins‘ zu ermitteln. Die bisherigen Ergebnisse sind bislang aber – aus verschiedenen Gründen – (leider) wenig brauchbar). Das psychologische Modell als solches ist experimentell und ansatzweise modellhaft/ theoretisch einigermaßen ‚klar‘, das vorwissenschaftliche Bezugsobjekt ‚Bewusstsein‘ hingegen ist prinzipiell ‚unklar‘, ‚vage‘.
4. Gilt schon für das Bewusstsein selbst, dass es ‚vorgegeben‘ ist, dass es eine ‚veränderliche‘ Größe ist, deren Inhalt und Dynamik sich nur in einer längeren ‚Betrachtung‘ erschließt, so gilt dies verstärkt für den Bereich des ‚Nichtbewusstseins‘ ‚jenseits‘ des Bewusstseins. Alles, was wir erfahrungsmäßig empirisch erfahren (unser Körper, die Welt außerhalb unseres Körpers), ist per se etwas, was wir auch ‚vorfinden‘, was ’sich zeigt‘, was sich als ‚veränderlich‘ zeigt, usw.
5. D.h. wir haben zu einem bestimmten (konstruierten) Zeitpunkt t einen bestimmten ‚Bewusstseinsinhalt‘ [Cont(Consc, t) = PH] als Menge von ‚Phänomenen‘ [PH], und zu einem späteren Zeitpunkt t‘ > t einen Bewusstseinsinhalt Cont(Consc, t‘) = PH‘. Falls PH‘ verschieden ist von PH, also PH ≠ PH‘, liegen ‚Veränderungen‘ vor.
6. Angenommen, es gibt solche Veränderungen (und in der täglichen Erfahrungen gehen wir davon aus), dann stellt sich hier schon ein erstes fundamentales Problem: da nach Annahme der aktuelle Bewusstseinsinhalt PH zu einem aktuellen Zeitpunkt t nur ‚Inhalte‘ in Form von ‚Phänomenen‘ umfasst, kann man sich fragen, wieso wir zu einem späteren Zeitpunkt t‘ mit anderen Phänomenen PH‘ zugleich ‚feststellen‘ können, dass einzelne Phänomene ph‘ aus PH‘ sich ’so‘ ’nicht‘ in der Menge der Phänomene PH zum vorausgehenden Zeitpunkt t ‚befunden‘ haben? Ein solcher Vergleich setzt minimal voraus, dass es eine Art ‚Erinnerung‘ mem(PH,t,t‘) = PH_mem der Phänomene vom Zeitpunkt t zum späteren Zeitpunkt t‘ gibt, und dass der ‚Inhalt dieser Erinnerung‘ PH_mem ‚verglichen‘ werden kann cmp(PH_mem, PH‘) = ph‘ mit den aktuellen Phänomenen PH‘ zum Zeitpunkt t‘.
7. Dabei ist auch noch zu bestimmen, was alles davon ‚bewusst‘ ist: nur das Ergebnis der Erinnerung samt Vergleich – also ph‘ –, oder auch der Vorgang des Erinnerns mem() und Vergleichens cmp()?
8. Im aktuellen psychologischen Modell würde man sagen, dass der Vorgang des Erinnerns und Vergleichens in den Bereich des Langzeitgedächtnisses gehören würde und damit in den Bereich des Nichtbewusstseins fallen würden, also nicht bewusst wären. Bewusst wären nur jene Phänomene ph‘ die sich in t‘ von t unterscheiden. Dies würde bedeuten, dass die Vorgäng des ‚Erinnerns‘ mem() und ‚Vergleichens von Erinnerbarem mit Aktuellem‘ cmp() Vorgänge wären, die wir nur indirekt erschließen können. Aus Sicht einer wissenschaftlichen Theoriebildung wären sie dann sogenannte ‚theoretische Terme‘ innerhalb eines ‚Modells‘ (oder einer ‚Theorie‘).
9. Diese sehr einfachen Überlegungen können ahnen lassen, dass der Bereich des ‚Nichtbewusstseins‘ nicht nur potentiell unendlich groß ist, sondern er kann in sich unendlich viele ‚fertige Strukturen und Prozesse‘ aufweisen, die festlegen, ‚ob‘ wir überhaupt ‚Bewusstseinsinhalte‘ in Form von Phänomenen PH haben und ‚in welcher Weise‘ diese ‚auftreten‘. ‚Dass‘ wir überhaupt erinnern können hängt von dem ab, was wir ‚Gedächtnis‘ nennen, und ebenfalls ‚wie‘.
10. Was nun das ‚Bild‘ betrifft, das ein Mensch ‚von sich selbst‘ hat, so folgt aus dieser Ausgangslage, dass niemand von Anfang an ‚wissen‘ kann, ‚wer‘ er selbst tatsächlich ist. Der einzige Weg, dies heraus zu finden, ist der ‚Versuch‘, das ‚Experiment‘, das ‚Spielen‘, das ‚kreativ sein‘ usw. Wer sich niemals selbst ausprobiert, wird niemals wissen können, wer er/ sie ‚wirklich‘ ist.
11. Im Alltag ist es oft so, dass Kinder Bilder über sich selbst ‚von anderen‘ übernehmen (eigene Eltern, Freunde, KlassenkameradenInnen, LehrerIn, usw.), die ‚falsch‘ sind in dem Sinne, dass ein Vater z.B. sagt, dass ein Kind X entweder nie kann (obwohl es das tatsächlich könnte) oder dass das Kind X auf jeden Fall können muss (obwohl es X zumindest nicht jetzt können kann). Kinder machen sich sehr oft und sehr schnell solche ‚Fremdzuschreibungen‘ zu eigen, nehmen also ein ‚Bild‘ von sich an, was gar nicht ihren tatsächlichen Fähigkeiten entspricht, und Verhalten sich dann entsprechend diesem falschen Bild. Ein Vorgang, der sich im Jugendalter und im Berufsleben, in Beziehungen weiter fortsetzen kann: man bekommt eine bestimmte Rolle Y zugeschrieben (obgleich diese möglicherweise ‚unpassend‘ ist) und ’nimmt sie an‘. Manchmal sind es Zufälle (neue Freunde, neue Arbeitskollegen, Situationen im Urlaub…), dass man entdeckt, dass man ja auch ‚ganz anders‘ sein kann.
12. Der einzige wirkliche ‚Schutz gegen falsche Bilder‘ ist das ‚eigenständige Ausprobieren‘, das eigenständige ‚Hinterfragen‘, der Mut, den Erwartungen der Umgebung immer wieder mal nicht zu entsprechen, der Mut zum Experiment.
13. Und selbst dann, wenn man ein bestimmtes Selbstbewusstsein in Richtung Schreiben, Malen, Musik machen, Rechnen, Sport usw. ausgebildet hat, selbst dann ist jeder neue Tag eine neue Herausforderung, sich nicht in der ‚Vergangenheit‘ einzurichten, nicht bei ‚Bekanntem‘ auszuharren, anstatt sich immer wieder neu dem Wagnis auszusetzen, im Tun sich immer wieder ’neu‘ zu erleben.
14. Wenn ich anfange zu Schreiben, dann weiß ich in der Regel nie, was ich alles schreiben werden. Im Schreiben erlebe ich, wie Worte sich formen, ein Gedanke sich entwickelt, und am Ende bin ich selbst erstaunt, was ich dann geschrieben habe. Tage und Wochen später, falls ich dann nochmals lese, was ich schon geschrieben habe (was merkwürdigerweise eher selten ist, da so viel ‚Neues‘ ansteht), kann ich oft nicht glauben, dass ich dies geschrieben habe. Das Schreiben enthüllt Dinge aus dem eigenen ‚Nichtbewusstsein‘, die bis zum Augenblick des ‚Hervortretens‘ ‚unsichtbar‘ sind, nicht bewusst.
15. Insofern das ‚Nichtbewusstsein‘ – wie uns die Psychologie (und ansatzweise die Neurowissenschaft) lehrt –, in Form eines Langzeitgedächtnisses auf sehr komplexe Weise organisiert zu sein scheint, gibt es zwar für manche ‚Verarbeitungsprozesse‘ Erklärungsansätze, die ‚verständlich‘ machen können, warum man morgens, wenn man aufwacht, gerade diese Gedanken und gerade so denkt, aber dies sind sekundäre theoretische Erklärungen; wir selbst als ‚Erlebende‘ haben nur das aktuelle Erleben. Wir können nur sehr indirekt dieses Erleben ’steuern‘: wenn jemand weiß, dass zu langes spätes Fernsehen plus zu viel Alkohol plus Bewegungsarmut schlecht schlafen lässt, könnte er spätes Fernsehen reduzieren, Alkohol reduzieren und sich bewusst mehr bewegen. Der Effekt ist direkt erlebbar. Es macht aber wenig Sinn, über schlechtes Körpergefühl am morgen zu klagen und sich nur zu ‚wünschen‘ es wäre anders.
16. Jemand, der sich als ‚Künstler‘ versteht, bewegt sich tendenziell eher am ‚Rande des Bewusstseins‘, ist jemand, der versucht, seinem ‚Nichtbewusstsein‘ Raum zu geben, indem er mit Verhalten, Materialien, Situation, mit sich selbst ‚experimentiert‘. Selbst wenn der Ausgangspunkt eine gewöhnliche ‚Leinwand‘ sein sollte, selbst wenn die die zum Einsatz kommenden ‚Materialien‘ (Farben, Pinsel, …) ‚bekannt‘ sind, selbst dann ist in der Regel völlig offen, ‚wie‘ der Künstler Leinwand, Farben und Pinsel benutzen wird. ‚Was‘ wird ’sichtbar‘ werden? Sofern der ‚Ursprung‘ seiner Malaktionen in seinem ‚Nichtbewusstsein‘ liegen, weiß er normalerweise nicht, ‚was‘ er ‚wie‘ malen wird. Während des Malens wird das Gemalte ‚mit ihm‘ einen Dialog eröffnen, in dessen Verlauf er (Warum? Wieso? Weshalb?) das Gemalte eher ‚gut‘ finden wird oder eher ’schlecht‘. Würde man ihn fragen ‚warum‘, wird er normalerweise nicht wirklich sagen können, warum. Mit dem aktuellen Malen tritt etwas aus seinem Nichtbewusstsein heraus, das ihm erst dann ‚bewusst‘ wird, das ihn ‚überraschen‘ kann, womöglich gar ‚erschrecken‘, ihm ‚Angst machen‘ kann, aber eventuell auch ‚berauscht‘, ‚anregt‘ usw. Im Malen findet er damit buchstäblich ‚zu sich‘. Er entdeckt Seiten ‚an sich‘, die ihm bis zum Malakt ‚verborgen‘ waren.
17. Wenn die Umgebung, die ‚Öffentlichkeit‘, der ‚Kunstmarkt‘ sich eines Malers ‚bemächtigt‘, kann es passieren, dass die ‚externen Erwartungen‘ sich über den Maler ’stülpen‘ und er dann plötzlich meint, Dinge malen zu müssen, nur um diese externen Erwartungen zu befriedigen. Aus den ‚malerischen Offenbarungen‘ von zuvor werden dann ‚malerische Dekorationen‘, die dem kommerziellen Wertstellungsmechanismus gefallen, tatsächlich aber die ‚Kunst‘ im Sinne eines Hervorbringens von noch nicht Bekanntem zerstören. ‚Konservenkunst‘ (speziell im Bereich Musik) wiederholt dann nur noch Bekanntes, erstarrt zur Maske, hat ihr ‚Leben‘ ausgehaucht. Der Versuch, das ‚Schöne‘ zu bannen, führt im Moment des ‚Bannens‘ zur Verzerrung, zur Ontologisierung von etwas, was eigentlich nur Bewegung und Werden ist. Der tiefsitzende Reflex des ‚Haben Wollens‘, des ‚Festhalten Wollens‘ ist der permanente Feind des Lebens, das per se etwas ist, das immer ‚über sich hinaus‘ verweist.
Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER
MUSIK
Im Sinne der obigen Gedanken ist der folgende Klang keine ‚Komposition‘, sondern ‚hat sich ergeben‘, Methode ‚radically Unplugged‘. Interessante Frage: ‚Was‘ ergibt sich ‚wann‘ und ‚warum‘? Interessant ist dabei das, was sich nicht aus ’schon Bekanntem‘ ergibt, sondern aus dem ‚Nichts‘ des noch ’nicht Bekanntem‘?
1. Seit Beginn dieses Blogs wurden sehr viele verschiedene Themen abgehandelt: zunächst ging es um grundlegende Fragen des Erkennens in einer Art erkenntnistheoretischen Perspektive. Dies vermischte sich mit der Frage nach dem Wechselverhältnis zwischen Philosophie und Wissenschaft. Auch die Beziehung zu Glaube, Religion kam zur Sprache; schließlich auch die Frage der Rolle der Kunst in diesem Kontext. Ganz neu war die Einbeziehung der Dimension der Gesellschaft mit Blick auf das Format der Demokratie als Rahmenbedingung für Philosophie, Wissenschaft, Kunst und Religion. Das massive Auftreten von ‚Verschleißphänomenen‘ in den wichtigsten Demokratien der aktuellen Welt rief mehrere Beiträge zum Thema hervor.
2. Mit der letzten Philosophiewerkstatt traten nun überraschend zwei Phänomene verschärft ins Zentrum der Aufmerksamkeit, die als solche nicht wirklich neu sind, die aber in dem Gespräch eine gewisse ‚Abgründigkeit‘ aufblitzen ließen, die mir so irgendwie lange nicht bewusst war; möglicherweise hatte ich diese Phänomene tatsächlich auch ‚verdrängt‘, da ich möglicherweise ‚intuitiv‘ spürte, dass wir bei diesen Themen mehr als mit allen anderen an die Grundlagen unseres Lebensgefühls und unseres Selbstverständnisses als Menschen rühren.
3. Einmal ist es der – bislang eher technische – Begriff des ‚Nicht-Bewusstseins‘, und dann ist es der ganze Komplex möglicher Bedeutungen um Begriffe wie ‚Gefühl‘, ‚Emotion‘, ‚Motivation‘, ‚Bedürfnisse‘, ‚Stimmungen‘, ‚Gemütszustände‘, um einige zu nennen. Im Folgenden benutze ich abkürzend den Begriff ‚Gefühle‘ für dieses ganze Netzwerk von Begriffen, um nicht immer alle aufzählen zu müssen. Die entsprechenden verfeinernden Unterscheidungen müssen nachgeliefert werden.
BEWUSSTSEIN
4. Der Begriff ‚Nicht-Bewusstsein‘ leitet sich her als Komplementärbegriff zum Begriff ‚Bewusstsein‘.
5. Berücksichtigt man die bisherige Fundamentalunterscheidung zwischen (i) Beobachten einer anderen Person ‚von außen‘ (Dritte Person, 3rd person view), sprich ‚verhaltensorientiert‘, verhaltensbasiert‘; (ii) Beobachten einer anderen Person mit Blick auf den Körper, die Physiologie einschließlich des Gehirns (auch dritte Person, aber fokussiert auf die ‚Maschinerie‘ ohne das Verhalten); sowie (iii) das ‚Selbstbewusstsein des Beobachters während der Beobachtung‘, seine ‚Innensicht‘, seine ‚Introspektion‘, den Raum der ‚eigenen Erlebnisse‘ in Form von ‚Phänomenen‘ (einige sprechen hier von ‚Qualia’…); dann begründet sich der Begriff des ‚Bewusstseins‘ aus dieser ‚Innensicht des Beobachters‘: was immer wir in der Welt (empirisch) erforschen, es setzt einen Beobachter mit Selbstbewusstsein voraus. Dies näher zu begründen, es ‚genauer zu definieren‘, ist nicht nur schwierig, sondern letztlich unmöglich.
6. In einer klassischen Definition wird ‚das Neue‘, ein neuer Terminus (alltagssprachlich auch ‚Begriff‘) (das zu Definierende, das ‚definiendum‘), mit etwas ’schon Bekanntem‘, mit schon bekannten Termini (alltagssprachlich auch ‚Begriffe‘) (mit dem ‚definiens‘) ‚erklärt‘ und in diesem Zusammenhang damit ‚definiert‘. Sofern der neue Begriff der Begriff ‚Bewusstsein‘ ist, stellt sich die Frage, auf welches ‚Bekannte‘ man sich bei der Einführung dieses Begriffs beziehen kann. Da es sich um etwas handelt, was im ‚Innern eines Beobachters‘ liegt, kann man nicht darauf zeigen wie bei einem Gegenstand der Körperwelt, der ‚intersubjektiv‘ vorkommt. Sofern jeder Beobachter in seinem ‚Innern‘ über ein B* verfügt, was bei allen Beobachtern ‚hinreichend ähnlich‘ ist, kann es die Möglichkeit geben, dass alle Beobachter über ‚indirekte Hinweise‘ eine Art ‚Arbeitshypothese‘ aufstellen können, die in ihnen die ‚Vermutung‘ erlaubt, dass dieses – jeweils individuelle und doch hinreichend gemeinsame – B* dasjenige ist, was gemeint ist, wenn von ‚Bewusstsein‘ gesprochen werden soll. Unter der Voraussetzung, dass es dieses B* tatsächlich gibt, kann man es zwar nicht ‚klar definieren‘, man kann aber dennoch sinnvollerweise ‚annähernd‘ darüber sprechen. Jeder weiß ‚irgendwie‘ was ‚gemeint‘ ist, aber keiner kann es ‚klar‘ bzw. ‚genau‘ sagen.
7. Nimmt man ferner an, dass – was immer genau die Inhalte des Bewusstseins B* sein mögen –, die Inhalte des Bewusstseins eine ‚Leistung des Gehirns‘ sind, also gehirn: I x IS —> IS x O mit B* subset IS, dann folgt daraus, dass ein Verständnis der Welt auf der Basis des Bewusstseins B* nur bedingt möglich ist. Für alle Beobachter bildet das Bewusstsein B* zwar den unumgehbaren Ausgangspunkt (auch für die Subspezies der Gehirnforscher), aber dieser Ausgangspunkt ist ‚in sich‘ geprägt/ geformt von einer Verarbeitungslogik, die die körperspezifisch ist und die nicht notwendigerweise die Struktur der umgebenden Welt adäquat repräsentiert.
8. Andererseits wird von dieser Körpergebundenheit des Bewusstseins B* her verständlich, warum zumindest die Struktur des Bewusstseins B* bei allen Beobachtern ‚hinreichend ähnlich‘ sein kann, da – wie wie von der Biologie wissen – alle Körper der Population ‚Mensch‘ (homo sapiens sapiens) auf den gleichen Genen und den gleichen Wachstumsprozessen basieren (‚gleich‘ schließt hier gewisse statistische ‚Variationen‘ mit ein, die sehr wohl auch zu Unterschieden führen können).
9. Der Begriff ‚Bewusstsein‘ (definiert über das unterstellte B* in jedem Beobachter) lässt sich also assoziieren mit all jenen ‚Inhalten (= Phänomenen) des Bewusstseins‘, die ein Bewusstsein ‚ausmachen‘. Aus der ‚Innensicht‘ eines Beobachters A sind diese Phänomene ‚real_A‘ bezogen auf den Bewusstseinsraum B*_A. Insofern B*_A Teil eines Gehirns G_A in einem Körper K_A (von dem Beobachter A) sind, sind diese Phänomene auch für einen Beobachter B ‚real_B‘, insoweit dieser das Gehirn von A betrachten würde. Allerdings könnte der Beobachter B nur das Gehirn und dessen physiologische Zustände aus der Perspektive der dritten Person beobachten. Das ‚Bewusstsein B*‘ von Beobachter A könnte Beobachter B nicht ‚direkt‘ beobachten, da es spezifisch an die ‚Innenperspektive‘ des Gehirns von Beobachter A gebunden ist. Nur über den Umweg von ‚Selbstaussagen von Beobachter A zu seinen Bewusstseinsinhalten‘ könnte Beobachter B versuchen, die ‚Inhalte‘ dieser Selbstaussagen mit seinen Beobachtungen der Gehirnzustände von Beobachter A zu ‚korrelieren‘. Ein solches ‚korrelierendes‘ Vorgehen ist äußerst mühsam und kann – selbst bei ‚bester Absicht‘ – prinzipiell immer nur eine Annäherung an die Sache bleiben, da die ‚Inhalt von Selbstaussagen‘ bezüglich von Bewusstseinsinhalten aufgrund der Besonderheit von Zeichensystemen niemals ‚klar‘ bzw. ‚präzise‘ wie im Falle operationaler empirischer Begriffe sein können (in Umstand, den die meisten Gehirnforscher großzügig übergehen).
NICHT-BEWUSSTSEIN
10. Die Perspektive des Beobachters B relativ zum Beobachter A bietet die Möglichkeit, ausgehend von der Annahme eines Bewusstseins B* die Arbeitshypothese zu bilden, dass es ‚außerhalb‘ eines Bewusstseinsraumes sehr wohl noch ‚anderes‘ gibt, mindestens die ‚anderen‘ Zustände des ermöglichenden Gehirns bzw. Körpers, dann aber auch – bei entsprechender Theoriebildung – weitere ‚Zustände‘ der ‚Welt außerhalb eines Körpers‘. Alle diese ‚Zustände außerhalb eines bestimmten Bewusstseins B*‘ gehören laut Definition nicht (!) zum Bewusstseins und bilden damit den potentiellen Raum für das ‚Nicht-Bewusstsein‘. Das ‚Nichtbewusstsein‘ (auch compl(B*)) erscheint von daher ein unendlich größerer Bereich als der Bereich des definierten Bewusstseins B*. Andererseits hat jeder menschliche Beobachter nur über sein Bewusstsein B* Zugang zum ‚Nicht-Bewusstsein‘ compl(B*)!
11. Während die klassische Philosophie sich vorwiegend mit den Inhalten des Bewusstseins B* und seiner möglichen Voraussetzungen aus der Innen-Sicht des Bewusstseins B* beschäftigt hat und die moderne empirischen Wissenschaften vorwiegend mit den strukturellen Rahmenbedingungen eines unterstellten Bewusstseins B*, eben mit dem Nicht-Bewusstsein compl(B*), stellt sich für die ’neue Philosophie‘ die Aufgabe dahingehend, sowohl (i) die Inhalte des Bewusstseins unter Berücksichtigung des Nicht-Bewusstseins, als der ermöglichenden Strukturen (Gehirn im Körper, Körper, Wachstum, ermöglichenden Evolution) zu untersuchen wie auch (ii) die empirischen Wissensstrukturen unter Berücksichtigung des ermöglichenden Bewusstseinsraumes B* zu analysieren. Mit anderen Worten: wir haben eine Wechselwirkung von compl(B*) zu B* und umgekehrt ’sehen‘ wir compl(B*) unter den Bedingungen von B*.
Hinweis: in meinem Wissenschaftsblog diskutiere ich auch die Möglichkeit, wieweit ich die Begriffe ‚Bewusstsein/ Nichtbewusstsein‘ im Rahmen einer verhaltensbasierten Theoriebildung benutzen kann, u.a. HIER.
Fortsetzung folgt
Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER.
Letzte Änderung: 2.März 2013, 10:10h (Anmerkung am Ende des Artikels)
PHILOSOPHIE
Herms nutzt in seinem Denken über das Ganze die phänomenologische Tradition, hier insbesondere Husserl und Heidegger (mündlich bestätigt). Die phänomenologische Tradition in der Philosophie wurde in diesem Blog schon mehrfach diskutiert (siehe Themenüberblick). Ihre Stärke liegt eindeutig darin, dass sie den Ankerpunkt unseres subjektiven Denkens ernst nimmt und die Wirklichkeit, wie sie sich dort darbietet, so voraussetzungslos wie möglich wahrzunehmen und zu beschreiben versucht. Die Schwierigkeiten, die sich hier bieten, wurden schon oft von sehr vielen reflektiert und angemerkt.
Positiv kann man festhalten, dass der gesamte Erkenntnishorizont eines Individuums dort aufscheint und sich in seiner Gesamtheit besprechen lässt. Man kann auch weitere Reflexionsschichten eröffnen und als solche benennen und explizieren. Einzelwissenschaftliche Erkenntnisse erscheinen hier als Teilmengen in der Gesamtmenge der Phänomene und die diversen begrifflichen Explikationen sind Teilmodelle im Gesamtrahmen möglicher Modelle. Aus phänomenologischer Sicht ist das Individuum daher grundsätzlich ‚mehr‘ als eine einzelwissenschaftliche Beschreibung eines Weltausschnitts.
Andererseits gibt es grundsätzliche Grenzen der phänomenologischen Weltsicht. Die eine resultiert aus den vorgegebenen Grenzen des einzelnen Bewusstseinsraumes, die andere aus der Existenz vieler Bewusstseinsräume, die sich über die Interaktion von Wahrnehmungsräumen erschließen kann.
Erscheint ‚der Andere‘ innerhalb der Phänomene zunächst nur als ‚Oberfläche‘ mit sich veränderten Phänomenmengen als ‚Manifestationen‘ eines möglichen ‚Zusammenhangs‘, so erzwingt das soziale Zusammenleben schon sehr früh eine ‚auf-den-anderen-bezogene‘ Modellbildung im (betrachtenden individuellen) Phänomenraum. Dies bedeutet, dass der aktive Phänomenraum die auftretenden Phänomensequenzen ‚versuchsweise/ hypothetisch‘ mit Teilen seines ‚Selbsmodells‘ in Verbindung bringen muss, um diese Phänomensequenzen des potentiell Anderen zu ‚interpretieren‘.
Sei PH der jeweils aktive Phänomenraum, seien PH_a jene Sequenzen von Phänomenen aus PH, die man einem ‚bestimmten Anderen‘ zuordnen möchte, also PH_a subset pow(PH^n), und sei M ein expliziertes Modell innerhalb von PH über Teilbereiche von PH, also M:PH —> PH (!!! Ein logisches Paradoxon, da M auch in PH liegt !!!), dann wäre eine ‚Interpretation‘ eine Abbildung zwischen PH_a und solch einem M, also I: Ph_a —> M. Dies zeigt u.a., dass jemand einen potentiell anderen nur insoweit verstehen kann, als er über ein explizites Selbstmodell verfügt. Normalerweise führt solch eine Interpretation I(PH_a) auch dazu, dass der aktive Phänomenraum PH ‚unterstellt/ annimmt‘, dass das explizierte Selbstmodell M ‚im anderen‘ auch ‚gegeben‘ ist und im anderen ‚funktioniert‘. Dies ist eine Art ‚Ontologisierung‘ des Selbstmodells im anderen, eine Form von ‚realistischer Transzendenz‘. Man könnte also sagen, dass das Selbstmodell in seiner Projektion auf einen anderen — nennen wir es M_a — ein Modell des Anderen darstellt.
Interaktionen im ‚vorsprachlichen‘ Bereich können unterschiedliche ‚Bestätigungen‘ für die Interpretation I(Ph_a) liefern, sie sind allerdings nur sehr grob. Durch Einbeziehung der Sprache lässt sich die Bestätigung — und eventuell die Interpretation I(PH_a) selbst — verfeinern.
Dazu muss man sich kurz vergegenwärtigen, wie Sprache funktioniert. In der Tradition von Peirce, Saussure und Morris kann man einen Zeichenbegriff extrahieren, in dem ‚Zeichenmaterial‘ ZM subset PH mit anderen Phänomenen PH_x subset PH ‚assoziiert‘ wird, und zwar als ‚aktivierbare Beziehung‘ BED(ZM,PH_x). Phänomenologisch ist diese Beziehung nicht ‚explizit‘, d.h. sie ist kein Phänomen wie ein sensorisches Phänomen, das ‚auftritt‘, sondern es ist ein ‚Wirkzusammenhang‘, der sich ‚indirekt andeutet‘. Also wenn das Phänomen ‚Haus‘ als Zeichenmaterial auftritt, dann werden diverse andere assoziierte Phämene PH_haus auftreten, da sie in einer aktivierbaren Beziehung zu ‚Haus‘ stehen. Diese phänomenologische Wenn-Dann-Beziehung kann man erklären durch die Annahme einer Hilfsstruktur ‚Gedächtnis‘ (MEM), deren Inhalte als solche ‚unbewusst‘ sind, die aber über den aktiven Phänomenraum PH ‚zugänglich‘ sind, so eine Art ‚phänomenologische Schnittstelle‘. Diese ‚indirekten‘ Phänomene berühren einen Sachverhalt, den wir weiter unten noch diskutieren werden.
Unter Voraussetzung von Bedeutungsbeziehungen kann man sich immer komplexere Hierarchien solcher Beziehungen denken, die es erlauben, ‚Ketten von Zeichen‘ zu bilden, bis hin zu dem, was wir Äußerungen, Sätze nennen. Diese Bedeutungsbeziehungen beruhen auf den Phänomenen eines aktiven Phänomenraumes PH. In Kombination mit dem Modell des Anderen M_a können jetzt Zeichenbeziehungen dazu benutzt werden, differenzierte Strukturen mit Hilfe des Selbstmodells M zu kodieren, die dann über das Konstrukt ‚Modell des Anderen M_a‘ auch ‚im anderen unterstellt werden können‘.
Diese Annahme macht allerdings nur Sinn, wenn man zugleich annimmt — ganz im Sinne der Bildung eines Fremdmodells M_a überhaupt — dass die Gesetze des aktiven Phänomenraumes PH auch im anderen M_a gelten (Symmetrie, Homomorphie,…)!!! Je mehr man diese Annahmen akzeptiert, um so mehr wird klar, dass man eine mögliche explizite Beschreibung M eines aktiven Phänomenraumes PH ergänzen sollte um eine ‚Metaebene‘ MM, die nicht mehr nur über einen einzelnen Phänomenraum PH spricht, sondern über die Menge aller möglichen Phänomenräume UPH. Diese universelle Menge UPH ist rein fiktiv, rein gedacht, und doch kann sie durch Interaktionen einer mehr oder weniger großen Bestätigung zugeführt werden. MM wäre eine genuin philosophische Theorie!
Kommen wir zurück zum Phänomen der indirekten Bedeutungsbeziehung und dem Konzept des ‚unbewussten‘.
Grundsätzlich ist die Annahme des Unbewussten M_ubw nicht sehr anders als die Annahme eines ‚Anderen‘ M_a. Es gibt bestimmte Phänomene, die sich in der Zeit verteilen, die aber einen ‚übergreifenden Zusammenhang‘ offenbaren (der letztlich schon immer ein Konstrukt wie ein Gedächtnis voraussetzt), der als ‚Zusammenhang‘ zu thematisieren ist. Analog wie man im Falle des Anderen, wo man ‚hinter der Oberfläche‘ eine Struktur M_a annehmen muss, kann man auch ‚hinter dem aktiven Phänomenraum‘ PH Strukturen annehmen, den ‚Körper‘, das ‚Gedächtnis‘, usw. Dies führt dazu, dass man das Selbstmodell M entsprechend ‚erweitern‘ muss. Je differenzierter das Selbstmodell M wird, umso differenzierter wird auch das Modell des anderen M_a und das universelle Modell MM.
WELTHEORIE?
Mit den obigen Überlegungen eröffnet sich die Perspektive einer möglichen phänomenologischen Theorie der Welt, in der alle Teiltheorien integriert werden können. Meines Wissens hat dies bis heute noch niemand versucht. Es wäre interessant, zu schauen, inwieweit eine solche Theorie helfen könnte, aktuelle Bruchstellen durch die Vielzahl der nicht integrierten Teiltheorien ein wenig zu überbrücken.
THEOLOGIE
Der Theologe Prof. Herms hatte ziemlich zu Beginn seines Vortrags vermerkt, dass sein Verständnis von Theologie nicht so sei, wie die meisten sich Theologie vorstellen. Diese zunächst kryptische Bemerkung gewann im Laufe seines Vortrags mehr und mehr Gestalt. Durch seine philosophische Grundausrichtung benötigt er zunächst keine offenbarungsspezifische Inhalte, da er nach den allgemeinen Bedingungen von Leben (und Erkennen) fragt. Aus diesen allgemeinen Bedingungen kann er dann allgemeine Prinzipien ableiten, innerhalb deren wir uns als Lebende orientieren sollten. Übernimmt man diese Position dann kann man sogar die Grundsatzfrage stellen, ob man überhaupt offenbarungsspezifische Inhalte noch benötigt, da ja diese keinesfalls im Gegensatz zu den allgemeinen Prinzipien stehen dürften. Vielmehr müsste es so sein, dass die potentiellen ‚Offenbarungsinhalte‘ nichts anderes sind als Instanzen dieses allgemeinen Möglichkeitsraumes.
Innerhalb des Vortrags wurde diese Fragen nicht Thema, da Herms sich auf die allgemeine Perspektive und daraus resultierenden allgemeinen Prinzipien beschränkte.
Allerdings könnte man — oder müsste man sogar? — natürlich die Frage aufwerfen, inwieweit nicht die tatsächlichen Realisierungen — wie auch im Falle der Entwicklung des Universums, der Milchstraße, der Erde, des Lebens auf der Erde … — dann doch in ihrer Konkretheit eine wichtige Aussage darstellen können. Konfrontiert mit den konkreten Ergebnissen der biologischen Evolution hat man auch dieses Dilemma: (i) relativiert man die gewordene Konkretheit durch den Verweis auf den allgemeinen Möglichkeitsraum oder (ii) nimmt man die Konkretheit ‚beim Wort‘ und sieht in ihre eine Form von ‚Mitteilung‘. Im letzteren Fall wäre die ‚Konkretheit an sich‘ dann eine Form von ‚Offenbarung‘ einer unterstellten ‚Superwirklichkeit‘, die ‚ihr Inneres‘ über die ungeheuren Werdeprozesse in der jeweiligen Konkretheit zeigt und — im Falle des menschlichen Bewusstseins — sich quasi ’selbst anschaut‘! Menschliches Bewusstsein also als eine Art ‚Minimodell‘ von universaler ‚Selbstanschauung‘ als Hinweis auf die ‚wahre Natur‘ des im Werden des Universums sich andeutenden Superwirklichkeit.
Diese Perspektive des allgemeinen Werdens als ‚möglicher Offenbarung‘ würde damit in jeder Art von Konkretisierung eine Aussage zutreffen. Vor diesem Hintergrund sind alle historisch überlieferten spezielle Ereignisse, die von Menschen als ‚offenbarungsrelevant‘ qualifiziert wurden, interessantes empirisches Material, das entweder das allgemeines Offenbarungskonzept zusätzlich konkretisieren kann oder aber nicht kompatibel ist. Im Falle der Nichtübereinstimmung (Inkompatibilität) würde dies dann eher gegen (!) die spezifischen Stoffe sprechen, da die Fülle der allgemein zusätzlichen Daten um ein Vielfaches größer ist als fragil überlieferte historische Ereignisse.
Versteht man Theologie als jene Denkhaltung und Theoriebildung, die von der allgemeinen Offenbarung ausgeht, um innerhalb dieses Rahmens mögliche konkrete Inhalte zu studieren, dann würde ich mein Erkenntnisinteresse auch als ‚theologisch‘ qualifizieren. Ich habe auch den Eindruck, dass Prof. Herms sich so versteht. Eine endgültige Bestätigung müsste ein Gespräch liefern. Ferner unterscheidet sich solch eine allgemein orientierte Theologie nicht grundsätzlich von einer philosophischen Gesamttheorie der Welt, höchstens in einer unterschiedlichen Akzentsetzung: die philosophische Gesamttheorie der Welt MM orientiert sich primär an den allgemeinen Erkenntnisstrukturen und der möglichen Integration des Einzelwissens, während eine Allgemeine Theologie sich speziell für den Aspekt einer möglichen Mitteilung durch das Gesamtgeschehen interessiert.
Diese spezifische Interessenrichtung der Theologie hat eine spezielle Pragmatik im Gefolge: während die Einzelwissenschaften (und die Philosophie) letztlich objektivierbare Messverfahren benutzen, um ihre Daten zu sichern, kann die Theologie darüber hinaus (!) die spezifischen bewusstseinsgebundenen Erfahrungsmöglichkeiten benutzen, die unter dem Begriff ‚Gotteserfahrung‘ gehandelt werden.
Der Kern des Konzepts ‚Gotteserfahrung‘ besteht — zumindest in der jüdisch-christlichen — Tradition darin, dass die Arbeitshypothese einer ‚Superwirklichkeit‘ genannt ‚Gott‘ (deus, theos, Jahwe,….) davon ausgeht, dass diese Superwirklichkeit sich nicht nur über die allgemeinen Offenbarungsstrukturen ‚mitteilen‘ kann, sondern auch zugleich ganz individuell in jedem Bewusstseinsraum (angesichts der neuesten Erkenntnisse zur Struktur der Materie grundsätzlich zumindest kein physikalisches Problem). Diese ‚Mitteilungen‘ haben — nimmt man die bekannten Zeugnisse ernst — (i) die Form von spezifischen ‚Gefühlsregungen‘, ‚Stimmungen‘, bisweilen begleitet von weiteren ‚Vorstellungsinhalten‘. Dabei kommt es auch hier nicht auf das ‚punktuelle‘ Erleben alleine an, sondern auf die ‚Abfolge verschiedener solcher Erlebnisse‘ und deren ‚Deutung‘ in Form eines Modells. Ferner (ii) implizieren sie normalerweise bestimmte Handlungen, um diese Art von innerem Erleben nicht zum ‚Versiegen‘ zu bringen, und (iii) können diese inneren Erlebnisse nicht durch das eigene Wollen verursacht werden, sondern gehen ‚von einem anderen‘ aus (dies unterscheidet Gotteserfahrung wesentlich von jeglicher Form von ‚Meditation‘, die sich auf selbstinszenierte Zustände bezieht). Im einzelnen sind diese Tatbestände eingebettet in das ‚allgemeine Rauschen des Alltags‘ und bedürfen — wie alle anderen Lernprozesse auch — meist eine Praxis von vielen, vielen Jahren, um sie wirklich zu ‚beherrschen‘, und, wie auch beim allgemeinen Lernen, geht es meist nicht ohne ‚Lehrer‘ im Sinne von ‚geistlichen Führern‘ ab. Durch die unvermeidbar radikal subjektivistischen Anteile bleibt all dies immer schwierig. Denken alleine hilft nicht. Praxis ohne Denken kann durch unreflektierte Interpretationen zu vielen falschen Schlüssen kommen.
Es ist schwer zu sagen, ob und wieweit die bekannten kirchlichen Gemeinschaften in der Lage sind, solche ‚geistliche (= spirituelle, mystische) Erfahrungen‘ angemessen zu vermitteln. Wir befinden uns hier in einer rechten Grauzone. Die offiziellen theologischen Positionen und die bekannten kirchlichen Praktiken sprechen eher gegen die Annahme.
Anmerkung 2.3.13: Eine Fortsetzung dieser Überlegungen findet sich im nachfolgenden Beitrag Gott ohne Kirche …. Der zentrale Punkt ist eigentlich ein neues Verständnis von Theologie und Offenbarung, durch die ‚Kirchen‘ nicht eigentlich verschwinden, aber stark relativiert werden auf ihren wesentlichen Punkt: ihre einzige Existenzberechtigung liegt in ihrem möglichen Dienst, anderen Menschen zu helfen, ihre Gottesbeziehung zu finden und zu leben. Wenn sie darin versagen, verlieren sie ihre Existenzberechtigung.
Einen Überblick über alle Beiträge des Blogs nach Themen findet sich HIER
Seit dem Frühjahr 2012 habe ich einen losen Kontakt mit dem Salon Slalom (URL: http://salonslalom.wordpress.com/salon-slalom/). Ein Team von aktuell fünf Personen organisiert gemeinsame Veranstaltungen zu allen möglichen Themen, meist aus den Reihen der Salon-Mitglieder. Das Besondere daran ist, dass es keinen festen Ort gibt. Die Veranstaltungen sind je nach Thema irgendwo, teilweise auch draußen. Ich war z.B. einmal bei einer sehr inspirierenden Veranstaltung mit einem Holzkünstler im Taunus. Irgendwann hatte ich auch mal zugesagt, einen Abend zu gestalten. Die Ankündigung findet sich hier:
Durch einen akuten Wintereinbruch mit starkem Schneefall wurde die Anreise für alle TeilnehmerInnen an diesem Abend zu einem kleinen Abenteuer. Dazu noch die Lage des INM im Osthafen, zwischen lauter Logistikunternehmen, im vierten Stock auf dem Dach eines alten Bunkers, ohne Aufzug (die Städte nehmen es in ihren eigenen Gebäuden mit der Barrierefreiheit nicht so genau…). Aber der Raum füllte sich dann doch.
Harakiri?
Angeregt durch die offene Atmosphäre des Salons hatte ich mir vorgenommen, meine aktuellen Gedanken zum neuen Welt- und Menschenbild so zusammen zu stellen, dass man zumindest ahnen konnte, wie das Wissen um den Menschen, die Evolution, und die Computer sich wechselseitig verschränken. Angereichert wurde das Ganze noch durch kurze Schilderungen meiner Radically Unplugged Music Selbstversuche mit Klangbeispielen (Startseite für die RUM-Experimente ist: http://www.doeben-henisch.de/sounds/index.html). Die Stücke, die ich für diesen Abend ausgewählt hatte, stammten von meiner provisorischen ‚Playlist‘: http://www.doeben-henisch.de/sounds/playlist). Natürlich weiß man vorher nie, wie die TeilnehmerInnen auf das alles reagieren.
Nach der Begrüßung und einigen einleitenden Worten habe ich erst mal ein Stück zur Einstimmung gespielt:
Thunderstorm Dancing Ahead of (Version c) Interesting, somehow I was nearly sleeping after a long day, but when I started the recorder and started playing I became awake again….somewhere in the night…
Fügte noch hinzu, dass ich im Sommer 2010 kurz vorher ein kleines Aufnahmegerät gekauft hatte, mit dem ich im Juli einen kleinen Sturm aufgenommen hatte. Den Sound von diesem Sturm hatte ich in diesem Stück als Ausgangspunkt benutzt.
Phänomene und hinter den Phänomenen
Hauptproblem bei allen Vorträgen ist immer, wie fange ich an. Ermutigt durch die positive Resonanz im Münchner Vortrag bei der YPO-Jahresveranstaltung wählte ich die Vielschichtigkeit des Menschen als Ausgangspunkt,
um davon ausgehend deutlich zu machen, dass alle unseren bewussten Bilder von einem Gehirn stammen, das im Körper sitzt und selbst keinen direkten Kontakt mit der Welt hat.
Daraus ergeben sich allerlei Konsequenzen dazu, wie wir mit den Bildern, die unser Gehirn von der Welt produziert, umgehen sollten. So wunderbar unser Gehirn arbeitet, so wenig darf man ihm blindlings trauen. Dazu habe ich ein paar Beispiele erzählt.
Die Philosophen in Europa haben sich mindestens seit der Zeit der griechischen Philosophie beständig damit beschäftigt, wie sie die Erscheinungsformen der Phänomene analysieren und bewerten sollten. Einige der letzten großen Heroen der bewusstseinsbasierten Philosopien waren Descartes, Kant, Hegel, Hume, Locke, Berckeley, Husserl, Hartmann, um nur einige zu nennen. Sie alle erkannten in den Phänomenen des Bewusstseins zwar gewisse Regelhaftigkeiten, sie blieben aber notgedrungen im Bewusstsein ‚gefangen‘. Erst die neuen Erkenntnisse zum Gehirn (ab Beginn 20.Jahrhundert) sowie zur Evolution (ab Ende 19.Jahrhundert) ermöglichten uns, die ‚Rahmenbedingungen der Entstehung der Phänomene‘ neu zu verstehen (was sich u.a. im Aufblühen neuer an den Naturwissenschaften orientierten Erkenntnistheorien manifestiert).
Die neuen naturwissenschaftlichen Erkenntnisse lieferten aber nicht nur einen Schlüssel zum Paradox des Bewusstseins in der Weise, dass wir jetzt die Dynamik unseres Bewusstseins in Beziehung setzen können zur Arbeitsweise des Gehirns , sondern wir bekommen damit einen weiteren Schlüssel dafür, warum wir überhaupt ein so unglaubliches Gehirn in einem nicht weniger unglaublichen Körper haben. Die Evolutionsbiologie kann uns in eindrücklicher Weise aufzeigen, wie dieses unser heutiges Gehirn mit dem Körper sich in einer langen 4 Milliarden Jahre dauernden mühevollen Geschichte herausbilden mussten. Wir Menschen haben eine Geschichte, eine reale Geschichte. Wir haben reale Vorfahren, die in unglaublichen erfinderischen Prozessen mit extrem hohen ‚Verlusten‘ das ermöglicht haben, was wir heute sind. Und wir sind kein Endpunkt, sondern – soweit wir sehen können – eine Durchgangsstation zu einem Zustand, den keiner aktuell genau beschreiben kann (obwohl es Menschen gab wie der französische Jesuit Teilhard de Chardin, der als weltweit geachteter Paläontologe sein von der Theologie und Philosophie inspirierte Visionen über das wahre Wesen des Menschen und des Kosmos in wortgewaltigen Texten niedergeschrieben hat; gegen das Lehramt der katholischen Kirche, mit mehrfachen Verboten mundtod gemacht, aber dann doch durch seine vielen Freunde der Öffentlichkeit gerettet).
Mit diesen neuen Erkenntnissen ergaben sich neue Fragen: wie ist diese atemberaubende ‚Gestaltwerdung‘ im Biologischen möglich?
Am Beispiel der Interaktion zwischen Genotyp und Phänotyp versuchte ich dann deutlich zu machen, wie hier ein lokaler Veränderungsmechanismus, der in sich völlig ‚blind‘ für den Kontext ist, mögliche Gestaltungsräume absucht, die dann über Wachstum und Körper mit der Umgebung Erde in Interaktion treten. Es ist dann die konkrete Erde, die quasi als ‚Schiedsrichter‘ auftritt, welche der versuchten Strukturen ‚es schaffen‘ und welche nicht (die Darwinsche Selektion). Man kann hier auch das fundamentale Wertesystem erkennen (wenn man will), das alles andere übertönt: Erhaltung des Lebens unter den Bedingungen der Erde. Allerdings, und darauf habe ich dann im weiteren Verlauf hingewiesen, hat die Evolution selbst die Bedingungen im späteren Verlauf tiefgreifend verändert.
Können diese Überlegungen noch sehr abstrakt wirken, so macht uns der reale Gang der universalen Genese seit dem Big Bang klar, dass wir es mit einem überaus realen Prozess zu tun haben, von dem wir ein Teil sind. Die geradezu dramatische Weise der Entstehung des Lebens seit ca. 4 Mrd.Jahren, die unglaublichen Vorgänge im Rahmen der chemischen Evolution, die zur ersten Zelle führten und die bis heute noch nicht vollständig aufgeklärt sind, dann die ca. 2.8 Milliarden dauernde Zeitspanne (!!!!!!!!), bis es von den einzelligen zu mehrzelligen Lebensformen kam, usw. usw. Wer sich dies bewusst anschaut und nicht in ergriffener Bewunderung endet, dem ist schwer zu helfen.
Bemerkenswert ist, dass nach heutigen Kenntnisstand bis zur Ausdehnung der Sonne noch ca. 1 Mrd Jahre Zeit haben, bis die mit der Aufblähung der Sonne einhergehende Temperaturerhöhung alles Leben auf der Erde unmöglich machen wird. Gemessen an der bisherigen Zeit unseres bekannten Universums von ca. 13.7 Mrd Jahren macht dies etwa 1/15 aus. Gemessen an der Evolution des Lebens von ca. 3.8 – 4 Mrd etwa 1/5. Wenn man sieht, welche ungeheure Beschleunigung die Evolution des Lebens auf der Erde allein in den letzten 100 Jahren genommen hat, können die verbleibenden 1 Mrd Jahre mehr als ausreichend sein, um eine Lösung für die Erhaltung des Lebens zu finden. Vorausgesetzt, wir nutzen unsere Möglichkeiten entsprechend.
Es gab dann einen Einschub mit Gedanken zu meinen Radically Unpluggd Music Selbstversuchen.
Schilderte kurz die Entstehungsgeschichte, die Auflehnung dagegen, nur passiver Konsument zu sein, die Versuchsanordnung, wie ich mit Musik experimentieren kann ohne Noten zu benutzen und ohne vorher üben zu können.
Dazu ein paar Gedanken zur Frage, was denn ein ‚Ton‘ ist und wie die Mathematik und die moderne Technik es erlaubt, den klassischen Produktions- und Reproduktionszusammenhang aufzubrechen und in schier unendliche Räume auszuweiten. Der ‚reale‘ menschliche Musiker und Komponist wird dadurch nicht ‚überflüssig‘, aber er kommt in eine neue Rolle. In gewisser Weise eröffnet die Mathematik in Kombination mit der Technik ein Universum an Instrumenten und Klängen und die Frage, was Musik ist, was wir mit ihr tun, stellt sich völlig neu. Auch hier, im Segment der Musik, wirkt sich die fortdauernde Evolution aus.
Es kam dann als nächstes Stück ‚Die Wahrheit spielt vor den schwarzen Riesen (The truth plays before the black giants‘).
The Truth Plays Before the Black Giants I have experimented with some abstract ‚dark‘ sound in the back and a very crisp and clear oboe-sound in the foreground. I am still curious about the many libraries of ableton. But besides this ’sound curiosity‘ I gave some space for inspirations. There was the picture of the ‚(seemingly) tiny truth‘ playing before the large dark giants of the ‚all earth’… The tiny small truth got their hearts and the darkness was rumbling, but in comfort…
Mathematik und Computer
Versuchte deutlich zu machen, dass nahezu alles, was wir heute im Alltag an Technologie benutzen, ohne die Entwicklung der modernen Mathematik unmöglich wäre. Die Mathematik ist das zentrale Instrument des modernen Geistes, um sich in der überwältigenden Vielfalt der Realität zurecht zu finden und es ist geradezu bizarr wie eine Gesellschaft, die nahezu vollständig auf er Mathematik basiert, in ihrem öffentlichen Leben, im öffentlichen Bewusstsein, in den Medien dies nahezu vollständig ausblendet, verdrängt. Dies grenzt an eine kollektive Neurose, die sich wie eine Gehirnwäsche über alles legt und schon die kleinsten Regungen, dass jemand irgendetwas Mathematisches äußert, zeigt, tut sofort negativ abstraft oder ins Lächerliche zieht.
Ich habe dann versucht, deutlich zu machen, dass die Technologie des Computers, die heute nahezu alle Winkel unseres alltäglichen Lebens erobert, durchdringt und damit mitgestaltet, ihren Ausgangspunkt in den Grundlagendiskussionen der Mathematiker kurz vor der Wende zum 20.Jahrhundert wie dann in den ersten Jahrzehnten eben dieses Jahrhunderts hatte.
Nach den ersten großen Formalisierungserfolgen entstand die Idee – insbesondere bei David Hilbert – ob sich nicht alle Fragen mathematischer Theorien völlig ‚automatisch‘ mittels eines endlichen Kalküls entscheiden lassen.
Es dauerte zwar ca. 30 Jahre von den ersten Vermutungen dieser Art bis zum Beweis von Kurt Gödel 1931, aber dafür war das Ergebnis um so schockartiger.
Kurt Gödel konnte beweisen, dass es schon bei den ‚einfachen‘ mathematischen Theorien nicht möglich ist, sowohl ihre ‚Widerspruchsfreiheit‘ als auch ihre ‚Vollständigkeit‘ zu beweisen. Der Beweis von Gödel konnte bis heute nicht widerlegt werden, aber Gödel selbst war mit ihm nicht ganz zufrieden. Ein Beweis bezieht seine Überzeugungskraft ja daher, dass er im Beweis nur solche Mittel benutzt, die ‚aus sich heraus‘ ‚zweifelsfrei‘ sind. Im Konkreten heißt dies, diese Mittel müssen – um der einfachen Struktur des menschlichen Gehirns zu entsprechen – durchweg ‚endlich‘ sein und nach ‚endlich vielen Schritten‘ einen klaren ‚Endzustand‘ erreichen. Was für die meisten Menschen im Alltag eher als Banaliät erscheinen mag (ist doch im Alltag alles sehr deutlich und konkret ‚endlich‘) war für den Bereich mathematischer Beweise offensichtlich nicht so trivial. Es war dann Alan Matthew Turing, ein genialer Engländer, der den Beweis von Gödel quasi mit anderen Mitteln wiederholte und der es auf eine Weise tat, die Gödel begeisterte. Diese Art des Beweises akzeptierte Gödel sofort.
Schaut man sich das Verfahren von Turing näher an, ist man zuerst einmal überrascht. Das Verfahren, das Turing beschreibt, sieht so einfach aus, dass man sich im ersten Moment gar nicht vorstellen kann, dass man damit irgend etwas Ernsthaftes machen könnte. Turings Vorbild war ein Büroangestellter, der mit einem Schreibstift auf einem Blatt Papier Zahlen schreibt. Wie sich dann aber in den Jahren nach Turing herausstellte, ist es genau dieses Verfahren, was sich bislang als ‚das‘ Konzept, als der ‚Maßstab‘ für einen ‚endlichen berechenbaren Prozess‘ erwiesen hat, denn von allen anderen Formalisierungsvorschlägen, die nach ihm gemacht wurden (oder zeitgleich oder kurz vorher) konnte bewiesen werden, dass sie höchstens ‚gleichwertig‘ sind oder schwächer. Damit dürfte dieses Konzept von Turing, das später und heute allgemein als ‚Turingmaschine‘ benannt wird, als das fundamentalste philosophische Konzept des 20.Jahrhunderts erscheinen (fragt sich natürlich, welche anderen Bereiche man noch hinzunehmen möchte. Im Bereich Naturwissenschaft gab es im 20.Jahrhundert viele bahnbrechende Erkenntnisse. Eventuell müsste man die dann dazurechnen). Jeder konkrete Computer heute kann nicht mehr als das, was das mathematische Konzept der Turingmaschine verkörpert (leider gibt es immer wieder Leute, die das mathematische Konzept der Turingmaschine als Beschreibung einer konkreten ’sequentiellen‘ Rechnerarchitektur missverstehen. Das führt dann natürlich zu allerlei logischen Ungereimtheiten).
Intelligenz bei Tieren und Computern
Dass das Prinzip der Turingmaschine umgesetzt in der Technologie heutiger Computer extrem vielseitig ist, das erleben wir heute in unserem Alltag (falls man sich überhaupt noch bewusst macht, dass nahezu in jedem Gerät heute mindestens ein Computer steckt (allein in einem einzigen Autositz können z.B. bis zu 7 kleine Computer vor sich hinwerkeln, ohne dass sich jemand dessen bewusst ist). Dennoch kann man die Frage stellen, wieweit die prinzipiellen Fähigkeiten dieser Technologie reichen.
Turing selbst dachte laut darüber nach (und hat dies auch in sehr vergnüglicher Weise beschrieben), dass das Prinzip der Turingmaschine eigentlich so universal ist, dass eine Maschine, die nach diesen Prinzipien gebaut würde (ein Computer, ein Roboter), mit der entsprechenden Ausstattung an Sensoren und bei Teilnahme an allen Lernprozessen, die auch ein Kind durchläuft, in der Lage sein müsste, alles lernen zu können, was auch ein Kind lernt. Turing selbst konnte es nicht erleben, ob dies tatsächlich geht.
Aber spätestens seit ihm wird immer wieder laut darüber nachgedacht, ob ein Computer so intelligent sein kann wie ein Mensch, oder gar noch intelligenter.
Ich habe dann kurz die Entwicklung der wissenschaftlichen Psychologie zu Beginn des 20.Jahrhunderts in den USA eingeblendet. Bekannt unter dem Schlagwort ‚verhaltensbasierte Psychologie‘ (‚Behaviorismus) versuchten in der ersten Hälfte des 20.Jahrhunderts (aufgrund starker Anregungen von europäischen Psychologen) Psychologen zu empirisch begründeten Aussagen über beobachtbares Verhalten zu kommen. Das vorherrschende Versuchsparadigma waren damals Ratten, die in einem Labyrinth nach Futter (oder Wasser) suchen mussten.
Ein Experiment von Tolman (und anderen), das ihm lange Zeit eine gewisse Berühmtheit bescherte, war die Beobachtung, dass nicht nur Ratten (i) die hungrig waren, nach einer Anzahl von Versuchen das Futter immer schneller fanden, sondern (ii) auch Ratten, die viele Versuche ohne Hunger im Labyrinth herumlaufen konnten, ab dem Zeitpunkt, wo sie dann ‚hungrig gemacht wurden‘, ziemlich direkt das Futter ansteuerten. Tolman & Co folgerten daraus, dass die Ratten offensichtlich während der ’nicht-Hunger-Zeit‘ trotzdem ‚gelernt‘ haben, wie das Labyrinth angeordnet ist, so dass sie in dem Moment, wo sie das Futter wirklich brauchten, dieses aufgrund des zuvor ‚erworbenen Wissens‘ direkt ansteuern konnten.
Die Psychologen dieser Zeit versuchten also aus den beobachtbaren Verhaltensdaten auf ‚Regelmäßigkeiten‘ ‚in‘ der Ratte zu schließen. Da man in dieser Zeit noch nicht so richtig in ein Rattengehirn hineinschauen konnte (übrigens auch heute ist das, was die Neurowissenschaften im Kontext von Rattenexperimenten zu Tage fördern, äußerst unbefriedigend!) , war der Interpretationsspielraum recht groß. Die Streitigkeiten zwischen den verschiedenen Interpretationsschulen (z.B. das Lager um Hull mit dem ‚Reward-learning‘ und das Lager um Tolman mit den ‚cognitive maps‘) erscheinen aus heutiger Sicht merkwürdig (zumal man zeigen kann, dass sich cognitive maps mit neuronalen Netzen nachbilden lassen, die ziemlich genau den Annahmen von Hull entsprechen). Entscheidend ist nur, dass man aufgrund des Verhaltens eindeutig ausschließen konnte, dass die Ratten ‚zufällig vorgehen.
Mittlerweile können wir – mittels Computern! – beliebige Typen von ‚virtuellen‘ Ratten simulieren. Das Bild zeigt die Struktur des Programms einer virtuellen Ratte basiert auf dem Konzept der Classifier Systeme, allerdings hier abgewandelt), die das Erlernen eines Weges im Labyrinth zum Futter sehr schnell erledigt. Was dieser einfache Typ aber nicht kann, ist das ‚Umlernen‘, falls das Futter nicht mehr am alten Ort ist, sondern an einem neuen Ort. Durch geringfügige Änderungen kann man dies aber ‚einbauen‘.
Die Frage ist, was man aus diesen Befunden folgern kann bzw. sollte. Hat die virtuelle Ratte die ‚gleiche Intelligenz‘ wie die reale Ratte, wenn die beobachtbaren Verhalten messtechnisch ‚gleich‘ sind (Eine Fragestellung, die in den berühmten Turing-Tests auch beständig diskutiert wird)?
Würde man ‚Ja‘ sagen, dann würde dies bedeuten, dass ‚Intelligenz‘ etwas ist, was nicht an die biologische Struktur als Körper gebunden ist, sondern mit jeder Struktur realisiert werden kann, die die entsprechenden ’strukturellen Eigenschaften‘ aufweist. Zwar ist damit nicht gesagt, dass man damit das Phänomen des biologischen Lebens ‚als solchem‘ reproduziert, aber die Eigenschaft der Intelligenz, die sich uns ursprünglich an, mit und durch die biologischen Strukturen ‚zeigt‘ (‚enthüllt‘, ‚offenbart‘, ‚emergiert’…).
Ich habe dann einen weiteren ‚Schwenk‘ gemacht und versuchte zu verdeutlichen, dass sich die Strukturen der Turingmaschine im Kern des Biologischen selbst finden. Am Beispiel des Übergangs vom Genotyp (die Gene) zum Phänotyp (die Körper) kann man sehen, dass die Prozesse, die hier ablaufen, strukturell identisch sind mit der Arbeitsweise einer Turingmaschine, im Prinzip sogar einer abgeschwächten Turingmaschine. Der molekulare Input für das Ribosom repräsentiert die ‚Bandinhalte‘, die ‚Gelesen‘ werden, und der molekulare Output des Ribosoms repräsentiert den Bandinhalt, der ‚geschrieben‘ wird.
Noch wichtiger aber ist vielleicht der Sachverhalt (von dem der Physiker Paul Davies anmerkte, dass er sich bislang jeder physikalischen Theorie widersetzt), dass der Input von einem Molekül kommt (DNA), dessen ‚Bedeutung‘ nicht durch seine primären physikalischen Eigenschaften gegeben ist, sondern durch einen Informationskode, für den es keinerlei physikalische Notwendigkeit gibt. Überhaupt ist das Auftreten von ‚Information‘ in diesem Kontext geradezu aberwitzig. Jeder Kode setzt das Zusammenspiel von einem Sender und Empfänger voraus. Wenn wir also hier , an der Wurzel des Biologischen unübersehbar einen Kode vorfinden, der Bau- und Wachstumsprozesse steuert, und es keine dritte Instanz gibt, die diesen Kode vereinbart hat (und eine solche Instanz ist nicht bekannt), dann muss die Struktur des Kodes schon im Ausgangsmaterial als physikalische Eigenschaft angelegt sein. Das würde aber bedeuten, dass diese eindeutigen Eigenschaften von Intelligenz und Geist inhärente Eigenschaften der Materie selbst sein müssen. Eine andere Erklärung ist aktuell rein logisch nicht möglich (Plato und die Neuplatoniker haben so etwas beispielsweise auch schon gedacht, allerdings ohne explizites Wissen um die Strukturen des Lebens und der Materie).
versucht man alle bekannten Fakten zusammen zu fassen, dann kann man zu folgendem eindrücklichen Bild kommen: das Phänomen des Biologischen im Universum resultiert zunächst einmal aus der Tatsache, dass sich das Universum laut Aussagen der Physik noch in einem Zustand unterhalb des Maximums der Entropie befindet. Dadurch gibt es noch ‚Energieunterschiede‘ im Universum, die sich in Form ‚frei verfügbarer Energie‘ nutzen lassen. Alle bekannten biologische Phänomene tun genau dies: sie nutzen freie Energie um – im Widerspruch zum Entropiegesetz der Physik!!! – immer komplexere Strukturen hervor zu bringen. Ab einem bestimmten Komplexitätspunkt (Tiere, insbesondere dann wir als homo sapiens sapiens) sind diese Strukturen in der Lage, Modell der Umgebung und von sich selbst zu erstellen, die für das eigene Handeln genutzt werden können. Damit hat sich die Evolution einen erweiterten Handlungsspielraum geschaffen, der die Geschwindigkeit der Lernprozesse um geschätzt den Faktor 10^7 zu beschleunigen (weitere Steigerungen nicht ausgeschlossen). Gleichzeitig gibt es im Konzept der Turingmaschine eine ‚technische Kopie‘ jener Struktureigenschaften, die wir mit Intelligenz verknüpfen. Die Evolution hat sich also neben den ‚intelligenten biologischen Strukturen‘ auch noch einen ‚Intelligenzverstärker‘ geschaffen, der sich unabhängig von den biologischen Strukturen entwickeln und nutzen lässt.
In diesem Zusammenhang fundamental bedeutsam ist auch der Umstand, dass alle biologischen Strukturen ‚wertabhängig‘ sind, d.h. Alle (!!!) Wachstums- und Lernprozesse setzen voraus, dass es messbare ‚Präferenzen‘ (Fitness, Werte) gibt, an denen sich diese Prozesse orientieren. Bislang ist dies die Erde selbst in ihrer Konkretheit. In dem Masse, wie die Evolution aber Strukturen geschaffen hat, die in ihrer Erkenntnisfähigkeit über die Erde ‚hinaus schauen‘ können, wird dies primäre Wertsystem ‚Leben unter den Bedingungen der Erde‘ abgelöst durch ein Wertesystem ‚Leben unter den Bedingungen des Universums‘. Eine solche Erweiterung des Wertesystem ist auch dringend notwendig, da mit den verbleibenden 1 Mrd Jahre bis zum Wärmtod durch die Sonne einiges getan werden muss, um diesem Wärmetod zu entgehen. Hierin deutet sich an, dass das Leben seinen ‚Sinn‘ ‚in sich selbst‘ hat. Dies alles zu verstehen stehen wir vermutlich erst ganz am Anfang.
Es gab dann noch ein paar Bilder und Bemerkungen zur Beschreibung von Vielfalt durch die Mathematik oder den direkten Strukturvergleich zwischen Menschen als selbsmodifizierendem System und der universellen Turingmaschine:
Verhaltensformel Mensch: phi: I x IS —> IS x O
Verhaltensformel UTM: phi: I x IS —> IS x O
Ich habe die Präsentation beendet mit dem Hinweis darauf, dass wir hier in Frankfurt, und zwar genau in diesem INM, wo an diesem Abend der Vortrag stattfand, zusammen mit der FH Frankfurt und der Goethe-Uni Frankfurt und allen, die mitmachen wollen, im Frühjahr 2014 das große ‚Geist-Sichtbarkeitsmachung-Projekt‘ starten wird. Rund um die Uhr, jeden Tag des Jahres, wird man zuschauen können, wie der künstliche Geist unter den Augen der Öffentlichkeit entstehen wird. Die Vorbereitungen dazu laufen schon. Noch im Dezember wird es eine erste Gründungsversammlung mit einer ersten Webseite geben. Wir werden auch Sponsorengelder einsammeln, da wir ganz ohne ein Minimalteam zum Management des Ganzen nicht auskommen werden.
Es folgte abschließend ein weiteres Musikstück, inhaltlich passend zum neuen Welt- und Menschenbild. ‚Du bist die Botschaft des Universums‘, womit jeder gemeint ist; jeder verkörpert – ob er/ sie will oder nicht – eine Botschaft, in der das Ganze des Universums enthalten ist. Wir müssen diese Botschaft nur lesen lernen:
You are the message of the universe (Rap-like…) Hatte nur so gespielt. Erst ein paar Drum-Clips arrangiert. Dann eine verfremdete Flöte als Hauptmotiv. Dazu dann einen Bass. Als mir dann keine geeignete weitere Stimme mehr einfiel, habe ich mich an einen Text erinnert, den ich vor Monaten schon in einem Musikvideo verarbeitet hatte ‚You are the message of the universe‘. Ich finde, im aktuellen Arrangement passt er ganz gut. Eine Art Anti-Rap Rap….oder auch nicht. Es gibt so unendlich viele Sichten zu jeder Sache. Die immanente Unendlichkeit ist der eigentliche ‚Hit‘, natürlich hervorgebraht vom Gehirn, dieses selbst aber ist eine Hervorbringung aus dem Innern der Materie, und damit aus der Mitte der Energie… diese wiederum ist — physikalisch betrachtet — ‚unsterblich‘. Wir sind alle viel mehr, als wir ahnen, geschweige denn denken können…letztlich ist es egal, was wir denken, bevor wir denken sind wir schon das, was wir sind… das ist unser Glück. Aber natürlich, warum können wir dann überhaupt denken? Wozu? Gute Frage… wer die Antwort findet, braucht sie nicht mehr….Good Luck..
PS: Ursprünglich hatte ich noch einen Abschnittt über die zentrale Rolle von Künstlern zusammen mit Wissenschaftlern; aber der blieb auf der Strecke, es war dann doch zu viel Stoff….
PS2: Es gab noch eine recht intensive Diskussion.
PS3: Am Tag drauf hatte ich eine lange, sehr inspirierende Besprechung mit einem guten Bekannten aus der Szene der experimentellen Musik, wo wir die verschiedenen Aspekte des kommenden Projektes zur ‚Sichtbarmachung von Geist‘ durchsprachen. Von den vielen Punkten, die wir demnächst auch entsprechend kommunizieren werden, war einer für den Zusammenhang hier besonders interessant: da der Begriff ‚Geist‘ (Englisch oft ‚mind‘) extrem vage ist und bis heute in keiner Wissenschaft eine operationale Definition existiert, die diesen Begriffen irgendwie fassbar macht (nur sehr viele blumige Beispiele), sollten wir uns in der Diskussion und Weiterentwicklung zunächst an den Begriff ‚Intelligenz‘ halten. Für diesen Begriff haben die experimentellen Psychologen eine sehr brauchbare operationale Definition entwickelt, die in Gestalt des IQ (Intelligenzquotienten) weit verbreitet ist. Was immer ‚Geist‘ sein mag, insofern er sich im Verhalten manifestiert, das man beobachten und messen kann, kann man die sich ‚im Verhalten zeigende Intelligenz‘ in ihren unterschiedlichen Ausprägungen ‚messen‘, d.h. mit vorgegebenen Standards ‚vergleichen‘. Für diese ‚Messungen‘ spielt es keine Rolle, ob es sich bei dem beobachteten System um eine Pflanze, ein Tier, einen homo sapiens sapiens oder um eine Maschine handelt. Der psychologische Intelligenzbegriff ist insofern ‚invariant‘ bzgl. derjenigen Struktur, die das zu messende Verhalten hervorbringt. Insofern ist dieser Intelligenzbegriff geeignet, ‚Intelligenz‘ so zu messen, dass man all die verschiedenen ‚Hervorbringungsstrukturen‘ vergleichen kann. Präzisierend müsste man von daher vielleicht sagen, dass wir in diesem Experiment zeigen wollen, dass die Entstehung und Anwendung von Intelligenz nicht an eine biologische Trägerstruktur gebunden ist, sondern nur an Strukturmerkmalen, die in nahezu beliebiger materieller Beschaffenheit auftreten können. Der philosophische ‚Druck‘ auf das Selbstverständnis von uns Menschen bleibt damit sehr wohl erhalten: Wer sind wir wirklich? Was soll das Ganze? Sind wir überflüssig? Haben wir eine spezielle Mission? Haben wir trotz allem eine Verantwortung für das Ganze? usw.
PS4: In einem privaten Kreis mit vielen Freunden flammten diese Diskussionen auch wieder auf, da im Kreis außer mir zwei da waren, die auch bei dem Salon waren. Diese Themen bewegen…
Literaturnachweise
Body Surface at http://en.wikipedia.org/wiki/Human_body (letzter Besuch: 12.Nov.2012)
Organs below the Body Surface at http://en.wikipedia.org/wiki/Human_anatomy (letzter Besuch: 12.Nov.2012)
Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27s_problems (Last access Sept-30, 2012)
Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL: http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/ (Last Access Sept-30, 2012)
Holland, J.H. Hidden Order. How adaptation Builds Complexity, New York: USA, Basic Books, 1995
Hull, C.L. Principles of Behavior, New York: Appleton-Century-Crofts, 1943
Hull, C.L. Essentials of Behavior, New Haven: Yale University Press, 1951
Hull, C.L. A behavior system: An introduction to behavior theory concerning the individual organism, New Haven: Yale University Press, 1952
Hull, C.L; Hovland, C.I.; Ross, R.T.; Hall, M.; Perkins, D.T.; Fitch, F.G. Mathematico-deductive theory of rote learning, New Haven: Yale University Press, 1940
Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
Tolman E.C., Purposive behavior in animals and men, New York: Appleton-Century-Crofts, 1932 (repr. 1949 by University of California Press)Tolman, E. C. (1948). Cognitive maps in rats and men, Psychological Review, 55, 189-208 (online version at: http://psychclassics.yorku.ca/Tolman/Maps/maps.htm ; last ascess: 14.Nov.2012)Tolman E.C., Collected Papers in Psychology, Berkeley: University of California Press, 1951
Tolman E.C., Principles of purposive behavior, in: Koch, S. (Ed.), Psychology: A study of a science. Vol.2, New York: McGraw-Hill, 1959 (repr. 1949 by University of California Press)
Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012))
8 Jahre und drei Monate später … es hat etwas Berührendes, nach einer so langen Zeit einen eigenen Text samt Musikbeispielen nochmals zu lesen (und zu hören). Alles gesagte würde ich auch heute wieder unterschreiben. Es ist sehr ‚zum Punkt‘; besonders das Rapp-artige Musikstück ‚You are the message of the universe‘ geht mir noch immer ‚unter die Haut‘. Das im Text angekündigte Experiment am INM hatte tatsächlich unter dem Label ‚emerging-mind‚ stattgefunden. Aber es ist wieder versandet… Seit ca. 2018/19 ist ein neues Projekt entstanden, nicht wirklich geplant, aber irgendwie auch nicht planlos, und gewinnt immer mehr Fahrt. Der innere Motor ist der Gedankenkomplex ‚Kollektive Mensch-Maschine Intelligenz‚. Der treibende Motor ist die Vereinigung von Philosopie, Engineering und Gesellschaft. Ausgang offen, aber die Dynamik ist stark. Das Thema ‚You are the Message of the Universe‘ schwingt in allem weiter …
Eine Übersicht über alle Beiträge anhand der Titel findet sich HIER
In dem Münchenvortrag wurde der Rahmen angedeutet, innerhalb dessen sich sowohl das Verhältnis Mensch und Computer einordnen lässt wie überhaupt Computer – Mensch – biologische Evolution. Fast alle Detailfragen blieben offen; dazu fehlte rein äußerlich einfach die Zeit.
Für die Fragen nach dem Warum, Wozu, Wie, Wohin etc. gibt es bislang aber kaum überzeugende Antworten, eigentlich keine einzige; zumindest kenne ich keine.
In der Literatur wird bei der Frage nach der Rolle und Bedeutung des Menschen fast immer auf seine äußerlichen Unterschiede zu den anderen biologischen Arten abgehoben, es wird — im Lichte des stark vereinfachten Evolutionsmodells — nach Faktoren in der Umwelt der homo sapiens sapiens Vorläufer gesucht, die ihn zum aufrechten Gang, zum Sprechen usw. ‚gebracht‘ haben. Dabei wird die ‚eigentliche Logik der Evolution‘, wie sie sich im Gesamtrahmen manifestiert, weitgehend ausgeklammert. Entsprechend wenig überzeugend sind die Antwortversuche.
Bei mir verstärkt sich die Vermutung, dass die zentralen ‚Umbrüche‘ jene sind, in denen (i) Energie zu Materie ‚kondensiert‘, (ii) aufgrund von noch vorhandener freier Energie sich Atome zu komplexeren Verbindungen (Molekülen) zusammenfügen können, (iii) es zur — bis heute nicht ganz aufgeklärten — Entstehung der Dichotomie von Genotyp und Phänotyp kommen konnte; ein Vorgang, der mehrere kleinere Revolutionen zugleich beinhaltet, u.a. die Ausbildung von ‚reinen informationshaltigen Strukturen‘ (RNA, DNA); (iv) die Ausbildung von ‚hierarchischen Informationsstrukturen‘ im Genotyp (siehe u.a. Duve (Besprechung noch im Gang); mathematische Begründung bei Holland (Besprechung kommt noch)); (v) mit der weiteren Entwicklung des Phänotyps mit immer komplexeren Strukturen u.a. die Ausbildung von Gehirnen, die die Geschwindigkeit von Lernprozessen um den Faktor 10^7 beschleunigten (unter Beibehaltung der hierarchischen Informationsstrukturen!)!; (vi) ein Abfallprodukt dieser phänotypischen Komplexitätsbildung ist die symbolische Kommunikation. Diese ermöglicht eine neuartige Echtzeitkoordinierung der Informationsverarbeitung der individuellen Gehirne. Dies ermöglicht noch komplexere Informationsbildungen, die über aktuelle Zeitpunkte hinweg Eigenschaftsmengen der messbaren Welt abbilden lassen; (vii) ein weiteres Abfallprodukt ist die Replikation von gehirnbasierten Intelligenzleistungen durch technologiebasierten Intelligenzleistungen (salopp: ‚Computerbasierte Informationstechnologien‘). Dies steigert weiter die Komplexität, den Umfang und die Geschwindigkeit von Informationsstrukturen.
Insgesamt lässt sich eine mehr als exponentielle Beschleunigung in dem Umfang der Komplexität wie auch in der Geschwindigkeit von Lernprozessen beobachten. Innerhalb der letzten ca. 60 Jahre ist ein Mehrfaches von dem passiert, was in den vorausgehenden 13 Milliarden Jahren passiert ist.
Von daher ist kaum verwunderlich, wenn die offiziellen ‚Weltbilder‘ (’selbst gemachten Bilder von der Welt’…) geradezu dramatisch hinter der Realität hinterher hinken. Noch immer dienen die Bilder der großen Weltreligionen der Mehrheit der Menschen als Orientierungshilfen, obgleich sie mit dem Gang des Lebens auf dieser unseren Erde so gut wie nichts gemeinsam haben. Was immer man mit dem viel bemühten Begriff ‚Gott‘, ‚Deus‘, ‚Theos‘, ‚Alah‘, ‚Jahwe‘, ‚Elohim‘ usw. meinen mag, alles spricht dafür, dass dieser Gott ganz, ganz anders ist, als wir uns dies gerne vorstellen. Es würde mich nicht überraschen, wenn wir irgendwann feststellen würden, dass das mit ‚Gott‘ Gemeinte ‚in jedem Lebewesen‘ von Anfang an und unauflöslich ‚lebt‘. Es wirkt auch merkwürdig, wenn Menschen sich anmaßen, als Menschen über ‚Gott‘ zu reden; noch merkwürdiger wirkt es, wenn bestimmte Religionsgemeinschaften das mit ‚Gott‘ Gemeinte ausschließlich ‚für sich‘ reklamieren‘, als ob der ‚behauptete Schöpfer von allem‘ sich irgendwo in diesem gigantischen Prozess dann plötzlich eine kleine Schar von Menschlein auserwählt, um damit seine eigene gigantische Schöpfung ins Unrecht zu setzen (und da jede Gemeinschaft das für sich beansprucht, haben wir also diesen Gott gleich in mehrfacher Ausfertigung; dies klingt alles ‚allzu menschlich‘ und nicht wirklich ‚göttlich‘). Solche Gedanken erscheinen mir irgendwie lächerlich (und es ist ja auch auffällig, dass über die Begründung von solchen merkwürdigen Anschauungen niemand ernst nachdenkt; Denkverbote sind aber immer die schlechtesten Empfehlungen auf dem Weg zur Wahrheit).
Im europäischen Bereich der Welt (die anderen kenne ich zu wenig) kann man dem Wettlauf mit der Wahrheit eine gewisse Dramatik nicht absprechen: während sich in der griechischen Philosophie im umfassenden Erkenntnisstreben noch irgendwie alles vereinte — wenngleich verständlicherweise die heute mögliche Präzision noch fehlte — kam es im Gefolge des Christentums (und damit implizit auch des Judentums) (und des Islams?) zu einer ‚Ideologisierung‘ im Umgang mit der Wahrheit. Nur unter größten Schwierigkeiten und Schmerzen konnten sich dann nach mehr als ca. 1500 Jahren die ‚Naturerkenntnis‘ aus dieser Umklammerung befreien und in Gestalt von lebensfördernder ‚Technik‘ und ‚Medizin‘ eine gewisse gesellschaftliche Anerkennung erringen. Auf der ‚Strecke‘ geblieben ist der Gesamtzusammenhang der Wahrheit. Die ‚philosophische Restgruppe‘ firmierte dann zwar weiterhin offiziell unter ‚Philosophie‘, ‚Theologie‘, später ideologisch etwas weichgespülter unter ‚Geisteswissenschaften‘, aber durch die selbstgewählte Aussperrung von experimentell begründeter Wahrheit und mathematischer Sprache umkreisten diese Wissenschaften die ‚menschlichen und gesellschaftlichen Phänomene‘ mit gepflegten Wortereignissen, bei denen nur die Eingeweihten ahnen konnten, was gemeint sein konnte. Erst seit Ende des 19.Jahrhunderts, Anfang des 20.Jahrhunderts kann man Versuche identifizieren, einzelne Bereiche des geisteswissenschaftlichen Bereiches zu ‚verwissenschaftlichen‘ (Paradebeispiel Psychologie, in der aber bis heute alle Schattierungen von wissenschaftlich bis quasi ‚freigeistig‘ vertreten sind).
Es wäre verfehlt, hier mit ‚moralischen‘ Kategorien zu operieren. War — und ist! — es doch auch die natürliche Komplexität der Phänomene selbst, die sich einem schnellen Zugriff experimentalwissenschaftlichen Denkens entzog. Erst durch die gewaltigen Fortschritte der letzten 100 Jahre erscheint es möglich, die zuvor gedanklich schwer durchdringlichen Phänomene des Lebens, des Handelns, der Kultur, der Ästhetik usw. einem experimentell-analytischen Denken zugänglich zu machen.
Nachdem nun aber klar wird, dass diese ‚Undurchdringlichkeit‘ keine absolute, sondern nur eine relative ist, wenn nun aber klar wird, dass die geisteswissenschaftlichen Phänomene genauso einer experimentell-analytischen Denkweise zugänglich sein können wie alle anderen Phänomene auch, dann müssen wir uns auch dieser gedanklichen Herausforderung stellen. Philosophie kann sich nicht in Philosophiegeschichte erschöpfen, Theologie nicht in ideologisch festgezurrten Gemeinplätzen, Kulturwissenschaft darf nicht weiterhin einfach ’seinsvergessen‘ nur mit den Oberflächenphänomenen effekthascherisch spielen. Die kulturellen Phänomene gründen in Phänotypen, denen eine konkrete materielle Logik zugrunde liegt, hinter der eine milliardenschwere Zeitwucht steht, die ganz offensichtlich nicht ganz beliebig zu sein scheint. Wie können wir ‚wie die Mücken‘ um das ‚Licht der Alltagsphänomene‘ ‚tanzen‘ während eine gigantische kosmische Maschinerie ein Schauspiel inszeniert, in dem 1000 Jahre wie eine Mikrosekunde wirken?
Sich realisierende Erkenntnis, die Wahrheit akzeptiert, verliert mehrfach ihre Unschuld. Wahrheitsbezogene Erkenntnis ist nicht beliebig. Sie ‚lebt‘ in einer ‚Relation‘ zwischen dem ‚Erkennendem‘ und jenem, das sich dem Erkennenden ‚aufzwingt‘ (das altbekannte ‚Andere‘ der existentialistischen Philosophie und das Widerständige der experimentellen Forscher (… und auch jenes ‚Gegenüber‘ des Mystikers, das er nicht manipulieren kann, sondern das sich ihm gegenüber ‚verhält’…), eben als das ‚wirklich Andere‘, wenngleich wir wissen, dass wir das ‚Andere‘ immer nur im Modus unserer körperlichen Zustände erleben können (kein Gehirn kann das ‚Außen‘ zum Körper ‚direkt‘ erkennen). Und es ist auch klar, dass nicht jeder von vornherein quasi ‚von selbst‘ ‚voll wahrheitsfähig‘ ist. So, wie die Kinder einige Jahre benötigen, um überhaupt geordnet sprechen zu können, so müssen wir alle viele Jahre damit zubringen, den alltäglichen Strom der Phänomene zu sortieren und in Zusammenhänge setzen. Die Geschichte nur des formalen Denkens (Logik, Mathematik) alleine zeigt schon, wie schwer sich die Menschen in allen Jahrhunderten damit getan haben, geschweige denn die vielen anderen Denkformen. Ein ‚philosophierender Forscher‘ wird zum ‚Partner‘ in einem Prozess, der als solcher ‚auf ihn zukommt in einer Eigenständigkeit‘, die allerdings nicht vollständig ‚absolut‘ ist. Hier liegt ein Paradox verborgen: je mehr der Forscher sein ‚Gegenüber‘ kennt, um so mehr kann er es ‚verändern‘, und damit sich selbst, da er selbst Teil dieses Gegenstandes ist! D.h. wir beziehen unsere Wahrheit aus der ‚Vorgabe‘, aber in dem Maße wir diese Vorgabe ‚verstehen‘, können wir sie verändern!! Weitergedacht könnten wir prinzipiell das ganze Universum verändern, wenn wir im Verstehen weiter voranschreiten. Damit würde das biologische Leben immer mehr die Form dessen annehmen, was traditionellerweise ‚Gott‘ genannt wird. Würde das Biologische damit ‚wie Gott‘ oder würde ‚Gott‘, der klassischerweise ‚in allem wohnt‘ damit nur auf besondere Weise ’sichtbar‘? Das Biologische als ‚Ausstülpung‘ (manche mögen lieber ‚Emergenz‘) des universalen Geistes? Das sind noch ziemlich hilflose Überlegungen. Die ‚volle Wahrheit‘ wird vermutlich um Dimensionen interessanter und spannender sein. Aber es wird höchste Zeit, dass wir uns von den alten Bildern befreien. Sie erzählen von einer Welt, die es so gar nicht gibt.
Eine Übersicht über alle bisherigen Themen anhand der Titel findet sich HIER
Achtung: Es hat sich gezeigt, dass diese Version einen grundlegenden Fehler enthält! Siehe am Ende des Textes den Link auf eine verbesserte Version.
(1) In dem Vortrag in Bremerhaven ist die Verzahnung von Philosophie und Wissenschaft hevorgehoben worden. Ansatzweise wurde skizziert, wie eine bewusstseinsbasierte Philosophie als das primäre Denken innerhalb seines Denkraumes einen ‚Unterraum‘ spezifizieren kann, der sich über die spezielle Teilmenge der ‚empirischen Phänomene‘ [PH_Emp] definiert bzw. umgekehrt, wie man ausgehend von den empirischen Disziplinen über die Frage nach den notwendigen Voraussetzungen zu einem größeren Zusammenhang kommen kann, der letztlich mit dem philosophischen Denken zusammenfällt. Versucht man, die begrifflichen Verhältnisse zwischen den verschiedenen hier einschlägigen Disziplinen zu klären, dann wird man alsbald feststellen, dass diese bei den meisten nicht ganz klar sind; dies betrifft die ganze ‚Community‘. Im Folgenden ein weiterer Versuch, die hier geltenden grundsätzlichen Verhältnisse transparent zu machen.
(2) Die grundsätzliche Idee (die ich seit mehr als 20 Jahren immer wieder mal auf unterschiedliche Weise versucht habe, — in erster Lnie mir selbst — zu verdeutlichen) ist im Schaubild Nr.1 angedeutet.
(3) Nimmt man seinen Ausgangspunkt von existierenden empirischen Disziplinen wie Physik [Phys], Chemie [Chem], Biologie [Biol] usw. dann sind diese dadurch gekennzeichnet, dass sie aufgrund spezifischer Fragestellungen und spezifischer Messverfahren entsprechend verschiedene ‚Messwerte‘ gewinnen.
(4) Hierbei ist aber zu beachten, dass die empirischen Messwerte zwar – idealerweise – unabhängig von einem bestimmten Körper oder Bewusstsein ‚gewonnen‘ werden, dass sie aber nur in dem Maße in eine wissenschaftliche Theoriebildung eingehen können, als die Messwerte von Menschen auch ‚wahrgenommen‘ werden können, d.h. nur insoweit, als die handlungs- und technikbasierten Messwerte zu ‚bewussten Ereignissen‘ werden, zu ‚Phänomenen‘ [PH]. Als ‚Phänomen‘ ist ein Messwert und ein Zahnschmerz nicht unterscheidbar, allerdings haben sie verschiedene ‚Ursachen der Entstehung‘, die sich in einer ‚Reflexion‘ erschließen lassen. In dem Masse, wie man diese Unterscheidung durchführen kann, kann man dann innerhalb der ‚allgemeinen‘ Menge der Phänomene PH eine spezielle Teilmenge der ’speziellen‘ Phänomene ausgrenzen, also PH_Emp ⊆ PH.
(5) In diesem Sinne kann man sagen, dass die Menge der empirischen Phänomene sich bezüglich ihrer ’speziellen Herkunft‘ von allen anderen Phänomenen unterscheiden und dass die verschiedenen empirischen Disziplinen sich diese spezielle Teilmenge auf unterschiedliche Weise ‚aufteilen‘. Idealerweise würde man sich die Menge der empirischen Phänomene PH_Emp zerlegt denken in endliche viele disjunkte Untermengen. Ob die tatsächlichen Messverfahren mitsamt den daraus resultierenden Messwerten real vollständig disjunkt sind, ist aktuell offen; spielt für die weiteren Überlegungen zunächst auch keine wesentliche Rolle. Wichtig ist nur, dass in diesem Zusammenhang nur dann von empirischen Daten wie z.B. ‚psychologischen Daten‘ DATA_SR gesprochen werden soll, wenn es reale Messwerte von realen Messvorgängen gibt, die von einem Menschen wahrgenommen werden können und dieser diese Phänomene als entsprechende empirische Phänomene PH_Emp_x interpretiert (das ‚x‘ steht hierbei für die jeweilige Disziplin).
(6) Wie in vorausgehenden Blogeinträgen schon mehrfach festgestellt, bilden empirische Daten DATA_x als solche noch keine wirkliche Erkenntnis ab. Diese beginnt erst dort, wo Verallgemeinerungen vorgenommen werden können, Beziehungen erkennbar sind, regelhafte Veränderungen, usw. Die Gesamtheit solcher struktureller Eigenschaften im Zusammenhang mit Daten nennt man normalerweise eine ‚Theorie‘ [TH]. Ob und inwieweit alle heutigen empirischen Disziplinen wirklich systematisches Wissen in Form von expliziten Theorien TH_x entwickeln, steht hier nicht zur Diskussion (es gibt sicher viel weniger explizite Theoriebildung als man sich wünschen würde. Die einzige Disziplin, von der man den Eindruck hat, dass sie überwiegend durch formale Konstrukte begleitet wird, die den Anspruch von Theorien erfüllen, ist die moderne Physik. Alle anderen Disziplinen fallen hinter das Ideal mehr oder weniger weit zurück.).
(7) Solange man sich nun innerhalb einer ganz bestimmten Disziplin bewegt, ist die Welt — in gewissem Sinne – ‚in Ordnung‘: man weiß wie man misst und man hat elementare Techniken, wie man Daten strukturiert. Fängt man an, Fragen nach den ‚Voraussetzungen‘ dieser fachspezifischen Theoriebildung zu stellen, nach der Angemessenheit der verwendeten Methoden, wird es schwierig, da für solche Fragen strenggenommen kein Instrumentarium verfügbar ist (Warum und wieso sollte ein Chemiker sich Fragen nach den Grundlagen der Erkenntnis stellen, aufgrund deren er überhaupt etwas erkennt, oder nach dem Problem der sprachlichen Bedeutung, wenn er über chemische Sachverhalte spricht, über die Angemessenheit seiner Begrifflichkeit für den zu untersuchenden Gegenstand, usw.). Noch schwieriger wird es, wenn es um mögliche Wechselwirkungen zwischen verschiedenen Theorieansätzen geht: ob und wie verhalten sich die Daten und theoretischen Modelle zwischen z.B. beobachtetem Verhalten in der Psychologie TH_SR mit zeitgleichen Messungen im Körper TH_Bd oder spezieller im Nervensystem TH_NN? Wann darf ich denn überhaupt von einer Theorie sprechen? In welchem Sinne kann ich Theorien TH_x und TH_y vergleichen? Diese – und viele andere – Fragen gehen weit über die fachspezifischen Fragestellungen hinaus, verweisen auf allgemeine fachübergreifende Zusammenhänge.
(8) Im deutschen Sprachraum gab es in der Zeit von ungefähr 1970 bis 1990 eine Phase, in der man verstärkt von ‚Wissenschaftstheorie‘ sprach als jener ‚Metadisziplin‘, die die allgemeinen Eigenschaften und Randbedingungen von ‚Theorien‘ untersucht und klärt. Im englischen Sprachraum nannte man dies ‚Philosophy of Science‘ (allerdings mit einer nicht ganz deckungsgleichen Bedeutung). Alle diese Strömungen haben – so scheint es – bis heute keinen nachhaltigen Einfluss auf den ’normalen Wissenschaftsbetrieb‘ nehmen können; eher ist das Thema sogar wieder rückläufig. Zwar bräuchte man es aus methodischen Gründen dringen, aber keiner will dafür Geld ausgeben.
(9) Die deutschsprachige Wissenschaftstheorie hatte den Nachteil, dass sie zwar versuchte, disziplinenübergreifend strukturelle Eigenschaften von Theorien zu klären, sich aber letztlich weigerte, sämtliche Voraussetzungen (einschließlich ihrer eigenen) zu reflektieren, d.h. die Wissenschaftstheorie nahm zwar einerseits gegenüber den Fachdisziplinen allgemeine Eigenschaften von Denken, Folgern, Sprechen, Messen usw. in Anspruch, die über die engen Fachdisziplinen hinausgehen, weigerte sich aber, diesen Anspruch in letzter Konsequenz zu reflektieren und auszuweisen (auch nicht die Erlanger Schule und die sogenannten Konstruktivisten). Eine solche grundlegende Reflexion war und blieb die Domäne der klassischen Philosophie, von der sich die Wissenschaftstheorie panisch abzugrenzen versuchte.
(10) So sehr eine gesunde Kritik an der klassischen Philosophie nottat, eine vollständige Verdrängung der philosophischen Aufgabenstellung und Denkweise wirkte aber wie eine ‚Überreaktion‘; diese hatte zur Folge, dass sich die Wissenschaftstheorie von ihren eigenen Voraussetzungen mittels einer klassischen ‚Verdrängung‘ zu befreien suchte, sich dadurch aber entscheidende Aspekte vergab.
(11) Wie das Schaubild zeigt, gehe ich davon aus, dass die im Erleben wurzelnde Reflexion der primäre Ausgangspunkt für jede Art von spezialisierendem Denken ist. Selbst eine empirische Disziplin ist im Raum der bewussten Erlebnisse, im Raum der Phänomene, verankert, und was immer ein empirischer Wissenschaftler denkt, er denkt im Rahmen der Denkmöglichkeiten, die ihm über das Bewusstsein und die ‚an das Bewusstsein gekoppelten Subsysteme‘ verfügbar sind. Andere hat er gar nicht. Ein Wissenschaftstheoretiker, der über das theoretische Denken von Fachdisziplinen forschen will, ist auch nicht besser dran. Auch er ist an den Phänomenraum als primärem Bezugssystem gebunden und auch er nutzt jene allgemeinen Reflexionsmöglichkeiten, die im Bewusstseinsraum generell verfügbar sind. D.h. jeder Versuch, eine irgendwie geartetes geordnetes Denken — sei es fachwissenschaftlich oder wissenschaftstheoretisch – als solches auf seine Voraussetzungen und Wechselwirkungen hin zu befragen, muss auf dieses ‚primäre Denken‘ zurückgehen und es für die Erkenntnis nutzen. Dieses primäre Denken aber ist genau das philosophische Denken, das auf der einen Seite mit dem alltäglichen Denken verschwimmt, und auf der anderen Seite in Wissenschaftstheorie oder gar Fachwissenschaft übergeht.
(12) Von der Intention her hat sich ‚Philosophie‘ immer als solch ein ‚erstes Denken‘ verstanden, das alles andere Denken umfassen sollte. In der konkreten Ausformung eines solchen ersten Denkens gab es aber immer vielfältige und starke Unterschiede. Generell kann man die Tendenz beobachten, dass das philosophische Denken sich entweder vom alltäglichen und wissenschaftlichen Denken ‚zu weit entfernt‘ hat oder aber umgekehrt diesem ‚zu nah‘ kam. Im letzteren Fall büßte Philosophie ihre kritisch-klärende Funktion ein.
(13) Will Philosophie beides zugleich realisieren, kritische Distanz wie auch kenntnisreiche Nähe, muss das philosophische Denken sowohl die ‚Form‘ eines wissenschaftlichen Denkens hinreichend klären wie auch die eigenen Erkenntnis — sofern überhaupt strukturierbar – entsprechend explizieren. Das philosophische Denken als ‚erstes Denken‘ wird zwar niemals seinen eigenen Anteil zugleich vollständig und korrekt explizieren können (das liegt primär an der Struktur des Denkens selbst sowie an der Verwendung von Sprache), aber es kann den Zusammenhang der einzelwissenschaftlichen Theorieansätze sowie deren allgemeinen erkenntnistheoretischen Voraussetzungen soweit explizieren, dass klar wird, (i) was ist überhaupt eine Theorie TH_x, (ii) welche erkenntnistheoretischen Voraussetzungen müssen für eine bestimmte Theorie TH_x berücksichtigt werden, (iii) wie kann man das Verhältnis von Theorien beschreiben XREL(TH_x, TH_y), (iv) wie können Objektbeschreibungen aus unterschiedlichen Theorien (z.B. Eigenschaften von Neuronen beschrieben in einer neurowissenschaftlichen Theorie TH_nn, und Eigenschaften eines beobachtbaren Verhaltens in einer psychologischen Theorie TH_sr) aufeinander bezogen werden, usw.
(14) Fordern muss man aber auch, dass das philosophische Denken seine Inhalte, soweit sie explizierbar sind, auch in Form von Daten DATA_ph kenntlich macht, und, darauf aufbauend, verdeutlicht, welche Strukturen TH_ph das philosophische Denken vermeintlich besitzt bzw. benutzt, um die Möglichkeit und das ‚Funktionieren‘ der Einzeltheorien zu ‚erklären‘. In gewisser Weise muss die Philosophie genauso ein ‚Modell‘ ihres Gegenstandes bauen wie dies die anderen Wissenschaften auch tun. Im Fall der Philosophie geht es um den Menschen selbst, speziell um den Menschen, insofern er ‚erkennt‘, ‚Wissen‘ entwickelt‘, er ’spricht‘, und vieles mehr. Und natürlich könnte (bzw. sie müsste es!) die Philosophie — wie alle anderen Disziplinen auch – Computermodelle benutzen, um ihr theoretisches Modell vom erkenntnisfähigen und ethisch handelndem Menschen zu explizieren. ‚Computergestützte Philosophische Theorie‘ (etwa ‚computational philosophy‘) ist nicht nur kein Gegensatz sondern ein absolutes Muss! Ohne solche Modelle hat eine moderne Philosophie kaum eine Chance, die zu behandelnde Komplexität angemessen beschreiben zu können.
Eine korrigierte Version dieses Beitrags findet sich hier.
Einen Überblick über alle bisherigen Beiträge findet man hier.
(15) Weitere Details in Fortsetzungen bzw. im Rahmen meiner online-Skripte zur allgemeinen Lerntheorie.
(1) Im Zwiegespräch mit dem Text ‚Metaphysik der Erkenntnis‘ (erstmalig 1921) von Nicolai Hartmann trifft man auf zahlreiche Aporien (siehe die anderen Blogeintragungen). Hartmann nimmt seinen Ausgangspunkt bei der — für ihn grundlegenden – Beziehung zwischen einem ‚erkennenden Subjekt‘ und einem ‚erkannten Objekt‘. Dies in einer primär ‚phänomenologischen‘ Einstellung, die ihren Ausgangspunkt bei dem ‚Gegebenem‘ nimmt im Versuch, ’sichtbar zu machen‘, was sich vorfindet.
(2) Tatsächlich ist das, was wir im Bewusstseinserlebnis als aufscheinendes ‚Phänomen‘ vorfinden, das erste und einzige, was wir vorfinden. Nach Hartmann ist dieses aufscheinend Gegebene aber eingebettet in eine begleitend vorhandene ‚Reflexion‘, mittels der sich Eigenschaften fokussieren, abstrahieren und in Beziehung setzen lassen; nicht zuletzt lassen sich ‚Begriffe‘ bilden. Die Reflexion als solche ist nicht mehr ’neutral‘; sie kann das vorfindlich Gegebene verändern, modifizieren und damit in gewisser Weise interpretieren.
(3) Die ‚Abfallprodukte‘ der Reflexion bilden nicht automatisch eine ‚Theorie‘ verstanden als ein systematisches Begriffsnetzwerk, in dem alle Begriffe vollständig aufeinander bezogen sind entweder als ‚Grundterme‘ oder als ‚axiomatische Terme‘, eingebunden in Relationen und Axiome, repräsentiert in einer eigenen ‚Theoriesprache‘. Eine Theorie auf der Basis der primären Reflexion bildet eine ‚Metaebene‘ und stellt eine Konstruktion dar, die aus einer Vielzahl von Möglichkeiten eine Variante herausgreift. Zugleich ist jede Theorie eine bestimmte Interpretation. Eine interessante Frage ist, ob und wie sowohl die Begriffe der primären Reflexion wie auch die Strukturen einer Theorie in einem bestimmbaren Sinn ‚wahr‘ oder ‚falsch‘ sein können.
(4) Hartmann diskutiert die Frage der ‚Wahrheit‘ im Umfeld seiner Subjekt-Objekt-Relation mit einem sehr unspezifischen Begriff von ‚Erkenntnis‘. Er geht von der Annahme aus – die er nicht weiter begründet –, dass Wahrheit mit Übereinstimmung zu tun haben muss, nämlich der Übereinstimmung (oder Nicht-Übereinstimmung) von dem erkennbaren Objekt für das Subjekt mit einem Objekt an sich, das dem erkennenden Subjekt per definitionem nicht zugänglich ist; daher spricht er hier auch von einem ‚transzendentem Objekt‘ bzw. vom ‚Transobjektivem‘, das das erkennende Subjekt ‚objiziert‘ mithilfe von ‚Bestimmtheiten‘, die ein ‚Bild‘ des ursprünglichen Objektes darstellen, nicht das transzendente Objekt selbst. Die vom Transobjektivem objizierten Bestimmtheiten, die vom verursachenden Objekt verschieden sind, will er auch eine ‚Repräsentation‘ des Transobjektiven nennen.
(5) Das ‚Transobjektive‘, das vom erkennenden Subjekt nicht erreicht werden kann, ist damit auch nicht intelligibel, ist im vollen Sinne ‚irrational‘. Dennoch assoziiert Hartmann genau mit diesem Transobjektiven das eigentliche ‚Sein‘, ‚volle Wirklichkeit‘, ‚Realität‘. Hier verortete er die ontologische Dimension, den Fluchtpunkt jeder Metaphysik. In einer Metaphysik ist Erkenntnis nur ein Durchgang, ein Medium zur Erfassung und Beschreibung von ‚Wahrheit‘ als letztlich im ‚Sein‘ gründend.
(7) Der von ihm zuerst favorisierte Wahrheitsbegriff als Übereinstimmungsoperation wahr: OBJ x OBJ* —> {wahr, falsch} mit ‚OBJ‘ für das Transobjektive (verursachende) Sein und ‚OBJ*‘ als der Repräsentation des Transobjektiven für das erkennende Subjekt setzt die Verfügbarkeit des Transobjektiven in dieser Übereinstimmung voraus, ohne aber in der Lage zu sein, zu erklären, wie das erkennende Subjekt dies nutzen soll, da das Transobjektive ja per definitionem vom Erkennen eines Transobjektiven ausgeschlossen wurde. Die sich hier auftuende logische Antinomie verwirbelt Hartmann in bis zu vier unterschiedliche Aporien, die allesamt letztlich nur diese eine zentrale Antinomie umschreiben.
(8) Aktuell weiss ich noch nicht, wie es ab S.88 in seinem Buch weiter gehen wird. Bezogen auf seine bisherigen Ausführungen kann man nur sagen, dass er sich mit seinem bisherigen Begriffsapparat in einer Sackgasse befindet. Auch wenn er noch weitere Aporien durch Einführung neuer begrifflicher Gebilde generieren mag, sein Grundproblem wird er nicht lösen, solange er seine bisherigen Voraussetzungen nicht einer kritischen Re-Analyse unterzieht.
(9) Ob mein Lösungsansatz tatsächlich ein Lösungsansatz ist, muss sich in den weiteren Diskussionen und Experimenten noch zeigen, aber auf jeden Fall sehe ich einen gedanklichen Weg, der ohne die antinomischen Konstruktionen Hartmanns auskommt, der mit den großen Themen der Philosophie kompatibel ist, und der nicht zuletzt auch mit den tiefgreifenden Erkenntnissen der modernen Naturwissenschaften harmoniert (soweit wir heute meinen zu verstehen, was wir verstehen).
(10) Wie schon im Bremerhaven-Vortrag skizziert nehme ich auch den Ausgangspunkt im Raum der Phänomene (es gibt keine Alternative), allerdings mit der Differenzierung, dass sich im Gesamtbereich der Phänomene Ph eine spezielle Teilmenge der empirischen Phänomene Ph_emp identifizieren lässt. Dies sind solche Phänomene, die durch Verwendung von definierten Messprozeduren meas() generiert werden, etwa meas: Ph —> Ph_emp. Empirische Phänomene sind zwar auch Phänomene, aber eben solche, die auf eine spezielle Weise hervorgebracht werden, die unabhängig vom Körper eines Menschen ist. Nur das Produkt eines Messvorganges muss wahrnehmbar sein, der Messvorgang selber ist unabhängig von einem menschlichen Körper (und Gehirn, und Bewusstsein).
(11) Auf den ersten Blick wirkt dieser Hinweis auf die Teilmenge der empirischen Phänomene möglicherweise unscheinbar. Aber bei längerer Betrachtung zeigt sich, dass hier die Lösung für nahezu alle Aporien liegen kann, mit denen sich Hartmann herumschlägt.
(12) Natürlich gilt im Falle der empirischen Phänomene Ph_emp auch – wie im Falle aller Phänomene –, dass die empirischen Phänomene nicht ‚isoliert‘ dastehen, sondern auch eingebettet sind in die allgemeine ‚Reflexion‘, die alles Erleben begleitet und durchdringt; und es gilt auch, dass sich im Medium dieser Reflexion Unterscheidungen treffen lassen, Zusammenfassungen bilden lassen, Begriffe einführen lassen, Beziehungen aufzeigen lassen, usw. bis hin dazu, dass sich explizite Theorien formulieren lassen. Diese Reflexion, Begriffsbildungen, Theoriebildung unterscheidet sich im Allgemeinen in Nichts von der alltäglichen oder philosophischen Reflexion, wohl aber im Speziellen. Auf der Basis von empirischen Daten lassen sich nämlich eindeutiger und klarer als durch die rein körperbasierten Phänomene Ph\Ph_emp Begriffe mit einer ‚operationalisierten‘ Bedeutung einführen, darauf aufbauend Abstraktionen, Relationen und Gesetzmäßigkeiten unter kontrollierten Bedingungen und in mathematischer Form. Natürlich ist auch diese Form von Erkenntnisbildung nicht frei von Problemen (dazu gibt es weit mehr als 1000 wissenschaftliche Publikationen!), doch trotz all dieser Probleme hat die Praxis gezeigt, dass diese Erkenntnisstrategie trotz aller Spezialisierung Erkenntnisse (und Technologien) hervorgebracht hat, die noch vor 100 – 150 Jahren unvorstellbar waren.
(13) Mittels der Reflexion (und darauf aufbauenden Theorien oder theorieähnlichen begrifflichen Strukturen) lassen sich im Strom der Phänomene Objekte, Beziehungen, und Aktionen identifizieren, die das Bild eines ‚Außenraums‘ um den Körper herum entstehen lassen, der eine eigene Dynamik hat, die man heute ansatzweise in seiner evolutionären Dimension fassen kann. Ferner kann man im Bereich der identifizierbaren Objekte solche unterscheiden, die man durch spezifische Eigenschaften als ‚biologisch‘ qualifizieren kann, als ‚Körper‘ mit einer Innenstruktur, zu der u.a. ein Nervensystem (Gehirn) gehört. Durch Korrelation der empirischen Daten mit den Erlebnisdaten läßt sich die starke Hypothese formulieren, dass die uns primär zugänglichen Phänomene Ph im Raum des Bewusstseins Eigenschaften eines Nervensystems sind, das sich empirisch nur ‚von außen‘ messen und beschreiben läßt. D.h. man kann nicht die bewussten Erlebnisse selbst ‚messen‘, sondern nur physikalisch-chemische Eigenschaften des Nervensystems DAT_nn, die zeitlich mit bestimmten Erlebnissen Ph korrelieren.
(14) Abseits vieler ungelöster Detailfragen lässt sich eine generelle Schlussfolgerung auf jeden Fall ziehen: die Phänomene unseres Bewusstseins sind als solche keine Objekte der umgebenden Außenwelt! Vielmehr scheint es so zu sein, dass die ‚Zustände der Außenwelt‘ auf einen ‚Körper‘ einwirken können, der diese physikalisch-chemischen Einwirkungen mittels einer Vielzahl sogenannter ‚Sensoren‘ in ’neuronale Signale‘ ‚übersetzt‘, also etwa sens: ENV x IS —> IS x NN, d.h. die Menge aller Sensoren realisieren eine Abbildung von Umweltereignissen ENV – eventuell modifiziert durch aktuelle interne Zustände IS des Körpers – in eine Menge von neuronalen Signalen NN, eventuell begleitet von zusätzlichen internen Zuständen IS des Körpers.
(15) Wie wir heute schon wissen werden diese sensorisch induzierten neuronalen Signale NN_sens über ein komplexes Schaltwerk von Neuronen auf verschiedenen ‚Ebenen‘ und durch verschiedene ‚Querschaltungen‘ und ‚Rückkopplungen‘ zu abstrakteren Konzepten und Beziehungen ‚weiterverarbeitet‘. D.h. das, was uns irgendwann ‚bewusst‘ wird als Phänomen Ph ist in der Regel sowohl ein ’spätes Verarbeitungsprodukt‘ und zugleich eine ‚Auswahl‘ aller stattfindender neuronaler Zustände, also etwa nn: NN_sens x NN —> NN x Ph. Hierbei gilt die weitreichende Annahme, dass die Menge der Phänomene Ph aus Sicht des Gehirns letztlich eine Teilmenge, und zwar eine echte Teilmenge, der Menge aller neuronalen Zustände ist. Sei NN_ph jene Menge von Neuronalen Signalen, die mit den erlebten Phänomenen Ph korrelieren, und NN_nph die Menge der neuronalen Signale, die nicht mit Ph korrelieren, dann gilt, dass die Menge der neuronalen Signale NN = NN_ph u NN_nph, mit der Annahme, dass die Menge der neuronalen Signale NN_ph, die mit den erlebten Phänomenen Ph korrelieren, eine echte Teilmenge aller neuronalen Signale sind NN_ph rsubset NN. Denn gerade in diesem Umstand der echten Teilmenge wurzelt der evolutionäre Gewinn des ‚Bwusstseins‘: durch die Möglichkeit einer ‚Abstraktion‘ von der beliebig großen Komplexität des begleitenden Körpers und eines kontinuierlich wachsenden Gehirns kann man aktuelles Entscheiden und Kommunizieren in einem überschaubaren Bereich halten.
(16) Zu sagen, dass die bewussten Phänomene Ph aus ‚Sicht des Gehirns‘ auch nur neuronale Zustände sind ist kein (logischer) Widerspruch zur Annahme, dass die Phänomene unseres Bewusstseins aus Sicht unseres Erlebens etwas Besonderes sind, das sich nicht auf neuronale Signale reduzieren lässt. Dies hat mit dem begrifflichen Rahmen zu tun, in dem man sich bewegt. Im phänomenologischen Kontext bewege ich mich im Raum meines Erlebens. Meine ‚Daten‘ DAT_ph sind die erlebbaren Phänomene meines Bewusstseins. Aufbauend auf diesen primären Daten kann ich Begriffsnetze entwickeln, ja sogar Theorien reflexion: DAT_ph —> Th_ph. Beschränke ich mich auf die Teilmenge der empirischen Phänomene Ph_emp habe ich zwar immer noch Phänomene, im Fall der empirischen Untersuchungen zum Körper und Gehirn benutze ich aber zusätzlich zum ’normalen‘ Erkennen empirische Messverfahren meas(), mit denen ich Eigenschaften des Körpers bzw. des Nervensystems untersuche, also meas: BODY x BRAIN —> DAT_bd x DAT_nn. Insofern ich diese Messwerte als Messwerte wahrnehmen kann, sind diese natürlich auch Phänomene Ph_emp_bd und Ph_emp_nn, aber das Besondere dieser Phänomene liegt nicht in dem, was ich als Messergebnis wahrnehme, sondern in der Art, wie ich dieses Phänomen erzeugt habe, eben durch einen zusätzlichen Messvorgang. Wenn ich also bei dem Drücken einer bestimmten Taste auf einem Klavier einen bestimmten Ton höre DAT_ph_ton_i, und die Neuropsychologen zeitlich gleichzeitig durch eine geeignete Messvorrichtung in bestimmten Bereichen meines Gehirns bestimmte Erregungsmuster DAT_nn_ton_i messen können, dann kann man in der Regel nicht direkt von DAT_nn_ton_i auf DAT_ph_ton_i schliessen oder umgekehrt, aber eine Versuchsperson Vpn, die einen Ton hört (DAT_ph_ton_i)Person_abc, und die zugleich das Messergebnis (DAT_nn_ton_i)Person_abc wahrnehmen kann, kann kontrollieren, ob es zwischen den empirischen Messwerten und ihren subjektiven Wahrnehmungen eine signifikante Korrelation gibt (wobei wir unterstellen, dass die ausgewählte Gehirnregion ‚relevant‘ ist). Insofern also solch eine Versuchsperson in dieser speziellen Konstellation eine signifikante Korrelation feststellen könnte, könnte man begründet vermuten, dass das erlebte Phänomen und die gemessenen neuronalen Zustände ‚identisch‘ sind in dem Sinne, dass Erlebnisse als indirekt messbare neuronale Zustände ‚auftreten‘. Davon zu unterscheiden ist die Frage, wie man das Phänomen des subjektiven Erlebens im Rahmen einer empirischen Theorie des Gehirns ‚erklärt‘. Offensichtlich handelt es sich um eine Art ‚Innensicht‘ des Gehirns, bei der ausgewählte Bereiche der Gehirnzustände dazu dienen, wichtige Steuerungsparameter des Gehirns auf einer hohen Abstraktionsebene so zu organisieren, dass sie sich u.a. auch mit symbolischer Sprache verknüpfen lassen.
(17) Zusammenfassend gilt, dass die jeweiligen Konstruktionen des Gehirns auf Basis der sensorischen und körpereigenen Signale DAT_nn_sens und DAT_bd vollständige Eigenleistungen des Gehirns sind. Letztlich baut das Gehirn mit seinen ‚Bordmitteln‘ eine ‚Theorie der umgebenden Welt‘ TH_nn_env mit sich selbst als ‚agierendem Objekt‘ Th_nn_ego subset Th_nn_env.
(18) In diesem Kontext stellt sich die ‚Wahrheitsfrage‘ – will man diesen klassischen Term beibehalten – auf mindestens zweifache Weise: (i) systemintern und (ii) in Relation zur umgebenden Außenwelt.
(19) Systemintern (hier ‚Wahrheit_1‘ genannt) stellt sich primär die Frage, ob die emergierenden Theorien Th_nn als hypothetische Deutungen der in den Daten DAT_nn implizit mitgegebenen Dynamiken mit den Daten hinreichend ‚kongruent‘ sind? D.h. gilt es, dass die Daten DAT_nn vollständig in der ‚Bildmenge‘ der Theorie(n) Th_nn vorkommen? Bzw. gilt, dass DAT_nn_sens subset Th_nn(DAT_nn_sens)? Da jede Theorie aufgrund der ihr ‚innewohnenden‘ Generalisierungen grundsätzlich mehr Elemente in ihrer Bildmenge hat als sensorische Daten in sie eingehen, kann man nicht verlangen, dass sich zu allen theoretisch möglichen Bildelementen 1-zu-1-Entsprechungen in den Primärdaten finden lassen, wohl aber kann – und muss – man verlangen, dass alle tatsächlich auftretenden Primärdaten sich als Elemente der Bildmenge darstellen lassen. Wahrheit_1 wäre dann also genau die Erfüllung dieser Forderung, dass man also sagen könnte: Eine nuronale Theorie der Welt ist Wahr_1 genau dann, wenn gilt: DAT_nn_sens subset Th_nn(DAT_nn_sens). Also nicht Übereinstimmung sondern abschwächend ‚Enthaltensein‘. Der Bewusstseinsraum Ph als ‚Bewusstsein‘ CONSC ist hier verstehbar als korrespondierend mit eine Teilmenge NN_ph der Menge der neuronalen Zustände NN, also NN_ph subset NN und die zu prüfenden neuronalen Theorien sind Muster innerhalb von NN_ph und NN_nph und ihr Referenzpunkt (ihr ‚Kriterium‘) für Wahrheit_1 ist das Enthaltensein der auftretenden neuronalen Ereignisse in der Bildmenge der Theorie. Eine logische Antinomie und daraus sich herleitenden Aporien gibt es hier nicht.
(20) In Relation zur umgebenden Außenwelt (hier ‚Wahrheit_2‘ genannt) stellt sich die Frage nicht innerhalb eines Systems, da das einzelne System in seinem internen Modell ‚gefangen‘ ist. Die modernen empirischen Wissenschaften haben uns aber die Möglichkeit eröffnet, dass wir andere Körper – menschliche wie tierische und andere – als ‚empirische Objekte‘ untersuchen können. Zusätzlich können wir – bis zu einem gewissen Grad – die Entwicklung von Populationen im Laufe der Zeit untersuchen. In diesem Kontext kann man die Frage der ‚Passung‘ des Verhaltens einer Population zur jeweiligen Außenwelt nach unterschiedlichen Kriterien gewichten. Z.B. stellt das schlichte ‚Überleben‘ bzw. ‚Nicht-Überleben‘ ein Basiskriterium dar. Populationen, die nicht überleben, haben offensichtlich ein Verhaltensspektrum, was nicht geeignet ist, alle notwendigen ‚Aufgaben‘, die die jeweilige Umgebung stellt, in der verfügbaren Zeit befriedigend zu lösen. Insofern das Verhalten ein Ouput des Körpers mit seinem Nervensystem ist, das auf einem bestimmten Input basiert – also sys: IN x BD x NN —> OUT — muss man sagen, dass die Systemfunktion sys offensichtlich unzulänglich ist. Da jede Systemfunktion eine Synthese von Körper mit Nervensystem BD x NN bildet, von dem wir wissen, dass es auf biochemischem Wege über Genetik, Wachstum und Vererbung weitergegeben und zugleich ‚verformt‘ wird, könnte man sagen, ein Körper-mit-Nervensystem-System SYS_bd_nn hat eine ‚wahre_2‘ Struktur, wenn das potentielle Verhalten sys( IN x BD x NN) geeignet ist, dass die Population dieses Systems POP_sys überlebt. Hier wird also der Körper mit seinem Nervensystem und den im Nervensystem bildbaren ‚Modellen‘ Th_nn einheitlich als ein dynamisches Modell sys() gesehen, das alle für das Überleben notwendigen Eigenschaften in der umgebenden Außenwelt hinreichend abbilden und gestalten kann. Das ‚Transobjektive‘ von Hartmann könnte in diesem Kontext interpretiert werden als die umgebenden Außenwelt, die auf den jeweiligen Körper einwirkt und über die verfügbaren Sensoren in dem Körper ein ‚Bild ihrer selbst‘ erzeugt, das nicht die Außenwelt ist, wie sie ‚an sich‘ ist, sondern die Außenwelt, wie sie aufgrund einer kausalen Wirkkette innerhalb eines Organismus repräsentiert werden kann. Die verfügbare neuronale Maschinerie generiert aus diesem primären ‚Bild‘ unterschiedliche komplexe Theorien, die über die konkreten einzelnen Daten hinausreichen (sie ‚transzendieren‘) und mittels einer Theorie ein übergreifendes Bild von einem ‚transzendierenden Objekt‘ entwerfen. Dieses selbst generierte ‚Bild eines Urbildes‘ kann mit dem Urbild – von einem Metastandpunkt aus betrachtet — mehr oder weniger ‚übereinstimmen‘ –also: wahr2: ENV x BD x NN x IN —> {passt, passt-nicht} –, doch ist diese Art von Passung dem individuellen System nicht zugänglich! Sie erschliesst sich nur in einer empirischen Untersuchung, die historische Entwicklungen untersuchen kann.
(21) Behält man das Verständnis von Metaphysik als Wissenschaft vom Seienden bei, das sich durch und jenseits der Erkenntnis erschließt und das unabhängig von der Erkenntnis existiert, dann müsste man nun sagen, Metaphysik ist im Prinzip möglich, nicht jedoch als Disziplin individuellen Erkennens, sondern nur als empirische Disziplin, die in einem Netzwerk betrieben wird. Moderne empirische Wissenschaften mit explizitem Theorieanteil, die die Leistungsfähigkeit von Populationen unter expliziter Berücksichtigung des neuronal basierten Verhaltens mit Bezug auf ihre Umwelt untersuchen, bilden gute Kandidaten für eine moderne Metaphysik.
(22) Man kann diese Überlegungen auf vielfältige Weise ergänzen und weiterführen. Ein interessanter Aspekt ist der ‚Offenbarungscharakter‘ von Natur. Wenn man bedenkt, wie umfangreich der Weg vom sogenannten Big-Bang (reine Energie mit einer unvorstellbar großen Temperatur) über Ausdehnung, Sternenbildung, Elementbildung, Bildung unserer Galaxie mit einem komfortablen Platz für unser Sonnensystem, mit einem komfortablen Platz für unsere Erde mit einer extrem günstigen Konstellation aller Planeten, der Entstehung von Molekülen aus Elementen, bis hin zu den ersten Zellen (bis heute letztlich ungeklärt)(vor ca. -3.2 Milliarden Jahren), von da aus eine ‚endogen und interaktiv getriebene Entwicklung‘ genannt Evolution hin zu körperlichen Strukturen mit vielen Zellen, hin zu Nervensystemen (Start vor ca. -700 Mio Jahren), hin zu Körpern und Gehirnen, die explizite Modelle ihrer Umwelt und ihrer selbst entwickeln können, die symbolische Sprache erfunden haben und vieles mehr. Entscheidend: von der reinen Energie am Anfang sind wir zu Gehirnzuständen gekommen, in denen sich das Universum gleichsam ’selbst‘ anschauen kann, den Augenblick, das Einzelne, aber auch Alle und die ganze Entwicklung. Im Bewusstsein eines JEDEN Menschen kann sich potentiell das gesamte Universum mit allen seinen Facetten ‚versammeln‘, ‚aufscheinen‘. Ich habe nicht den Eindruck, dass irgendein Mensch sich der Tragweite dieses Faktums bewusst ist. Und bezogen auf die klassischen Offenbarungsreligionen (Judentum, Christentum, Islam) habe ich den Eindruck, dass diese die Menschen, statt sie mehr und tiefer zu Gott und einer Ehrfurcht vor dem Leben hinzuführen, eher dazu dienen, die Menschen Gott zu entfremden und das Leben – auch in Gestalt anderer Menschen – zu verachten, zu hassen oder gar zu töten. Ein solches Verhalten ist NIEMALS die Botschaft des Lebens, wenngleich das ‚Fressen und Gefressenwerden‘ im Bereich des Lebens eine Eigenschaft darstellt, die an die Notwendigkeit der Verfügbarkeit von hinreichender Energie gekoppelt ist. Doch in der Gestalt des Menschen hat das biologische Leben einen Punkt erreicht, bei dem dieses zwanghafte Fressen und Gefressenwerden prinzipiell durchbrochen werden kann. Wir haben die grundsätzliche Möglichkeit –zum ersten Mal seitdem es dieses Universum gibt!!! — die Gesetze des Lebens neu zu gestalten, neu zu formen, ja, letztlich können wir im Prinzip das gesamte bekannte Weltall von Grund auf neu umformen (natürlich nicht an einem Tag….). Genau dazu sind wir ‚berufen‘. Aber wen interessiert schon die Wahrheit2? Noch liegt immer ein gewisser ‚Schleier‘ über der Bestimmung des gesamten Lebens. Dass es auch irgendwo anders im riesigen Universum ähnliches der gar gleiches Leben wie unseres geben sollte, ist grundsätzlich weder auszuschließen noch würde es unserer ‚Bestimmung‘ irgendeinen Abbruch tun. Die Erkenntnis des ‚gemeinsam Gewordenseins‘ enthält in sich eine gemeinsame Berufung für das Ganze, von dem wir in Gestalt des messbaren Universums möglicherweise bislang nur einen kleinen Zipfel sehen (so wie unser Gehirn im Körper sich als ‚Herr der Dinge‘ erlebt, obgleich es doch, wie wir heute wissen können, nur einen winzigen Ausschnitt eines viel Größeren erlebt). ‚Wahrheit‘ ist das jeweils ‚Größere‘ (Magis), dem wir uns beugen und dienen müssen, da wir als einzelne nicht ‚Herr des Geschehens‘ sind. Insofern wir aber untereinander mit allem unauflöslich ‚verbunden‘ sind, ist diese individuelle Beschränkung nur relativ.