Archiv der Kategorie: Wissenschaft

SELBSTBESCHREIBUNG UND MEDITATION

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 12.Nov 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Korrekturen: 14.Nov.2018 {Nr.6, Nr.10, Nr.13 }

KONTEXT

Der folgende Text steht thematisch im Zusammenhang mit den beiden vorausgehenden Beiträgen zum Thema ‚Wissenschaft und Meditation‘ sowie ‚Meditation im Alltag‘. Während der erste Beitrag ‚Wissenschaft …‘  sich die Frage stellte, ob man das kulturelle Phänomen ‚Meditation‘ in einen irgendwie sinnvollen Zusammenhang mit ‚empirischer Wissenschaft‘ sehen kann, ging es im zweiten Beitrag ‚… im Alltag‘  um das konkrete Tun beim Meditieren, zumindest bei jener Form des Meditierens, bei der man sich in eine ‚Ruhestellung‘ begibt, in der man sich selbst zum Gegenstand macht.

SELBSTBEOBACHTUNG ALS THEMA

Das Thema ‚Selbstbeobachtung‘ ist so alt, wie es philosophisches Denken gibt und hat selbst in den empirischen Wissenschaften nicht an Bedeutung verloren. Das Thema voll darzustellen würde allerdings mindestens ein ‚dickes‘ Buch verlangen, eher mehr. Von all den philosophischen Varianten und wissenschaftlichen Diskussionen soll hier aber abgesehen werden, um in einer überschaubaren Weise eine (‚die‘?) grundlegende Perspektive formulieren zu können, die sich heute unter Berücksichtigung von Philosophie und modernen Wissenschaften als Arbeitshypothese formulieren lässt. Arbeitshypothesen bringen es mit sich, dass man sie kritisieren und weiter verbessern kann.

SELBSTBEOBACHTUNG UND MEDITATION

Die neuerliche Auseinandersetzung mit dem Thema ‚Selbstbeobachtung‘ in diesem Blog (bislang nicht unter dem Stichwort ‚Selbstbeobachtung‘ sondern eher in Verbindung mit Stichworten wie ‚Phänomene‘, ‚Phänomenologie‘, usw.) wurde stimuliert durch die aktive Auseinandersetzung mit dem Phänomen ‚Meditation‘, innerhalb deren es neben der theoretischen Auseinandersetzung auch die konkrete Praxis, das konkrete Meditieren gibt. Diese konkrete Praxis eröffnet dem Meditierenden einen an sich unendlichen Raum an möglichen Ereignissen, konkret gefüllt mit einem bunten Strauß an Ereignissen und Veränderungen, die im Wahrnehmen Deutungen erlauben. Was aber ist eine ‚richtige‘, ‚angemessene‘ Deutung?

PHILOSOPHISCHER DEUTUNGSKONTEXT

In einer Kooperation von moderner (Wissenschafts-)Philosophie und modernen wissenschaftlichen Disziplinen lässt sich folgender ‚Rahmen‘ für mögliche Wahrnehmungen und Deutungen formulieren, der allgemein gilt, nicht nur für das Meditieren.

Ausgehend von dem Abschnitt ‚BEOBACHTUNG: SUBJEKTIVITÄT – OBJEKTIVITÄT‘ in dem schon oben erwähnten Beitrag ‚Wissenschaft …‘ werden hier folgende Annahmen gemacht (siehe Schaubild):

Unterschiedliche Datenquellen zusätzlich zur Introspektion
Unterschiedliche Datenquellen zusätzlich zur Introspektion
  1. Die verhaltensorientierten Wissenschaften, allen voran die Psychologie, benutzen vorwiegend Daten aus Verhaltensbeobachtungen. Diese Daten werden hier D_SR genannt (‚S‘ für Stimulus und ‚R‘ für Response). Damit kann die experimentelle Psychologie zwar nicht direkt in das ‚Innere‘ eines biologischen Systems schauen (Tiere, Menschen, …), wohl aber ist es möglich, auf der Basis solcher Daten explizite ‚Verhaltens-Theorien‘ (T_SR) zu formulieren, die mit ‚hypothetischen Annahmen‘ über ‚innere Zustände‘ arbeiten, mit deren Hilfe sich das äußerlich beobachtbare Verhalten ‚erklären‘ lässt. Berühmte Beispiele hierfür sind einmal das Konstrukt des ‚Unbewussten‘ in der Psychoanalyse oder das Konstrukt des ‚Gedächtnisses‘.
  2. Mit der Weiterentwicklung der allgemeinen Physiologie — hier insbesondere mit dem Spezialgebiet ‚Gehirn‘ – konnte die Wissenschaft den Bereich der objektivierbaren Daten weiter ausdehnen auf das ‚Innere des Körpers‘, die verschiedenen Organe, ihre Funktionsweisen und Interaktionen. Diese Daten werden hier D_PHYS genannt. Fasst man die Vielzahl der inneren Strukturen als ‚Input-Output-Systeme‘ auf, dann kann man auf der Basis der Beobachtungsdaten eine Vielzahl von Hypothesen über die Verhaltensfunktion solcher Input-Output-Systeme in Form von physiologischen Theorien (T_PHYS) formulieren.
  3. Sowohl die Daten wie auch die möglichen Theorien zum äußerlich beobachtbaren Verhalten wie auch zu den inneren Strukturen sind zunächst ‚unabhängig‘ voneinander. Man kann von der Theorie des Verhaltens T_SR nicht direkt auf Eigenschaften der inneren Strukturen T_PHYS schließen und auch nicht umgekehrt. Andererseits spricht alles dafür, dass die inneren Strukturen – beschrieben in einer möglichen Theorie T_PHYS – verantwortlich sind für das äußerlich beobachtbare Verhalten D_SR, das in einer möglichen Theorie T_SR beschrieben wird. Es wäre also naheliegend, eine Art ‚Brückentheorie‚ zu bauen (‚Psychophysiologie‘ oder ‚Physiopsychologie‘), in der die beiden Theorien T_SR und T_PHYS explizit als T_SR_PHYS miteinander in Beziehung gesetzt werden (als ‚Neuropsychologie‘ ist diese Idee schon länger bekannt, aber diese stellt eine Engführung des eigentlichen Themas dar und die wissenschaftsphilosophische Konzeption der bisherigen Arbeiten erscheint bislang nicht ganz überzeugend).
  4. Die soeben skizzierten Typen von Daten D_SR und D_PHYS sind relativ weit verbreitet. Was nicht so verbreitet ist, das ist die Inbeziehung-Setzung dieser Daten zum Bewusstsein. Entsprechend der großen Tradition der empirischen Wissenschaften, die den Zugriff auf die Wirklichkeit an die Verfügbarkeit von externen Messprozessen geknüpft hatten, um sich von den vielen falschen Ansprüchen einer damals noch unkritischen Philosophie abzugrenzen, ist die mögliche Bedeutung und Rolle der bewusstseinsbasierten Daten – hier D_PH genannt – etwas aus dem Blick geraten, soweit, dass lange nicht mehr klar war, wie man überhaupt empirische Daten (D_SR und D_PHYS) mit Bewusstseinsdaten (D_PH) in Beziehung setzen kann.
  5. Erst ganz langsam setzt sich mit den neueren Erkenntnissen von Biologie, Physiologie und Psychologie wieder die Einsicht durch, dass das Gehirn als ‚Ermöglichung von Bewusstheit‘ selbst ja gar keinen direkten Bezug zur empirischen Außenwelt besitzt. Über komplexe Signalprozesse werden dem Gehirn Außenweltereignisse mehrfach übersetzt zur weiteren Bearbeitung übermittelt, ebenso Ereignisse aus dem Körper wie auch aus dem Gehirn selbst. Aus all dem konstruiert das Gehirn ein dynamisches Modell der Gesamtsituation, die dann in einem biologischen System das spezifische Gesamtphänomen ‚Bewusstsein‘ ermöglicht, innerhalb dessen das System den ‚Eindruck‘ hat, dass ‚es selbst‘ unterschiedliche ‚Phänomene (PH) erlebt‘. Diese Phänomene repräsentieren nach heutigem Wissensstand nur einen winzigen Teil aller Ereignisse im Körper. Man nimmt daher – spätestens seit Freud — neben der Bewusstheit des Bewusstseins auch ein ‚Unbewusstes‘ an. Verschiedene weitere Annahmen über ein ‚Vor-Bewusstes‘ (so Freud) oder ein ‚temporäres Bewusstsein‘ spielen hier keine wesentliche Rolle, da die Phänomene des Bewusstseins allesamt aus dem Un-Bewussten herrühren und somit das Unbewusste punktuell und temporär ’sichtbar‘ machen.
  6. Mit dieser neueren Einsicht in die Gesamtarchitektur des biologischen Erkennens kann man die Beziehung zwischen empirischen Verhaltens- und Körperdaten einerseits (D_SR, D_PHYS) und Bewusstseinsdaten (D_PH) andererseits neu gewichten: auch das, was wir empirische Daten nennen sind letztlich auch Bewusstseinsdaten (!), allerdings mit der Besonderheit, dass man diese Bewusstseinsdaten mit externen Messprozeduren korrelieren kann, die parallel zu den Bewusstseinsdaten realisiert werden und die selbst sowie ihre Messergebnisse D_SR und D_PHYS zugleich auch Daten des Bewusstseins D_PH_SR und D_PH_PHYS sind. Nur weil sie auch bewusst sein können, wissen wir von ihrer Existenz, und nur wenn diese Daten uns bewusst sind, können wir mit ihnen bewusst umgehen und mit ihnen bewusst arbeiten.
  7. Die sogenannte ‚Kluft‘ zwischen Philosophie und den empirischen Wissenschaften ist daher eher ein ‚Artefakt des Denkens‘. Damit wird die besondere Stellung der empirischen Wissenschaften weder in Frage gestellt noch geschmälert, sondern es wird deutlich, wie die empirischen Wissenschaften letztlich als ein ‚Philosophieren mit anderen Mitteln‘ betrachtet werden können. Das ‚empirische Messen‘ ist von daher eine spezielle Methode, durch die die Philosophie in bestimmten Teilbereichen deutlich ‚mehr‘ erkennen kann als ohne diese Methoden.
  8. Was damit allerdings auch klar wird: statt dass sich die Philosophie – wie so oft in der Vergangenheit – mit ‚Abscheu‘ von den empirischen Wissenschaften abwendet, hat sie eine ganz besondere Verantwortung, diesen extrem wichtigen Teil einer ‚empirischen Philosophie‘ besonders zu pflegen. Die methodischen Herausforderungen, die sich hier stellen, sind enorm und übersteigen alles, was die Philosophie zuvor getan hat.
  9. In diesem Kontext sei auch besonders hingewiesen auf die vollautomatischen (= unbewussten) Prozesse der ‚induktiven Kategorienbildung‘ im Rahmen von Wahrnehmung und Gedächtnis. Was immer an Wahrnehmungsereignisse das ‚Gedächtnis‘ erreicht (ein Teilsystem des Gehirns), es wird automatisch als ein prototypisches Muster ‚angelegt‘, das sich nach impliziten Ähnlichkeitskriterien kontinuierlich ‚anreichern‘ kann. Nur deshalb sind wir in der Lage, einen zuvor schon mal wahrgenommenen ‚Gegenstand‘ der Art ‚A‘ im Fall eines neuerlichen Vorkommens wieder als ‚A‘ oder ‚dem A ähnlich‘ wiedererkennen zu können.
  10. Nur weil es diese ‚automatische induktive Kategorienbildung‘ gibt können wir Sprachsysteme einführen und benutzen, deren Symbole sich auf solche Kategorien als ihren ’natürlichen Gegenständen‘ beziehen. Worte wie ‚Tisch‘, ‚Baum‘,  ‚Hund‘ usw. können sich  auf einen konkreten Gegenstand X beziehen, weil der konkrete Gegenstand X  hinreichend viele ‚Ähnlichkeiten‘ mit der jeweiligen  induktiv entstandenen natürlichen Kategorie ‚Tisch‘, ‚Baum‘,  ‚Hund‘ usw aufweist. Die potentielle Menge von konkreten Objekten X in der realen Welt, die sich auf solch eine Weise einer ‚induktiven Gegenstandskategorie‘ zuordnen lassen,  sind daher implizit ‚offen‘, nicht wirklich ‚begrenzbar‘. Zudem  muss man  davon ausgehen, dass die konkrete Füllung dieser Gegenstandskategorien im Kontext einer natürlichen Sprache bei den einzelnen Menschen stark variieren kann, je nach individueller Erfahrung.
  11. Im Kontext der empirischen Wissenschaft sind solche ‚prinzipiell offenen Bedeutungskategorien‘ unerwünscht. Will man ‚Vieldeutigkeiten‘ vermeiden gibt es bislang zwei Strategien, um diese zu minimieren:
    1. Einführung von Fachsprachen innerhalb der normalen Alltagssprache: man versucht die benutzten Begriffe durch entsprechende Regeln zu ’normieren‘;
    2. Einführung von formalen Kunstsprachen, deren Bedeutungszuordnung durch explizite Bedeutungsregeln sichergestellt werden sollen.
  12. Beide Strategien haben sich als nicht vollständig umsetzbar erwiesen. Am erfolgreichsten erscheint bislang die Strategie der formalen Fachsprachen mit expliziten Bedeutungsregeln, und hier insbesondere die Sprache der modernen Mathematik, bekannt als ‚mengentheoretische Sprache‘ und diverse Formen von ‚Strukturbildungen mit Interpretationsbegriff‘.
  13. Grundsätzlich ist es möglich, dass man mittels einer formalen Kunstsprache ‚künstliche formale Kategorien‘ einführt, die über ‚spezielle Bedeutungszuordnungen‘ nur eine endliche Menge von klar definierten Eigenschaften umfassen oder, zumindest auf rein formaler Ebene, überabzählbar viele  Mengen von Eigenschaften unterschiedlicher Strukturen. Diese Möglichkeit von ‚künstlichen formalen Kategorien‘ hat sich in der empirischen Forschung – z.B. in der Physik – als extrem wichtig erwiesen, da die Eigenschaften der empirischen Welt oft so ganz anders zu sein scheinen als es die gewohnte induktive Kategorienbildung des menschlichen Gehirns nahelegt.
  14. Unter Einbeziehung des Aspekts ‚Sprache‚ lässt sich das Verhältnis von moderner Philosophie und moderner empirischen Wissenschaft nochmals präziser fassen: mittels definierter empirischer Messprozeduren (MSE) und daraus resultierenden empirischen Messergebnissen (D_EMP) ergeben sich im Rahmen des Bewusstseins (CONSC) spezifische Phänomene (D_PH_EMP), denen eben extern diese Messprozeduren korrespondieren. Als wahrgenommene Phänomene D_PH_EMP unterliegen sie allerdings den automatisch erzeugten induktiven Kategorienbildungen, auf die symbolische Ausdrücke einer Sprache bezogen werden können.
  15. Dabei ist zu beachten, dass die Ausdrücke einer Sprache auch sowohl als empirische Ereignisse (D_EMP_L) vorkommen wie auch als Phänomene (D_PH_EMP_L). Die Beziehung zwischen sprachlichen Ausdrücken und zugeordneten Bedeutungskorrelaten geschieht als unbewusster Prozess innerhalb des Gedächtnisses als Teil des Gehirns.
  16. Im Rahmen von Denkprozessen (teils unbewusst, teils bewusst), lassen sich beliebig viele formale Ausdrücke mit zugehörigen formalen Kategorien bilden. Im Falle von empirischen Wissenschaften müssen diese jeweils mit empirischen Phänomenen in Beziehung gesetzt werden können, um ihren Außenweltbezug herstellen zu können. Im Falle von vor-wissenschaftlichen Theorien wie einer unkritischen Metaphysik wurden zwar auch rein abstrakte, bisweilen sogar formale, Strukturen im Denken entwickelt, aber deren Geltung wurde gewöhnlich nicht nach festen Regeln auf empirische Außenweltereignisse zurückgebunden. Die negativen Auswirkungen eines solchen Vorgehens lassen sich im Rückblick untersuchen. Von heute aus gesehen liegt es daher nahe, die modernen empirischen Theorien als die genuinen Nachfolger der klassischen ‚metaphysischen‘ (= jenseits der Natur) Theorien zu betrachten, mit der Innovation, dass heute die potentiellen abstrakten (und formalisierten) Strukturen nach klar vereinbarten Verfahren an empirische Messprozesse zurückgebunden werden.
  17. Nach diesen vorbereitenden Überlegungen wird vielleicht verständlich, dass die ‚Phänomene‘ eines Bewusstseins für alle Disziplinen die ersten ’nicht weiter hintergehbaren‘ Daten darstellen. Die Einführung von empirischen Messverfahren hebt die Priorität von Phänomenen des Bewusstseins daher nicht auf, sondern ergänzt diese nur um zusätzliche Momente, die ‚berücksichtigt‘ werden sollten, will man über eine ‚Wirklichkeit‘ sprechen, die nicht nur im eigenen Bewusstsein zu verankern ist, sondern zugleich auch im ‚Zwischenbereich der Körper‘, den wir ‚empirische Welt‘ nennen.
  18. Damit stellt sich die Frage, was ist mit jenen ‚Phänomenen‘, die sich nicht mit empirischen Messverfahren korrelieren lassen; nennen wir diese abkürzend D_PH*, bestimmt durch die Gleichung D_PH* = D_PH – D_PH_EMP.
  19. Diese nicht-empirischen Phänomene D_PH* sind ja nicht weniger ‚wirklich‘ wie die empirischen Phänomene D_PH_EMP, nur fehlt ihnen ein definiertes Korrelat in der Zwischen-Körper-Welt. Alle diese nicht-empirischen Phänomene D_PH* entstammen letztlich dem Unbewussten (NON-CONSC).
  20. Aus dem Alltag wissen wir, dass alle Menschen aufgrund sehr ähnlicher Körper und Gehirnstrukturen vielerlei Phänomene kennen, über die sich eine gewisse ‚Einigkeit‘ herstellen lässt, weil sie die meisten Menschen ’sehr ähnlich‘ erleben, wie z.B. ‚Müdigkeit‘ nach längerem ’nicht Schlafen‘, ‚Hunger‘ nach längerem ’nicht Essen‘ usw .Man könnte also sagen, dass der ‚menschliche Körper‘ auch eine Art ‚Messgerät‘ ist, das bei entsprechendem ‚Verhalten‘ bestimmte ‚Zustände als Quasi-Messergebnisse‚ erzeugt, über die sich zwischen allen Beteiligten eine ‚praktisch hinreichende Einigkeit‚ erzielen lässt, wenngleich diese Einigkeit in der Regel nicht die ‚Präzision‘ hat, wie die technisch vereinbarten empirischen Messverfahren der Wissenschaften.
  21. Schwieriger wird es allerdings dann, wenn jemand ‚Phänomene‘ zu erleben meint, für die sich nicht sofort eine klare Ursache im Körper zuordnen lässt, die sich von anderen in ‚hinreichend ähnlicher Form‘ ’nachvollziehen‘ lässt. So kann es unterschiedliche Formen von ‚Schmerzen‘, ‚Emotionen‘, ‚Gefühlen‘, und ‚Stimmungen‘ geben, die sich nicht sofort ( auch nicht über längere Zeit) bestimmten körperlichen Prozessen zuordnen lassen. Dann wird eine zwischenmenschliche Verständigung schwierig. Der Angesprochene weiß dann nicht, mit welchen seiner ‚Erfahrungen‘ er die Äußerungen des anderen ‚in Verbindung bringen soll‘.
  22. Aus der schwierigen Kommunizierbarkeit von Phänomenen folgt allerdings nicht, dass diese ‚unwichtig‘, ‚unbedeutend‘ sind. Im Gegenteil, es können sehr wichtige Phänomene sein, die bislang – aus welchen Gründen auch immer – einfach von niemandem beachtet werden. So wie generell die Wissenschaft immer wieder neu um die Angemessenheit ihrer bisherigen ‚Terminologie‘ ringen muss, so müssen wir Menschen – insbesondere, wenn wir uns als Philosophen verstehen – unsere bisherigen Sprechweisen immer wieder neu an unseren Phänomenen ‚überprüfen‘.
  23. In diesem Kontext erscheint das ‚Meditieren‘ als eine der radikalsten Formen ‚eines sich seiner eigenen Erfahrung zensurfreien Aussetzens‘. Hier können sich viele Phänomene ereignen, die quer liegen zu den bisherigen Sprechweisen und die von daher neue Ausdrucksweisen erfordern.
  24. Aktuell ist dem Autor keine systematische philosophische Analyse der Phänomene des alltäglichen Erlebens inklusive speziell auch der Phänomene im Kontext von Meditation und Spiritualität bekannt. Zwar gibt es zahllose Artikel und Bücher zu diesem Thema, diese unterscheiden sich jedoch bezüglich Erfahrungskontexten, gewählten Sprachen und Methoden so stark, dass eine verallgemeinerte Aussage über diese Analysen aktuell nicht möglich erscheint; möglicherweise brauchen wir hier ein völlig neues Forschungsprogramm.
  25. Das Thema einer Super-Brückentheorie zwischen äußeren Verhaltensdaten, Körperdaten und Bewusstseinsdaten soll hier nur erwähnt werden. Eine solche Theorie wäre das ferne Ziel, das zu adressieren wäre.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

MEDITATION UND WISSENSCHAFT. Überlegungen zu einem Lehr- und Forschungsexperiment an einer Deutschen Hochschule

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 16.Okt. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Das Hauptthema in diesem Blog ist seit Beginn die Suche nach dem neuen Menschenbild innerhalb der Koordinaten ‚Philosophie – Wissenschaft‘ ergänzt um die Themen ‚Gesellschaft – Technologie‘ und ‚Religion‘.

Im Laufe der Jahre haben sich aufgrund dieser Überlegungen immer wieder ‚Unterprojekte‘ außerhalb des Blogs herausgebildet, um die allgemeinen Überlegungen auch konkret zu prüfen bzw. umzusetzen.

Aktuell gibt es drei Unterprojekte: (i) Vorbereitet durch viele Jahre Vorlesungen gibt es ein online-Buchprojekt zum integrierten Engineering, das weit fortgeschritten ist. (ii) Ferner gibt es nun schon im vierten Semester ein Projekt ‚Meditation und Wissenschaft‘ an einer Deutschen Hochschule als reguläre interdisziplinäre Lehrveranstaltung, aus der ein erstes Buch hervorgegangen ist (kurz vor dem Druck), und zu dem es in wenigen Tagen einen ersten wissenschaftlichen Kongress geben wird. (iii) Seit dem Frühjahr 2018 hat sich im Anschluss an einen Kongress zur Städteplanung ein neues interdisziplinäres Projekt gebildet, das eine ziemlich direkte Umsetzung der Theorie des Engineerings ist, die unter (i) erwähnt wird (die aktuelle Webseite https://www.frankfurt-university.de/index.php?id=4664 verrät noch nicht all zu viel, aber eine deutlich erweiterte Fassung ist in Vorbereitung (bis ca. Mitte November) und adressiert alle Kommunen in Deutschland (und letztlich in ganz Europa). Eine weitere Variante adressiert Universitäten und Schulen, auch Firmen.

Hier soll kurz auf das unter (ii) genannte Projekt eingegangen werden.

GESELLSCHAFTICHE AUSGANGSLAGE

Wie in dem im Frühjahr 2019 erscheinenden Buch ausführlich dargelegt wird, erleben wir eine Zeit, in der aktuelle technologische Entwicklungen (sehr dominant: die sogenannte ‚Digitalisierung‘) die gewohnten Abläufe in der Gesellschaft von Grund auf neu formen. Zusätzlich wirbeln alte, bekannte Weltbilder mit neuen wissenschaftlichen Sehweisen, meist sehr fragmentiert, durcheinander und lassen den einzelnen eher verwirrt denn aufgeklärt zurück. Die konkreten Alltagsformate der einzelnen Menschen in den Industrieländern induzieren viele neue Stresssituationen, selbst schon bei Kindern, Jugendlichen und Studierenden, die das aktuelle Bildungssystem zu überfordern scheinen.

VERANTWORTUNG DER HOCHSCHULEN

In einem solchen Kontext müssen sich Hochschulen, auch die Hochschulen für angewandte Wissenschaften, neu orientieren und sortieren.

Traditionellerweise verbindet man mit Hochschulen ‚Wissenschaft‘, ‚wissenschaftliches Denken und Arbeiten‘, und es gibt zahlreiche juristische und organisatorische Abläufe, die diese Wissenschaftlichkeit absichern sollen. Aus Sicht des einzelnen Studierenden erscheint eine Hochschule aber immer mehr wie eine ‚Service-Maschine‘, die eine Vielfalt von Studienprogrammen anbietet, die jeweils kleine Ausschnitte aus dem großen Wissenskosmos vorstellt, die — in der Regel — weder mit dem Rest der Wissenschaft noch mit der Breite der Gesellschaft irgendetwas zu tun haben. Wichtiges Detail: der einzelne Studierende als ‚Person‘, als ‚Mensch‘ mit all seinen Facetten und heutigen Belastungen kommt in diesen Programmen normalerweise nicht vor. Dies ist ‚Privatsache‘. Da muss jeder auf eigene Faust schauen, wie er das ‚regelt‘.

Der wachsende ‚Veränderungsdruck‘ in der gesamten Gesellschaft, die Zersplitterung der kognitiven Landkarte in viele Fragmente, die nicht mehr zusammen zu passen scheinen, die allseitige Zunahme an körperlichen und psychischen Erkrankungen, kann man, wenn man will, als Anregung, als Herausforderung verstehen, den Ort ‚Hochschule‘ neu zu formen, um diesen greifbaren Defiziten mehr gerecht zu werden.

ERSTER ANTWORTVERSUCH

Eine umfassende Antwort würde möglicherweise in eine sehr grundlegende Reform der Hochschulen münden. Ob, wann und wie dies geschieht, weiß momentan sicher niemand. Aufgrund einer besonderen Situation an der Frankfurt University of Applied Sciences kam es im Frühjahr 2017 zu einer Initiative (Dievernich, Frey, Doeben-Henisch), die zum Start eines offiziellen Lehrmoduls ‚Meditation als kulturelle Praxis‘ führte, das sich seitdem inhaltlich immer mehr zur Thematik ‚Meditation und Wissenschaft‘ hin entwickelt hat.

Es soll hier einführend beschrieben werden, wie das Projekt so zwei unterschiedlich erscheinende Themen wie ‚Meditation‘ einerseits und ‚Wissenschaft und Technologie‘ andererseits miteinander zu einer Lehrveranstaltung mit forschendem Charakter verbinden kann. Zudem sollte es einen Beitrag zur personalen, menschlichen Situation der Studierenden leisten.

INTERDISZIPLINÄRES FELD STUDIUM GENERALE

Vorweg zu den Details der nachfolgenden Erläuterungen muss festgestellt werden, dass der Start zu dem neuen, innovativen, Projekt ‚Meditation als kulturelle Praxis‘ (oder dann künftig eher ‚Meditation und Wissenschaft‘) nur möglich war, weil es in der Hochschule schon seit 2005 die alle Fachbereiche und Studienprogramme übergreifende Einrichtung eines ‚interdisziplinären Studium Generale (ISG)‘ gibt. In diesem Rahmen können nahezu beliebige Themen von Dozenteams aus mindestens 2 – eher 3 — verschiedenen Fachbereichen angeboten werden, und die Studierenden aus allen Bachelorstudiengängen können sich dafür anmelden. Dieser kreative Raum innerhalb der ansonsten ziemlich ‚hart verdrahteten‘ Lehre war schon vielfach ein Ort für neue, innovative, und vor allem teamorientierte Lernerfahrungen. Doch auch hier gilt: was nützen die besten Optionen, wenn es zu wenig kreative und mutige Dozenten und Studierende gibt. Freiräume sind ‚Einladungen zu‘ aber keine ‚Garantien für‘ eine kreative Nutzung.

PHÄNOMEN MEDITATION

Das Thema ‚Meditation‘ blickt zurück auf eine Tradition von mehr als 2000 Jahren, mit vielen unterschiedlichen kulturellen Ausprägungen, und erlebt seit Jahren eine starke Wiederbelebung in von Technologie geprägten Gesellschaften, deren Vielfalt kaum noch zu überschauen ist. Im Kern wird das Thema Meditation aber begleitet von einer Art Versprechen, dass jemand, der meditiert, daraus sowohl für seinen Körper als auch für seine Psyche ‚positive Wirkungen‘ ziehen kann.

Meditieren heißt, dass man mit seinem Körper etwas konkretes ‚tut‘, dass man konkrete Zustände seines Körpers konkret ‚erlebt‘, und dass man dieses Tun und Erleben ‚interpretieren‘ kann, aber nicht muss. Sowohl zu den konkreten praktischen Formen des Meditierens wie auch zu den möglichen Interpretationen gibt es ein breites Spektrum an Vorgehensweisen und Deutungen.

Was kann ein einzelner Mensch tun, wenn er sich mit Meditieren beschäftigen will? Was kann er tun, wenn er in einer von Wissenschaft und Technik geprägten Welt mit dem Phänomen Meditation konfrontiert wird? Welche Rolle spielen die ‚Deutungsmodelle‘? Warum gibt es überhaupt so viele unterschiedliche Deutungsmodelle? Was bedeutet es, dass diese Deutungsmodelle in so vielen verschiedenen Sprachen aus unterschiedlichen kulturellen Kontexten vorliegen?

DEUTUNGSMODELLE UND WISSENSCHAFT

Die modernen empirischen Wissenschaften sind im Laufe der Jahrhunderte (mit langen Vorlaufzeiten von bis zu 2000 Jahren!) entstanden als eine neue Art von ‚Wahrheitsbewegung‘: wie kann man in der Vielfalt der Erfahrungen und des Wissens jene ‚Bestandteile‘ herausfinden, die ‚wirklich Geltung‘ haben im Unterschied zu jenen Bestandteilen, die sprachlich zwar beschrieben und behauptet werden, aber nur schwer bis gar nicht als ‚gültig‘ erwiesen werden können? In einem mühsamen Prozess, der in den ca. letzten 400 Jahren zu seiner heutigen Form fand, zeigte sich, dass das Festhalten an intersubjektiv überprüfbaren ‚Standards‘ intersubjektiv nachvollziehbare und reproduzierbare ‚Messoperationen‘ mit ‚Messwerten‘ ermöglichte, was wiederum ganz neue explizite ‚Arbeitshypothesen‘, ‚Modelle‘ und dann ‚Theorien‘ ermöglicht.

KEIN GEGENSATZ ZWISCHEN WISSENSCHAFT UND ‚GEIST‘

Während das Projekt ‚empirische Wissenschaft‘ lange Zeit als Gegensatz zur klassischen Philosophie und den sogenannten Geisteswissenschaften erschien, führten die Ergebnisse der ca. letzten 150 Jahre mehr und mehr dazu, dass man die Position des ‚Geistes‘, der ‚Geisteswissenschaften‘ im Rahmen der modernen empirischen Theorien schrittweise so ‚einordnen‘ kann, dass die Geisteswissenschaften einerseits im Rahmen der empirischen Wissenschaften integriert werden können, andererseits aber die Besonderheit des Menschen (als Teil des gesamten biologischen Lebens) nicht verschwindet. Statt dass die Besonderheit des Geistigen und des Lebens verschwindet, scheint es eher so zu sein, dass die Besonderheit des Geistigen als Teil des Biologischen eine noch viel größere Wucht erhält als je zuvor. Diese neue mögliche Fusion von empirischen Wissenschaften und ‚Theorie des Geistigen‘ wird bislang noch kaum genutzt. Zu tief haben sich traditionelle Begrifflichkeiten als kulturelle Muster in die Gehirne ‚eingegraben‘; solches zu ändern dauert erfahrungsgemäß viele Generationen.

KANT 2.0

Während der Philosoph Immanuel Kant (1724 – 1804) eingesperrt in sein Bewusstsein, ohne Sprachkritik und ohne Evolutionstheorie, die Antworten auf seine Fragen nur als abstrakte Postulate formulieren konnte, nach denen u.a. Raum und Zeit ‚konstitutiv‘ für menschliches Erkennen sind, ohne dass er dies weiter erklären konnte, hat die moderne Wissenschaft nicht nur ein Stück mehr erklären können, wie überhaupt Sprache funktioniert, sondern zusätzlich wie die Strukturen unserer Wahrnehmung, unseres Gedächtnisses, unseres Denkens und vieles mehr von den Strukturen unseres Gehirns in einem bestimmten Körper geprägt sind, die sich wiederum in einer Entwicklungsgeschichte von vielen Milliarden Jahren herausgebildet haben. Wir wissen heute, dass das ‚Bewusstsein‘ nur einen quantitativ verschwindend kleinen Teil des Gesamtkörpers repräsentiert; das meiste ist ‚unbewusst‘ (die Gehirnzellen haben am ganzen Körper einen Anteil von ca. 0.15%, das ‚Bewusstsein‘ wiederum ist nur mit einem Teil der Gehirnzellen assoziiert…). Zusätzlich hat die Wissenschaft ansatzweise aufgedeckt, wie das Gehirn die aufgenommenen Sinnesreize und Körperreize im Kontext von Wahrnehmung, Gedächtnis und Lernen ‚induktiv‘ zu nahezu beliebig komplexen Mustern verrechnen kann, die für uns dann die Konzepte/ Kategorien bilden, mit denen wir die Welt und und uns selbst anschauen. Da diese komplexen Strukturbildungsprozesse durch kommunikative Interaktionen (speziell auch sprachlichen) beeinflusst werde können, können sich Gehirn-induzierte und Kultur-induzierte Muster mischen, vermischen, und so komplexe Deutungsmuster entstehen lassen, deren ‚Gültigkeitsgehalt‘ stark variieren.

REFORMBEDARF DER WISSENSCHAFTEN

Während die empirischen Wissenschaften (und darauf aufbauen die Ingenieurskunst), in den letzten Jahrhunderten viele Pluspunkte sammeln konnten, zeigen sich im bisherigen Konzept und der Praxis von Wissenschaft dennoch gewisse Schwachpunkte: im Rahmen des empirischen Paradigmas können zwar erfolgreiche empirische Experimente und partielle Modelle entwickelt werden, aber die bisherigen empirischen Konzepte reichen nicht aus, um (i) die vielen einzelnen Theorien zu ‚integrieren‘, und (ii) die bisherigen Konzepte sind nicht in der Lage, den ‚Theoriemacher‘ und ‚Theoriebenutzer‘ in der Theorie mit zu repräsentieren. Gerade in den Ingenieurwissenschaften mit ihren immer komplexeren Projekten führt dies zu grotesken Verzerrungen und vielfachen Projektabstürzen. In den empirischen Wissenschaften ist dies nicht wirklich besser, nur fällt es dort nicht so direkt auf. Allerdings kann man zwischen einer rein physikalischen Betrachtungsweise und einer biologischen immer größere Probleme entdecken.

RÜCKKEHR DER PHILOSOPHIE

An dieser Stelle wird klar, dass das historisch ‚ältere‘ Projekt einer umfassenden Philosophie noch nicht ganz ausgedient hat. Während die Philosophie in der oftmals selbst gewählten Abstinenz von Wissenschaft (seit ca. 1500 Jahren) mehr und mehr den Kontakt zur Welt verlor, kann Philosophie in enger Kooperation mit Wissenschaft dieser helfen, ihre fehlende ‚Einheit‘ zurück zu gewinnen. Das neue Paradigma lautet daher ‚Philosophie und Wissenschaft‘ als grundlegendem Denkmuster, erweitert, konkretisiert in der ‚Ingenieurskunst‘. Diese liefern den Rahmen, in dem sich die Freiheit und Kreativität des Lebens entfalten und gestalten kann.

MEDITATION UND WISSENSCHAFT

Schematisches Modell für eine philosophisch begründete empirische Weltsicht am Beispiel des Meditierens
Schematisches Modell für eine philosophisch begründete empirische Weltsicht am Beispiel des Meditierens

Diese neuen, spannenden Entwicklungen in Philosophie und Wissenschaft eröffnen auch neue, interessante Zugangsweisen im Umgang mit dem empirischen (und historisch überlieferten) Phänomen der Meditation. Im folgenden Text (siehe auch die Schaubilder) wird versucht, aufzuzeigen, wie ein modernes Philosophie-Wissenschafts-Paradigma eine aktive Auseinandersetzung mit dem Phänomen leisten könnte.

Für diese aktive Beschäftigung mit dem Phänomen Meditation wird angenommen, dass sich grob vier Perspektiven unterscheiden lassen:

  1. REALE PRAXIS: Meditation wird in einer bestimmten Umgebung praktiziert von einem Menschen, der dabei mit seinem Körper etwas tut. Dies kann zu Veränderungen an seinem Körper führen wie auch in seinem Erleben.

  2. BEOBACHTEN: Vor der Praxis kann man in Form von Fragen festlegen, auf welche Art von Phänomenen man vor, während und nach der Meditation achten will. Dazu kann man festlegen, in welcher Form die Beobachtung ausgeführt werden soll und wie man die Beobachtungswerte/ -daten protokollieren will. Sie sollten unter festgelegten Bedingungen für jeden potentiellen Beobachter reproduzierbar sein. Ort, Zeit, Umstände usw. sollten aus den Protokollen entnehmbar sein.

  3. DEUTUNG: Einzelne Beobachtungswerte repräsentieren isolierte Ereignisse, die als solche noch keine weiterreichenden Deutungen zulassen. Die einfachste Form von Deutungen sind einfache Beziehungen zwischen verschiedenen Beobachtungswerten (räumliche, zeitliche, …). Sobald mehr als eine Beziehung auftritt, ein Beziehungsbündel, kann man Beziehungsnetzwerke formulieren, Modelle, in denen Wechselbeziehungen zwischen verschiedenen Faktoren sichtbar werden. Wahrheitsfähig werden Deutungen aber erst, wenn sie als Theorie formuliert werden (Strukturen, Beziehungen, Dynamiken, Folgerungsbegriff, …), erst dann können sie wahr oder falsch sein, können sie möglicherweise falsifiziert werden, weil man Voraussagen ableiten kann. Generell kann man für Deutungen noch folgende Eigenschaften festhalten:

    1. Die einfachste und historisch häufigste Form von Deutungen sind Texte in ‚Normalsprache‚, eventuell angereichert mit Bildern oder anderen Artefakten.

    2. In modernen Versionen von Deutungen finden sich zusätzlich mehr und mehr voll definierte Diagramm-Sprachen bis hin zu animierten Bildfolgen

    3. Für die eigentliche, harte Modell- und Theoriebildung haben sich aber formale Sprachen durchgesetzt bzw. eine konsequent mathematische Darstellungsweise, ergänzt um eine explizite Logik, die beschreibt, wie man korrekte Folgerungen aus einer gegebenen Theorie gewinnen kann.

    4. Quer zu den Darstellungsweisen Text, Bild und Formel gibt es die zusätzliche Dimension einer dynamischen Repräsentation in Form von Ablaufschilderungen, Bildfolgen, Computer-Simulationen, oft noch erweitert um Interaktionen, die dem Ganzen einen spielerischen Charakter verleihen.

    5. ÜBERLIEFERUNG: Zu vielen (den meisten…) Phänomenen finden sich Überlieferungen aus früheren Zeiten. Die Überlieferungsgeschichte ist unterschiedlich gut, bisweilen sehr schlecht. Die Kontexte und die verwendeten sprachlichen sowie bildhaften Mittel setzen Interpretationsbeziehungen voraus, die heute gar nicht oder nur partiell bekannt sind. Die konkreten Umstände der Überlieferung, die beteiligten Personen, deren Innenleben, sind oft nur wenig bis gar nicht bekannt. Die Einbeziehung von Überlieferungen ist daher mit großer Vorsicht zu sehen. Dennoch können sie wertvolle Hinweise liefern, die man neu überprüfen kann.

  4. REFLEXION: Die bislang genannten Themen ‚Reale Praxis – Beobachtung – Deutung‘ kann man als solche ‚definieren‘, ‚beschreiben‘ und anwenden. Allerdings setzen alle diese Themen einen übergreifenden/ vorausgehenden Standpunkt voraus, in dem entschieden wird, ob man sich überhaupt einer Realität zuwenden will, welcher Realität, wie, wie oft usw. Ebenso muss vor der Beobachtung geklärt werden, ob man überhaupt beobachten will, wie, wann, wie oft, was man mit den Beobachtungswerten dann tun will, usw. Und entsprechend muss man vor Deutungsaktionen entscheiden, ob man überhaupt deuten will, wie, was, usw. Diese Dimension der vorbereitenden, begleitenden, und nachsinnenden Überlegungen zum gesamten Prozess wird hier Reflexion genannt. Als Menschen verfügen wir über diese Fähigkeit. Sie wird in all unserem Tun, speziell dann auch in einem wissenschaftlichen Verhalten, nicht direkt sichtbar, sondern nur indirekt durch die Art und Weise, wie wir mit der Welt und uns selbst umgehen. Es ist irgendwie die gesamte Vorgehensweise, in der sich ein ‚Plan‘, verschiedene ‚Überlegungen‘, verschiedene ‚Entscheidungen‘ auswirken und damit ausdrücken können. Und ein wissenschaftlicher Umgang mit der Welt und sich selbst setzt insofern bestimmte Verhaltensformate voraus. Wissenschaft im üblichen Sinne ist die geordnete Umsetzung eines solchen Planes. Die Analyse und das Design eines solchen wissenschaftlichen Handlungsformates leistet idealerweise die Wissenschaftsphilosophie. Den kompletten Rahmen für jedwede Art von Vorgehen, das Nachsinnen ob und wie überhaupt, die Klärung von Motiven und Voraussetzungen, die Methode einer Wissenschaftsphilosophie, und vieles mehr, das ist die originäre Aufgabe der Philosophie. Insofern ist die Domäne der vor- und übergreifenden Reflexion die Domäne der Philosophie, die darin in einer methodisch engen Weise mit jedweder Form von Wissenschaft verknüpft ist.

Die hier aufgelisteten Punkte bilden eine minimale Skizze, die weitere Kommentare benötigt.

BEOBACHTUNG: SUBJEKTIVITÄT – OBJEKTIVITÄT

Die Verschränkung des 'Objektiven' mit dem 'Subjektiven' aufgrund des heutigen Kenntnisstands
Die Verschränkung des ‚Objektiven‘ mit dem ‚Subjektiven‘ aufgrund des heutigen Kenntnisstands

Setzt man obigen Rahmen voraus, dann scheint es hilfreich, einen Punkt daraus hier speziell aufzugreifen: das Verhältnis von Subjektivität und Objektivität, das sich nahezu durch die gesamte Geschichte der Philosophie und der Auseinandersetzung zwischen Philosophie und empirischer Wissenschaft zieht. Und gerade im Fall des Meditierens gewinnt diese Unterscheidung eine besondere Bedeutung, da neben jenen Wirkungen des Meditierens, die sich äußerlich und in Körperfunktionen direkt (empirisch, objektiv) beobachten (messen) lassen, es viele (die meisten) Wirkungen gibt, die sich nur ‚im Innern‘ (subjektiv) des Meditierenden erfassen lassen. Wie geht man damit um?

Aufgrund der Erkenntnisse der empirischen Wissenschaften können wir heute relativ klar sagen, dass das persönliche Erleben an das jeweilige, individuelle Bewusstsein (‚consciousness‘) geknüpft ist, das wiederum – in einer noch nicht genau rekonstruierten Weise – eine Funktion des individuellen Gehirns ist. Das Gehirn wiederum sitzt in einem Körper und wird von diesem neben der notwendigen Energie mit allerlei Erregungsmustern (neuronale Signale) versorgt. Einige stammen von Sinnesorganen, die verschiedene energetische Ereignisse er Außenwelt (Licht, Schall, Geruch, …) in neuronale Signale übersetzen, andere vom Körperinnern, andere vom Gehirn selbst. Das Gehirn weiß also von der Außenwelt ‚direkt‘ nichts, sondern nur in dem Maße, als ihm diverse neuronale Signale übermittelt werden, die in sich schon eine erste Übersetzung darstellen. Aus all diesen Signalen errechnet das Gehirn kontinuierlich ein Netzwerk von repräsentierenden Ereignisstrukturen, die zusammen ein ‚komplexes (dynamisches) Bild‘ des aktuellen Zustands ergeben. Dieses Zustandsbild ist beeinflusst von ‚vergangenen Bildern‘ (Gedächtnis), von unterschiedlichen ‚Abstraktionsprozessen‘, von unterschiedlichen ‚Erwartungswerten‘ und ‚Bewertungen‘, um as Mindeste zu sagen. Wie viel von den kontinuierlichen Berechnungen des Gehirns tatsächlich ins ‚Bewusstsein‘ gelangt, also ‚bewusst‘ ist, lässt sich nicht klar sagen. Sicher ist nur, dass das, was uns bewusst ist, in jedem Fall eine Auswahl darstellt und es insofern – aus Sicht des Bewussten – ein Unbewusstes gibt, das nach groben Schätzungen erheblich größer ist als das Bewusste.

Philosophen nennen die unterschiedlichen Inhalte des Bewusstseins ‚Phänomene [PH]‘ (zumindest in jener Richtung, die sich phänomenologische Philosophie‘ nennt). Innerhalb dieser Menge der Phänomene kann man anhand von Eigenschaften unterschiedliche Teilmengen der Phänomene unterscheiden. Eine sehr wichtige ist die Teilmenge der ‚Phänomene von den externen Sensoren (PH_W_EXT)‘. Durch ihren Bezug zu unterstellten Objekten der Außenwelt und zusätzlich unterstützt durch Phänomene einer realen Kommunikation lässt sich eine Art ‚Korrelation‘ dieser Phänomene mit unterstellten Objekten der Außenwelt in einer Weise herstellen, die sich mit anderen ‚Beobachtern‘ ’synchronisieren‘ lässt. Sofern dies gelingt (z.B. durch vereinbarte Formen des Messens mit vereinbarten Standards) bekommen diese Phänomene PH_W_EXT einen besonderen Status. Wir nennen sie empirische Phänomene weil sie – obgleich sie weiterhin Phänomene bleiben und damit subjektiv sind – sich in einer Weise mit externen Ereignissen koppeln lassen, die sich in der Reaktion anderer Beobachter auch reproduzieren lässt. Durch diese ‚Rückkopplung‘ gelingt es einem Gehirn, seine ‚locked-in‘ Situation partiell zu überwinden. Daher kommt den als empirisch qualifizierbaren subjektiven Phänomene eine ganz besondere Rolle zu.

Vor diesem Hintergrund ist es nicht erstaunlich, dass die modernen empirischen Wissenschaften durch ihren methodischen Bezug auf die empirischen subjektiven Phänomene sich eine Beobachtungsbasis geschaffen haben, der ein maximaler Erfolgt deswegen vergönnt war, weil tatsächlich nur jene Phänomene Berücksichtigung fanden, die im Prinzip allen Beobachtern in gleicher Weise zugänglich sind.

Eine unkritische – was hier heißt: eine un-philosophische – Handhabung des empirischen Auswahlprinzips kann aber zu unerwünschten Ergebnissen führen. Einer der größten Fehler der Wissenschaftsgeschichte ist wohl (und da hat die Philosophie simultan auch versagt), aus der methodisch sinnvollen Einschränkung auf die subjektiven empirischen Phänomene zu schließen, dass alle anderen (subjektiven) Phänomene grundsätzlich unwichtig oder gar irreführend seien. Diese Folgerung war und ist sachlich völlig haltlos und in ihrer Wirkung verheerend.

Es ist ja nicht nur so (siehe den vorausgehenden Text), dass die empirisch genannten Phänomene weiterhin rein subjektive Phänomene bleiben, sondern das Bewusstsein als Ganzes ist die primäre Quelle für jede Form von Erkenntnis, deren der homo sapiens fähig ist! Die neueren Erkenntnisse zur gleichzeitigen Existenz eines sehr großen Unbewussten setzen das Phänomen des Bewusstseins ja nicht ‚außer Kraft‘, sondern, ganz im Gegenteil, es stellt sich verschärft die Frage, warum es in der Evolution zur Ausprägung des Bewusstseins unter Voraussetzung des Unbewussten kam? Was ist der ‚Vorteil‘ für ein biologisches System zusätzlich zum gewaltigen Komplex der ‚unbewussten Maschinerie‘ des Körpers und des Gehirns noch die Form des ‚Bewusstseins‘ zu besitzen? Bei einem sehr groben Vergleich der Zeiträume von Lebewesen ‚mit‘ und ‚ohne‘ Bewusstsein ist unübersehbar, dass es erst mit der Verfügbarkeit eines hinreichend differenzierten Bewusstseins zu den überaus komplexen und beständig weiter anwachsenden komplexen Verhaltensleistungen ganzer Populationen gekommen ist. Und aus der Tatsache, dass sich nur ein kleiner Teil der Phänomene des Bewusstseins direkt über die Außenwelt mit anderen Beobachtern korrelieren lässt, zu folgern, dass alle anderen Phänomene ‚irrelevant‘ seien, ist weder sachlich noch logisch irgendwie begründbar. Mit dem heutigen Wissensstand müssten wir eher das Gegenteil folgern: eine neue bewusste und herzhafte Hinwendung zu jener reichen Phänomenwelt, die ein biologisches System hervorbringen kann, die sich aber (bislang) einem direkten empirischen Zugriff entziehen.

In diesem Zusammenhang ist auch zu beachten, dass eine ‚Erklärung‘ von subjektiven Phänomenen durch Rückgriff auf ausschließlich direkt korrelierbare physiologische Eigenschaften methodisch fragwürdig ist und in der Regel genau das nicht erklärt, was erklärt werden sollte.

Diese wenigen ersten Gedanken können vielleicht deutlich machen, dass der Anteil subjektiver Phänomene im Kontext des Phänomens ‚Meditation‘ philosophisch und wissenschaftlich kein unüberwindbares Hindernis darstellt, sondern eher eine Einladung, die Forschungen zu vertiefen und zu verbessern.

WIE PRAKTISCH VORGEHEN?

Was bedeutet dies nun für ein praktisches Vorgehen? Wie kann man dies im Rahmen eines konkreten Lehrmoduls umsetzen? Hier ein erster Entwurf:

  1. Als primärer Referenzpunkt sollen konkrete praktische Meditationsübungen dienen, von denen unterschiedliche Formen vorgestellt und dann unter Anleitung ausprobiert werden können. Dies kann in jeder Sitzung und außerhalb, im privaten und öffentlichen Bereich geschehen.

  2. Damit die Perspektive der Wissenschaft und Philosophie zur Wirkung kommen kann, sollte von Anfang an diese Perspektive vorgestellt und demonstriert werden, wie diese sich auf das konkrete Beispiel Meditation anwenden lässt. Neben einer allgemeinen Einführung müsste konkret erläutert werden, welche Fragen sich stellen lassen, und wie eine Beobachtung aussehen könnte. Jeder für sich und dann auch im Team versucht eine Art ‚Logbuch‘ zu führen, in dem alle für die Beobachtung wichtigen Daten eingetragen werden.

  3. Nachdem erste Beobachtungen vorliegen, kann man gemeinsam überlegen, ob und wie man solche Daten ‚deuten‘ könnte: welche Art von Mustern, Regelmäßigkeiten deuten sich an? Gibt es Unterschiede in den verschiedenen Logbüchern? Welchen Status haben solche Deutungen?

  4. Die Schritte (1) – (3) kann man mehrfach wiederholen. Im Alltagsleben kann dies Jahre dauern, viele Jahre. Im Lehrbetrieb hat man nur ca. 2-3 Monate Zeit, um zumindest den grundlegenden Ansatz zu vermitteln.

  5. Nachdem ein erster Eindruck vermittelt wurde, wie man selber sowohl konkret meditieren wie auch empirisch seine Erfahrungen analysieren kann, kann man den individuellen Prozess in größere Kontexte einbetten wie (i) Beispiele von traditionellen Deutungen anhand von prominenten Texten aus der Überlieferung oder (ii) Beispiele aus der Arbeitsweise der verhaltensbasierten Psychologie und der etwas differenzierteren Psychoanalyse oder (iii) Beispielen aus der Philosophie und der Wissenschaftsphilosophie.

Wie man aus diesem kleinen Aufriss entnehmen kann, stellt ein einzelnes Modul nur ein minimales Kick-Off dar, für eine allererste Idee, wie es gehen könnte. Im Grunde genommen bräuchte man für jeden der genannten Punkte (i) – (iii) ein eigenes Modul, und selbst dies wäre nur ein Tropfen auf den heißen Stein. Hieran kann man erahnen, wie schwierig die Ausbildung einer eigenen konkreten Selbsterfahrungs-Praxis mit einer wissenschaftlichen Begleitung eigentlich ist, und wir dürfen uns nicht wundern, wenn so viele Menschen heute sich im Strom der Ereignisse schnell ‚verloren‘ vorkommen… sogenannte ‚Patentantworten‘ sind nicht notwendigerweise ‚richtige Antworten’…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 9

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 12.Okt. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURFASSUNG

Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

KAP.10 Gedächtnis und Konzepte (‚Memory and Concepts‘): Errichtung einer Brücke zum Bewusstsein (‚Building a Bridge to Consciousness‘)

  1. Nach den vorbereitenden Kapiteln 1-9 versucht Edelman mit den soweit formulierten Grundlagen nun ‚höhere‘ Hirnleistungen und ‚psychologische (=verhaltensbasierte)‘ Eigenschaften durch Rückgriff auf die evolutionären und neuronalen Mechanismen zu ‚erklären‘.

  2. Der Ausgangspunkt der Überlegungen in Kap.10 bilden die Annahmen der vorausgehenden Kapitel, dass die ‚Welt‘ ‚außerhalb‘ eines Organismus ein überwältigendes Ereignisfeld ist, das vom wahrnehmenden Organismus erst einmal ’strukturiert‘ werden muss, damit der Organismus mit diesen Ereignisfeldern konstruktiv umgehen kann. Es stellen sich in diesem Kontext folgende Fragen: (i) welche Strukturierungen nimmt ein Organismus vor, und (ii) wie konnten sich jene Mechanismen ausbilden, die solche Strukturierungen ermöglichen? Zusätzlich ist zu bedenken, dass sich die außer-organismischen Ereignisfelder – kontinuierlich wie auch disruptiv – ändern. Es reicht also nicht, die Fähigkeit der Herausbildung solcher strukturierenden Mechanismen einmalig anzunehmen, sondern (iii) es muss auch geklärt werden, wie es zu ‚dynamischen Anpassungen‘ der strukturierenden Mechanismen angesichts einer sich ändernden Umwelt kommen kann? Die bisherige Antwort auf die Fragen (i) – (iii) war der Verweis auf (a) evolutionäre Strukturbildung, auf (b) embryonale Entwicklung, sowie auf die (c) flexible Verschaltung von neuronalen Karten sowohl durch (c.1) Rückkopplungen wie auch durch (c.2) Hierarchiebildungen. Mit diesen Annahmen zu einer komplexen dynamischen Maschinerie verbindet Edelman die Überzeugung, dass sich damit alle bekannten komplexen Funktionsleistungen des Gehirns (wie z.B. ‚Gedächtnis‘ (‚memory‘) wie auch beobachtbare psychologische Eigenschaften ‚erklären‘ lassen. (vgl. S.99f)

  3. Für das, was nach Edelman ‚erklärt‘ werden soll, benutzt er die Worte ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘ (‚perceptual categorization‘), ‚Gedächtnis‘ und ‚Lernen‘. Und er spricht im Zusammenhang dieser Wortmarken von ‚höheren Gehirnfunktionen‘ (‚higher brain functions‘). Damit verknüpft Edelman in dieser kurzen Beschreibung zwei methodisch unterschiedliche Betrachtungsweisen: die Begriffe ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘, ‚Gedächtnis‘ und ‚Lernen‘ gehören normalerweise in den Bereich der verhaltensbasierten Psychologie; der Begriff ‚höhere Gehirnfunktionen‘ dagegen verweist auf den Bereich der Biologie mit den Spezialbereichen Physiologie und darin noch spezieller der Gehirnforschung. Damit findet sich hier die Stelle, wo er die beiden Pole Psychologie und Gehirnforschung verknüpfen möchte. Bemerkenswert ist seine ausdrückliche Feststellung, dass diese 5 mentalen Leistungen, obwohl sie oft ‚getrennt/ isoliert‘ (’separated‘) behandelt werden, doch ‚untrennbare Aspekte einer gemeinsamen mentalen Leistung‘ (‚inseparable aspects of a common mental performance‘) darstellen. Diese Feststellung geht weit über die benannten einzelnen Wortmarken hinaus. Aus dieser Feststellung folgt, dass wir es hier mit 5 unterscheidbaren mentalen ‚Leistungen‘ zu tun haben, die man als ‚Funktionen‘ {f1, …,f5} auffassen kann und sie in einer wissenschaftlichen Sicht auch so auffassen muss; dazu postuliert Edelman eine Superfunktion f*, die sich aus diesen genannten 5 Funktionen ‚zusammensetzt‘ als etwa f* = f1 u … u f5. Sind schon die einzelnen Funktionen – jede für sich – sehr ‚komplex‘ (und bis heute in der Psychologie nur unvollständig erklärt), so führt die postulierte Superfunktion f* in einen Denkbereich, der nur schwer zu fassen ist, und der bislang eigentlich von niemandem theoretisch irgendwie modelliert worden ist. (vgl. S.100) //* Falls es doch irgendwo solch eine Ausarbeitung gibt, wäre ich als Autor für einen Hinweis sehr dankbar! *//

  4. Edelman sagt ganz klar, dass es der Bereich des ‚Verhaltens‘ (‚behavior‘, ‚B‘ ) ist, an dem die Bedeutung der drei ‚fundamentalen Funktionen‘ (‚fundamental functions‘) f1 ‚Kategorisierung der Wahrnehmung‘, f2 ‚Gedächtnis‘ und f3 ‚Lernen‘ zu ‚testen‘ sind. Und er sieht auch eine funktionale Abhängigkeit zwischen diesen fundamentalen Funktionen der Art, dass f2 (Gedächtnis) die Funktion f1 (Kategoriale Wahrnehmung) voraussetzt und die Funktion f3 (Lernen) setzt sowohl f1 als auch f2 voraus. Alle drei ‚beeinflussen‘ (‚affect‘) das Verhalten ‚B‘, weil sie sich untereinander beeinflussen. Angenähert könnte man dann formulieren B = (f1,f2,f3). Nach Edelmann versorgen Wahrnehmen und Gedächtnis das System mit grundlegenden Datenstrukturen, und Lernen kann daraus neue, weiterreichende Strukturen ableiten. Dann stellt Edelman plötzlich fest, dass die beiden Funktionen f1 und f2 für das Lernen f3 zwar notwendige Voraussetzungen bilden (also: f3 = (f1,f2), aber sie alleine noch nicht ausreichend wären; es bedarf noch einer weiteren Funktionalität fx, also f3=(f1,f2,fx). Diese weitere Funktion fx verweist nach Edelman auf ein ‚Wertesystem‘ (‚value system‘), das von den Kategorisierungsleistungen des Wahrnehmens und Erinnerns unabhängig ist. Wir bekommen damit folgende Zusammenhänge: B = f*() mit f* = (f3,f4,f5) und f3 = (f1,f2,fx). (vgl. S.100)

  5. Das ‚Wertesystem‘ fx hat – aus Sicht des Verhaltens B – mehrere Eigenschaften: (i) es basiert auf unterschiedlichen Wertelieferanten fx = (fx1, …, fxn), die (ii) unterschiedliche ‚Erwartungen‘ (‚expectancy‘) als ‚Referenzpunkte‘ (’set points‘) ausbilden können. Diese Erwartungen können als Fitnesswerte in dem Sinne genutzt werden, dass ein Systemverhalten solche Referenzpunkte entweder ‚befriedigt‘ (und damit wieder ‚zurück setzt‘) oder ’nicht befriedigt‘ (und damit ’nicht zurücksetzt‘). Ein Lernen f3 ist ‚erfolgreich‘ (‚is achhieved‘), wenn das System seine ‚Systemzustände‘ (‚IS‘) so arrangieren kann, dass ‚in der Zukunft‘ das Verhalten des Systems bei Auftreten von werthaften Referenzpunkten direkt die ‚richtige Verhaltensantwort‘ findet. Dies impliziert als eine weitere Komponente eine ‚Dauer‘, eine zeitliche Erstreckung zwischen zwei ‚Zeitpunkten‘ (t,t‘) mit t‘ als ’später‘ zu t. Nur unter Voraussetzung einer ‚hinreichend langen‘ Zeitdauer (t,t‘) kann Lernen sich realisieren, also f3(f1,f2,fx,(t,t‘)) = (Success_1, …, Success_n) mit der Bedeutung, dass Lernen innerhalb einer Zeitspanne (t,t‘) dazu führt, dass werthafte Referenzpunkte von fx() mit Hilfe von Wahrnehmung, Wahrnehmungskategorien und Gedächtnis in ‚möglichst kurzer Zeit‘ so bedient werden können, dass sie auf einen ’neutralen Wert‘ zurück gehen. Das exakte Zusammenspiel zwischen einem solchen Lernen f3() und den übrigen Größen f4, f5 und Verhalten ‚B‘ bleibt zunächst offen. (vgl. S.101)

  6. Den Zusammenhang zwischen diesen verhaltensbasierten Begriffen – nennen wir sie hier ‚Begriffe_B‘ – und jenen Begriffen, die auf der Theorie der neuronalen Gruppen basiert – nennen wir sie hier ‚Begriffe_NN‘ – sieht Edelman grundsätzlich darin, dass die Begriffe_NN letztlich ein materielles System S_NN beschreiben, das als ein ‚Modell‘ dienen kann, über dem man die Begriffe_B ‚interpretieren‘ kann. Anders ausgedrückt postulirt Edelman hier eine Abbildung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN. Edelman beschreibt diese Abbildung an dieser Stelle aber nicht wirklich; er unterstellt sie einfach; er nimmt sie an und illustriert sie anhand sehr vager Beispiele. (vgl. S.101)

  7. Edelman führt an dieser Stelle noch einen weiteren Prozess (eine Funktion) ‚fc‘ ein, dem er die Fähigkeit zuschreibt, dass dieser auf der Basis von Wahrnehmung (f1) und von Gedächtnis (f2) im Kontext des Lernens (f3) und möglicherweise auch — das sagt er nicht explizit – unter Berücksichtigung des Wertesystems (fx) in der Lage ist, ‚allgemeine Beziehungen‘ (‚general relational properties‘) hervorzubringen (‚to yield‘). Unter Voraussetzung dieser fünf Funktionen {f1, f2, f3, fx, fc} will er dann später zeigen, wie man damit das ‚Auftreten eines Bewusstseins‘ (‚the emergence of consciousness‘) erklären kann. //* Es sei hier darauf hingewiesen, dass die Kozeptualisierungsleistung fc im Rahmen psychologischer Modelle des Gedächtnisses oft als eine Eigenschaft des Gedächtnisses angesehen wird bzw. — was Edelman ja zuvor selbst feststellt – z.T. auch schon als eine Leistung der Wahrnehmung f1. *//

  8. Den Rest des Kapitels widmet Edelman zwei Wortmarken: ‚Gedächtnis‘ (‚memory‘) und ‚Konzepte‘ (‚concepts‘).

  9. Seine allgemeinste Bedeutungszuschreibung zur Wortmarke ‚Gedächtnis‘ geschieht in der verhaltensbasierten Perspektive der Psychologie, indem er die Wortmarke ‚Gedächtnis‘ verbindet mit der ‚Fähigkeit, ein Verhalten zu wiederholen‘ (f2) (‚ability to repeat a performance‘). Diese Fähigkeit beinhaltet die andere, kurz zuvor eingeführte, Fähigkeit zur Konzeptualisierung fc, die im Rahmen des Gedächtnisses die zu einem bestimmten Zeitpunkt t vorhandenen konzeptuellen Strukturen ISc(t) ‚erweitert‘ (‚enhancement‘), so dass zu einem späteren Zeitpunkt T‘ eine erweiterte konzeptuelle Struktur ISc(t‘) vorliegt.(vgl. S.102)

  10. Parallel und zwischen diesen vorausgehenden psychologischen Erklärungen streut Edelman immer wieder auf informelle Weise Bemerkungen ein, wie sich die so beschriebenen psychologischen Strukturen und Funktionalitäten durch seine neuronale Maschinerie S_NN erklären lassen würden. Eine wirkliche Erklärung der hier notwendigen Interpretationsleistung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN mit Begriffe_NN = S_NN leistet Edelman hier aber nicht. (vgl. S.102)

  11. Edelman verweist ferner auf das sich im Verhalten manifestierende Phänomen, dass Konzeptualisierungen, die wir als ‚Kategorien‘ auffassen und nutzen, nicht statisch sondern ‚dynamisch‘ sind, d.h. der Prozess des Anordnens läuft kontinuierlich und neue Ereignisse können bisherige Anordnungen ‚überschreiben‘, ‚ergänzen‘. (vgl. S.102)

  12. Wie schon zuvor bemerkt, ist die Einführung der eigenständigen Kategorisierungsleistung (Konzeptbildung) fc im Rahmen des Gedächtnisses in ihrer Beziehung zu der vorausgehenden Kategorisierungsleistung f1 in der Wahrnehmung nicht klar beschrieben. Und auf S.104 charakterisiert er die Kategorisierungsleistung der Wahrnehmung f1 als ‚zufallsgesteuert‘ (‚probabilistic‘) und als die ‚initiale Basis‘ (‚initial basis‘) des Gedächtnisses f2 und — das muss man hier unterstellen – der weiteren Kategorisierungsleistung fc des Gedächtnisses. Allgemeine, sich im Verhalten manifestierende psychologisch begründete Begriffe wie ‚Assoziation‘, ‚Ungenauigkeit‘ (‚inexactness‘), sowie ‚Generalisierung‘, sieht Edelman als Ergebnis dieser vorausgesetzten f1, f2 und fc Leistungen.(vgl. S.104)

  13. Edelman betont ausdrücklich, dass das ‚Gedächtnis‘ f2 über die Fähigkeit verfügt, die ‚zeitliche Abfolge von Ereignissen‘ zu ’notieren‘ (‚to account of‘).(vgl. S.104)

  14. Nachdem Edelman eine Reihe von psychologisch motivierte Wortmarken – wie z.B. {f1, f2, f3, fx, fc} – eingeführt hatte, die das verhaltenspsychologische Begriffsfeld Begriffe_B bilden, führt er nun weitere, neue Wortmarken aus dem Bereich des Gehirns ein, die alle zum physiologisch motivierten Begriffsfeld Begriffe_NN gehören. Sein Motiv für diese begrifflichen Erweiterungen ist, dadurch mehr begriffliche Möglichkeiten zu bekommen, um die Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN zu differenzieren.

  15. Er beginnt mit der Einführung der Begriffe ‚Cortex‘ (Cx), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg), wobei Cm, Hp und Bg den Prozess des Cortex im Bereich des ‚räumlichen und zeitlichen Ordnens‘ unterstützen, was Edelman in Verbindung sieht mit den psychologisch beschriebenen Leistungen des Gedächtnisses. (vgl. S.104) Auf der nächsten Seite erwähnt er auch noch den ‚Motor Cortex‘ (Cxm), der als Teil des Cortex eng mit den zuvor genannten Strukturen kooperiert. (vgl. S.105)

  16. Bemerkenswert ist, dass Edelman bei der Charakterisierung der Leistungen der genannten Gehirnstrukturen auf psychologische Begriffe zurückgreift, z.B. wenn er vom Cerebellum Cm sagt, dass es eine wichtige Rolle spiele bei der ‚zeitlichen Ordnung‘ und einem ‚möglichst kontinuierlichen Verlauf‘ von Bewegungen (‚timing and smoothing of successions of movements‘). Letztlich kennen wir primär nur ein beobachtbares Verhalten und dessen Eigenschaften. Und es ist natürlich ein solches beobachtbares Verhalten (Gegenstand der Psychologie) als eine Art ‚Referenzpunkt‘ zu nehmen, um zu schauen, welche physiologischen Prozesse und welche zugehörigen physiologische Strukturen – wie z.B. das Cerebellum – im Kontext eines solchen beobachtbaren Verhaltens auftreten. Sofern es gelingt (was methodisch und messtechnisch extrem schwierig ist), eine irgendwie statistisch signifikante Korrelation zwischen physiologischen Messwerten und psychologischen Beobachtungswerten zu erfassen, kann man feststellen, dass z.B. das Cerebellumg Cm ‚eine wichtige Rolle spiele bei‘. Ohne ein explizites psychologisches Referenzmodell Begriffe_B wäre eine solche Korrelation ’spielt eine Rolle bei‘ nicht möglich. Dabei reicht es auch nicht aus, irgendwelche isolierte physiologische Messwerte zu haben, sondern man benötigt ein komplettes physiologisches Referenzmodell Begriffe_NN, das von den physiologischen Messwerten motiviert wird, das man mit dem psychologischen Referenzmodell Begriffe_NN in Beziehung setzt. Man müsste dann verfeinert sagen: (i) aufgrund von psychologischen Verhaltensdaten DAT_B generieren Psychologen ein psychologisches Referenzmodell Begriffe_B; (ii) aufgrund von physiologischen Messwerten DAT_NN generieren Physiologen (Gehirnforscher) ein physiologisches Referenzmodell Begriffe_NN; (iii) In einem interdisziplinären Team wird eine Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN konstruiert, die einen Zusammenhang herstellt zwischen psychologischen Verhaltensdaten und physiologischen Messwerten.(vgl. S.104f)

  17. Auf der Verhaltensebene unterscheidet Edelman zwischen der ‚einzelnen Handlung‘ mit deren zeitlicher und kontinuierlicher Ausführung einerseits und ‚zeitlich sich erstreckenden Handlungsfolgen‘. Diese längeren, komplexeren – psychologisch charakterisierten — ‚Handlungsfolgen‘ bringt er in Verbindung mit der physiologischen Struktur genannt ‚Basal Ganglia‘ Bg. Eine solche komplexe Funktion wie ‚Handlungsplanung‘ (fd) interagiert mit sehr vielen unterschiedlichen anderen Funktionen, u.a. auch mit dem Wertesystem fx.(vgl. S.105f)

  18. Für die Charakterisierung der nächsten physiologischen Struktur Hippocampus (Hp) benötigt Edelman weitere psychologische Begriffe, die er bislang noch nicht eingeführt hatte: er unterscheidet bei der psychologischen Funktion des Gedächtnisses (f2) zwischen eine ‚Kurzzeit-Gedächtnis‘ (’short-term memory‘) (Mst) und einem ‚Langzeit-Gedächtnis‘ (‚long-term memory‘) (Mlt). Zwischen diesen beiden psychologischen Formen des Gedächtnisses gib es spezifische Interaktionsmuster. Eines hat damit zu tun, dass Elemente des Kurzzeitgedächtnisses in das Langzeitgedächtnis ‚übernommen‘ werden. Und mit Bezug auf dieses psychologische Referenzmodell sieht Edelman den Hippocampus mit beteiligt. Der Hippocampus empfängt von allen Teilen des Cortex Signale, auch vom Wertesystem fx, und schickt seine Prozesswerte auch wieder zu den sendenden Stellen zurück.(vgl. S.106f)

  19. Abschließend zu den genannten Strukturen ‚Cortex‘ (Cx), mit ‚Motor-Cortex (Cxm), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg) meint Edelman, dass die Differenziertheit und Flexibilität dieser Strukturen – kondensiert in einem physiologischen begrifflichen Modell Begriffe_NN – ausreicht, um das zuvor erstellte psychologische Referenzmodell des Verhaltens zu erklären.(vgl. S.107f)

  20. An dieser Stelle kommt Edelman nochmals zurück auf die Wortmarke ‚Konzepte‘ (‚concepts‘) und grenzt seine Verwendung dieser Wortmarke ab von jener, in der ‚Konzepte‘ in einem rein linguistischen Kontext gesehen wird. Für Edelman sind ‚Konzepte‘ Ordnungsstrukturen (Kategorien), durch die der Strom der Wahrnehmungen und der Gedächtnisinhalte, immer wieder neu geordnet werden können, vorab zu jeder Sprache, als Voraussetzung für Sprache. Das System gewinnt dadurch die Möglichkeit, sein Verhalten mit Bezug auf diese Strukturen neu zu kontrollieren. (vgl. S.108)

  21. Das Besondere an der Konzeptualisierungsfähigkeit ist, dass sie auch unabhängig von aktuellen Stimuli stattfinden kann, dass sie sich auf ‚alles‘ anwenden kann, was im Wahrnehmen, Erinnern und Denken vorkommen kann. Dies bedeutet, die Konzeptualisierungsfähigkeit kann ihre eigenen Ergebnisse, so abstrakt sie auch sein mögen, zum Gegenstand einer späteren Aktivität machen. //* Mathematiker nennen solch eine Struktur ‚rekursiv‘ *// Solche ‚abstrakteren‘ Strukturen (Konzepte) benötigen auch keine ‚topographischen‘ Strukturen, wie man sie im Bereich der sensorischen Wahrnehmung findet. Dies hat zur Folge, dass auch nicht-topographische Ereignisse wie z.B. systemrelevante ‚Werte‘ (über Bedürfnisse wie Hunger, Durst,…) in die Strukturierung einbezogen und damit verhaltensrelevant werden können. (vgl. S.108-110)

  22. Erstaunlich ist, dass Edelman an dieser Stelle nun eine Wortmarke einführt, die weder dem physiologischen Sprachspiel zugehört, noch dem psychologischen, sondern dem philosophischen Sprachspiel sofern es auf den Raum subjektiver Phänomene fokussiert ist: ‚Intentionalität‚, indem er sagt, dass die konzeptuellen Strukturbildungen ‚intentional‚ (‚intentional‘) sind. Und Edelman geht noch weiter; er sieht hier einen ‚Übergang‘, eine ‚Brücke‘ (‚the bridging elements‘) von der Physiologie zum ‚Bewusstsein‚ (‚consciousness‘) und er stellt ausdrücklich fest, dass für diesen Brückenschlag ‚keine neuen theoretischen Annahmen‘ (’no new theoretical assumptions‘) gemacht werden müssen. Diese letzte Bemerkung trifft zu, wenn man sie auf die vorausgesetzte physiologische Maschinerie bezieht: das physiologische Modell Begriffe_NN wird nicht verändert. Mit der Einführung der Wortmarken ‚Intentional‘ und ‚Bewusstsein‘ aktiviert er aber ein neues (philosophisches) Sprachspiel, das er bislang nicht benutzt hat, und das er bislang in keiner Weise erklärt hat. Man müsste hierfür auch einen eigenen Begriff Begriffe_PH einführen vergleichbar zu Begriffe_B und Begriffe_NN und man müsste natürlich auch hier explizite Interpretationsfunktionen einführen wie Interpretation_B_PH : Begriffe_B <—> Begriffe_PH sowie Interpretation_NN_PH : Begriffe_NN <—> Begriffe_PH.

DISKUSSION FORTSETZUNG: KAP.10

  1. Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

  2. Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußbote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.

  3. Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:

    1. Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.

    2. Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.

    3. Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.

  4. Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:

    1. Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN

    2. Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH

    3. Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN

  5. Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.

ANHANG: BILD VON ANGESTRICHENEN BUCHSEITEN

 

Beispiel, wie die Buchseiten aussehen, nachdem ich sie 'gelesen' habe ...
Beispiel, wie die Buchseiten aussehen, nachdem ich sie ‚gelesen‘ habe …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DER SPÄTE FREUD UND DAS KONZEPT DER PSYCHOANALYSE. Anmerkung 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 18.Sept. 2018

Korrekuren: 18.Sept.2018, 13:20h
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nachdem ich im vorausgehenden Beitrag den letzten Text von Freud (auf Deutsch) mit dem Englischen Titel (bei Deutschem Text) ‚Some Elementary Lessons in Psycho-Analysis‘ (GW XVII, 1938-40) in der Rekonstruktion von Jürgen Hardt (1996) diskutiert hatte, hier einige weitere Überlegungen, dieses Mal mit direkter Bezugnahme auf den Text von Freud.

DISKUSSION

Modellvorschlag zu Freuds letztem Text zur Psychoanalyse
BILD: Modellvorschlag zu Freuds letztem Text zur Psychoanalyse

 

MODELL PSYCHOANALYSE

  1. Nach den bisherigen Überlegungen zu Freuds Position bietet es sich an, versuchsweise ein – noch sehr allgemeines – MODELL zu formulieren, das die wichtigen Begriffe von Freud in Beziehung setzt
  2. Im Kern geht es um den Begriff des SEELISCHEN, den Freud in die Komponenten BEWUSSTSEIN (BW) und UNBEWUSSTES (-BW) aufspaltet. In gewisser Weise kann man das Unbewusste als ‚Komplement‘ zum Bewusstsein sehen, da das Bewusstsein der einzige Referenzpunkt für das System homo sapiens darstellt, relativ zu dem alles andere unbewusst ist. Präziser wäre wohl der Ausdruck ’nicht bewusst‘ oder NICHT-BEWUSSTSEIN.
  3. Sowohl das Bewusstsein wie das Nicht-Bewusstsein gehören zum System homo sapiens, der sich in seinem KÖRPER manifestiert.
  4. Generell kann man davon ausgehen, dass das System homo sapiens INPUT-EREIGNISSE realisieren kann, die durch verschiedene STIMULI Ereignisse von außerhalb des Körpers ausgelöst werden können.
  5. Ebenso ist es so, dass bestimmte interne Körperereignisse – hier MOTORISCHE Ereignisse oder OUTPUT Ereignisse genannt – über die Körperoberfläche sich als VERÄNDERUNGEN der Körperoberfläche manifestieren können, die meistens als AKTIONEN klassifiziert werden oder gar als SPEZIFIZIERTE ANTWORTEN, RESPONSES.
  6. Interessant ist die Annahme von Freud, dass sich nur Teile des Nicht-Bewusstseins an das Bewusstsein mitteilen können (im Bild durch einen Pfeil angedeutet). Der Rest des Nicht-Bewusstseins teilt sich nicht dem Bewusstsein mit.
  7. Jetzt wird es spannend: Man könnte jetzt im Modell die weiteren Annahmen machen, dass es zwischen jenem Teil des Nicht-Bewusstseins, das sich dem Bewusstsein mitteilen kann – nennen wir es -BW+ – und jenem Teilen des Nicht-Bewusstseins, das sich nicht mitteilt – nennen wir diesen Teil -BW- –, dennoch eine Wechselwirkung gibt. Dies würde es erklären, warum Anteile des Nicht-Bewusstseins sich indirekt auf das Gesamtsystem auswirken können, ohne zunächst im Bewusstsein aufzutreten, dann aber – z.B. im Verlaufe der Therapie – plötzlich im Bewusstsein ‚greifbar‘ werden.
  8. Dieser Sachverhalt kann durch die weitere Annahme differenziert werden, dass möglicher Input von außen sich simultan beiden Komponenten des Nicht-Bewusstseins (-BW+, -BW-) mitteilen kann, wie auch umgekehrt beide Komponenten ein äußerliches Verhalten verursachen können (z.B. das Fehlverhalten, die Hypnoseexperimente, Arten des Redens und Verhaltens (Stimmfärbung, Form der Bewegung, …)), das als SIGNAL des NICHT-BEWUSSTSEINS fungieren kann. Dies würde z.B. erklären, warum Menschen in der Gegenwart anderer Menschen in ganz unterschiedliche ‚Stimmungen‘ geraten können, obgleich die ausgetauschten Worte keinerlei Hinweise für diese Gestimmtheit liefern. Vom Nicht-Bewusstsein verursachte Signale können im Nicht-Bewusstsein des Anderen innere Prozesse, Zustände verursachen, die sich dann in Form bestimmter Gefühle, Stimmungen, Emotionen äußern. Dies sind – zumindest berichten dies die Psychotherapeuten – sehr oft, fast immer ? – , dann der entscheidende Hinweis auf ‚verdeckt wirkende‘ Faktoren. Ohne das Nicht-Bewusstsein bleiben die objektiven ‚Signale‘ ‚unerkannt‘, sind dann eben keine ‚Signale‘ mit Referenz.
  9. So einfach dieses Modell ist, so weitreichend sind seine möglichen Konsequenzen.
  10. Da dieses Modell eine Arbeitshypothese ist, mit der man empirische Phänomene ‚deuten können soll‘, kann man es überprüfen und bekräftigen oder abschwächen bzw. dann ablehnen.

HIERARCHIE DER GEGENSTANDSBEREICHE

Das Schaubild deutet auch an, dass wir es mit einer impliziten Hierarchie von Gegenstandsbereichen zu tun haben. Der Homo sapiens ist Teil eines umfassenden Phänomens von biologischem Leben, das mit seiner Geschichte (der Evolution) ein Teilprozess auf dem Planet Erde ist, der sich als Teil des Sonnensystems herausgebildet hatte, das wiederum innerhalb der Galaxie Milchstraße entstanden ist, die sich wiederum im Prozess des bekannten Universums herausgebildet hat. Bedenkt man, dass die Anzahl der Galaxien irgendwo im Bereich von 200 Milliarden (2×1011) bis 2 Billionen (2×1012) liegt und eine einzelne Galaxie wiederum zwischen einige hundert Millionen (108) oder gar 100 Billionen (1014) Sterne haben kann (mit noch viel mehr Exoplaneten!), dann ist der Ausschnitt an körperlicher Wirklichkeit, die unser Sonnensystem mit der Erde bietet, atemberaubend ‚klein‘, man möchte sagen ‚winzig‘, so winzig, dass uns dafür die geeigneten Worte fehlen, da unser Alltag für solche Relationen keine direkten Beispiele bietet. Nur unser Denken und die Mathematik kann uns helfen, zumindest ansatzweise eine Vorstellung dazu auszubilden.

Allerdings, diese körperliche Kleinheit kann über etwas anderes hinweg täuschen, das möglicherweise ein noch größeres Wunder sein kann.

Wie die Wissenschaft erst seit wenigen Jahren weiß, besteht ein menschlicher Körper aus ca. 36 Billionen (10^12) Körperzellen, ca. 110 Billionen Bakterien im Darm und ca. 200 Milliarden Bakterien auf der Haut, d.h. ein menschlicher Körper besitzt an Zellen die Komplexität von ca. 700 Galaxien mit jeweils 200 Milliarden Sternen! Noch dramatischer wird der Kontrast, wenn man das Volumen eines menschlichen Körpers zu dem Volumen von 700 Galaxien in Beziehung setzt. Man kommt auf ein Verhältnis von ca. 1 : 10^64 !!! Anders gewendet, das Phänomen des Biologischen stellt eine unfassbare Verdichtung von Komplexität dar, deren Bedeutung und Konsequenz für das Verständnis von ‚Natur‘ bislang kaum so richtig (wenn überhaupt) gewürdigt wird.

Diese mit Worten gar nicht beschreibbare Verdichtung von Komplexität im Phänomen des Biologischen hat auch damit zu tun, dass wir es im Übergang von den ‚vor-biologischen‘ Strukturen zu den biologischen Strukturen mit einem grundlegenden Paradigmenwechsel zu tun haben. Während wir im Bereich physikalischer Strukturen Materieverdichtungen nur durch das bislang wenig verstandene Phänomen der ‚Gravitation‘ feststellen können (die nach sehr einfachen Regeln ablaufen), präsentiert das ‚Biologische‘ neuartige Prozesse und Strukturen, mit einer konstant zunehmenden ‚Verdichtung‘, die nach völlig neuartigen Regeln ablaufen. Mit Gravitation lässt sich hier nichts mehr erklären. Diese neue Qualität materieller Strukturen und Prozesse auf die einfacheren Gesetze der bekannten Physik zu ‚reduzieren‘, wie es oft gefordert wurde, ist nicht nur grober Unfug, sondern vernichtet gerade die Besonderheit des Biologischen. Der Übergang von Physik zur Astrobiologie und dann zur Biologie ist daher ein qualitativer: im Biologischen finden wir völlig neue Phänomene, die sich an der beobachtbaren Funktionalität manifestieren. ‚Emergenz‘ würde hier bedeuten, dass wir es hier mit qualitativ neuen Phänomenen zu tun haben, die sich nicht auf die Gesetze ihrer Bestandteile reduzieren lassen.

Aufgrund der schier unfassbaren Vielfalt und Komplexität des Biologischen, das in seiner körperlichen Winzigkeit eine universale Komplexität realisiert, die die bekannten astronomischen Größen letztlich sprengt, ist es sicher nicht verwunderlich, dass sich zum Phänomen des Biologischen viele verschiedene Wissenschaften ausgebildet haben, die versuchen, Teilaspekte irgendwie zu verstehen. Da der ‚Kuchen der Komplexität‘ so unfassbar groß ist, findet jeder etwas interessantes. Allerdings sollte man sich bewusst sein, dass diese vielen Disziplinen in ihrer heutigen Zersplitterung etwas auseinanderreißen und zerstückeln, das letztlich zusammen gehört.

So ist auch die Psychologie mit ihrer Spezialdisziplin Psychoanalyse letztlich kein Sonderbereich, wenngleich die hier anfallenden Phänomene tierischer und menschlicher Systeme anscheinend nochmals eine Steigerung an neuen funktionalen Phänomenen bieten.

HIERARCHIE DER WISSENSCHAFTEN

Es wäre die Aufgabe einer modernen Philosophie und Wissenschaftsphilosophie die Einheit der Phänomene und Wissenschaften wieder herzustellen. Sicher ist dies nichts, was eine einzelne Person schaffen kann noch kann dies in wenigen Jahren stattfinden. Vermutlich muss die ganze Wissenschaft neu organisiert werden, sodass letztlich alle kontinuierlich an dem Gesamtbild mitwirken.

Das, was für die Physik vielleicht die dunkle Materie und die dunkle Energie ist, die bislang ein wirkliches Gesamtbild entscheidend verhindert, dies ist für die Wissenschaft überhaupt das Problem, dass die Wissenschaftler und Philosophen, die sich um eine rationale Erklärung der Welt bemühen, letztlich selbst auch Bestandteil eben jener Wirklichkeit sind, die sie erklären wollen. Solange die empirischen Wissenschaften diesen fundamentalen Faktor aus ihrer Theoriebildung ausklammern, solange werden sie sich nur an der Oberfläche von Phänomenen bewegen und die wirklich interessanten Phänomene, die über Biologie, Psychologie und Philosophie ins Blickfeld geraten, werden bis auf weiteres außen vor bleiben.

QUELLEN

Hardt, Jürgen (1996), Bemerkungen zur letzten psychoanalytischen Arbeit Freuds: ‚Some Elementary Lessons in Psycho-Analysis‘, 65-85, in: Jahrbuch der Psychoanalyse, Bd.35, Frommann-holzboog

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DER SPÄTE FREUD UND DAS KONZEPT DER PSYCHOANALYSE. Anmerkung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 17.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Wie im Beitrag vom vom 10.Sept. 2018 festgestellt, kann man die Praxis der Psychoanalyse, wie sie im Rahmen der Philosophiewerkstatt im Jahr 2018 vorgestellt wurde, sehr wohl in das Konzept einer empirischen Wissenschaft ‚einbetten‘, ohne den Faktor des ‚Un-Bewussten‘ aufgeben zu müssen. Nach Ansicht des Autors des Beitrags dort ist das Haupthindernis dafür, dies nicht umzusetzen, einerseits das mangelnde Verständnis der Psychoanalytiker für moderne Konzepte empirischer Theorien, andererseits sind die aktuellen Theoriekonzepte empirischer Theorien zu einfach; sie müssten weiter entwickelt werden.

Man kann dieser Diskussion weitere ‚Nahrung‘ geben, wenn man Themen der letzten Schrift von Sigmund Freud selbst aufgreift. Dieser Deutsche Text hatte den Englischen Titel ‚Some Elementary Lessons in Psycho-Analysis‘ (GW XVII, 1938-40). Ich wurde auf diesen Text aufmerksam durch Jürgen Hardt, der dazu 1996 einen historisch-systematischen Artikel verfasst hatte (Hardt 1996).

In einer sehr detaillierten textnahen Analyse kann Jürgen Hardt es plausibel erscheinen lassen, dass dieser Text ‚Some …‘ kein nachträglicher Kommentar zu dem zeitlich früheren ‚Abriß der Psychoanalyse‘ (GW VVII, 1938-40) darstellt, sondern letztlich einen methodisch neuen Ansatz bildet, wie Freud die Psychoanalyse darstellen wollte, ohne dies vollenden zu können.

Die zentrale Idee besteht darin, dass die Psychoanalyse sehr wohl am Alltagsverständnis ansetzt, beim alltäglichen Bewusstsein, der individuellen ‚Selbstbeobachtung‘, dass sie aber nicht bei der ‚Lückenhaftigkeit‘ der Phänomene stehen bleibt, sondern die Lücken einem ‚Un-Bewussten‘ zurechnet, das für die Auswahl und das Zustandekommen der bewussten Phänomene verantwortlich ist. Mit diesem Ansinnen und mit der Umsetzung dieses Ansinnens, begibt sich die Analyse in das Gebiet der ‚theoretischen Deutung‘ von ‚Erfahrbarem‘. Damit tut sich auf den ersten Blick ein Gegensatz von ‚Bewusstsein‘ und ‚Un-Bewusstem‘ auf: das Un-Bewusste ist dem Bewusstsein ‚etwas Fremdes‘. Dieser Gegensatz wird umso provozierender, wenn man – wie Freud – dieses ‚Un-Bewusste‘ mit dem ‚Seelischen‘ gleichsetzt, denn dann ist auch ‚das Seelische‘ dem Bewusstsein ‚fremd‘. Es ist dann das hehre Ziel der Psychoanalyse die ‚Lücken im Bewusstsein‘ dadurch zu schließen, dass man das ‚Un-Bewusste‘ und seinen funktionellen Beitrag für das Bewusstsein ’sichtbar macht‘. Dazu gibt es die weitere Position Freuds, dass das ‚Un-Bewusste‘ und seine Prozesse ‚zur Natur‘ gehören (über den Körper, der Teil der Natur ist). Insofern ist die Psychoanalyse nach Freud von ihrem Gegenstand her eine ‚Naturwissenschaft‘.

Soweit diese Position, wie sie sich anhand der detaillierten Analyse von Jürgen Hardt rekonstruieren lässt.

Angenommen diese meine Rekonstruktion der Interpretation von Jürgen Hardt ist zutreffend, dann kann man – speziell auch vor dem Hintergrund der vorausgehenden Diskussion – einige Fragen stellen.

  1. Beginnt man mit dem Ende der obigen Argumentation, dann scheint Freud die These von der Psychoanalyse als ‚Naturwissenschaft‘ von dem Sachverhalt herzuleiten, dass ihr ‚Gegenstandsbereich‘ (das ‚Un-Bewusste‘ als das ‚Seelische‘, dieses verortet in Prozessen des Körpers) dem geläufigen Verständnis von ‚Natur‘ zuzurechnen sei.

  2. Nun definiert sich die moderne Naturwissenschaft allerdings nicht nur über ihren Gegenstandsbereich (die diffuse, zu Beginn nicht definierte, ‚Natur‘), sondern zugleich und wesentlich auch über die ‚Methode des Gewinnens und Aufbereitens von wissenschaftlichem Wissen‘ über diese intendierte Natur.

  3. In diesen Prozessen des ‚Gewinnens und Aufbereitens von wissenschaftlichem Wissen‘ spielen ‚experimentelle empirische Messprozesse‘ eine zentrale Rolle. Nicht erst seit Galilei beginnt man etwas Neues, ein zu Untersuchendes (die Natur, Teilaspekte der Natur) mit einem zuvor festgelegten ‚objektiven Standard‘ zu vergleichen und benutzt die Ergebnisse dieses Vergleichs als ‚empirisches Faktum‘, wobei man von dem ausführenden ‚Beobachter/ Theoriemacher‘ absieht.

  4. Im von Freud proklamierten Ausgang beim ‚Alltagsbewusstsein‘, das sich primär in der ‚Selbstbeobachtung‘ erschließt, innerhalb einer Therapie aber auch parallel in einer ‚Fremdbeobachtung‘ des ‚Verhaltens‘ eines anderen, stellt sich die Frage nach einem ‚zuvor vereinbarten Standard‘ neu.

  5. An das beobachtbare Verhalten eines Anderen kann man zuvor vereinbarte Standards anlegen (man denke beispielsweise an die mehr als 100 Jahre psychologische Intelligenzforschung: ohne die einem Verhalten zugrunde liegenden Strukturen und Prozesse direkt untersuchen zu können, kann man Kataloge von Verhaltensweisen definieren, die man mit dem Begriff ‚Intelligent‘ korreliert. Dieses Verfahren hat gezeigt, dass es erstaunlich stabile Prognosen künftiger Verhaltensweisen erlaubt). So wäre denkbar, dass man Bündel von Verhaltensmerkmalen und typische Abfolgen in typischen Situationen mit bestimmten Begriffen verknüpft, die sich mit unterstellte unbewussten Prozessen assoziieren lassen.

  6. Allerdings, da ‚unbewusste‘ Prozesse per Definition ’nicht bewusst‘ sind, stellt sich die Frage, wann und wie ein psychoanalytischer Beobachter/ Theoriemacher einen Zugriff auf diese unbewussten Prozesse bekommen kann?

  7. Im Fall der Intelligenzforschung gibt es diesen Zugriff auf interne Prozesse letztlich auch nicht, da z.B. niemand direkt in die Arbeitsweise seines ‚Gedächtnisses‘ hineinschauen kann. Was wir vom Gedächtnis wissen, wissen wir nur über die ‚Reaktionen des Systems‘ in bestimmten Situationen und Situationsfolgen.

  8. Hier kann man vielleicht an dem Begriff ‚Fehlleistung‘ anknüpfen, der für Freud solche Verhaltensweisen charakterisiert, die nach ’normalem Verständnis‘ eine ‚Abweichung‘ vom ’normalen Muster‘ darstellen. Da ja – das wäre das grundlegende Axiom – keine Leistung einfach aus einem ‚Nichts‘ kommt, sondern ‚Prozesse im Innern‘ voraussetzt, würde man aufgrund des Axioms die Hypothese bilden, dass es Prozesse gibt, die von den ’normalen Prozessen‘ abweichen.

  9. In diesen Kontexten gehört dann auch die Traumanalyse, sofern man das Axiom aufstellt, dass Träume Verarbeitungsprozesse von erlebter Erfahrung darstellen, die ‚intern erlebte Spannungen, Konflikte, Ängste, …‘ widerspiegeln und ‚verarbeiten‘.

  10. Die bisherigen Überlegungen führen über das Muster einer verhaltensorientierten Psychologie nicht hinaus, wenngleich die ‚Arten des Verhaltens‘ mit ‚Fehlleistungen‘ und ‚Träumen‘ als Indikatoren schon bestimmte ‚Axiome‘ voraussetzen, die zusammen genommen ein ‚Modell des Akteurs‘ darstellen. Empirische Modelle – so auch dieses – können falsch sein.

  11. Fasst man den Begriff der ‚Fehlleistung‘ weiter indem man alles, was irgendwie ‚auffällig‘ ist (Stimmfärbung, Redeweise, Bewegungsweise, Zeit und Ort der Äußerung, …), dann ergibt sich ein weites, ‚offenes‘ Feld von potentiellen Verhaltensphänomenen, das zu jedem Beobachtungszeitpunkt ‚mehr‘, ‚größer‘ sein kann als das, was zuvor vereinbart worden ist.

  12. Schließlich, welche Verhaltensweisen auch immer man zuvor als potentielle ‚Indikatoren für unbewusste Prozesse‘ vereinbart haben mag, solange keiner der Beteiligten an irgendeiner Stelle eine ‚Verbindung‘ zu einem ‚realen unbewussten Prozess‘ herstellen kann, hängen diese Indikatoren – bildhaft gesprochen – ‚in der Luft‘. Vergleichbar wäre dies mit einem Quantenphysiker, der aufgrund seines mathematischen Modells eine bestimmte ‚Eigenschaft‘ im Quantenraum postuliert und es ihm bislang noch nicht gelungen ist, ein Experiment durchzuführen, das diese ‚theoretisch begründete Vermutung‘ ‚bestätigt‘.

  13. In der Darstellung von Jürgen Hardt bleibt offen, wie Freud sich eine Lösung dieses Bestätigungsproblems vorstellt.

  14. Aus den zurückliegenden Gesprächen mit PsychoanalyternInnen weiß ich, dass die ‚Wirkung einer hergestellten Beziehung‘ zwischen ‚bewussten Verhaltensanteilen‘ und ‚zuvor unbewussten Faktoren‘ einmal an objektiven Verbesserungen der Gesamtsituation des Anderen festgemacht wird (dazu ließe sich ein zuvor vereinbarter Katalog von Standards denken), und dieser Wirkung geht ein bestimmtes ‚Identifikations- und Erkennungserlebnis‘ voraus. Mit einem solchen Erlebnis ist gemeint, dass es irgendwann (eine nicht planbare und nicht erzwingbare Konstellation) dem Anderen gelingt, durch eine Vielzahl von Indikatoren und begleitenden Verhaltensweisen jene ‚interne Faktoren‘ ‚ans Bewusstsein‘ zu holen, die für die abweichenden Verhaltensweisen (die in der Regel mit vielfachen negativen Begleiteffekten im Alltagsleben verbunden waren) in kausaler Weise ‚verantwortlich‘ ist. Aufgrund der ungeheuren Variabilität von individuellen Persönlichkeitsstrukturen und -biographien können diese Faktoren so unterschiedlich sein, dass ein alle Fälle von vornherein beschreibendes Modell/Muster praktisch unmöglich erscheint. Nur insofern als das Alltagsleben Stereotype aufweist, die viele Menschen teilen, kann es ähnliche Phänomene im Rahmen einer Population geben.

  15. Wichtig ist hier, dass ein solches ‚Identifikations- und Erkennungserlebnis‘ ein subjektiver Prozess im Bereich der Selbstbeobachtung ist, dessen Gehalt sich nur indirekt in der Kommunikation und in den nachfolgenden ‚objektiven und subjektiven‘ Eigenschaften des Alltagslebens manifestiert.

  16. Der anhaltende Konflikt zwischen verhaltensbasierter Psychologie und Psychoanalyse, ob sich die im Rahmen einer Psychoanalyse erwirkten Verhaltensänderungen auch im Rahmen der ’normalen‘ verhaltensbasierten Psychologie ermöglichen lassen, wirkt ein bisschen künstlich. Eine verhaltensbasierte Psychologie, die ‚Fehlleistungen‘ und ‚Träume‘ als Indikator-Phänomene ernst nehmen würde, käme nicht umhin, axiomatisch unbewusste Prozesse anzunehmen (was sie ansonsten bei vielen komplexen Verhaltensweisen auch tun muss). Diese unbewussten Prozesse in ihrer ‚verursachenden Funktion‘ für das Alltagsverhalten zu ‚erschließen‘ braucht es sehr viel ‚kreatives‘ Experimentieren mit vielen Unbekannten, für das die Einbeziehung des ‚Unbewussten‘ des Therapeuten (zusätzlich zu den zuvor erarbeiteten Modellen) sich bislang als beste Strategie erweist, insbesondere dann, wenn man die Kommunikation zwischen den beiden ‚Unbewussten‘ zulässt und nutzt.

  17. Als Wissenschaftsphilosoph würde ich sagen, dass die Abgrenzung zwischen empirischer Psychologie und (empirischer) Psychoanalyse ‚künstlich ist. Die gewöhnliche verhaltensbasierte Psychologie kann sich von einer sich als ‚empirisch‘ verstehenden Psychoanalyse nur abgrenzen, wenn sie ihr eigenes Selbstverständnis in bestimmten Punkten künstlich beschneidet.

  18. Eine sich empirische verstehende Psychoanalyse (Freuds Postulat von Psychoanalyse als Naturwissenschaft) wiederum sollte die ideologisch erscheinenden Abgrenzungsversuche gegen die normale empirische Psychologie aufgeben und vielmehr konstruktiv zeigen, dass ihr psychoanalytisches Vorgehen nicht nur voll im Einklang mit einem empirisch-experimentellen Selbstverständnis steht, sondern darüber hinaus die Mainstream-Psychologie um wertvolle, grundlegende Erkenntnisse zum Menschen bereichern kann. Dann hätten alle etwas davon.

  19. Die weitere Forderung der empirischen Wissenschaft, die ‚gemessenen Fakten‘ systematisch zu ‚ordnen‘ in Form eines ‚Modells‘, einer ‚Theorie‘ ließe sich von der Psychoanalyse auch bei introspektiven Phänomenen sehr wohl einlösen. Allerdings sind bislang nur wenige Beispiele von formalisierten Modellen zu psychoanalytischen Sachverhalten bekannt (eines stammt von Balzer).

LIT:

Balzer, Wolfgang (1982), Empirische Theorien: Modelle, Strukturen, Beispiele,Friedr.Vieweg & Sohn, Wiesbaden

Hardt, Jürgen (1996), Bemerkungen zur letzten psychoanalytischen Arbeit Freuds: ‚Some Elementary Lessons in Psycho-Analysis‘, 65-85, in: Jahrbuch der Psychoanalyse, Bd.35, Frommann-holzboog

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Kumulierte Zusammenfassung der Diskussion

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 3.Dez.2018, Hervorhebungen hinzugefügt

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Bislang sind folgende Teile erschienen:

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

Teil 7

Einschub: Fitness

Teil 8

Teil 9

Teil 10

Teil 11

Welche Theorie von was?

Teil 13: Fokussierung und Unbewusstes – Teil1

 

POSITION VON EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

POSITION DES AUTORS ALS DISKUSSIONSPUNKTE

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.
  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Metawissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.
  22. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).
  23. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.
  24. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.
  25. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.
  26. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:
  27. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:
  28. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:
  29. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).
  30. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.
  31. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).
  32. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.
  33. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.
  34. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.
  35. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Phänotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.
  36. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas. Wohl findet zwischen Individuen ein ‚Genmix‘ (oft als ‚crossover‘ bezeichnet) statt, der neue Genotypen ermöglicht, z.T. Ergänzt durch zufällige Änderungen (Mutationen) des Genotyps, mit nachfolgend neuen Phänotypen.
  37. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.
  38. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.
  39. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.
  40. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nichts anderes übrig, als , im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.
  41. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommt, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.
  42. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.
  43. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch zwar noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das
    ‚Biologische‘ erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.
  44. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. auf neue Weise zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als ohne dieses Wissen.

ZWISCHENREFLEXION FITNESS VORGEGEBEN

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‚ oder gar ‚vermehren‚ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‚ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

DISKUSSION FORTSETZUNG: HIER KAP.9

  1. Die Verwendung des Ausdrucks ‚Erkennung/ Erkennen‘ (‚recogniton‘) in Nr. 2 erscheint mir sehr gewagt, da die übliche Verwendungsweise des Ausdrucks ‚Erkennung‘ ein menschliches Subjekt voraussetzt, das im Rahmen seines Bewusstseins und dem zugehörigen – weitgehend unbewussten – ‚Kognitiven System‘ die wahrgenommenen – äußerliche (Sinnesorgane) wie innerliche (Körpersensoren) – Ereignisse ‚interpretiert‘ auf der Basis der ‚bisherigen Erfahrungen‘ und im Rahmen der spezifischen Prozeduren des ‚kognitiven Systems‘. Das von Edelman unterstellte ’selektive System‘ bezieht sich primär auf Strukturen, die sich ‚evolutiv‘ ausbilden oder aber ’somatisch‘ auf die Arbeitsweise des Gehirns, wie es sich im ‚laufenden Betrieb‘ organisiert. Das somatische System ist aber Teil des weitgehend ‚unbewussten kognitiven Systems‘, das in der alltäglichen Verwendung des Begriffs ‚Erkennung‘ ohne jegliche Bezugnahme auf die Details der Maschinerie einfach voraussetzt wird. Im Alltag liegt hier die Aufspaltung der Wirklichkeit in den bewussten Teil und den unbewussten vor, dessen wir uns – normalerweise – im alltäglichen ‚Vollzug‘ nicht bewusst sind (daher ja ‚unbewusst‘). Wenn Edelman also hier einen Ausdruck wie ‚Erkennung‘ aus dem ‚bewussten Verwendungszusammenhang‘ einfach so, ohne Kommentar, für einen ‚unbewussten Verwendungszusammenhang‘ benutzt, dann kann dies nachfolgend zu nachhaltigen Verwirrungen führen.

  2. Der Punkt (3) von Edelman ist absolut fundamental. An ihm hängt alles andere.

  3. Der Punkt (4) spiegelt ein anderes fundamentales Verhältnis wieder, das Edelman immer und immer wieder thematisiert: das Verhältnis von Psychologie (die Wissenschaft vom Verhalten) und Physiologie (die Wissenschaft vom Körper, speziell vom Gehirn). Alle Eigenschaftszuschreibungen, die die Psychologie vornimmt (wie z.B. mit dem Ausdruck ‚Intelligenz‘, ‚Intelligenzquotient‘, ‚Reflex‘, usw.), basieren auf empirischen Beobachtungen von realem Verhalten von realen Menschen, die dann im Rahmen expliziter (formaler = mathematischer) Modelle/ Theorien in Beziehungen eingebracht werden. Die Psychologie schaut nicht (!) in das ‚Innere‘ des Systems. Das tut die Physiologie. Die Physiologie untersucht die Struktur und die Dynamik des Körpers; dazu gehört auch das Gehirn. Und auch die Physiologie sammelt empirische Daten von den Körperprozessen (z.B. wie ein Neuron zusammengesetzt ist, wie es physikalisch, chemisch, mikrobiologisch usw. funktioniert) und versucht diese empirische Daten in explizite Modelle/ Theorien einzubauen. Im Idealfall haben wir dann eine psychologische Theorie T_psych über beobachtbares Verhalten mit theoretisch unterstellten möglichen Faktoren ‚hinter‘ dem Verhalten, und parallel eine physiologische Theorie T_phys über körperinterne Prozesse, die die verschiedenen Einzelbeobachtungen in einen ‚Zusammenhang‘ bringen. Was wir aber NICHT haben, das ist eine Erklärung des Zusammenhangs ZWISCHEN beiden Theorien! Die Gegenstandsbereiche ‚beobachtbares Verhalten‘ und ‚beobachtbare Körperprozesse‘ sind zunächst voneinander völlig abgeschottet. Spontan vermutet man natürlich, dass es zwischen Gehirnprozessen, hormonellen Prozessen, Atmung usw. und dem beobachtbaren Verhalten einen Zusammenhang gibt, aber diesen Zusammenhang EXPLIZIT zu machen, das ist eine eigenständige Leistung mit einer ‚Brückentheorie‘ T_physpsych(T_phys, T_psych), in der dieser Zusammenhang ausdrücklich gemacht wird. Es gibt dazu sogar Ausdrücke wie ‚Psychosomatik‘, ‚Neuropsychologie‘, aber die dazu gehörigen Texte kommen bislang nicht als explizite ‚Brückentheorie‘ daher. Und wenn Edelman hier ausdrücklich die Ausdrücke ‚Wahrnehmung, ‚Gedächtnis‘, ‚Bewusstseins‘, ‚Sprache‘ nennt, dann handelt es sich ausnahmslos um hochkomplexe Sachverhalte, zu denen es bislang keine hinreichende psychologische Theorien gibt, wenngleich beeindruckende Forschungen und Forschungsansätze. Festzustellen, dass eine physiologische Theorie des Gehirns Erklärungsansätze liefern müsse, wie diese psychologischen Phänomene zu ‚erklären‘ seien ist folgerichtig, aber aktuell schwierig, da die Psychologie diese Phänomene noch keineswegs zweifelsfrei abklären konnte. Am weitesten fortgeschritten sind  möglicherweise die psychologischen Forschungen zur ‚Wahrnehmung‘, zum ‚Gedächtnis‘, und irgendwie zu ‚Sprache‘, kaum zu ‚Bewusstsein‘ und dem Verhältnis zum ‚Unbewussten‘.

  4. Die beiden in (5) aufgeführten metatheoretischen (= wissenschaftsphilosophischen) Postulate sind so, wie sie Edelman formuliert, mindestens missverständlich und darum Quelle möglicher gravierender Fehler. Die Verortung von wissenschaftlichen Aussagen in der ‚physikalischen‘ Welt und von speziell psychologischen Aussagen in den ‚physiologischen Prozessen des Körpers‘ sind als solche sicher kompatibel mit dem bisherigen Verständnis von empirischer Wissenschaft generell. Allerdings, wie gerade im vorausgehenden Punkt (C) dargelegt, gibt es empirische Datenbereiche (hier: Verhaltensdaten, Körperprozesse), die direkt zunächst nichts miteinander zu tun haben. Die auf diesen unterschiedlichen Datenbereichen beruhenden Modell-/ Theoriebildungen sind von daher zunächst UNABHÄNGIG voneinander und haben ihre wissenschaftliche Daseinsberechtigung. Zu wünschen und zu fordern, dass zwei zunächst methodisch unabhängige Modelle/ Theorien T_psych und T_phys miteinander in Beziehung gesetzt werden, das liegt ‚in der Natur des wissenschaftlichen Verstehenwollens‘, aber dies wäre eine zusätzliche Theoriedimension, die die beiden anderen Teiltheorien VORAUSSETZT. Dieser methodisch-logische Zusammenhang wird in der Formulierung von Edelmann nicht sichtbar und kann dazu führen, dass man eine wichtige Voraussetzung der gewünschten Erklärungsleistung übersieht, übergeht, und damit das Ziel schon im Ansatz verfehlt.

  5. Dass – wie in (6) behauptet – die ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ jene Erklärung liefere, die die psychologischen Theorien ‚erklärt‘ ist von daher methodisch auf jeden Fall falsch. Allerdings kann man die Position von Edelman dahingehend verstehen, dass die TNGS ein physiologisches Modell liefere (was die große Schwäche besitzt, dass weder der übrige Körper, von dem das Gehirn nur ein verschwindend kleiner Teil ist, noch die jeweilige Umgebung einbezogen sind), das im Rahmen einer T_physpsych-Brückentheorie entscheidende Beiträge für solche einen Zusammenhang liefern könnte. Letzteres scheint mir in der Tat nicht ganz ausgeschlossen.

  6. In den Punkten (7) – (12) beschreibt Edelman drei Phasen der Strukturbildung, wie es zu jenen physiologischen Strukturen kommen kann, die dann – unterstellt – dem beobachtbaren Verhalten ‚zugrunde‘ liegen. Allerdings, für das aktuell beobachtbare Verhalten spielen die verschiedenen Entstehungsphasen keine Rolle, sondern nur der ‚Endzustand‘ der Struktur, die dann das aktuelle Verhalten – unterstellt – ‚ermöglicht. Der Endzustand ist das Gehirn mit seinen neuronalen Verschaltungen, seinen Versorgungsstrukturen und seiner anhaltenden ‚Plastizität‘, die auf Ereignismengen reagiert. Aus den Punkten (7) – (12) geht nicht hervor, wo und wie diese Strukturen das ‚Bewusstsein erklären‘ können.

  7. Wenn Edelman in (13) meint, dass seine neuronalen Karten mit den reziproken Verbindungen eine Grundlage für das psychologische Konzept des Gedächtnisses liefern können, dann ist dies sicher eine interessante Arbeitshypothese für eine mögliche Brückentheorie, aber die müsste man erst einmal formulieren, was wiederum eine psychologische Theorie des Gedächtnisses voraussetzt; eine solche gibt es bislang aber nicht.

  8. Der Punkt (14) adressiert mögliche Details seiner Modellvorstellung von neuronalen Karten mit reziproken Verbindungen.

  9. Der Punkt (15) greift das Thema von Punkt (13) nochmals auf. Die ‚Kategorisierung von Wahrnehmungsereignissen‘ ist letztlich nicht von dem Thema ‚Gedächtnis isolierbar. Er zitiert im Postskript auch viele namhafte PsychologenInnen, die dazu geforscht haben. Die Kerneinsicht dieser empirischen Forschungen geht dahin, dass sich solche Strukturen, die wir ‚Kategorien‘ nennen, ‚dynamisch‘ herausbilden, getriggert von konkreten Wahrnehmungsereignissen, die bei jedem individuell verschieden sind. Natürlich liegt hier die Vermutung nahe, dass entsprechend dynamische Strukturen im Körper, im Gehirn, vorhanden sein müssen, die dies ermöglichen. Dass hier Psychologie und Physiologie Hand-in-Hand arbeiten können, liegt auch auf der Hand. Aber dies stellt erhebliche methodische Herausforderungen, die Edelman kaum bis gar nicht adressiert.

  10. In Punkt (16 – 18) beschreibt Edelman auf informelle Weise, wie er sich das Zusammenspiel von psychologischen Eigenschaften (die eine explizite psychologische Theorie T_psych voraussetzen) und seinem neuronalen Modell (für das er eine physiologische Theorie T_phys beansprucht) vorstellt. Auf dieser informellen Ebene wirkt seine Argumentation zunächst mal ‚plausibel‘.

  11. Ab Punkt (19) berührt Edelman jetzt einen weiteren Fundamentalpunkt, der bis heute generell ungeklärt erscheint. Es geht um die Frage der ‚Werte‘, die ein Verhalten in einem gegeben Möglichkeitsraum in eine bestimmte ‚Richtung‘ anregen/ drängen …. (es gibt dafür eigentlich kein richtiges Wort!), so dass das System einem neuen Zustandsraum erreicht, der für es ‚günstiger‘ ist als ein anderer, auf jeden Fall ‚das Leben ermöglicht‘. Die Evolutionstheorie hat über das Phänomen der hinreichenden ‚Nachkommen‘ ein ‚operationales Kriterium‘ gefunden, mit dem sich der Ausdruck ‚Fitness‘ mit Bedeutung aufladen lässt. Über das ‚Überleben‘ bzw. ‚Nicht-Überleben‘ wirkt sich dies indirekt auf den Genotyp aus: die ‚günstigen‘ Genotypen überleben und die ’nicht günstigen‘ sterben aus. Ein ‚überlebender‘ Genotyp – einen, den man ‚fit‘ nennt – triggert dann den embryonalen Prozess und den darin gründenden ‚Entwicklungsprozess‘, der in einer ’nicht-deterministischen‘ Weise Körper- und damit Gehirnstrukturen entstehen lässt, die auf individueller Ebene immer verschieden sind. Jene Gehirnstrukturen, die für lebenserhaltende Systeme wichtig sind (letztlich die gesamte Körperarchitektur und das Zusammenspiel aller Komponenten untereinander) werden aber – trotz des nicht-deterministischen Charakters – offensichtlich dennoch herausgebildet. In all diesem lässt sich kein ‚geheimnisvoller Faktor‘ erkennen und er erscheint auch nicht notwendig. Das System ‚als Ganzes‘ repräsentiert ein ‚Erfolgsmodell‘. Hier jetzt – wie Edelman es versucht – im konkreten Details nach ‚Orten von Präferenzen‘ zu suchen erscheint unplausibel und seine Argumentation ist auch nicht schlüssig. Wenn Edelman ‚interne Kriterien für werthaftes Verhalten‘ postuliert, die genetisch bedingt sein sollen, dann postuliert er hier Eigenschaften, die sich nicht aus der Biochemie der Prozesse herauslesen lassen. Was er hier postuliert ist so eine Art   ‚genetischer Homunculus‘. Damit widerspricht er letztlich seinen eigenen wissenschaftlichen Überzeugungen. Letztlich ist es nur ein ‚Genotyp als ganzer‘, der ein ‚bislang erfolgreichen Phänotyp‘ repräsentiert. Scheiter er irgendwann – was auf lange Sicht der Normalfall ist, da die Erde sich ändert –, dann verschwindet der Genotyp einfach; jener, der ‚überlebt‘, verkörpert als ‚Ganzer‘ ein Erfolgsmodell, nicht ein einzelner, isolierter Aspekt. Mit dieser empirisch-wissenschaftlichen Sicht verschwinden die ‚Werte‘ zwar ‚aus dem System‘, aber das übergeordnete ’system-transzendente‘ Verhältnis zwischen System und Umwelt bleibt weiter erhalten und es ist dieses Verhältnis, das alleine darüber entscheidet, ob etwas ‚Leben-Ermöglichendes‘ ist oder nicht. Damit erweitert sich die Fragestellung nach der ‚Verortung möglicher Präferenzen‘ deutlich, wenn man das empirisch neue Phänomen des Bewusstseins einbezieht (das nur in Kombination mit einem Unbewussten auftritt!). Während die Umwelt-System-Beziehung primär über das Überleben entscheidet, ermöglicht das Bewusstsein in Kombination mit dem Unbewussten (z.B. dem Gedächtnis) eine ‚Extraktion‘ von Eigenschaften, Beziehungen, Dynamiken und mit kombinatorischen Varianten von dieser Umwelt-System-Beziehung, so dass eine kommunizierende Gruppe von Homo sapiens Exemplaren von nun an mögliche Zukünfte schon in der Gegenwart bis zu einem gewissen Graf ‚voraus anschauen‘ und auf ‚Lebensfähigkeit‘ ‚testen‘ kann. Insofern stellt das Bewusstsein und die Kommunikation eine radikale Erweiterung der Überlebensfähigkeit dar, nicht nur für den Homo sapiens selbst, sondern auch für die Gesamtheit des biologischen Lebens auf der Erde! Mit dem Ereignis Homo sapiens tritt das biologische Leben auf der Erde (und damit im ganzen Universum!?) in eine radikal neue Phase. Edelmans Versuch, ‚Werte‘ in einzelnen genetischen Strukturen und dann in einzelnen Strukturen des Gehirns zu finden wirken von daher unlogisch und abwegig. Edelmans Beispiele in den Punkten (20) – (23) können nicht klarmachen, wie diese interne Präferenzsystem funktionieren soll (ich werde diesen Punkt an konkreten Systemen nochmals selbst durchspielen).

  12. Zusammenfassend würde ich für mich den Text von Edelman so interpretieren, dass (i) seine Skizze der neuronalen Maschinerie mit den reziproken Verbindungen und den unterschiedlichen Verschaltungen ganzer Karten ein interessanter Ansatzpunkt ist, für ein neuronales Modell, das in einer psychologisch-physiologischen Brückentheorie getestet werden könnte und sollte, sein Versuch aber (ii), die Wertefrage in biochemische Prozesse verorten zu wollen, ist in mehrfachem Sinne unplausibel, methodisch unklar und führt vom Problem eher weg.

DISKUSSION FORTSETZUNG: KAP.10

  1. Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

  2. Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußnote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.

  3. Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:

    1. Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.

    2. Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.

    3. Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.

  4. Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:

    1. Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN

    2. Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH

    3. Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN

  5. Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.

Fortsetzung folgt

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DAS WAS MENSCHSEIN AUSMACHT. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

  1. Während der Auseinandersetzung mit dem Buch von Edelman gab es unterschiedliche Wechselwirkungen mit anderen gedanklichen Prozessen. Ein Thema hier ist eine mögliche grundlegende Typologie von ‚Intelligenz‘.

  2. Vorab müsste man das Verhältnis des Begriffs ‚Intelligenz‘ zu Begriffen wie ‚Lernen‘, ‚Bewusstsein‘, ‚Geist‘ und ‚Gehirn‘ klären. Hier nur soviel, dass alle diese Begriffe ein ‚Gehirn‘ – oder eine vergleichbare materielle Struktur – zum Funktionieren voraussetzen. Allerdings kann das bloße Vorhandensein solcher materieller Strukturen nicht garantieren, dass es dann auch so etwas wie ‚Geist‘, ‚Bewusstsein‘, ‚Lernen‘ und ‚Intelligenz‘ gibt.

  3. Der Begriff ‚Geist‘ wird im Englischen als ‚mind‘ gerne und oft benutzt, um Besonderheiten im Verhalten des Homo sapiens zu ‚markieren‘. Allerdings ist dieser Begriff sehr diffus und bislang in keiner Theorie hinreichend erklärt.

  4. Meistens werden die Begriffe ‚Bewusstsein‘ und ‚Geist‘ sehr ähnlich benutzt, ohne dass deren Beziehung zueinander – wegen einer fehlenden Theorie – letztlich klar ist. Da unser ‚Zugang‘ zum Phänomen ‚Geist‘ irgendwie über das beobachtbare Verhalten und das ‚Bewusstsein‘ läuft, ist der Begriff ‚Geist‘ eher ein theoretischer Begriff innerhalb einer Theorie, die man auf der Basis von Bewusstseinsdaten formulieren würde. Mit dem Begriff ‚Bewusstsein‘ wäre dies ähnlich: würden wir alle erreichbaren Daten aus der 1.Person und 3.Person Perspektive sammeln, könnten wir eine Theorie bauen, die den theoretischen Term ‚Bewusstsein‘ enthält und damit indirekt ‚erklärt‘. Paradox würde es, weil der Begriff ‚Bewusstsein‘ dann nicht nur eine theoretische Beschreibung ‚von etwas‘ wäre, also einen ‚Gegenstand‘ der Beschreibung bilden würde, sondern zugleich auch den ‚Autor‘ der ‚Beschreibung‘ repräsentieren würde, allerdings nur indirekt. Der so theoretisch beschriebene ‚Gegenstand Bewusstsein‘ würde wesentliche Eigenschaften nicht enthalten. Für diesen Fall eines ‚Gegenstandes‘ der zugleich ‚Autor‘ ist gibt es bislang keinen akzeptierten Theoriebegriff.

  5. Der ‚wissenschaftliche Intelligenzbegriff‘ orientiert sich am beobachtbaren Verhalten und definierten Referenzpunkten. Dieses Verfahren wurde seit gut 100 Jahren auf den Homo sapiens angewendet und dann auf viele andere biologische Systeme verschieden vom Homo sapiens. Man könnte grob von ‚Menschlicher Intelligenz‘ sprechen und von ‚Tierischer Intelligenz‘ mit vielen Überschneidungen.

  6. Daneben gibt es heute eine ‚Maschinelle Intelligenz‘, die bislang aber in keiner allgemein akzeptierten Form beschrieben und untersucht wird. Die Beziehung zur ‚menschlichen‘ und ‚tierischen‘ Intelligenz wurde bislang nicht systematisch untersucht.

  7. Im Alltag, in den Medien, in der Kunst gib es eine ‚fiktive Intelligenz‘, der man nahezu alles zutraut, ohne dass klar ist, ob dies wirklich möglich ist. Die ‚fiktive Intelligenz‘ ist gleichsam eine Art ‚Sammelpunkt‘ aller Projektionen von dem, was Menschen sich unter ‚Intelligenz‘ vorstellen können.

  8. Durch die Koexistenz von Menschen und neuer Informations-Technologie kann es zu einer neuen ‚hybriden Intelligenz‘ kommen, in der menschliche und maschinelle Intelligenz auf neue Weise symbiotisch zusammen wirken. Dazu gibt es bislang kaum Forschungen; stattdessen versucht man, die maschinelle Intelligenz möglichst unabhängig vom Menschen und oft in Konkurrenz und im Gegensatz zu ihm zu entwickeln. Zugleich verbleibt die Forschung zur menschlichen Intelligenz auf niedrigem Niveau; viele – die meisten? – wichtigen Eigenschaften sind weiterhin unerforscht. Beides zusammen blockiert die Entwicklung von wirklich starken, neuen Intelligenzformen.

  9. Durch die ungelöste Paradoxie von zugleich ‚Gegenstand‘ und ‚Autor‘ bleiben viele wichtige, vielleicht die wichtigsten, Eigenschaften menschlicher Intelligenz im Verborgenen. Es gibt hier einen Erkenntnismäßigen ‚blinden Fleck‘ der nur sehr schwer aufzulösen ist.

  10. Wenn man sieht, wie in vielen Ländern dieser Erde, auch in jenen, in denen man glaubte, viele ‚primitive‘ Sichten zur Welt, zum Leben, zum Menschen überwunden zu haben, große Teile der Bevölkerung und der politischen Leitinstitutionen wieder in solche ‚primitiveren‘ Sichten und Verhaltensweisen zurückfallen und darin zunehmend Anhänger finden, dann kann man dies als Indikator dafür nehmen, dass differenziertere, komplexere Sichten des Lebens und die dazu gehörigen Verhaltenskomplexe keine Automatismen darstellen. Nur weil jemand, eine Gruppe, eine Population zu einer bestimmten Zeit einmal eine ‚Einsicht‘ hatte, ein aus dieser Einsicht resultierendes ‚praktisches Lebenskonzept umgesetzt hat‘, folgt nicht automatisch, dass diese Einsicht in den Individuen der Population ‚am Leben bleibt‘. Die Struktur und Dynamik eines einzelnen Homo-sapiens-Exemplars ist von solch einer Komplexität, dass nur maximale Anstrengungen dieses Potential an Freiheit zu einer ‚konstruktiven Lebensweise‘ motivieren können. Dabei ist das Wort ‚motivieren‘ wichtig. Im Homo sapiens kulminiert die ‚Freiheit‘, die sich in der Materie und Struktur des gesamten Universums samt den biologischen Strukturen grundlegend findet, zu einem vorläufigen ‚Optimum‘, das sich jeder vollständigen ‚Verrechnung‘ in fixierte Strukturen widersetzt. Man kann einen Homo sapiens einsperren, töten, mit Drogen willenlos machen, durch Entzug von materiellen Möglichkeiten seiner Realisierungsbasis berauben, durch falsche Informationen und Bildungen fehlleiten, man kann aber seine grundlegende Freiheit, etwas ‚Anderes‘, etwas ‚Neues‘ zu tun, dadurch nicht grundlegend aufheben. In der Freiheit jedes einzelnen Homo sapiens lebt potentiell die mögliche Zukunft des gesamten Universums weiter. Ein unfassbarer Reichtum. Die größte Lüge und das größte Verbrehen an der Menschlichkeit und am Leben überhaupt ist daher genau diese grundlegende Eigenschaft des Homo sapiens zu verleugnen und zu verhindern.

  11. Natürlich hat der Homo sapiens noch weitere grundlegende Eigenschaften über die zu sprechen gut tun würde.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 7

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(Einige Korrekturen: 6.Sept.2018, 08:00h)

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…

  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …

  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …

  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …

  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …

  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …

  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …

  8. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …

  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …

  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.

  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.

  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.

  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.

  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!

  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?

  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.

  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.

  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.

  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.

  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

KAP. 8 DIE WISSSENSCHAFTEN DES ERKENNENS (The Sciences of Recognition)

Vorab zum Kapitel 8 (und einigen weiteren nachfolgenden Kapiteln) positioniert Edelman sich wie folgt:

  1. Nach den bisherigen Vorüberlegungen sieht sich Edelman in die Lage versetzt, eine ‚Theorie des Bewusstseins‘ zu postulieren als wesentliche Komponente einer ‚Theorie über das Funktionieren des Gehirns‘.(vgl. S.71)

  2. Edelman begründet dieses Vorgehen in Richtung von ‚expliziten Theorien‘ damit, dass Fakten alleine nichts nützen. Vielmehr müssen Fakten in Zusammenhänge eingebracht werden (’synthesizing ideas‘), die sich dann experimentell testen lassen. Diese Experimente bestätigen (‚amend‘) dann die bisherigen Synthesen oder widerlegen sie (‚knock down‘).(vgl. S.71)

  3. Er präzisiert seine Forderung nach einer Synthese der Fakten dahingehend, dass letztlich eine ‚wissenschaftliche Theorie‘ erstellt werden sollte, die möglichst alle ‚bekannten Fakten‘ über Gehirne und ‚Geist‘ integriert. Für Edelman ist klar, dass solch eine Theorie sehr viele ‚Schichten des Gehirns‘ beschreiben muss. (vgl. S.71)

  4. Diese Schichten des Gehirns bilden die ‚materielle Basis des Geistes‘ und in einer wissenschaftlichen Theorie des Bewusstseins als Teil einer Theorie des Gehirns werden bekannte Begriffe wie ‚Gedächtnis‘, ‚Konzept‘, ‚Bedeutung‘, ‚Bewusstsein als ein Tier‘, ‚Bewusstsein als ein menschliches Wesen‘ eine neue Bedeutung gewinnen.

Es folgt dann das Kap.8 als erstes Kapitel um dieses Programm zu erläutern.

  1. Edelman beginnt mit der These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will, also einer Blickrichtung, die sich auf ‚biologische Konzepte‘ stützt. (vgl. S.73)

  2. Eines der grundlegendsten (‚most fundamental‘) biologischen Konzepte ist für ihn der Begriff des ‚Denkens in Populationen‘ (‚population thinking‘), das für ihn historisch mit den Arbeiten von Darwin beginnt. (vgl. S.73)

  3. Das Denken in Populationen betrachtet die unterschiedlichen individuellen ‚Varianten‘ in einer Populationen als die Quelle von ‚Vielfalt‘. Diese Vielfalt ist der Angriffspunkt für eine ‚Auswahl‘ von jenen Arten, die erfolgreich sind. (vgl. S.73)

  4. Innerhalb einer kurzen Zeitspanne mögen diese Varianten kaum auffallen, über viele, sehr viele Generationen können sich die Unterschiede aber zu markant anderen Lebensformen auswirken, die dann als unterschiedliche ‚Arten‘ nebeneinander existieren. (vgl. S.73)

  5. Mit der Einführung des Begriffs ‚Denken in Populationen‘ stellt sich die Frage, wie denn hier eine Beziehung zum Begriff ‚Geist‘ hergestellt werden kann.

  6. Edelman wählt als potentielles Bindeglied den Begriff ‚Erkennen/ Wiedererkennen‘ (‚recognition‘). Er definiert diesen Begriff ‚Erkennen‘ zunächst sehr abstrakt, klassisch mathematisch, als eine ‚Abbildung‘ zwischen zwei ‚physikalischen Bereichen‘ (‚physical domains‘) A und B derart, dass die Elemente aus Bereich A in eine Menge A+ abgebildet werden, die zu den Ereignissen aus dem Bereich B ‚besser passen‘ (‚fit‘) als zuvor, sogar dann, wenn der Bereich B als B+ ’neue‘ Ereignisse umfasst. Er betont zusätzlich, dass diese Abbildung ‚ohne vorausgehende Instruktionen‘ (‚without prior instructions‘) stattfindet! Eine überaus starke These. (vgl. S.74)

  7. Um dieser noch sehr abstrakten Definition etwas mehr Bedeutung zu verleihen führt er ein Beispiel an, nämlich die ‚biologische Evolution‘: der eine Bereich A ist hier gegeben durch die Menge der biologischen Systeme (BIOS), der andere Bereich B durch die Menge der Ereignisse, die die Umgebung manifestieren (EVENTS). Durch die ‚Reproduktion‘ bildet der Bereich A neue Varianten, die zur Menge A+ führen. Der Bereich der Ereignisse B kann sich ändern, muss aber nicht. Wenn sich B so ändert, dass es neue Ereignisse gibt, dann liegt der Bereich B+ vor. Die Eigenschaft ‚fit zu sein‘ wird assoziiert mit dem Anteil der Nachkommen einer bestimmten Lebensform in einer Population. Je mehr Nachkommen eine Lebensform ermöglicht, um so ‚fitter‘ soll sie sein. Edelman legt Wert auf die Feststellung, dass die Herausbildung der ’nachkommensstarken‘ (‚fitten‘) Lebensformen A+ nicht durch eine ‚Instruktion seitens der Umwelt‘ zustande kam (‚does not require prior explicit information (‚instruction‘)), sondern dass die Herausbildung jener Varianten, die nachkommensstark sind, auf endogene Prozesse in den biologischen Systemen selbst zurück zu führen sei. Ebenso sind auch die Änderungen in der Umgebung B+ nach Edelman weitgehend unabhängig von den individuellen Variantenbildungen in der Population. Edelman geht hier noch weiter indem er postuliert, dass aus dieser wechselseitigen Unabhängigkeit folgt, dass es hier keine ‚finale Ursache‘, ‚keine Teleologie‘, ‚keine alles leitende Absicht‘ gibt. (vl. S.74)

  8. Als weiteres — eher spezielleres – Beispiel führt er das ‚Immunsystem‘ an. Das Immunsystem ist für Edelman ein ’somatisches selektives System (ssS)‘ das während der Lebenszeit eines biologischen Systems in einem Körper wirkt, während die Evolution ein ‚evolutionäres selektives System (esS)‘ repräsentiert, das über viele Generationen über viele Körper wirkt, innerhalb deren jeweils ein somatisches selektives System am Wirken ist. (vgl. 74)

  9. Edelman äußert hier die Vermutung, dass auch das ‚Gehirn‘ ein ’selektives somatisches System‘ ist. In diesem Fall wäre die ‚Neurowissenschaft‘ auch eine ‚Wissenschaft des Erkennens‘.(vgl. S.75)

  10. Das Immunsystem besitzt als wirkende Komponenten ‚Moleküle, Zellen‘ und ’spezialisierte Organe‘, wobei es sich bei den Molekülen und Zellen letztlich um alle Moleküle und Zellen des Körpers handelt. Letztlich operiert es ‚auf allen Molekülen‘, da es in der Lage ist zu ‚unterscheiden‘ (‚distinguishing‘) zwischen den ‚genuinen Molekülen/ Zellen‘ des eigenen Körpers (= das ‚Selbst‘) und ‚fremden Molekülen/ Zellen‘ (= ‚Nicht-Selbst‘). Diese Unterscheidungsfähigkeit ist extrem ’sensibel‘, da es selbst geringfügige Änderungen in der räumliche Anordnung von Atomen in einem Molekül erkennen kann. Zudem kann das Immunsystem solche Eigenschaften ‚erinnern‘, es hat ein ‚Gedächtnis‘ (‚memory‘).(vgl. S.75)

  11. Wenn ein körperfremdes Molekül (ein Protein) – auch ‚Antigen‘ genannt – auftritt, dann erzeugen spezialisierte Zellen des Körpers – die Lymphozyten – Moleküle, die sich an bestimmte charakteristische Eigenschaften des fremden Moleküls ‚anheften‘ können (sie binden sich an, ‚bind‘). Diese körpereigenen Identifizierungsmoleküle werden ‚Antikörper‘ (‚antibodies‘) genannt. (vgl. S.75)

  12. Die aktuelle Erklärung für diese beeindruckende Fähigkeit des Immunsystems solche Antikörper zu bilden, selbst bei völlig neuartigen Molekülen, wird als ‚Theorie der klonalen Selektion‘ gehandelt, die nach Edelman zurückgeht auf Sir Frank MacFarlant Burnet. (vgl. S.77)

  13. Die Grundidee dieser Theorie ist wie folgt: (i) Das körpereigene Immunsystem produziert ‚auf Vorrat‘ eine große Menge von Antikörpern mit unterschiedlichen Schnittstellen zum Anbinden. (ii) Treten dann körperfremde Moleküle auf (Viren, Bakterien), dann treffen diese auf eine Population von Lymphozyten mit ganz unterschiedlichen Antikörpern. Die eindringenden Zellen binden sich dann an jene Antikörper, die mit ihren Schnittstellen ‚am beste‘ zu ihnen ‚passen‘. Dies bringt die Lymphozyten, die diese Antikörper an sich tragen, dazu, sich durch Bildung von Klonzellen zu vermehren, so dass im Laufe der Zeit immer mehr Eindringlinge ‚gebunden‘ werden. (iii) Die Veränderung und Vermehrung der Lymphozyten einer bestimmten Art geschieht damit durch – nach Edelman – durch ‚Selektion‘ aufgrund von Ereignissen in der Umgebung. (vgl. S.75)

  14. Edelman unterstreicht auch hier, dass die Ausbildung der vielen Varianten von Antikörpern ’nicht von außen instruiert wurde‘, sondern innerhalb der Lebenszeit eines Körpers in den Lymphozyten, also ’somatisch‘ (’somatically‘). (vgl. S.75) Für ihn ist das Immunsystem daher eine wirkliche Instanz des allgemeinen Konzepts eines ‚Erkennungssystems‘ (‚recognition system‘): unabhängig von dem potentiellen Ereignisraum der fremden Moleküle produziert das Immunsystem ‚aus sich heraus‘ eine Menge von Antikörpern, die dann im Nachhinein (‚ex post facto‘) aufgrund der fremden Ereignisse ‚ausgewählt‘ (’selected‘) werden. Diese Produktionen ‚im voraus‘ und dann ‚Auswahlen im Moment‘ geschehen kontinuierlich, beinhalten ein retardierendes Moment (Gedächtnis) und erlauben eine ‚Anpassung‘ an die auftretenden neuen Moleküle (‚adaptively‘). Diese ‚zellulare Form eines Gedächtnisses‘ beruht auf der Tatsache, dass Mengen von Lymphozyten mit bestimmten Antikörpern meistens erhalten bleiben und aufgrund ihrer Zahl zukünftig auch schneller reagieren können. (vgl. S.78)

  15. Anhand der beiden Instanzen eines ‚Erkennungssystems‘ (‚evolutionäres selektives System‘ in Gestalt der Evolution und ’somatisches selektives System‘ in Gestalt des Immunsystems) macht Edelman darauf aufmerksam dass man zwischen dem ‚Prinzip der Auswahl‘ und den dazu eingesetzten ‚konkreten Mechanismen der Realisierung‘ unterscheiden muss. Das ‚Auswahlprinzip‘ wird sowohl von der ‚Evolution‘ benutzt wie auch vom ‚Immunsystem‘, aber die konkreten Mechanismen, wie dies umgesetzt wird, sind verschieden. (vgl. S.78) Beide Systeme brauchen aber auf jeden Fall eine Form von ‚Gedächtnis‘ jener Varianten, die eine ‚verbesserte Anpassung‘ ermöglichen. (vgl. S.79)

  16. Edelman nennt ‚Evolution‘ und ‚Immunologie‘ ‚Wissenschaften‘ (’sciences‘), ebenso die ‚Neurobiologie‘. (vgl. S.79)

  17. Edelman wiederholt seine Vermutung, dass das Gehirn ein ’somatisches selektives System‘ ist und ergänzt, dass nach seinen Forschungen die ‚Adhäsionsmoleküle der neuronalen Zellen‘ die ‚evolutionären Vorläufer‘ des gesamten Immunsystems waren. (vgl. S.79) Im folgenden Kapitel will er diese seine Hypothese, dass das Gehirn ein ’somatisches selektives System‘ sei, weiter erläutern.

DISKUSSION FORTSETZUNG

  1. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).

  2. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.

  3. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.

  4. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.

  5. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:

  6. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:

  7. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:

  8. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).

  9. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.

  10. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).

  11. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.

  12. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.

  13. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.

  14. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die  äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Genotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.

  15. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas.

  16. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.

  17. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.

  18. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.

  19. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nur, im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.

  20. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommen könnte, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.

  21. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.

  22. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch immer noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das Biologische erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.

  23. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als in den zurückliegenden Zeiten.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 6

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.7 DIE PROBLEME NEU ÜBERLEGT

  1. Nach den ersten Analysen in Kap.1-6 stellt Edelman eine ‚Zwischenreflexion‘ an. Angesichts der entdeckten Komplexität und Dynamik im Fall des Gehirns und seiner Entwicklung stellt sich die Frage, wie man den Zusammenhang zwischen den vorfindlichen materiellen Strukturen und ihren Funktionen miteinander in Beziehung setzen (‚to relate‘) kann.(vgl. S.65f)
  2. Und um seine mögliche neue Position zu bestimmen wiederholt er summarisch nochmals seine zuvor geäußerte Kritik an der ‚falschen Objektivität‘ der Physik, an der zu eng gefassten Kognitionswissenschaft, und er wiederholt auch wieder die unsinnigen Vergleiche mit einem falschen Begriff von Computer, der weder theoretisch noch praktisch Sinn macht.(vgl. SS.66-69)
  3. Grundsätzlich hält er an der Forderung fest, (i) eine ‚Theorie‘ zu bauen (‚to construct), die (ii) ‚wissenschaftlich‘ ist. ‚Wissenschaftlich sein‘ macht er an der Eigenschaft fest (iii), dass die Theorie ‚überprüfbar‘ sein soll. Allerdings muss die Theorie (iv) ’nicht immer‘ zu (v) ‚Voraussagen auf allen Ebenen führen‘, noch muss (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein.(vgl. S.66)
  4. Aufgrund seiner massiven Kritik an der unterdrückten Rolle des Beobachters speziell in der Physik (vgl. S.66f) muss man indirekt folgern, dass (a) der Beobachter in einer ‚kritischen Wissenschaft‘ im Zusammenspiel mit der Theorie ‚anders integriert wird als bisher‘. Dies bedeutet, man muss berücksichtigen, (b) dass es ‚mentale Ereignisse‘ gibt (‚Bewusstsein‘, ‚Intentionalität‘) gibt, die (c) nur durch ‚Introspektion‘ oder (d) nur durch indirekte Schlüsse aufgrund des beobachtbaren Verhaltens von anderen‘ zugänglich sind.(vgl. S.67)

DISKUSSION FORTSETZUNG

  1. Das Kapitel 7 ist sehr kurz und bringt weitgehend nur Wiederholungen ausgenommen der Punkt mit der Theorie. Der ist neu. Und es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht, obgleich er sich selbst ja als Wissenschaftler versteht und  er seine eigenen Überlegungen gleichwohl als wissenschaftlich verstanden wissen will (wenngleich er das aktuelle Buch in seiner Form nicht streng als wissenschaftliche Theorie verfasst hat).
  2. Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist interessant. Sie ist generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument einschränkt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll.
  3. Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist. Obgleich das Gebiet der Wissenschaftsphilosophie, wie ich es hier nenne, bislang immer noch keinen geschlossenen begrifflichen Raum darstellt, gibt es doch eine Reihe von grundlegenden Annahmen, die die meisten Vertreter dieses Feldes einer Metawissenschaft zu den Wissenschaften teilen. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  4. Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann.
  5. Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige den einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  6. All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält.
  7. Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  8. Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  9. Das, was Edelman als Theorie andeutet, ist vollständig unzulänglich und sogar in wesentlichen Punkten falsch.
  10. Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt (selbst bei den theoretischen Physikern ist dies nicht unbedingt vollständig gegeben) sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was man formalisieren kann. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 5

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 28.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.6 TOPOBIOLOGIE: WAS MAN VOM EMBRYO LERNEN KANN

  1. Der Ausgangspunkt ist weiterhin die Frage, welche materiellen Prozesse zu jenen materiellen Strukturen geführt haben, die für uns den homo sapiens repräsentieren. Diese materiellen Strukturen des homo sapiens zeigen eine Fülle von Verhaltenseigenschaften (Dynamiken), die wir als Hinweise auf ‚Geist‘ klassifizieren. Bisher wurden diese vorausgehenden formierenden Prozesse schon begrenzt auf die beiden Pole ‚Genotyp‘ und ‚Phänotyp‘ mit der Arbeitshypothese, dass die Eigenschaften des Genotyps weitgehend (wie weitgehend eigentlich? Kann man das quantifizieren?) die Eigenschaften des Phänotyps festlegen. Edelman selbst konkretisiert diese beiden Pole noch weitergehender mit der Frage, wie ein ‚ein-dimensionaler genetischer Kode‘ letztlich ein ‚drei-dimensionales Lebewesen‘ definieren kann.(vgl. S.63)
  2. Die Redeweise vom ‚genetischen Kode‘ setzt voraus, dass es eine Instanz gibt, die die Eigenschaften des Moleküls, das als ‚genetischer Kode‘ angesehen wird, als ‚Kode‘ ‚interpretieren‘ kann, d.h. diese Kode-erkennende-und-interpretierende Instanz (letztlich wieder ein Molekül) ist in der Lage, zwischen den materiellen Eigenschaften des Gen-Repräsentierenden Moleküls (normalerweise als DNA-Molekül vorliegend) und einer möglichen Proteinstruktur eine ‚Abbildung‘ vorzunehmen, die aus dem Bereich des ‚abstrakten Kodes‘ hinaustritt in den Bereich realer, 3-dimensionaler materieller Strukturen und Prozesse.
  3. Edelman beschreibt die konkreten Details des Gen-repräsentierenden-Moleküls M_gen (als DNA-Molekül; spezielle Abschnitte eines DNA-Moleküls repräsentieren ‚Gene‘), beschreibt die einzelnen Kode-Elemente (genannt ‚Kodons‘, ‚codons‘), die den späteren Transformationsprozess in materielle Strukturen steuern. Dieser Transformationsprozess geschieht aber nicht direkt, sondern über einen Zwischenschritt, in dem das Gen-repräsentierenden-Molekül M_gen in ein spiegel-identisches Gen-repräsentierendes-Molekül M_gen* (als RNA-Moleküle) übersetzt wird, das den Zellkern einer Zelle verlässt und dort dann von einer Kode-erkennende-und-interpretierende Instanz (‚cellular device‘) schrittweise in Aminosäuren übersetzt wird, die aneinander gekettet lange Moleküle (Polypeptide) bilden, die sich weiter als drei-dimensionale Strukturen ausformen, die schließlich Proteine repräsentieren. Aufgrund ihrer drei-dimensionalen Struktur kommen den Proteinen ‚Formen‘ (’shapes‘) zu, mit denen sich charakteristische ‚Eigenschaften‘, ‚Funktionen‘ verbinden. Schon diese Proteinformen kann man als Zwischenstufen zu einem Phänotyp ansehen. Unter anderem können sich Proteine zu komplexen ‚Zellen‘ zusammen finden (einem weiteren, komplexen Phänotyp), die ihren eigenen Zellkern haben mit einem spezifischen Genotyp. Verschiedene Proteine können ganz verschiedene Zellen bilden! (vgl. SS.52-57)
  4. Schon dieser Transformationsprozess von einem Gen-repräsentierenden-Molekül M_gen zu einer Zelle deutet in den einzelnen Phasen vielfältige Möglichkeiten der Variation, der Veränderung an. Doch, eine einzelne Zelle macht noch kein Lebewesen. Eine Lebensform wie der homo sapiens besteht – wie wir heute wissen – aus vielen Billionen (10^12) einzelnen Zellen, allein das Gehirn aus ca. 90 Milliarden neuronalen Zellen (ohne Glia-Zellen). Wie muss man sich diesen Weg von einer (!) befruchteten Zelle zu vielen Billionen Zellen in Form eines Lebewesens vorstellen?
  5. Dieser Transformationsprozess von einer befruchteten Eizelle ‚Zygote‘ genannt (‚zygote‘) zum ausgewachsenen Lebewesen wird von der Teilwissenschaft der ‚Embryologie‘ (‚embryology‘) behandelt. Die befruchtete Zelle (eine Vereinigung einer ‚Samenzelle‘ (’sperm cell‘) und einer ‚Eizelle‘ (‚egg cell‘) unterläuft eine lange Serie von Teilungen. Zellen können aber noch mehr als sich nur teilen: sie können ‚migrieren‘ (‚migrate‘), ‚absterben‘, ‚anhaften aneinander‘, und sich ‚differenzieren‘ (‚differentiate‘), d.h. abhängig von bestimmten chemischen Signalen in ihrer Umgebung werden unterschiedliche Gene aktiviert, um ganz spezifische Proteine zu erzeugen. Dadurch können Zellen (das Phänotyp) ganz unterschiedliche Dynamiken, unterschiedliche Verhaltensweisen zeigen. Differentiation von Zellen ist somit kontextabhängig, d.h. setzt die Nähe zu bestimmten anderen Molekülen (die als Signale fungieren) voraus, wobei die Signale Sender voraussetzen, die in Form von Zellen auftreten.(vgl. S.57f)
  6. Aufgrund dieser grundlegenden Fähigkeit der Differentiation (also eines signalabhängigen Verhaltens (Edelman spricht hier von ‚Ortsabhängigkeit‘; mit dem griechischen Wort ‚topos‘ für Ort spricht er dann auch von ‚Topobiologie‘; diese Wortwahl ist aber gefährlich, da sie primär Raumstrukturen nahelegt, obgleich der Prozess selbst nur Signale kennt (natürlich in einem Raum)) können Zellen, selbst wenn sie sich im Verlaufe des Transformationsprozesses zu unterschiedlichen ‚Schichten‘ (‚layer‘) anordnen, über Entfernungen hinweg ‚Signale senden‘, die kontextbedingt ausgelöst werden. Die schrittweise ‚Gestaltwerdung‘ von immer komplexeren Strukturen wird damit ‚aus sich selbst‘ gesteuert. Je nach aktueller Anordnung bestehen spezifische Kontexte, die spezifische neue Signale auslösen, die die ’nächsten Schritte‘ einleiten. Dabei spielen offensichtlich zwei Faktoren ineinander: (i) das in den Genen hinterlegte ‚Programm‘ konstituiert ein allgemeines ‚Schema‘, ein ‚Template‘, das einen grundlegenden Bauplan, eine grundlegende Architektur skizziert, und (ii) die jeweils konkreten individuellen Zellen, die assoziiert mit unterschiedlichen Kontexten durch den Raum wandern, bilden ein konkretes ‚Bedingungsgefüge‘, eine aktuelle ‚Selektionsmatrix‘, die darüber entscheidet, wann und wie Teile des generellen Bauplans konkretisiert werden. Der Möglichkeitsraum des genetischen Programms wird über die Konkretheit der selektierenden Zellen eingeschränkt, auf konkrete Punkte ‚herunter spezifiziert‘. Dieser Vorgang bietet zahlreiche Variationsmöglichkeiten. Mittlerweile hat man entdeckt, dass der Signalprozess stark hierarchisch sein kann insofern es ‚homöotische‘ (‚homeotic‘) Gene gibt, die die Proteinproduktion bestimmter Gene kontrollieren. (vgl. SS.58-63)
  7. Edelman benutzt den Begriff ‚Epigenetik‘ in den geschilderten Kontexten als jene Faktoren, Ereignisse, Prozesse, die zusätzlich zu den Genen selbst für die Umsetzung der Transformation von Genen in Proteinen, in Zellen, in Zellverbände verantwortlich sind.(vgl. S.62)
  8. Nach diesem embryologischen Einblick in die Entwicklungsdynamik eines Organismus kann Edelman skizzieren, wie die charakteristischen Strukturen des Gehirns eines homo sapiens sich gebildet haben können und warum diese Strukturen artspezifisch sind, d.h. diese Strukturen sind typisch für den homo sapiens; alle Exemplare der Lebensform ‚homo sapiens‘ haben die gleiche Struktur. Zugleich gilt aber auch, dass selbst eineiige Zwillinge sich im Detail dieser Strukturen unterscheiden können und tatsächlich unterscheiden. Das Zusammenspiel von allgemeinem genetischen Programm und den ‚konkreten individuellen Zellen‘ in ihren jeweils ’spezifischen Kontexten‘ bietet solch ungeheure Variationsmöglichkeiten, dass das gleiche artspezifische genetische Programm sich im Detail immer unterscheiden wird. Diese in der Art des Transformationsprozesses angelegte Variabilität ist aber eben nur die eine Seite. Die andere Seite ist die arttypische Struktur, die einen Organismus, ein Gehirn spezifiziert, wodurch eine ‚Architektur‘ definiert wird, die unterschiedlichste Funktionen an unterschiedliche ‚Komponenten‘ bindet, die zudem typische ‚Interaktionsmuster‘ zeigen. Exemplare des homo sapiens haben daher alle eine typische Weise des ‚Wahrnehmens‘, des ‚Erinnerns‘, des ‚Denkens‘, des ‚Fühlens‘, usw.(vgl. S.63f)

DISKUSSION FORTSETZUNG

  1. Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Das die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst diese Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Raum keinerlei Ansatzpunkt, es sei denn, man setzt solche eine Funktion als ‚Eigenschaft des Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  2. In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer, bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  3. Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.