Anlässlich einer Lehrveranstaltung (5.Auflage des Moduls ‚Meditation als kulturelle Praxis‘ (zusammen mit anderen KollegenInnen)) habe ich aus verschiedenen Beiträgen dieses Blogs einen leicht synthetisierenden Text geschrieben, der einige der vielen Aspekte aufgreift, die in diesen Beiträgen thematisiert wurden. Dieser Text bleibt aber auch nur eine Momentaufnahme. Für den Vortrag auf dem nächsten Kongress im Oktober versuche ich, eine weitere Klärung und Synthetisierung. Den Kern des Erlebens – Interpretierens im einzelnen Individuum betrachte ich dort im Rahmen von drei verschiedenen Phasen der Aufklärung. Die dritte Phase der Aufklärung ist jene, in der wir uns gerade befinden und die bislang noch nicht so recht thematisiert wurde.
Wenn man davon ausgeht, dass individuelle menschliche Kognition ein fortlaufender Prozess des Wahrnehmens, Interpretierens, Arrangierens ist, durchsetzt von einer Vielzahl von Einflussgrößen, das dann nochmals eingebettet ist in ein gesellschaftliches Netzwerk, das seinen eigenen Einflüssen und Regeln folgt, dann kann man ahnen, dass aktuelle kognitive Zustände nur eine bedingte Geltung haben können. Dennoch brauchen wir Anhaltspunkte, an denen wir unser Verhalten orientieren. Die neuen digitalen Technologien können helfen und sie helfen auch schon massiv, sie alleine aber reichen nicht … trotz aller anders lautender Visionen von der allmächtigen künstlichen Intelligenz … ohne sie wird es nicht gehen, aber nicht so einfach, wie dies zur Zeit vermarktet wird.
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Ich hatte gestern Gelegenheit an der Veranstaltung #GAMESPLACES teilzunehmen, die von der Krativabteilung der Wirtschaftsförderung Frankfurt organisiert worden ist. Diese Abteilung unter Leitung von Manuela Schiffner zeichnet für viele ähnliche Veranstaltungen verantwortlich, auf der Akteure der Szene aus allen Lagern (Politik, Wissenschaft, Wirtschaft, Kommunen,…) zusammenkommen und sich wechselseitig informieren und austauschen können. Gestern ging es um die Dimension eSport, vornehmlich illustriert am Beispiel der Praxis und Strategie von Eintracht Frankfurt, der AG sowohl als auch dem Verein. Hier ein paar Gedanken meinerseits zum Ereignis. Diese sind rein privat.
WUCHT DER ZAHLEN
Wenn man den Zahlen des Statistik-Portals Statista.com trauen kann, dann bewegt sich die Zahl der Computerspiele in Deutschland seit 5 Jahren in der Größenordnung von 32 – 34 Mio Spieler. Die Gesamtbevölkerungszahl bewegt sich in der gleichen Zeit etwa zwischen 81 – 83 Mio. Damit liegt der Prozentsatz der Spielenden bei ca. 40%. Da das Computerspielen bislang eher noch auf die Altersgruppen unter 60 beschränkt ist, ist der Prozentsatz der aktiven Spieler eher noch höher anzusetzen. Dies sind mächtige Zahlen. Und wenn man dann vom Frankfurter Wirtschaftsdezernent Frank hört, dass allein die Kreativwirtschaft in Frankfurt 2016 4 Mrd Euro umgesetzt hat, dann schärft sich das Bild weiter, dass der Computerspielbereich eine sehr reale Größe ist. Und es passt ins Bild, dass allein der Mediencampus der Hochschule Darmstadt (Aussage des Dekans Wilhelm Weber) in Dieburg ca. 3000 Studierende zählt, Tendenz wachsend.
eSPORT
Arne Peters als unabhängiger Berater gab auf der Veranstaltung einen knappen, sachlichen Bericht zur Entwicklung und zum Stand des Phänomens eSport. Er stellte heraus, dass in diesem Bereich die Community von besonderer Bedeutung sei: was in der Community keine Anerkennung findet, fällt gnadenlos durch. Und er vertrat die Ansicht, dass die typischen Spieler in diesem Bereich grundlegend sozial orientiert seien, das gemeinsame Erleben stehe im Vordergrund.
Zu negativen Begleiterscheinungen des eSports sagte er nichts, weder bezüglich der möglichen individuellen Auswirkungen, noch auf die marktpolitischen Tendenzen zur Monopolisierung, noch auf die möglichen gesellschaftlichen Wirkungen.
Hier wurde Timm Jäger, der Referent des Vorstands von Eintracht Frankfurt für digitale Technologien und Strategien etwas konkreter. Zunächst überbrückte er den Spagat zwischen eSports als Sport oder nicht dadurch, dass er — wie viele andere aus der Szene (auch Eintracht-Vorstandsmitglied Axel Hellmann) — die Position bezog, dass diese Frage innerhalb der Szene selbst nicht diskutiert würde. Denen, die eSports machen, ist es egal. Sie machen eSport. Und nach Timm Jäger sieht Eintracht Frankfurt eSport als Teil der Arbeit mit Menschen (alle Altersgruppen, für jedes Mitglied), die von der Breite ausgeht, und dazu gezielte Schulungen, Trainings und Beratung durch zertifizierte Trainer anbietet. Mit diesem breiten Ansatz könnte Timm Jäher auch viele kritische Anfragen aus dem Publikum konstruktiv beantworten, da im Kontext von Eintracht Frankfurt Kinder, Jugendliche und Erwachsene nicht nur durch den Bezug zu jeweiligen sozialen Gruppen, sondern auch durch professionelle zertifizierte Schulungsleiter und Trainer nicht nur auf die Möglichkeiten vorbereitet werden, sondern sich auch mit allerlei Formen von Risiken auseinander setzen können. Nicht ganz befriedigen konnte die Frage nach den offiziell eingesetzten Computerspielen, die von globalen Konzernen produziert und gemanagt werden, die eine relativ abgeschottete Politik verfolgen, die sich u.a. darin ausdrückt, dass sie nach Belieben immer wieder die Spielregeln ändern, was Teilnehmer monierten.
Abschließend gab es eine live Demonstration zwischen der eSports Bundesligamannschaft von Mainz 05 und Eintracht Frankfurt. Zu Beginn der Verlängerung stand es 1:1 (ja, ich habe die letzten Minuten nicht mehr gesehen 🙂 Mainz attackierte sehr stark …
CLASH OF CULTURES
Die positive Grundstimmung der Veranstaltung mit vorwiegend am eSport oder zumindest am Computerspiel Interessierten kann nicht darüber hinweg täuschen, dass die Digitalisierung der Gesellschaft, hier in Form von Computerspiel Interessierten, die offiziellen Bereiche der Gesellschaft wie z.B. das gesamte Bildungssystem, den offizielle Kulturbetrieb, oder die offizielle Politik noch nicht erreicht hat.
In diesem Zusammenhang ist ein aktueller Gastbeitrag von Leander Haußmann in der Zeit online (ZEIT Wissen Nr. 3/2019, 16. April 2019) von Interesse. Haußmann, Jahrgang 1959, Theater und Filmregisseur, Schauspieler outet sich in diesem Beitrag als passionierter Gamer. Er schildert eindrücklich seine erlebnisstarken Jugend in der ehemaligen DDR; die Welt der Freunde als Gegenentwurf zur bürgerlichen Staatstheorie und deren Indoktrinationsritualen in Schule und Gesellschaft. Als erlebnisoffener Mensch und Literaturkundiger sieht er in den modernen Computerspielen eine neue Form von Weltbeschreibung, die sehr wohl dem Erlebnishunger, dem Abenteuerstreben, dem individuellen Ausagieren von Bedürfnissen und Emotionen dienen kann, vorbei am Alltagseinerlei und an Pseudomoral, die Gutes zu tun vorgibt aber faktisch Negatives befördert.
Zu diesem Beitrag gab es 348 Kommentare, die ich mir angeschaut habe. Sie sind fast genauso wichtig wie der Beitrag selbst; signalisieren sie doch einen realen Resonanzraum in den Gefühlen und Gedanken von Menschen, der vieles von der Zerrissenheit verrät, in der wir uns alle zur Zeit bewegen.
Da gibt es natürlich die große Gruppe jener, die sich in den Worten von Haußmann positiv wiederfinden; sie fühlen sich verstanden und in ihrer Lust am Spielen gestärkt. Dann gibt es die ebenso große Gruppe, die auf jeden Fall gegen Computerspiele ist; die Argumente sind unterschiedlich. Und dann gibt es eine kleine Gruppe von ‚Geläuterten‘; das sind Menschen, die intensive Computerspieljahre (auch Jahrzehnte) hinter sich haben und dann irgendwann in einen Zustand kamen, dass sie das Gefühl hatten, der Rausch des unmittelbaren Erlebens im Computerspielen ist unterm Strich nicht sehr nachhaltig, oder gar psychisch und sozial zerstörerisch. Der Ersatz des Realen durch das Virtuelle führt irgendwie zur Auflösung der realen Existenz und verhindert all jene Formen des Erlebens, die anders sind, möglicherweise nachhaltiger.
Zwischen diesen drei Positionen scheint es wenig Vermittelndes zu geben: Entweder man spielt, oder man ist dagegen, oder man gehört zum Kreis der ‚Geläuterten‘, die für die anderen einer anderen Sphäre angehören. Und in den offiziellen Bereichen der Gesellschaft, speziell Schulen und Hochschulen (von wenigen Ausnahmen abgesehen wie z.B. dem Mediencampus Hochschule Darmstadt), findet das Thema praktisch nicht statt.
FALSCH PROGRAMMIERT?
Nimmt man einen soziologischen Standpunkt ein und sieht die Computerspielenden als Teilpopulation einer offenen Gesellschaft, deren Zukunft nicht zuletzt auch von den Erlebnis- und Wissensstrukturen ihrer Bürger abhängig ist, dann kann man die Frage stellen, ob die intensive Einwirkung von Computerspielen (es geht nicht nur um Gewalt) letztlich die Wahrnehmung der realen Welt, der politischen und wirtschaftlichen Zusammenhänge, in einer Weise beeinflusst, die die Bürger unfähig macht, ihre Verantwortung als Bürger eines demokratischen Landes in einer technologischen und global-wirtschaftlichen und -politischen Umbruchphase hinreichend wahrnehmen zu können? Diese Frage ist weitgehend rhetorisch, da die deutsche empirische Sozialforschung zu dieser Frage mehr oder weniger ’sprachlos‘ ist. Empirische begründete Aussagen sind nicht verfügbar.
Blickt man auf das offensichtliche Versagen vieler Bundesministerien und staatlicher Behörden in den letzten Jahren und aktuell, denen man — zumindest offiziell — keine intensive Computerspieltätigkeit nachweisen kann (aufgrund der Selbstbeschreibung von Haußmann kann man diese Möglichkeit aber nicht ganz ausschließen :-)), dann scheint es noch ganz andere Faktoren zu geben, die eine ‚Demokratiefähigkeit‘ von Politik gefährden können (Lobbyismus, Dummheit, narzisstische Persönlichkeitsstrukturen, Machthunger, …).
Statt also mangels klarem Wissen in der unappetitlichen Suppe von Verschwörungstheorien zu versinken, stellt sich die grundsätzliche Frage, ob sich die offensichtlich attraktiven Faktoren moderner Computerspiele nicht doch irgendwie mit dem real-weltlich Nützlichem auf neue Weise verknüpfen liesen?
SERIOUS GAME/ APPLIED GAME
Es ist möglicherweise bezeichnend, dass im Deutschen eher die englischen Ausdrücke benutzt werden als deutsche Ausdrücke wie ernsthaftes Spiel, Spiel mit praktischem Nutzen, Lehrspiel, Lernspiel oder so ähnlich. Irgendwie, intuitiv, gefühlsmäßig sträubt man sich im Deutschen, Lernen und Spielen zu verknüpfen.
Dies ist eigentlich verwunderlich, weil spieleähnliche Methoden wie z.B. Simulation, Planspiele, Spieltheorie seit Jahrzehnten in vielen Bereichen wie z.B. Ingenieurswissenschaften, Militär und Wirtschaft gang und gäbe sind. Ohne diese Methoden wären viele wichtigen Erkenntnis-, Verstehens- und Lernprozesse gar nicht möglich.
Das menschliche Gehirn ist trotz vieler phantastischer Eigenschaften nicht in der Lage, Sachverhalte mit vielen verbundenen Größen, die sich zudem in der Zeit unterschiedlich verändern können, umfassend und schnell genug mit hinreichender Präzision zu denken. Ohne Einbeziehung entsprechender Methoden, und das sind heute weitgehend computergestützte Verfahren, kann das menschliche Gehirn daher viele heute benötigten Prozessmodelle gar nicht mehr selber denken, was bedeutet, dass die moderne Wissenschaft und moderne Technologie ohne diese Methoden schlicht undenkbar geworden sind.
Macht man sich dies klar, dann verwundert es vielleicht umso mehr, warum sich Schulen und Hochschulen so schwer tun, simulationsähnliche Methoden als Standardmethoden in Lehre, Lernen und Forschen einzuführen.
Der einzige Unterschied zwischen einer interaktiven Simulation und einen Computerspiel besteht darin, dass neben dem Simulationskontext im Computerspiel bestimmte mögliche Zustände als Gewinnzustände ausgezeichnet sind. Bei geeignetem Verlauf der interaktiven Simulation kann also ein Simulationsteilnehmer bei Erreichen eines Gewinnzustandes als Gewinner bezeichnet werden. Und da ein Simulationsteilnehmer in einer interaktiven Simulation durch sein Verhalten den Gesamtverlauf zumindest Anteilhaft mit beeinflussen kann, kann ein Gewinner sich am Schluss dann den Erfolg anteilsmäßig zurechnen.
Gegenüber einer normalen interaktiven Simulation mag dieser kleine Unterschied mit den ausgezeichneten Gewinnzuständen als unscheinbar erscheinen, aber aus Sicht eines systematischen Engineeringsprozesses wie auch aus Sicht der Motivationslage eines Mitwirkenden ist dieser Unterschied weitreichend:
Angesichts der wertmäßig neutralen möglichen Alternativen in einem Simulationsprozess ist die einzige Möglichkeit, interessante Zustände auszuzeichnen und gezielt zu testen, jene, durch explizite Angabe von Gewinnzuständen sogenannte Präferenzen sichtbar zu machen, an denen die Organisatoren der Simulation interessiert sind.
Durch Vorgabe solcher Präferenzen besteht dann die Möglichkeit, die Auswirkungen dieser Präferenzen auf den Möglichkeitsraum zu testen.
Dadurch dass möglichst viele der möglicherweise Betroffenen (z.B. die Bürger einer Stadt) selbst am Spiel teilnehmen und mit ihren eigenen Sinnenerleben können, was passiert, wenn man Handlungen einer bestimmten Art in dem angenommenen Kontext ausübt, teilen alle ähnliche Erfahrungen, können darüber besser gemeinsam kommunizieren, und müssen nicht zusätzlich überzeugt werden.
In wissenschaftlichen Simulationen sind zudem alle Regeln allen zugänglich und auch jederzeit in gemeinsamer Übereinkunft änderbar. Dies schafft Vertrauen in den Prozess und stärkt die Argumentationskraft der Verläufe.
Die formale Auszeichnung eines Simulationsteilnehmers als Gewinner mag formal-mathematisch unbedeutend sein, für die Motivationslage eines Menschen kann dies aber (empirisch überprüfbar) einen starken Antrieb geben, sich intensiv mit der Materie zu beschäftigen und Schwierigkeiten eher zu trotzen.
In einer Zeit, wo interdisziplinäre Teams komplexe Projekte zu realisieren haben, würde ein konsequenter Spieleansatz die Qualität und die psychologische Temperierung der Teams möglicherweise auch positiv beeinflussen.
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
In einem Beitrag vom 7.Februar 2019 hatte ich mir die Frage gestellt, warum sich das alltägliche Phänomen des Populismus nahezu überall in allen Kulturen, in allen Bildungsschichten — eigentlich auch zu allen Zeiten — mit einer Leichtigkeit und Selbstverständlichkeit findet, die einem Angst und Bange machen kann. Und gerade in der Gegenwart scheinen wir geradezu wieder eine Hochblüte zu erleben. In diesem ersten Beitrag hatte ich einige Faktoren angesprochen, die unser normales menschliches Lern- und Sozialverhalten charakterisieren und die genügend Anhaltspunkte liefern, um eine erste ‚Erklärung‘ dafür zu geben, warum das Auftreten populistischer Tendenzen keine Überraschung ist, sondern eben genau in den Strukturen unserer personalen Strukturen als grundlegende Überlebensstrategie angelegt sind. In einem Folgebeitrag am 11.Februar 2019 habe ich diese Gedanken ein wenig weiter verfolgt. Auf die Frage, wie man der starken Verhaltenstendenz des Populismus gegensteuern könnte, habe ich versucht, anhand der Hauptfaktoren des alltäglichen Lernens und der Gruppenbildungen Ansatzpunkte zu identifizieren, die normalerweise die Bildung populistischer Meinungsbilder begünstigen bzw. deren Modifikation dem möglicherweise entgegen wirken könnte. Durch zahlreiche Gespräche und Veranstaltungen der letzten Wochen haben sich die Themen für mich weiter entwickelt bis dahin, dass auch erste Ideen erkennbar sind, wie man den starken Verhaltenstendenzen in jedem von uns möglicherweise entgegen wirken könnte. Gegen Verhaltenstendenzen zu arbeiten war und ist immer sehr herausfordernd.
POPULISMUS – Eine Nachbemerkung
Bislang wird das Thema ‚Populismus‘ in der Öffentlichkeit tendenziell immer noch wie eine ‚religiöse‘ Frage behandelt, stark versetzt mit ‚moralischen Kategorien‘ von ‚gut‘ und ‚böse‘, mit starken Abgrenzungen untereinander, vielfach fanatisch mit der Bereitschaft, diejenigen mit der ‚anderen Meinung‘ zu bekämpfen bis hin zur ‚Ausrottung‘. Diese Meinungen verknüpfen sich mit Ansprüchen auf politische Macht, oft mit autoritären Führungsstrukturen. Die Frage nach Transparenz und Wahrheit spielt keine zentrale Rolle. Und, falls man zu einer Meinungsgruppe gehört, die ‚anders‘ ist, versteht man selten, warum die einen jetzt so unbedingt von Meinung A überzeugt sind, weil man selbst doch eher B oder C favorisiert. Das verbal aufeinander Einschlagen und das Demonstrieren mit Gegenparolen ändert an den grundlegenden Meinungsunterschieden wenig; es fördert möglicherweise eher die Abgrenzung, verhärtet die Fronten.
Dies alles ist nicht neu; die vielen blutigen Religionskriege in der Vergangenheit sind nur ein Beispiel für das Phänomen gewalttätiger Populismen; viele weitere Beispiele liesen sich anführen.
Die Tatsache, dass wir heute, im Jahr 2019, nach vielen tausend Jahren Geschichte mit einer unfassbaren Blutspur hervorgebracht durch Meinungsunterschiede, verteufelnden Abgrenzungen, Schlechtreden ‚der Anderen‘, immer noch, und zwar weltweit (!), in diese Muster zurückfallen, ist ein sehr starkes Indiz dafür, dass die Ursachen für diese Verhaltensmuster tief in der menschlichen Verhaltensdynamik angelegt sein müssen. Bei aller Freiheit, die jedem biologischen System zukommt und dem Menschen insbesondere, scheint es genügend Faktoren zu geben, die die Weltbilder in den Köpfen der Menschen in einer Weise beeinflussen, dass sie im großen Maßstab Bilder von der Welt — und darin auch von den anderen und sich selbst — in ihren Köpfen mit sich herumtragen, die sie in maschinenhafte Zombies verwandeln, die sie daran hindern, die Differenziertheit der Welt wahr zu nehmen, komplexe dynamische Prozesse zu denken, mit der Vielfalt und der Dynamik von biologischem Leben, ökologischen und technischen Systemen nutzbringend für das Ganze umzugehen.
Viele kluge Leute haben dazu viele dicke Bücher geschrieben und es kann hier nicht alles ausgerollt werden.
Dennoch wäre eine sachliche Analyse des Populismus als einer starken Verhaltenstendenz äußerst wichtig als Referenzpunkt für Strategien, wie sich die Menschen quasi ‚vor sich selbst‘, nämlich vor ihrer eigenen, tief sitzenden Tendenz zum Populismus, schützen könnten.
Eine Antwort kann nur in der Richtung liegen, dass die jeweilige Gesellschaft, innerhalb deren die Menschen ihr Leben organisieren, in einer Weise gestaltet sein muss, dass sie die Tendenzen zur Vereinfachung und zur überdimensionierten Emotionalisierung im Umgang miteinander im alltäglichen Leben gegen steuern. Für eine angemessene Entwicklung der grundlegenden Freiheit, über die jeder Mensch in einer faszinierenden Weise verfügt, müssten maximale Anstrengungen unternommen werden, da die Freiheit die kostbarste Eigenschaft ist, die die Evolution des Lebens als Teil der Evolution des ganzen bekannten Universums bis heute hervorgebracht hat. Ohne die Nutzung dieser Freiheit ist eine konstruktive Gestaltung der Zukunft im Ansatz unmöglich.
KULTUR DER FREIHEIT – Eine Nachbemerkung
In dem erwähnten Beitrag vom 11.Februar 2019 hatte ich erste Gedanken vorgestellt, welche Faktoren sich aus dem Geschehen der biologischen Evolution heraus andeuten, die man berücksichtigen müsste, wollte man das Geschenk der Freiheit gemeinsam weiter zum Nutzen aller gestalten.
Neben der Dimension der Kommunikation, ohne die gar nichts geht, gibt es die fundamentale Dimension der jeweiligen Präferenzen, der ‚Bevorzugung von Zuständen/ Dingen/ Handlungen …, weil man sich von ihnen mehr verspricht als von möglichen Alternativen.
KOMMUNIKATION
Obwohl die Menschen allein in den letzten 100 Jahren viele neue Technologien entwickelt haben, die den Austausch, den Transport von Kommunikationsmaterial hinsichtlich Menge und Geschwindigkeit dramatisch gesteigert haben, ist damit das zugehörige Verstehenin den Menschen selbst nicht schneller und tiefer geworden. Die Biologie des menschlichen Körpers hat sich nicht parallel zu den verfügbaren Technologien mit entwickelt. Auf diese Weise entstehen völlig neue Belastungsphänomene: zwar kann der Mensch noch wahrnehmen, dass es immer schneller immer mehr gibt, aber diese Überflutung führt nur begrenzt zu mehr Verstehen; überwiegend macht sich heute in dieser Situation ein wachsendes Ohnmachtsgefühl breit, eine Hilflosigkeit, in der nicht erkennbar ist, wie man als einzelner damit klar kommen soll. Die gleichzeitige Zunahme von ‚falschen Nachrichten‘, ‚massenhaften Manipulationen‘ und ähnlichen Phänomenen tut ihr Übriges, um in den Menschen das Gefühl zu verstärken, dass ihnen der Boden unter den Füßen gleichsam weggezogen wird. Wenn sich dann selbst in offiziellen demokratischen Gesellschaften Politiker (und Teile der Verwaltung oder Staatstragenden Institutionen) diesem Stil des Verbergens, Mauerns, geheimer Absprachen und dergleichen mehr anzuschließen scheinen, dann gerät das gesellschaftliche Referenzsystem ganz gefährlich ins Schwimmen. Was kann der einzelne dann noch tun?
PRÄFERENZEN (WERTE)
Der andere Faktor neben der aktuell mangelhaften Kommunikation sind die Präferenzen, nach denen Menschen ihr Lernen und Handeln ordnen. Ohne irgendwelche Präferenzen geht gar nichts, steht jedes System auf der Stelle, dreht sich im Kreis.
Ein Teil unserer Präferenzen ist in unserem Verhalten angelegt als unterschiedliche starke Tendenz eher A als B zu tun. Andere Präferenzen werden innerhalb gesellschaftlicher Systeme durch Mehrheiten, privilegierten Gruppen oder irgendwelche andere Mechanismen ausgezeichnet als das, was in der jeweiligen gesellschaftlichen Gruppierung gelten soll (im Freundeskreis, in der Familie, in der Schule, am Arbeitsplatz, im Strafgesetz, in einer religiösen Vereinigung, …). Zwischen den gesellschaftlich induzierten Normen und den individuellen Verhaltenstendenzen gibt es unterschiedlich viele und unterschiedliche starke Konflikte. Ebenso wissen wir durch die Geschichte und die Gegenwart, dass es zwischen den verschiedenen gesellschaftlich induzierten Präferenzsystemen immer mehr oder weniger starke Konflikte gab, die alle Formen von möglichen Auseinandersetzungen befeuert haben: zwischen kriegerischer Totalausrottung und wirtschaftlich-kultureller Vereinnahmung findet sich alles.
Der Sinn von Präferenzen ist schlicht, dass sich Gruppen von Menschen einigen müssen, wie sie ihre Fähigkeiten am besten ordnen, um für alle einen möglichst großen Nutzen in der jeweiligen Lebenswelt zu sichern.
Der eine Bezugspunkt für diese Regeln ist die Lebenswelt selbst, die sogenannte Natur, die heute mehr und mehr von technologischen Entwicklungen zu einer Art Techno-Natur mutiert ist und — das wird gerne übersehen — zu der der Mensch gehört! Der Mensch ist nicht etwas Verschiedenes oder Getrenntes von der Natur, sondern der Mensch ist vollständig Teil der Natur. Im Menschen werden Eigenschaften der Natur sichtbar, die ein besonderes Licht auf das ‚Wesen‘ der Natur werfen können, wenn man es denn überhaupt wissen will. Der andere Bezugspunkt ist die Welt der Bilder in den Köpfen der Beteiligten. Denn was immer man in einer Lebenswelt tun will, es hängt entscheidend davon ab, was jeder der Beteiligte in seinem Kopf als Bild von der Welt, von sich selbst und von den anderen mit sich herum trägt.
An diesem Punkt vermischt sich die Präferenz-/Werte-Frage mit der Wissensfrage. Man kann beide nicht wirklich auseinander dividieren, und doch repräsentieren die Präferenzen und das Weltwissen zwei unterschiedliche Dimensionen in der Innendynamik eines jeden Menschen.
EIN EPOCHALER WENDEPUNKT?
Fasst man die bisherigen ‚Befunde‘ zusammen, dann zeichnet sich ein Bild ab, dem man eine gewisse Dramatik nicht absprechen kann:
In der Kommunikationsdimension hat sich eine Asymmetrie aufgebaut, in der die Technologie die Menge und die Geschwindigkeit des Informationsmaterials in einer Weise intensiviert hat, die die biologischen Strukturen des Menschen vollständig überfordern.
In der Präferenzdimension haben wir eine mehrfache Explosion im Bereich Komplexität der Lebenswelt, Komplexität der Präferenzsysteme, Komplexität der Weltbilder.
Die Anforderungen an mögliche ‚praktische Lösungen‘ steigen ins ‚gefühlt Unermessliche‘, während die Kommunikationsprozesse, die verfügbaren Weltbilder und die verfügbaren Präferenzen sich immer mehr zu einem ‚gefühlten unendlichen Komplexitätsknäuel‘ verdichten
Alle bekannten Wissenstechnologien aus der ‚Vergangenheit (Schulen, Bücher, Bibliotheken, empirische Wissenschaften, …) scheinen nicht mehr auszureichen. Die Defizite sind täglich immer mehr spürbar.
WAS BEDEUTET DIES FÜR EINE MÖGLICHE NEUE STRATEGIE?
Obwohl die soeben aufgelisteten Punkte nur als eine sehr grobe Charakterisierung der Problemlage aufgefasst werden können, bieten sie doch Anhaltspunkte, in welcher Richtung man suchen sollte.
Ich deute die Asymmetrie zwischen der technologisch ermöglichten Turbo-Daten-Welt und dem individuellen Gehirn mit seiner nenschentypischen Arbeitsweise als eine Aufforderung, dass man die Verstehensprozesse auf Seiten des Menschen deutlich verbessern muss. Wenn jemand über ein — bildhaft gesprochen — ‚Schwarz-Weiß‘ Bild der Welt verfügt, wo er doch ein ‚Vielfarbiges‘ Bild benötigen würde, um überhaupt wichtige Dinge erkennen zu können, dann muss man bei den Bildern selbst ansetzen. Wie kommen sie zustande? Was können wir dazu beitragen, dass jeder von uns die Bilder in den Kopf bekommt, die benötigt werden, wollen wir gemeinsame eine komplexe Aufgabe erfolgreich bewältigen? Einzelne Spezialisten reichen nicht. Ein solcher würde als Einzelgänger ‚veröden‘ oder — viel wahrscheinlicher — auf lange Sicht von der Mehrheit der anderen als ‚Verrückter‘ und ‚Unruhestifter‘ ‚ausgestoßen‘ werden.
Vom Ende her gedacht, von der praktisch erwarteten Lösung, muss es möglich sein, dass die jeweilige gesellschaftliche Gruppe in der Lage ist, gemeinsam ein Bild der Welt zu erarbeiten, das die Gruppe in die Lage versetzt, aktuelle Herausforderungen so zu lösen, dass diese Lösung noch in einem überschaubaren Zeitabschnitt (wie viele Jahre? Auch noch für die Enkel?) funktionieren. Dies schließt eine sachliche Funktion genauso ein wie die Übereinstimmung mit jenen Präferenzen, auf sich die Gruppierung zu Beginn geeinigt hat.
Die Ermöglichung hinreichend leistungsfähiger Bilder von der Weltin allen Beteiligten verlangt auf jeden Fall einen Kommunikationsprozess, bei dem alle Beteiligten aktiv mitwirken können. Nun kennen wir in demokratischen Gesellschaften heute die Forderung nach mehr Bürgerbeteiligungen aus vielen politischen Bekundungen und auch von zahllosen realen Initiativen. Die reale Auswirkung auf die Politik wie auch die Qualität dieser Beteiligungen ist bislang — in meiner Wahrnehmung — nicht sehr groß, meistens sehr schlecht, und auch eher folgenlos. Diese Situation kann auch die gefühlte Ohnmacht weiter verstärken.
EINE PARALLELWELT – Bislang ungenutzt
Bei der Frage, was kann man in dieser Situation tun, kann es hilfreich sein, den Blick vom ‚alltäglichen politischen Normalgeschehen‘ mal in jene Bereiche der Gesellschaft zu lenken, in denen es — unbeachtet von der öffentlichen Aufmerksamkeit und den Mainstream-Medien — weltweit eine Gruppe von Menschen gelingt, täglich die kompliziertesten Aufgaben erfolgreich zu lösen. Diese Menschen arbeiten in Gruppen von 10 bis 10.000 (oder gar mehr), sprechen viele verschiedene Sprachen, haben ganz unterschiedliches Wissen, arbeiten parallel in verschiedenen Ländern und gar auf verschiedenen Kontinenten in unterschiedlichen Zeitzonen, und errichten riesige Bauwerke, bauen riesige Flugzeuge, Raketen, ermöglichen die Arbeit von riesigen Fabriken, bauen eine Vielzahl von Autos, bauen tausende von Kraftwerken, immer komplexere Datennetzwerke mit Rechenzentren und Kontrollstrukturen, Roboter, und vieles, vieles mehr …
Was von außen vielleicht wie Magie wirken kann, wie ein Wunder aus einer anderen Welt, entpuppt sich bei näherem Zusehen als ein organisiertes Vorgehen nach transparenten Regeln, nach eingeübten und bewährten Methoden, in denen alle Beteiligten ihr Wissen nach vereinbarten Regeln gemeinsam ‚auf den Tisch‘ legen, es in einer gemeinsamen Sprache tun, die alle verstehen; wo alles ausführlich dokumentiert ist; wo man die Sachverhalte als transparente Modelle aufbaut, die alle sehen können, die alle ausprobieren können, und wo diese Modelle — schon seit vielen Jahren — immer auch Simulierbar sind, testbar und auch ausführlich getestet werden. Das, was am Ende eines solche Prozesses der Öffentlichkeit übergeben wird, funktioniert dann genauso, wie geplant (wenn nicht Manager und Politiker aus sachfremden Motiven heraus, Druck ausüben, wichtige Regel zu verletzten, damit es schneller fertig wird und/ oder billiger wird. Unfälle mit Todesfolgen sind dann nicht auszuschließen).
Normalerweise existiert die Welt des Engineerings und die soziale und politische Alltagswelt eher getrennt nebeneinander her, wenn man sie aber miteinander verknüpft, kann sich Erstaunliches ereignen.
KOMMUNALPLANUNG UND eGAMING
Bei einem Kongress im April 2018 kam es zu einer denkwürdigen Begegnung zwischen Städteplanern und einem Informatiker der UAS Frankfurt. Aus dem Kongress ergab sich eine erste Einsicht in das Planungsproblem von Kommunen, das schon bei ‚kleinen‘ Kommunen mit ca. 15.000 Einwohner eigentlich alle bekannten Planungsmethoden überfordert. Von größeren Gebilden, geschweige denn ‚Mega-Cities‘, gar nicht zu reden.
Mehrere Gespräche, Workshops und Vorträge mit Bürgern aus verschiedenen Kommunen und Planungseinheiten von zwei größeren Städten ermöglichten dann die Formulierung eines umfassenden Projektes, das von Mai – August 2019 einen realen Testlauf dieser Ideen ermöglicht.
Aus nachfolgenden Diskussionen entstand eine erste Vision unter dem Titel Kommunalplanung und eGaming , in der versuchsweise die Methoden der Ingenieure auf das Feld der Kommunalplanung und der Beteiligung der Bürger angedacht wurde. Es entstand eine zwar noch sehr grobe, aber doch vielseitig elektrisierende Vision eines neuen Formates, wie die Weisheit der Ingenieure für die Interessen der Bürger einer Kommune nutzbar gemacht werden könnte.
REALWELT EXPERIMENT SOMMER 2019
Im Rahmen einer alle Fachbereiche übergreifenden Lehrveranstaltung haben Teams von Studierenden die Möglichkeit (i) die ingenieurmäßigen Methoden kennen zu lernen, mit denen man Fragestellungen in einer Kommune ausgehend von den Bürgern (!) analysieren kann; (ii) mit diesen Fragestellungen können dann — immer auch in Absprache mit den Bürgern — Analysemodelle erarbeitet werden, die dann — unter Klärung möglicher Veränderbarkeit — zu (interaktiven) Simulationsmodellen erweitert werden. Diese lassen sich dann (iii) mit allen Beteiligten durchspielen. Dadurch eröffnen sich Möglichkeiten des direkten ‚Erfahrungsaustausches zwischen Studierenden und Bürgern und ein gemeinsames Lernen, was die Wirklichkeit einer Stadt ist und welche Potentiale eine solche Kommune hat. Insbesondere eröffnet solch ein Vorgehen auch Einsichten in vielfältige Wechselwirkungen zwischen allen Faktoren, die ohne diese Methoden völlig unsichtbar blieben. In nachfolgenden Semestern soll noch die wichtige Orakelfunktion hinzugefügt werden.
Parallel zum Vorlesungsgeschehen bereitet ein eigenes Software-Team eine erste Demonstrationssoftware vor, mit der man erste Analysemodelle und Simulationsmodelle erstellen kann, um — auch interaktive — Simulationen vornehmen zu können. Wenn alles klappt, würde diese Juni/ Juli zur Verfügung stehen.
AUSBLICK
Vereinfachend — und vielleicht auch ein wenig überspitzt polemisch — ausgedrückt, kann man sagen, dass in diesem Projekt (vorläufige Abkürzung: KOMeGA) das Verhältnis zwischen Menschen und digitaler Technologie umgekehrt wird: während bislang die Menschen mehr und mehr nur dazu missbraucht werden, anonyme Algorithmen zu füttern, die globalen Interessen dienen, die nicht die des einzelnen Bürgers sind, wird hier die Technik den Interessen der Bürger vollständig untergeordnet. Die Technologie hat einzig die Aufgabe, den Bürgern zu helfen ihr gemeinsames Wissen über die Kommune :
zu klären
sichtbar zu machen
auszuarbeiten
durch zuspielen
zu verbessern
nach Regeln, die die Bürger selbst formulieren
für alle transparent
jederzeit änderbar
rund um die Uhr über das Smartphone abrufbar
…
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Letzte Änderungen: 9.Febr.2019 (Zusätzliche Zwischenüberschriften; Schlagworte hinzugefügt; einen Satz verschoben)
KONTEXT
Der Kontext für diesen Beitrag ist eigentlich der ganz normale Alltag, wie jeder ihn erlebt. Allerdings war mir schon im Juni 2018 anlässlich einer Veranstaltung zum Populismus in Europa aufgefallen, dass die berühmten ‚Echokammern‘, die man in vielen sozialen Netzen entdeckt zu haben glaubte, irgendwie nicht auf bestimmte Gruppen beschränkt sind. Bei näherer Betrachtung kann man das vage Konzept der Echokammern nahezu auf jede soziale Gruppierung anwenden. Infiziert von diesem Gedanken sah ich viele Alltagsphänomene plötzlich ganz anders …
JEDER IST SEINE EIGENE ECHOKAMMER …
Wenn man sich in seinem eigenen Alltag umschaut wird an nicht umhin kommen, festzustellen, dass jeder einzelne ein ‚individuelles Weltbild‘ mit sich herum trägt, das aus sich heraus unsichtbar ist, so lange jemand nichts sagt und tut. Sobald aber dieser Jemand anfängt, etwas zu tun oder zu sagen, zeigen sich Fragmente des individuellen Weltbildes. Wenn man irgendwann genug viele Fragmente von jemandem gesammelt hat — oder sehr schnell in eine intensive Debatte mit dem anderen eingetreten ist –, zeigt sich dann, dass jeder seine liebgewordene Glaubenssätze über die Welt hat, an denen er nicht rüttelt, und von denen aus er seine Schlüsse zieht. So umgänglich jemand auf den ersten Blick scheinen mag, sobald es ‚zur Sache geht‘ hört bei den meisten die ‚Umgänglichkeit‘ auf. Und dies hat überhaupt nichts mit Intelligenz zu tun. Wie viele akademisch trainierte Menschen — einschließlich Doktortitel oder mehr — reagieren genauso so, sitzen in ihrem geistigen Käfig, und lassen sich — kennt man mal ihre ‚Lieblingsüberzeugungen‘ — fast beliebig mit diesen Lieblingsüberzeugungen aufwecken, in Wallung bringen, ärgern, oder — wenn man sie manipulieren will — genau damit Ködern, eine gute Stimmung verbreiten, den Eindruck erwecken, man denke und fühle doch das Gleiche, usw.
Es ist daher nicht zufällig, dass sich Menschen in neuen, fremden Umgebungen — und sei es auf einer Party mit vielen ‚Unbekannten‘ — erst einmal nach solchen Gesprächspartnern suchen, die ‚Ähnliches reden wie man selbst‘ (manche bleiben vorzugsweise den ganzen Abend alleine sitzen, um sich unbequeme Überraschungen zu ersparen). Hat man ‚ähnlich erscheinende‘ Personen gefunden, tendieren viele dazu, sich mit diesen ‚zusammen zu rotten‘ in einer ‚Zone der Vertrautheit‘. Das waren früher die berühmt berüchtigten Stammtische, das sind die ganzen Freundeskreise, die Vereine, ‚Netzwerke‘, Burschenschaften, und neuerdings — vom Alltag in die Netze projiziert — die Gruppierungen in den sozialen Netzwerken. Echokammern sind kein Produkt der Technologie; Echokammern spiegeln die Tendenz der Menschen wieder, ihre eigenen endlichen Weltbilder im sozialen Kontext zu bestätigen, zu stärken, um so das Gefühl der Vertrautheit, der Sicherheit, der Planbarkeit und ähnliches mehr, zu verstärken. Jenseits des ‚Vertrauten‘ und ‚Bekannten‘ lauert das Dunkel, die Unwissenheit, das Unwägbare, möglicherweise etwas, was die Vertrautheit bedroht…
Weil wir im Alltag von Grund auf in unseren aktuellen Weltbildern gefangen sind und offensichtlich viele Tendenzen in uns wirksam sind, die aktuellen Bildern zu wahren, zu schützen, zu konservieren, ist die Entstehung von sogenannten ‚populistischen Strömungen‘ nichts Ungewöhnliches. Wenn eine hinreichend große Gruppe die gleichen Grundüberzeugungen teilt — was offensichtlich weltweit leicht der Fall sein kann –, dann genügen wenige Organisatoren, um eine entsprechend ‚Bewegung‘ sichtbar zu machen, die dann wieder selbstverstärkend alle Mitglieder weiter bestätigt.
WARUM IST DAS SO?
Man kann sich fragen, warum ist das so? Ist es ein unentrinnbares Schicksal, dass wir Menschen trotz all unserer wunderbaren Fähigkeiten offensichtlich einen ‚inneren Drang‘ dahingehend verspüren, dass wir unsere aktuellen Weltbilder — welche es auch gerade sind — so intensiv, so vehement, gegen mögliches ‚Neues‘, ‚Anderes‘ … verteidigen?
Die Selbstabschottungs-Tendenzen individueller Weltbilder ist ganz offensichtlich sehr stark, was auf Mechanismen im Unbewussten hinweist, die wiederum im Gehirn und letztlich in den Genen verankert sind.
Die empirischen Wissenschaften haben uns in den letzten 100 Jahren eine Menge neuer Einsichten darüber vermittelt, wie unsere Körper und unsere Gehirne entstanden sind, wie individuell ein Körper und ein Gehirn sich aus einer Eizelle entwickeln können, wie das Gehirn und viele Systeme im Körper sensibel für die Umgebung lernen und sich anpassen können; wie in unserem Gehirn ‚Wissen‘ entsteht, ‚Erfahrung‘, ‚Fähigkeiten‘ sich ansammeln können; wie unsere Bedürfnisse und Emotionen uns beeinflussen können; dass unser ‚Bewusstsein‘ nur ein verschwindend kleiner Teil (weniger als 1%) von dem ist, was sich in jedem Moment in unserem Körper unbewusst abspielt; und vieles mehr.
Vor diesem Hintergrund können wir wissen, dass das ‚Wissen‘, was sich in unserem Gehirn anreichert (weitgehend unbewusst), einerseits zwar hilft, die jeweilige Umgebung ‚wieder zu erkennen‘ als ’schon mal gesehen‘, und uns damit erspart, alles nochmals von vorne vorne Lernen zu müssen, dass aber genau dieser Mechanismus des automatischen Lernens und Interpretierens es dann auf Dauer auch ist, der uns davor abhält, weiter zu lernen. Obgleich das Gehirn von sich aus auf ein andauerndes Lernen ausgelegt ist, erreicht jeder Mensch irgendwann einen Zustand, in dem das ’schon Gelernte‘ ausreicht, um mit dem ’normalen Alltag‘ klar zu kommen, ohne wirklich weiter zu lernen. Während man bei Kindern — im Normalfall — eine natürliche Neugierde feststellen kann, die sich permanent zu Erkundungen und Experimenten mit sich selbst und der Umgebung antreibt (viele Eltern finden das ’nervig‘ und versuchen ihre Kindern ’still zu stellen‘; dies ist für sie bequemer), kann man schon bei Jugendlichen ab 14 – 16 deutliche Tendenzen beobachten, dass echte Neugierde und echtes Experimentieren (= Lernen) dramatisch zurückgeht bis dahin, das junge Erwachsene ab 18 – 22 neben Kindern schon wie Greise wirken, die sich nur noch in eng definierten Mustern bewegen. Für die umgebende Gesellschaft ist dies eher angenehm. Je schneller sich junge Menschen an das ‚Übliche‘ anpassen, um so weniger hat man mit ungeliebten Überraschungen zu rechnen. Belohnt wird, wer sich anpasst und damit bekundet, dass er das Experiment ‚das Leben zu Lernen‘ aufgegeben hat. Hallo, seht her, von mir geht keine Gefahr aus; ich bin so wie ihr. Alles ist gut. Nur keine Überraschungen, nur nichts Neues, nur keine Experimente.
Von daher sollte es uns nicht wundern, dass sich gerade in Demokratien ‚Vereinfachungen‘ über die Politik ‚verstärken‘ können, da die Politiker irgendwann und irgendwie ja wieder gewählt werden wollen. Je mehr sich ein einfaches Weltbild in der Gesellschaft ausbreitet, umso eher wird die Politik genau dieses aufgreifen, verstärken, und damit die Perspektiven für Innovationen, Forschung, notwendige Bildungsprozesse abschwächen. Eine Begleiterscheinung sind zunehmende Kontrolle und Planung, um das Unvorhergesehene möglichst zu minimieren. Hochschulen, die eigentlich Orte der innovativen Forschung sein sollten, degenerieren mittlerweile immer mehr zu durch-kontrollierten, durch-geplanten Institutionen, in denen Anpassung mehr zählt als eigenständige, kreative mutige Forschung. Dies wird zusätzlich abgesichert durch systematischen Geldentzug auf der einen Seite, und Vergabe von Geld nach Gefälligkeit und politisch genehmen Themen…
WAS KÖNNEN WIR TUN?
Die Eindrücke des Alltags können übermächtig wirken. Die Verzweiflung der Menschen an der Politik ist nicht gespielt; desgleichen die Ohnmacht in den etablierten Religionen, in staatlichen Institutionen, in großen Konzernen … die meisten Kommunalpolitiker kennen die ewigen Pattsituationen bei Abstimmungen, nur weil man unterschiedlichen politischen Gruppierungen angehört … Argumente scheinen wirkungslos zu sein …
Dann gibt es immer wieder ‚Hoffnungsträger‘, ‚Lichtgestalten‘, die aufpoppen, die den Eindruck erwecken, plötzlich über jenen berühmten Zaubertrunk zu verfügen, der alle diese alltäglichen Hindernisse scheinbar mühelos aufhebt, beseitigt, überwindet, und eine Massenhysterie durchweht das Land, das globale Netz … aber tatsächlich kann kein einzelner Mensch alle die alltäglichen Hindernisse, die in den Köpfen der Menschen wurzeln, einfach so auslöschen … allerdings für eine kurze Zeit ‚vergessen machen‘; man schaltet alle seine bisherigen Ängste gerade mal ab und ist bereit, alles zu glauben, weil es ja so schön ist ….
Wenn wir die Absicht haben sollten, dieser ‚Falle des Populismus in uns selbst‘ zu entkommen, dann müssen wir uns neu darüber Klarheit verschaffen, wie denn die ‚Freiheit‘, die wir real haben — und die alle unsere Gesetze, vor allem das Grundgesetz, unterstellen — ‚im Innern‘ funktioniert.
WIE FREIHEIT FUNKTIONIERT
In einem interessanten Gespräch im November 2018 kam zum Vorschein, dass die Realität der Freiheit zwar grundsätzlich immer eine Wahlmöglichkeit bietet, dass aber das, was und zwischen dem wir wählen können, etwas Reales sein muss, über das wir verfügen können. Wenn jemand nicht wirklich etwas ‚weiß‘ und nicht wirklich über gewissen ‚Fähigkeiten‘ ‚verfügt‘, dann kann er auch nicht zwischen verschiedenen Optionen wählen, trotz seiner Freiheit. Und, ähnlich, wenn jemand in seinem Alltag nicht über reale Wahlmöglichkeiten verfügt (Wohnung, Nahrung, Arbeit, Verkehr, Partner, Freunde, …), dann kann er auch hier nicht oder nur sehr eingeschränkt wählen. Von der Freiheit zu reden, sie zu beschwören, ist eine Sache. Sie in eine entsprechende Praxis zu überführen setzt eine ‚hinreichende verfügbare Materialität im Alltag und im Kopf‘ voraus.
Dazu kommt, dass wir, selbst wenn wir neben der Freiheit sogar über reale Wahlmöglichkeiten verfügen würden, bekanntermaßen von einer Vielzahl von Bedürfnissen, Emotionen, Gefühlen und Stimmungslagen beeinflusst werden können (im Normalfall, zusätzlich kann es allerlei Krankheiten geben). Selbst wenn man also ‚frei entscheiden‘ könnte und man sogar ‚materielle Möglichkeiten‘ hätte (einschließlich Wissen, Fähigkeiten,…), dann könnte die Vielzahl der emotionalen Faktoren uns blockieren oder uns in eine Richtung lenken, die letztlich ’nicht gut‘ ist.
Die Aufzählung dieser ‚Risikofaktoren‘ für das Misslingen von Freiheit und einer anhaltenden Gefangenschaft im Modus des ‚individuellen Populismus‘ liefert indirekt allerdings auch entscheidende Hinweise, auf welche Faktoren man achten müsste, wollte man einem individuellen Populismus entkommen. Dabei würde ein ‚Entkommen‘ nicht bedeuten, dass man einen Zustand erreichen würde, in dem man auf einen Schlag ein für allemal von einem individuellen Populismus ‚befreit‘ wäre; nein. Wenn man sehr gut wäre, dann würde man lernen, wie man mit seinem aktuellen Wissen (und Erfahrungen und …) im Alltag so umgehen muss, dass die aktuellen Begrenzungen zwar unausweichlich da sind, dass man sich aber Verhaltensweisen angeeignet hat, die einem (und den anderen) helfen, sich der aktuellen Grenzen bewusst zu bleiben und das aktuelle Wissen immer wieder zu überprüfen‘ bzw. es kontinuierlich ‚weiter zu entwickeln‘. Daraus folgt, dass eine wirklich nachhaltige Überwindung des individuellen (und dann auch gemeinschaftlichen) Populismus nur gelingen kann, wenn man in einem gesellschaftlichen Netzwerk lebt, in dem die Mehrheit sich der Problematik bewusst ist und man mehrheitlich eine ‚Kultur des ständigen wechselseitigen Lernens‘ ausgebildet hat, in der ‚Neues‘ kein Schimpfwort ist sondern als ein notwendiger Bestandteil von Wahrheit und Zukunftssicherung angesehen wird. Vertrauen in Menschen ist wichtiger als Kontrolle; Beförderung von Kreativität und Fantasie ist notwendiger Bestandteil einer freien Gesellschaft.
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Das aktuelle Publikationsinteresse des Blogs findet sich HIER.
Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books
BISHER
Für die bisherige Diskussion siehe den Überblick samt Diskussionen HIER.
KURZFASSUNG
Schwerpunktmäßig diskutiert Edelman im ersten Teil dieses Kapitels den methodischen Status des ‚Bewusstseins‘ aus Sicht dessen, was er ‚Wissenschaft‘ nennt. Gegen Ende erzeugt er allerdings ein methodisches Chaos. Teil 2 des Kapitels folgt.
Kap.13: Fokussierung und Unbewusstes (‚Attention and the Unconsciousness‘)
Vorweg sei darauf hingewiesen, dass eine eins-zu-eins Übersetzung des Ausdrucks ‚attention‘ schwierig bis unmöglich ist. Mögliche Worte wie ‚Aufmerksamkeit‘, ‚Achtsamkeit‘ oder ‚Konzentration‘ überlappen sich in ihrer Bedeutung nur z.T. mit dem, was Edelman beschreibt. Das Wort ‚Fokussierung‘ kommt der Sache nach meinem ‚Sprachgefühl‘ am nächsten, ist aber auch nicht optimal. Von daher bleibt hier nur der Hinweis und der nachfolgende Text.
In diesem Kapitel will sich Edelman nochmals dem Thema ‚Bewusstsein‘ zuwenden und der Frage, wie man darüber eigentlich reden kann. Er stellt aber auch fest, dass man nicht nur über ‚Bewusstsein‘ isoliert reden muss, sondern, wenn Bewusstsein, dann auch über die Tatsache, dass ein guter Teil unseres bewussten Verhaltens ‚unbewusst geleitet‘ (‚unconsciously driven‘) ist, und er verweist hier direkt auf Sigmund Freud. (vgl. S.137)
Edelman erwähnt jene Art von Einwand zu seinen bisherigen Ausführungen, der kritisiert, dass er zwar jene ‚physiologische Maschinerie‘ beschrieben hat, die ‚hinter‘ dem Bewusstsein liegt, eben jenes ermöglicht, aber er habe damit gerade nicht das ‚Fühlen des Ich bin mir bewusst‘ beschrieben, noch ‚warum ich mich bewusst fühle‘. (vgl. S.137)
Es sollte jeden – nicht nur jeden Philosophen – aufhorchen lassen, wenn an dieser Stelle einer der führenden Gehirnwissenschaftler seiner Zeit feststellt: „Bewusstsein ist fremd, mysteriös, das ‚letzte Geheimnis‘.“ (S.137f)
Und es spricht für das explizite philosophische, wenn nicht gar wissenschaftsphilosophische, Bewusstsein von Edelman, dass er darauf aufmerksam macht, dass man sich für eine ‚Antwort‘ auf diese genannten Einwände sehr genau der ‚Grenzen‘ (‚limits‘) von jeglichem wissenschaftlichen Erklärungsanspruch bewusst machen muss und man explizit aufzeigen muss, was das Besondere (‚what is special‘) an jeder Art von Erklärung zum Bewusstsein ist. (vgl. S.138)
Damit Edelman in dieser methodisch bewussten Weise vorgehen kann, benötigt er natürlich ein klares Konzept von Wissenschaft, eines, das im Alltagsgeschäft ‚entscheidbar‘ ist, so dass man tatsächlich eine Verständigung darüber bekommen kann, ob es sich um eine wissenschaftliche Erklärung handelt oder nicht.
Er umschreibt dann das, was er unter einer ‚wissenschaftlichen Erklärung‘ versteht wie folgt: (i) im Kern baut Wissenschaft auf ‚formalen Beziehungen zwischen Eigenschaften‘ (‚formal correlations of properties‘) auf, wobei die Eigenschaften sowohl (ii) durch ‚Begriffe‘ (‚terms‘) beschrieben werden, als auch durch (iii) ‚theoretische Konstrukte‘ (‚theoretical constructs‘) , die möglichst sparsam (‚parsimoniously‘) alle ‚Aspekte‘ (‚aspects‘) dieser formalen Korrelationen beschreiben, und zwar ‚ohne Ausnahme‘ (‚without exception‘). Jene Begriffe (Terme), die die Eigenschaften beschreiben, müssen (iv) zwischen beliebigen menschlichen Beobachtern mit Bewusstsein ausgetauscht und verstanden werden können. Es gilt ferner (v), dass solche beschreibenden Begriffe in Experimenten ‚wiederholt‘ werden können, dass (vi) ’neue Begriffe gebildet‘ werden können, und (vii) die ‚Gesetze der Logik‘ eingehalten werden müssen. (vgl. S.138)
Erstaunlich ist, dass Edelman an dieser methodisch so exponierten Stelle keinerlei Verweise auf irgendwelche Positionen angibt, mit Bezug auf diese er seine eigene Position irgendwie weiter motivieren würde. Er spricht so, als ob das, was Wissenschaft ist, aus sich heraus jedem Menschen klar sein müsste. Dies ist merkwürdig, wenn man weiß, dass die Wissenschaft seit mehr als 100 Jahren intensiv darum gerungen hat, was es denn heißt, ‚Wissenschaft‘ zu betreiben und nicht ‚Nicht-Wissenschaft‘.
Unter Voraussetzung seines Wissenschaftsbegriffs kann Edelman ein Beispiel konstruieren, welches er als ’nichtwissenschaftliche Beschreibung‘ (’nonscientific description‘) klassifiziert.
Als Beispiel nimmt er einen Trancezustand an, der durch Drogen herbeigeführt wurde. Während dieses Zustands hat er besondere Empfindungen (’sensations‘), Erinnerungen und Emotionen. Davon berichtet er.(vgl. S.138)
Nach Edelman könnte jetzt ein Wissenschaftler zwar diesen seinen persönlichen Bericht mit beispielsweise 19 anderen vergleichen und auf diese Weise in den Berichten irgendwelche Muster erkennen, aber auf diese Weise würde der Wissenschaftler auf keinen Fall seine tatsächlichen aktuellen Gefühle, seine besondere Geschichte, seine Weise des Vergessens in irgendeiner Weise zuverlässig, detailliert oder verallgemeinernd erfassen und darstellen können. Wissenschaft scheitert angesichts individueller Geschichten.(vgl. S.138)
Für jeden einzelnen mit einem Bewusstsein ist es zwar verständlich, dass ihm seine Bewusstheit zur Frage werden kann, dass er für sich in seiner Bewusstheit nach einer Erklärung sucht (‚I demand an explanation of my own consciousness‘), aber für diese Frage, für diesen Erklärungsanspruch gibt es nach Edelmann keine wissenschaftliche Antwort. (‚it is not a scientific act, to do so‘; ‚the demand is not a scientifically reasonable one‘).(vgl. S.138)
Damit bleibt also jedem einzelnen seine ‚Bewusstheit‘, für die es aber – nach Edelman — keine wissenschaftliche Erklärung gibt.
Andererseits referiert Edelman Beispiele von Experimenten, in denen bestimmte Verbindungen im Gehirn getrennt wurden (bei Menschen, warum?), was dazu führte, dass diese Menschen zwar immer noch Dinge wahrnehmen konnten, aber davon keine Bewusstheit mehr besaßen. Er beschreibt dies als eine ‚Theorie des Bewusstseins mit operationalen Komponenten‘. (vgl. S.139) Es ist aber nicht klar, warum diese Theorie eine ‚Theorie des Bewusstseins‘ (‚theory of consciousness‘) genannt werden kann, wenn doch wissenschaftlich gar keine direkten Beschreibungen von ‚Inhalte des Bewusstseins‘ möglich sein sollen? Im angeführten Beispiel werden Experimente benutzt, in denen Menschen in ihrem Verhalten so reagieren, als ob sie die Gesichter der Menschen erkannt haben, obgleich sie behaupten, sie haben sie nicht ( bewusst) erkannt. Kurz vorher hat Edelman ausgeschlossen, dass Behauptungen über individuelle Bewusstseinsinhalte ‚einen wissenschaftlichen Status‘ haben können. Wie geht das zusammen? (vgl. S.138f)
Und Edelman kommt nochmals zurück auf das manifeste menschliche Bedürfnis, sich in seiner Bewusstheit ‚erklären‘ zu können. Er geht davon aus, dass jede individuelle Bewusstheit eine einzigartige Geschichte hat, eingebettet und ermöglicht durch den individuellen Körper (‚embodiment‘), eingeflochten in soziale Interaktionen, aus denen heraus das ‚Bild von einem selbst‘ sich entwickelt hat. Und Edelman wiederholt seine Feststellung, dass es auf die Frage nach dem besonderen individuellen Format keine wissenschaftliche Erklärung geben kann (‚an explanation that science cannot give‘).(vgl. S.139)
Edelman umschreibt dieses in seinem eigenen Geist (‚mind‘) sich Vorfinden, mit seiner eigenen individuellen Geschichte als eine ‚In-Sich-Eingeschlossen-Sein‘ (‚locked-in‘), ein ‚Geheimnis‘ (‚mystery‘). (vgl. S.139)
In einer Art Gedankenexperiment stellt Edelman sich die Frage, ob man das Geheimnis ein wenig lüften könnte, wenn man ein ‚Artefakt‘ (‚artifact‘) bauen könnte (also letztlich eine Maschine), das ein Bewusstsein und Sprache entwickeln würde, wobei man aber mit den ermöglichenden Strukturen variieren könnte. Dann könnte man vielleicht eher wissenschaftlich ermitteln, was die besondere Natur des Bewusstseins wäre.(vgl. S.139) Allerdings sei angemerkt, dass auch in diesem Fall wieder ungeklärt bleibt, wie man wissenschaftlich über das Phänomen ‚Bewusstsein‘ urteilen kann, wenn man es als solches wissenschaftlich doch gar nicht beschreiben kann? Auch ein Vergleich von ‚Bewusstsein‘ und ‚Nicht-Bewusstsein‘ macht nur Sinn, wenn ich zuvor wissenschaftlich entscheidbar feststellen kann, was ‚Bewusstsein‘ ist. Das ‚Geheimnis‘ des Phänomens Bewusstsein pflanzt sich also fort auf alle erdachten wissenschaftlichen Kontexte, in denen man ‚etwas wissenschaftlich Beschreibbares‘ mit ‚etwas wissenschaftlich nicht Beschreibbares‘ vergleichen will. Und es wäre nach dem von Edelman benutzen Kriterium von Wissenschaftlichkeit nicht sehr wissenschaftlich, sich durch solche pseudowissenschaftlichen Verfahren eine Aussage zu ‚erkaufen‘, die eigentlich nicht möglich ist.
Das ‚Geheimnisvolle‘ des Bewusstseins wird möglicherweise noch verstärkt durch die wissenschaftlichen Fakten, die belegen, dass unser ‚Geist‘ (‚mind‘) sich zeigt in der physikalischen Interaktion von einer unfassbar großen Menge von unterschiedlichen Organisationsebenen (im Gehirn, dann aber auch Körper), von der molekularen Ebene aufwärts bis hin zu sozialen Interaktionen. Das menschliche Gehirn ist nicht besonders gut darin, sich diese Komplexitäten vorzustellen. (vgl. S.140)
Dass Edelman hier plötzlich nicht mehr vom ‚Bewusstsein‘ spricht, sondern vom ‚Geist‘ (‚mind‘) wird von im nicht speziell motiviert oder erklärt, dabei ist der Begriff ‚Geist‘ zunächst mal ein ganz anderer Begriff, mit einer sehr speziellen Tradition in der Geschichte der Philosophie, Kultur und Wissenschaft, und ein Zusammenhang von ‚Bewusstsein‘ und ‚Geist‘ ist aus sich heraus nicht ohne weiteres klar. Wissenschaftlich ist diese Verwendungsweise des Begriffs ‚Geist‘ hier nicht. Auch ein Philosoph muss sich hier ’schütteln’…
Trotz des methodisch ungeklärten Status des Begriffs ‚Geist‘ stellt Edelman die Frage, was einerseits ‚leicht‘ (‚easy‘) sei, sich zu diesem Begriff vorzustellen (‚imagine‘), und was ist ’schwer‘ (‚hard‘).(vgl. S.140)
Ohne also zu erklären, was es mit dem Begriff ‚Geist‘ auf sich hat, stellt Edelman dann ohne weitere Begründung fest, dass mit ‚Geist‘ einfach folgenden Phänomene zu verknüpfen seien: (i) die Arbeitsweise der neuronalen Strukturen des Gehirns ist mit ihren Inputs und Outputs, ferner (ii) die Verhaltensmuster eines Lebewesens und die physikalischen Reize der umgebenden Welt, dazu (iii) verschiedene ’soziale Transmissionen‘, Verhaltensprägungen, dazu das, was Menschen ‚glauben‘, ‚wünschen‘ und ‚intendieren‘.(vgl. S.140) Schwieriger lassen sich hingegen folge Phänomene mit ‚Geist‘ verknüpfen: (i) Das Ergebnis von simultanen Aktionen in parallel arbeitenden Populationen von Neuronen; (ii) das Gedächtnis als einer Systemeigenschaft, die sich nicht direkt aus den einzelnen synaptischen Änderungen der darunter liegenden neuronalen Maschinerie bestimmen lässt; (iii) komplexe psychologische Phänomene wie ‚Bewusstsein‘; (iv) die Idee eines sozial konstruierten Selbst, das sowohl auf bewussten wie unbewussten Prozessen beruht. (vgl. S.140)
Diese ganze Liste, eine Konstruktion, erscheint in jeder Hinsicht als methodisch unklar und willkürlich, mit ‚Wissenschaft‘ im Sinne von Edelman hat dies erkennbar nichts zu tun.
Dieses methodische Chaos wird leider durch die nachfolgenden Bemerkungen noch weiter ausgebaut. Einmal stellt Edelman fest, dass diese Listen – insbesondere die zweite – ‚psychologische Prozesse‘ (psychological processes‘) beschreiben, und dass es ein Anliegen sein könnte, diese mittels einer ‚Theorie des Gehirns‘ (‚brain theory‘) zu verstehen. Bis heute ist nicht einmal im Ansatz klar, wie man eine ‚psychologische‘ und eine ’neuronale‘ Theorie miteinander über eine Brückentheorie verknüpfen kann. (Anmerkung: Das bislang im Umlauf befindliche Paradigma der ‚Neuropsychologie‘ bleibt fast alle wichtigen methodischen Fragen bislang schuldig). Dann behauptet Edelman noch, dass Mathematik und eine gute Theorie alleine nicht ausreichen, um die Konsistenz der komplexen Strukturen und Dynamiken zu verstehen, sondern dass man ’synthetische Computer Modelle‘ benötigt, mit denen man diese Prozesse ’simulieren‘ kann.(vgl. S.141)
Dass Edelman solche Feststellungen treffen kann, obgleich er zuvor ein Kriterium für Wissenschaftlichkeit formuliert hat, zeigt, dass er seinen Wissenschaftsbegriff nicht wirklich durchdacht hat. Denn nach den Erkenntnissen der Wissenschaftsphilosophie lassen sich ‚wahrheitsfähige‘ Aussagen zur Überprüfung des empirischen Gehalts einer Theorie (‚trifft sie zu‘) bzw. metalogische Qualifikationen (‚Konsistenz‘, ‚Vollständigkeit‘) nur mit solchen Theorien gewinnen, die vollständig formalisiert sind. Andernfalls ist der Status dieser Theorien unklar. Dass bei den heutigen komplexen Gegenstandsbereichen Computermodelle benötigt werden, um Details zu berechnen, um die kombinatorischen Räume zu durchsuchen, ist richtig. Aber ein Computermodell ist ein Algorithmus, ein Algorithmus ist eine Funktion, und eine Funktion kann niemals ‚wahr‘ oder ‚falsch‘ sein. Allerdings kann man Funktionen als Terme in Aussagen einfügen, die prinzipiell ‚wahr‘ oder ‚falsch‘ sein können. Computermodelle sind also kein ‚Ersatz‘ für eine ‚Theorie‘, sondern wundervolle Ergänzungen. Dieser Mangel an theoretischer Klarheit schlägt bei Edelman in diesem Kapitel leider voll durch. Doch sollte man deshalb seine ansonsten genialen Einsichten dadurch nicht wegreden; die wissenschaftsphilosophischen Defizite lassen sich vermutlich ‚reparieren‘.
Fortsetzung folgt
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Das aktuelle Publikationsinteresse des Blogs findet sich HIER.
Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books
DAS PROBLEM
Bei der Relektüre von Edelman (siehe Überblick über alle bisherigen Beiträge HIER) stellt sich die Frage, um welche Theorie es hier überhaupt geht?
Es ist ein großes Verdienst von Edelman, dass er versucht, die Gehirnforschung nicht isoliert zu betrachten, sondern sehr wohl im Kontext von Bewusstsein und Verhalten, sehr wohl auch im Kontext einer Evolution des Lebens bzw. auch im Kontext von ontogenetischen Wachstumsprozessen. Als wäre dies noch nicht genug, stellt er gelegentlich auch explizite philosophische Überlegungen an oder wagt sich vor in den Bereich des Engineering, insofern er konkrete materielle Modelle von Gehirnen baut (mittels künstlicher neuronaler Netze), um die Plausibilität seiner Überlegungen zum Gehirn zu überprüfen. Nimmt man all dies ernst, dann findet man sich unversehens in einer Situation wieder, wo man nicht mehr so richtig weiß, um ‚welche Theorie von was‘ es hier eigentlich geht.
PANORAMA VON PHÄNOMENEN
Versucht man die vielen Aspekte irgendwie zu ‚ordnen‘, die im Buch von Edelman aufscheinen, dann eröffnet sich ein breites Panorama von Phänomenen, die alle ineinander greifen (siehe Schaubild), und die – strenggenommen – auch genauso, in diesem dynamischen Zusammenhang, zu betrachten sind, will man die Eigenart dieser Phänomene ‚voll‘ erfassen.
Eigentlich geht es Edelman um ein besseres Verständnis des ‚Gehirns‘. Doch kommt das Gehirn ja schon im Ansatz nicht alleine, nicht isoliert vor, sondern als Teil eines übergeordneten ‚Körpers‘, der von außen betrachtet (Dritte-Person Perspektive) ein dynamisches ‚Verhalten‘ erkennen lässt. Dieses Verhalten ist – im Fall des homo sapiens, also in unserem Fall als Menschen – nicht isoliert, sondern ist sowohl durch ‚Kommunikation‘ mit anderen Menschen ‚vernetzt‘ als auch durch vielfältige Formen von Interaktionen mit einer Welt der Objekte, von Artefakten, von Maschinen, und heute sogar ‚programmierbaren Maschinen‘, wobei letztere ein Verhalten zeigen können, das zunehmend dem menschliche Verhalten ‚ähnelt‘. Ferner konstatieren wir im Fall des homo sapiens in der Ersten-Person Perspektive noch etwas, das wir ‚Bewusstsein‘ nennen, das sich aber nur schwer in seiner Beschaffenheit kommunizieren lässt.
WISSENSCHAFTLICHE DISZIPLINEN
Im Versuch, die Vielfalt der hier beobachtbaren Phänomene beschreiben zu können, hat sich eine Vielzahl von Disziplinen herausgebildet, die sich — neben der Sonderstellung der Philosophie — als ‚wissenschaftliche Disziplinen‘ bezeichnen. ‚Wissenschaftlich‘ heißt hier in erster Linie, dass man die Phänomene des Gegenstandsbereichs nach zuvor vereinbarten Standards reproduzierbar ‚misst‘ und man nur solche so vermessenen Phänomene als Basis weitergehender Überlegungen akzeptiert. Das Paradoxe an dieser Situation ist – was Edelman auf S.114 auch notiert –, dass sich dieses wissenschaftliche Paradigma nur umsetzen lässt, wenn man Beobachter mit Bewusstsein voraussetzt, dass man aber zugleich im Ergebnis der Messung und der Überlegungen von dem ermöglichenden Bewusstsein (samt Gehirn) abstrahiert.
PHILOSOPHIE FÜR DEN ‚REST‘
Eine Konsequenz dieser ‚Abstraktion von den Voraussetzungen‘ ist, dass ein Wissenschaftler letztlich keine Möglichkeit hat, in ‚offizieller‘ Weise, über sich selbst, über sein Tun, und speziell auch nicht über die Voraussetzungen seines Tuns, zu sprechen. Ein solches sich selbst reflektierende Denken und Sprechen bleibt damit der Philosophie überlassen, die als solche bei der Entstehung der empirischen Wissenschaften offiziell vom Wissenschaftsbetrieb ausgeschlossen wurde. Als Wissenschaftsphilosophie hat die Philosophie zwar immer wieder versucht, sich dem empirischen Wissenschaftsbetrieb offiziell anzunähern, aber bis heute ist das Verhältnis von empirischen Wissenschaften und (Wissenschafts-)Philosophie aus Sicht der empirischen Wissenschaften ungeklärt. Für die empirischen Wissenschaften wundert dies nicht, da sie sich von ihrem methodischen Selbstverständnis her auf ihre isolierte Betrachtungsweisen verpflichtet haben und von diesem Selbstverständnis her sich jeder Möglichkeit beraubt haben, diese Isolation mit den typischen wissenschaftlichen Bordmitteln aufzubrechen. Allerdings produziert dieses ’selbst isolierende Paradigma‘ immer mehr Einzeldisziplinen ohne erkennbaren Zusammenhang! Es ist nur eine Frage der Zeit, bis wann sich diese Explosion der nicht-integrierten Einzelbilder selbst zerstört.
ANSPRUCH, ALLES ZU ERKLÄREN
Die Wissenschaften selbst, allen voran die Physik, kennen sehr wohl den Anspruch, mit ihrer Arbeit letztlich ‚alles aus einer Hand‘ zu erklären (z.B. formuliert als ‚Theory of Everything (ToE)‘ oder mit dem Begriff der ‚Weltformel‘), doch sowohl die konkrete Realität als auch grundlegende philosophische und meta-theoretische Untersuchungen legen eher den Schluss nahe, dass dies vom Standpunkt einer einzelnen empirischen Wissenschaft aus, nicht möglich ist.
VISION EINES RATIONALEN GESAMT-RAHMENS
Um also die Vielfalt der einzelnen wissenschaftlichen Disziplinen zu bewahren, mehr noch, um sie in ihren inhaltlichen und methodischen Beschränkungen untereinander transparent und verständlich zu machen, wird man die (philosophische) Arbeitshypothese aufstellen müssen, dass die Rationalität der Einzelwissenschaften letztlich nur aufrecht erhalten werden kann, wenn man sowohl für jede Einzelwissenschaft wie auch für ihr Zusammenspiel eine rationale Begründung sichtbar machen kann, die für alle ‚gilt‘. Ein solcher Rationalitätsanspruch ist nicht zu verwechsel mit der alten Idee einer einzelwissenschaftlichen ‚Weltformel‘ oder einer einzelwissenschaftlichen ‚Theory of Everything‘. Eher eignet sich hier das Paradigma einer kritischen Philosophie von Kant, die nach der Voraussetzung für den Wahrheitsanspruch einer Theorie fragt. Während Kant allerdings die Frage nach den Voraussetzungen bei den Grenzen des Bewusstseins mangels verfügbarem Wissens enden lassen musste, können wir heute – auch Dank der Arbeiten von Edelman und anderen – diese Grenzen weiter hinausschieben, indem wir die Voraussetzungen des Bewusstseins einbeziehen. Eine solche bewusste Erweiterung der philosophischen Frage nach den Voraussetzungen des menschlichen Erkennens über die Grenzen des Bewusstseins hinaus führt dann nicht nur zum ermöglichenden Gehirn und dem zugehörigen Körper, sondern geht dann weiter zur umgebenden Welt und ihrer Dynamik, die sich im Evolutionsgeschehen und in der Entstehung des bekannten Universums zeigt.
PHILOSOPHIE UND WISSENSCHAFTEN
Die schon immer nicht leichte Aufgabe des philosophischen Denkens wird mit diesen methodischen Erweiterungen keinesfalls einfacher, sondern erheblich schwieriger. Andererseits muss die Philosophie diese Reflexionsarbeit nicht mehr alleine leisten, sondern sie kann die ganze Fülle der einzelwissenschaftlichen Arbeiten aufgreifen, um sie dann in einem gemeinsamen Rationalitätsrahmen neu anzuordnen.
Beispiele für Integrationsbemühungen gibt es sogar seitens der Einzelwissenschaften, wenngleich meistens methodisch wenig überzeugend. So versuchen Gehirnforscher schon seit vielen Jahren Zusammenhänge zwischen messbaren Aktivitäten des Gehirns und des beobachtbaren Verhaltens (unter dem Label ‚Neuropsychologie‘) oder zwischen messbaren Aktivitäten des Gehirns und Erlebnissen des Bewusstseins (kein wirkliches Label; man würde ‚Neurophänomenologie‘ erwarten) heraus zu finden. Bislang mit begrenztem Erfolg.
Bei aller Problematik im Detail kann es aber nur darum gehen, die ungeheure Vielfalt der Phänomene, wie sie die Einzelwissenschaften bislang zutage gefördert haben, vor-sortiert in einer Vielzahl von Arbeitshypothesen, Modellen und Theoriefragmenten, in einen von allen akzeptierbaren Rationalitätsrahmen einordnen zu können, der eine Gesamt-Theorie reflektiert, die als solche möglicherweise immer unvollendet bleiben wird
WOMIT FANGEN WIR AN?
Damit stellt sich ganz praktisch die Frage, wo und wie soll man anfangen? Das Buch von Edelman kann erste Hinweise liefern.
KEINE WISSENSINSELN: Am Beispiel des homo sapiens wird deutlich, dass ein Verständnis von Bewusstsein, Gehirn, Körper, Verhalten und hier insbesondere die symbolische Kommunikation je für sich nicht gelingen kann. Und Edelman demonstriert eindrücklich, dass man zusätzlich die ontogenetische und evolutive Dimension einbeziehen muss, will man zu einem befriedigenden Verständnis kommen.
INTEGRATION VON EINZELWISSEN: Man muss also Wege finden, wie man diese verschiedenen Aspekte in einem gemeinsamen Rationalitätsrahmen so anordnen kann, dass sowohl die einzelwissenschaftliche Methodik gewahrt bleibt, wie auch eine ‚Integration‘ all dieser Aspekte auf einer ‚gemeinsamen Ebene‘ möglich wird, die dabei von den Einzelwissenschaften nicht ‚isoliert‘ ist.
META-WISSEN ALS LEITFADEN: Das geforderte Vorgehen betrachtet die konkreten einzelwissenschaftlichen Erklärungsansätze als einen ‚Gegenstand sui generis‘, macht also die Einzelwissenschaften zu ‚Untersuchungsgegenständen‘. Dies entspricht dem Paradigma der Wissenschaftsphilosophie.
NEUE WISSENSCHAFTSPHILOSOPHIE: Mit Blick auf die Geschichte der modernen Wissenschaftsphilosophie (etwa seit dem Wiener Kreis) muss man dafür offen sein, dass das Paradigma der Wissenschaftsphilosophie für diese Aufgabenstellung möglicherweise neu zu formatieren ist.
KOMMUNIKATIONSPROZESS ALS RAHMEN: So liegt es nahe, zu sagen, es gehe nicht primär um einen isolierten Theoriebegriff, sondern um einen Kommunikationsprozess, der Kommunikationsinhalte generiert, die im Rahmen des Kommunikationsprozesses ‚verstehbar‘ sein sollen.
SYSTEMS-ENGINEERING ALS BEISPIEL: Ein modernes Beispiel für einen problemorientierten Kommunikationsprozess findet sich im Paradigma des modernen Systems-Engineering. Auslöser des Kommunikationsprozesses ist eine ‚Frage‘ oder eine ‚Problemstellung‘, und der Kommunikationsprozess versucht nun durch Ausnutzung des Wissens und der Erfahrungen von allen Beteiligten einen gemeinsames Bild von möglichen Lösungen zu generieren. Zu Beginn werden alle Kriterien kenntlich gemacht, die für die intendierte Lösung berücksichtigt werden sollen.
EINBEZIEHUNG AUTOMATISIERTEN WISSENS: Insbesondere soll der Kommunikationsprozess so ausgelegt sein, dass er den Einsatz moderner Wissenstechnologien wie z.B.. ‚Interaktive Simulationen‘, ‚Kommunikationstests‘, ‚benutzerzentrierte künstliche Intelligenz‘, sowie automatisierte ‚Simulationsbibliotheken‘ erlaubt.
Dies ist nur eine erste, noch sehr vage Formulierung. Es wird notwendig sein, diese anhand von vielen Beispielen weiter zu konkretisieren und zu verfeinern.
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Das aktuelle Publikationsinteresse des Blogs findet sich HIER.
Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )
EINSTIEG INS KI-THEMA
Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.
Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.
Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.
ANDERE DISZIPLINEN
Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.
Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.
KOMMUNIKATIONSFREIE EVOLUTION
In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.
MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION
Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die Lebewesen mit den neuen Gehirnen jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.
Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es also ca. 300 Mio Jahre gedauert, bis Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.
LERNEN und PRÄFERENZEN
Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.
In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.
In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.
Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.
Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.
Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.
Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.
Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen. Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.
INTELLIGENZ
Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.
Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.
Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.
Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.
Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.
ZUKUNFT VON MENSCH UND MASCHINE
Im Licht der Evolution erscheint die sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.
Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Letzte Korrekturen: 14.Nov.2018 {Nr.6, Nr.10, Nr.13 }
KONTEXT
Der folgende Text steht thematisch im Zusammenhang mit den beiden vorausgehenden Beiträgen zum Thema ‚Wissenschaft und Meditation‘ sowie ‚Meditation im Alltag‘. Während der erste Beitrag ‚Wissenschaft …‘ sich die Frage stellte, ob man das kulturelle Phänomen ‚Meditation‘ in einen irgendwie sinnvollen Zusammenhang mit ‚empirischer Wissenschaft‘ sehen kann, ging es im zweiten Beitrag ‚… im Alltag‘ um das konkrete Tun beim Meditieren, zumindest bei jener Form des Meditierens, bei der man sich in eine ‚Ruhestellung‘ begibt, in der man sich selbst zum Gegenstand macht.
SELBSTBEOBACHTUNG ALS THEMA
Das Thema ‚Selbstbeobachtung‘ ist so alt, wie es philosophisches Denken gibt und hat selbst in den empirischen Wissenschaften nicht an Bedeutung verloren. Das Thema voll darzustellen würde allerdings mindestens ein ‚dickes‘ Buch verlangen, eher mehr. Von all den philosophischen Varianten und wissenschaftlichen Diskussionen soll hier aber abgesehen werden, um in einer überschaubaren Weise eine (‚die‘?) grundlegende Perspektive formulieren zu können, die sich heute unter Berücksichtigung von Philosophie und modernen Wissenschaften als Arbeitshypothese formulieren lässt. Arbeitshypothesen bringen es mit sich, dass man sie kritisieren und weiter verbessern kann.
SELBSTBEOBACHTUNG UND MEDITATION
Die neuerliche Auseinandersetzung mit dem Thema ‚Selbstbeobachtung‘ in diesem Blog (bislang nicht unter dem Stichwort ‚Selbstbeobachtung‘ sondern eher in Verbindung mit Stichworten wie ‚Phänomene‘, ‚Phänomenologie‘, usw.) wurde stimuliert durch die aktive Auseinandersetzung mit dem Phänomen ‚Meditation‘, innerhalb deren es neben der theoretischen Auseinandersetzung auch die konkrete Praxis, das konkrete Meditieren gibt. Diese konkrete Praxis eröffnet dem Meditierenden einen an sich unendlichen Raum an möglichen Ereignissen, konkret gefüllt mit einem bunten Strauß an Ereignissen und Veränderungen, die im Wahrnehmen Deutungen erlauben. Was aber ist eine ‚richtige‘, ‚angemessene‘ Deutung?
PHILOSOPHISCHER DEUTUNGSKONTEXT
In einer Kooperation von moderner (Wissenschafts-)Philosophie und modernen wissenschaftlichen Disziplinen lässt sich folgender ‚Rahmen‘ für mögliche Wahrnehmungen und Deutungen formulieren, der allgemein gilt, nicht nur für das Meditieren.
Ausgehend von dem Abschnitt ‚BEOBACHTUNG: SUBJEKTIVITÄT – OBJEKTIVITÄT‘ in dem schon oben erwähnten Beitrag ‚Wissenschaft …‘ werden hier folgende Annahmen gemacht (siehe Schaubild):
Die verhaltensorientierten Wissenschaften, allen voran die Psychologie, benutzen vorwiegend Daten aus Verhaltensbeobachtungen. Diese Daten werden hier D_SR genannt (‚S‘ für Stimulus und ‚R‘ für Response). Damit kann die experimentelle Psychologie zwar nicht direkt in das ‚Innere‘ eines biologischen Systems schauen (Tiere, Menschen, …), wohl aber ist es möglich, auf der Basis solcher Daten explizite ‚Verhaltens-Theorien‘ (T_SR) zu formulieren, die mit ‚hypothetischen Annahmen‘ über ‚innere Zustände‘ arbeiten, mit deren Hilfe sich das äußerlich beobachtbare Verhalten ‚erklären‘ lässt. Berühmte Beispiele hierfür sind einmal das Konstrukt des ‚Unbewussten‘ in der Psychoanalyse oder das Konstrukt des ‚Gedächtnisses‘.
Mit der Weiterentwicklung der allgemeinen Physiologie — hier insbesondere mit dem Spezialgebiet ‚Gehirn‘ – konnte die Wissenschaft den Bereich der objektivierbaren Daten weiter ausdehnen auf das ‚Innere des Körpers‘, die verschiedenen Organe, ihre Funktionsweisen und Interaktionen. Diese Daten werden hier D_PHYS genannt. Fasst man die Vielzahl der inneren Strukturen als ‚Input-Output-Systeme‘ auf, dann kann man auf der Basis der Beobachtungsdaten eine Vielzahl von Hypothesen über die Verhaltensfunktion solcher Input-Output-Systeme in Form von physiologischen Theorien (T_PHYS) formulieren.
Sowohl die Daten wie auch die möglichen Theorien zum äußerlich beobachtbaren Verhalten wie auch zu den inneren Strukturen sind zunächst ‚unabhängig‘ voneinander. Man kann von der Theorie des Verhaltens T_SR nicht direkt auf Eigenschaften der inneren Strukturen T_PHYS schließen und auch nicht umgekehrt. Andererseits spricht alles dafür, dass die inneren Strukturen – beschrieben in einer möglichen Theorie T_PHYS – verantwortlich sind für das äußerlich beobachtbare Verhalten D_SR, das in einer möglichen Theorie T_SR beschrieben wird. Es wäre also naheliegend, eine Art ‚Brückentheorie‚ zu bauen (‚Psychophysiologie‘ oder ‚Physiopsychologie‘), in der die beiden Theorien T_SR und T_PHYS explizit als T_SR_PHYS miteinander in Beziehung gesetzt werden (als ‚Neuropsychologie‘ ist diese Idee schon länger bekannt, aber diese stellt eine Engführung des eigentlichen Themas dar und die wissenschaftsphilosophische Konzeption der bisherigen Arbeiten erscheint bislang nicht ganz überzeugend).
Die soeben skizzierten Typen von Daten D_SR und D_PHYS sind relativ weit verbreitet. Was nicht so verbreitet ist, das ist die Inbeziehung-Setzung dieser Daten zum Bewusstsein. Entsprechend der großen Tradition der empirischen Wissenschaften, die den Zugriff auf die Wirklichkeit an die Verfügbarkeit von externen Messprozessen geknüpft hatten, um sich von den vielen falschen Ansprüchen einer damals noch unkritischen Philosophie abzugrenzen, ist die mögliche Bedeutung und Rolle der bewusstseinsbasierten Daten – hier D_PH genannt – etwas aus dem Blick geraten, soweit, dass lange nicht mehr klar war, wie man überhaupt empirische Daten (D_SR und D_PHYS) mit Bewusstseinsdaten (D_PH) in Beziehung setzen kann.
Erst ganz langsam setzt sich mit den neueren Erkenntnissen von Biologie, Physiologie und Psychologie wieder die Einsicht durch, dass das Gehirn als ‚Ermöglichung von Bewusstheit‘ selbst ja gar keinen direkten Bezug zur empirischen Außenwelt besitzt. Über komplexe Signalprozesse werden dem Gehirn Außenweltereignisse mehrfach übersetzt zur weiteren Bearbeitung übermittelt, ebenso Ereignisse aus dem Körper wie auch aus dem Gehirn selbst. Aus all dem konstruiert das Gehirn ein dynamisches Modell der Gesamtsituation, die dann in einem biologischen System das spezifische Gesamtphänomen ‚Bewusstsein‘ ermöglicht, innerhalb dessen das System den ‚Eindruck‘ hat, dass ‚es selbst‘ unterschiedliche ‚Phänomene (PH) erlebt‘. Diese Phänomene repräsentieren nach heutigem Wissensstand nur einen winzigen Teil aller Ereignisse im Körper. Man nimmt daher – spätestens seit Freud — neben der Bewusstheit des Bewusstseins auch ein ‚Unbewusstes‘ an. Verschiedene weitere Annahmen über ein ‚Vor-Bewusstes‘ (so Freud) oder ein ‚temporäres Bewusstsein‘ spielen hier keine wesentliche Rolle, da die Phänomene des Bewusstseins allesamt aus dem Un-Bewussten herrühren und somit das Unbewusste punktuell und temporär ’sichtbar‘ machen.
Mit dieser neueren Einsicht in die Gesamtarchitektur des biologischen Erkennens kann man die Beziehung zwischen empirischen Verhaltens- und Körperdaten einerseits (D_SR, D_PHYS) und Bewusstseinsdaten (D_PH) andererseits neu gewichten: auch das, was wir empirische Daten nennen sind letztlich auch Bewusstseinsdaten (!), allerdings mit der Besonderheit, dass man diese Bewusstseinsdaten mit externen Messprozeduren korrelieren kann, die parallel zu den Bewusstseinsdaten realisiert werden und die selbst sowie ihre Messergebnisse D_SR und D_PHYS zugleich auch Daten des Bewusstseins D_PH_SR und D_PH_PHYS sind. Nur weil sie auch bewusst sein können, wissen wir von ihrer Existenz, und nur wenn diese Daten uns bewusst sind, können wir mit ihnen bewusst umgehen und mit ihnen bewusst arbeiten.
Die sogenannte ‚Kluft‘ zwischen Philosophie und den empirischen Wissenschaften ist daher eher ein ‚Artefakt des Denkens‘. Damit wird die besondere Stellung der empirischen Wissenschaften weder in Frage gestellt noch geschmälert, sondern es wird deutlich, wie die empirischen Wissenschaften letztlich als ein ‚Philosophieren mit anderen Mitteln‘ betrachtet werden können. Das ‚empirische Messen‘ ist von daher eine spezielle Methode, durch die die Philosophie in bestimmten Teilbereichen deutlich ‚mehr‘ erkennen kann als ohne diese Methoden.
Was damit allerdings auch klar wird: statt dass sich die Philosophie – wie so oft in der Vergangenheit – mit ‚Abscheu‘ von den empirischen Wissenschaften abwendet, hat sie eine ganz besondere Verantwortung, diesen extrem wichtigen Teil einer ‚empirischen Philosophie‘ besonders zu pflegen. Die methodischen Herausforderungen, die sich hier stellen, sind enorm und übersteigen alles, was die Philosophie zuvor getan hat.
In diesem Kontext sei auch besonders hingewiesen auf die vollautomatischen (= unbewussten) Prozesse der ‚induktiven Kategorienbildung‘ im Rahmen von Wahrnehmung und Gedächtnis. Was immer an Wahrnehmungsereignisse das ‚Gedächtnis‘ erreicht (ein Teilsystem des Gehirns), es wird automatisch als ein prototypisches Muster ‚angelegt‘, das sich nach impliziten Ähnlichkeitskriterien kontinuierlich ‚anreichern‘ kann. Nur deshalb sind wir in der Lage, einen zuvor schon mal wahrgenommenen ‚Gegenstand‘ der Art ‚A‘ im Fall eines neuerlichen Vorkommens wieder als ‚A‘ oder ‚dem A ähnlich‘ wiedererkennen zu können.
Nur weil es diese ‚automatische induktive Kategorienbildung‘ gibt können wir Sprachsysteme einführen und benutzen, deren Symbole sich auf solche Kategorien als ihren ’natürlichen Gegenständen‘ beziehen. Worte wie ‚Tisch‘, ‚Baum‘, ‚Hund‘ usw. können sich auf einen konkreten Gegenstand X beziehen, weil der konkrete Gegenstand X hinreichend viele ‚Ähnlichkeiten‘ mit der jeweiligen induktiv entstandenen natürlichen Kategorie ‚Tisch‘, ‚Baum‘, ‚Hund‘ usw aufweist. Die potentielle Menge von konkreten Objekten X in der realen Welt, die sich auf solch eine Weise einer ‚induktiven Gegenstandskategorie‘ zuordnen lassen, sind daher implizit ‚offen‘, nicht wirklich ‚begrenzbar‘. Zudem muss man davon ausgehen, dass die konkrete Füllung dieser Gegenstandskategorien im Kontext einer natürlichen Sprache bei den einzelnen Menschen stark variieren kann, je nach individueller Erfahrung.
Im Kontext der empirischen Wissenschaft sind solche ‚prinzipiell offenen Bedeutungskategorien‘ unerwünscht. Will man ‚Vieldeutigkeiten‘ vermeiden gibt es bislang zwei Strategien, um diese zu minimieren:
Einführung von Fachsprachen innerhalb der normalen Alltagssprache: man versucht die benutzten Begriffe durch entsprechende Regeln zu ’normieren‘;
Einführung von formalen Kunstsprachen, deren Bedeutungszuordnung durch explizite Bedeutungsregeln sichergestellt werden sollen.
Beide Strategien haben sich als nicht vollständig umsetzbar erwiesen. Am erfolgreichsten erscheint bislang die Strategie der formalen Fachsprachen mit expliziten Bedeutungsregeln, und hier insbesondere die Sprache der modernen Mathematik, bekannt als ‚mengentheoretische Sprache‘ und diverse Formen von ‚Strukturbildungen mit Interpretationsbegriff‘.
Grundsätzlich ist es möglich, dass man mittels einer formalen Kunstsprache ‚künstliche formale Kategorien‘ einführt, die über ‚spezielle Bedeutungszuordnungen‘ nur eine endliche Menge von klar definierten Eigenschaften umfassen oder, zumindest auf rein formaler Ebene, überabzählbar viele Mengen von Eigenschaften unterschiedlicher Strukturen. Diese Möglichkeit von ‚künstlichen formalen Kategorien‘ hat sich in der empirischen Forschung – z.B. in der Physik – als extrem wichtig erwiesen, da die Eigenschaften der empirischen Welt oft so ganz anders zu sein scheinen als es die gewohnte induktive Kategorienbildung des menschlichen Gehirns nahelegt.
Unter Einbeziehung des Aspekts ‚Sprache‚ lässt sich das Verhältnis von moderner Philosophie und moderner empirischen Wissenschaft nochmals präziser fassen: mittels definierter empirischer Messprozeduren (MSE) und daraus resultierenden empirischen Messergebnissen (D_EMP) ergeben sich im Rahmen des Bewusstseins (CONSC) spezifische Phänomene (D_PH_EMP), denen eben extern diese Messprozeduren korrespondieren. Als wahrgenommene Phänomene D_PH_EMP unterliegen sie allerdings den automatisch erzeugten induktiven Kategorienbildungen, auf die symbolische Ausdrücke einer Sprache bezogen werden können.
Dabei ist zu beachten, dass die Ausdrücke einer Sprache auch sowohl als empirische Ereignisse (D_EMP_L) vorkommen wie auch als Phänomene (D_PH_EMP_L). Die Beziehung zwischen sprachlichen Ausdrücken und zugeordneten Bedeutungskorrelaten geschieht als unbewusster Prozess innerhalb des Gedächtnisses als Teil des Gehirns.
Im Rahmen von Denkprozessen (teils unbewusst, teils bewusst), lassen sich beliebig viele formale Ausdrücke mit zugehörigen formalen Kategorien bilden. Im Falle von empirischen Wissenschaften müssen diese jeweils mit empirischen Phänomenen in Beziehung gesetzt werden können, um ihren Außenweltbezug herstellen zu können. Im Falle von vor-wissenschaftlichen Theorien wie einer unkritischen Metaphysik wurden zwar auch rein abstrakte, bisweilen sogar formale, Strukturen im Denken entwickelt, aber deren Geltung wurde gewöhnlich nicht nach festen Regeln auf empirische Außenweltereignisse zurückgebunden. Die negativen Auswirkungen eines solchen Vorgehens lassen sich im Rückblick untersuchen. Von heute aus gesehen liegt es daher nahe, die modernen empirischen Theorien als die genuinen Nachfolger der klassischen ‚metaphysischen‘ (= jenseits der Natur) Theorien zu betrachten, mit der Innovation, dass heute die potentiellen abstrakten (und formalisierten) Strukturen nach klar vereinbarten Verfahren an empirische Messprozesse zurückgebunden werden.
Nach diesen vorbereitenden Überlegungen wird vielleicht verständlich, dass die ‚Phänomene‘ eines Bewusstseins für alle Disziplinen die ersten ’nicht weiter hintergehbaren‘ Daten darstellen. Die Einführung von empirischen Messverfahren hebt die Priorität von Phänomenen des Bewusstseins daher nicht auf, sondern ergänzt diese nur um zusätzliche Momente, die ‚berücksichtigt‘ werden sollten, will man über eine ‚Wirklichkeit‘ sprechen, die nicht nur im eigenen Bewusstsein zu verankern ist, sondern zugleich auch im ‚Zwischenbereich der Körper‘, den wir ‚empirische Welt‘ nennen.
Damit stellt sich die Frage, was ist mit jenen ‚Phänomenen‘, die sich nicht mit empirischen Messverfahren korrelieren lassen; nennen wir diese abkürzend D_PH*, bestimmt durch die Gleichung D_PH* = D_PH – D_PH_EMP.
Diese nicht-empirischen Phänomene D_PH* sind ja nicht weniger ‚wirklich‘ wie die empirischen Phänomene D_PH_EMP, nur fehlt ihnen ein definiertes Korrelat in der Zwischen-Körper-Welt. Alle diese nicht-empirischen Phänomene D_PH* entstammen letztlich dem Unbewussten (NON-CONSC).
Aus dem Alltag wissen wir, dass alle Menschen aufgrund sehr ähnlicher Körper und Gehirnstrukturen vielerlei Phänomene kennen, über die sich eine gewisse ‚Einigkeit‘ herstellen lässt, weil sie die meisten Menschen ’sehr ähnlich‘ erleben, wie z.B. ‚Müdigkeit‘ nach längerem ’nicht Schlafen‘, ‚Hunger‘ nach längerem ’nicht Essen‘ usw .Man könnte also sagen, dass der ‚menschliche Körper‘ auch eine Art ‚Messgerät‘ ist, das bei entsprechendem ‚Verhalten‘ bestimmte ‚Zustände als Quasi-Messergebnisse‚ erzeugt, über die sich zwischen allen Beteiligten eine ‚praktisch hinreichende Einigkeit‚ erzielen lässt, wenngleich diese Einigkeit in der Regel nicht die ‚Präzision‘ hat, wie die technisch vereinbarten empirischen Messverfahren der Wissenschaften.
Schwieriger wird es allerdings dann, wenn jemand ‚Phänomene‘ zu erleben meint, für die sich nicht sofort eine klare Ursache im Körper zuordnen lässt, die sich von anderen in ‚hinreichend ähnlicher Form‘ ’nachvollziehen‘ lässt. So kann es unterschiedliche Formen von ‚Schmerzen‘, ‚Emotionen‘, ‚Gefühlen‘, und ‚Stimmungen‘ geben, die sich nicht sofort ( auch nicht über längere Zeit) bestimmten körperlichen Prozessen zuordnen lassen. Dann wird eine zwischenmenschliche Verständigung schwierig. Der Angesprochene weiß dann nicht, mit welchen seiner ‚Erfahrungen‘ er die Äußerungen des anderen ‚in Verbindung bringen soll‘.
Aus der schwierigen Kommunizierbarkeit von Phänomenen folgt allerdings nicht, dass diese ‚unwichtig‘, ‚unbedeutend‘ sind. Im Gegenteil, es können sehr wichtige Phänomene sein, die bislang – aus welchen Gründen auch immer – einfach von niemandem beachtet werden. So wie generell die Wissenschaft immer wieder neu um die Angemessenheit ihrer bisherigen ‚Terminologie‘ ringen muss, so müssen wir Menschen – insbesondere, wenn wir uns als Philosophen verstehen – unsere bisherigen Sprechweisen immer wieder neu an unseren Phänomenen ‚überprüfen‘.
In diesem Kontext erscheint das ‚Meditieren‘ als eine der radikalsten Formen ‚eines sich seiner eigenen Erfahrung zensurfreien Aussetzens‘. Hier können sich viele Phänomene ereignen, die quer liegen zu den bisherigen Sprechweisen und die von daher neue Ausdrucksweisen erfordern.
Aktuell ist dem Autor keine systematische philosophische Analyse der Phänomene des alltäglichen Erlebens inklusive speziell auch der Phänomene im Kontext von Meditation und Spiritualität bekannt. Zwar gibt es zahllose Artikel und Bücher zu diesem Thema, diese unterscheiden sich jedoch bezüglich Erfahrungskontexten, gewählten Sprachen und Methoden so stark, dass eine verallgemeinerte Aussage über diese Analysen aktuell nicht möglich erscheint; möglicherweise brauchen wir hier ein völlig neues Forschungsprogramm.
Das Thema einer Super-Brückentheorie zwischen äußeren Verhaltensdaten, Körperdaten und Bewusstseinsdaten soll hier nur erwähnt werden. Eine solche Theorie wäre das ferne Ziel, das zu adressieren wäre.
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Das aktuelle Publikationsinteresse des Blogs findet sich HIER.
Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books
BISHER
Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.
KURFASSUNG
Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.
KAP.10 Gedächtnis und Konzepte (‚Memory and Concepts‘): Errichtung einer Brücke zum Bewusstsein (‚Building a Bridge to Consciousness‘)
Nach den vorbereitenden Kapiteln 1-9 versucht Edelman mit den soweit formulierten Grundlagen nun ‚höhere‘ Hirnleistungen und ‚psychologische (=verhaltensbasierte)‘ Eigenschaften durch Rückgriff auf die evolutionären und neuronalen Mechanismen zu ‚erklären‘.
Der Ausgangspunkt der Überlegungen in Kap.10 bilden die Annahmen der vorausgehenden Kapitel, dass die ‚Welt‘ ‚außerhalb‘ eines Organismus ein überwältigendes Ereignisfeld ist, das vom wahrnehmenden Organismus erst einmal ’strukturiert‘ werden muss, damit der Organismus mit diesen Ereignisfeldern konstruktiv umgehen kann. Es stellen sich in diesem Kontext folgende Fragen: (i) welche Strukturierungen nimmt ein Organismus vor, und (ii) wie konnten sich jene Mechanismen ausbilden, die solche Strukturierungen ermöglichen? Zusätzlich ist zu bedenken, dass sich die außer-organismischen Ereignisfelder – kontinuierlich wie auch disruptiv – ändern. Es reicht also nicht, die Fähigkeit der Herausbildung solcher strukturierenden Mechanismen einmalig anzunehmen, sondern (iii) es muss auch geklärt werden, wie es zu ‚dynamischen Anpassungen‘ der strukturierenden Mechanismen angesichts einer sich ändernden Umwelt kommen kann? Die bisherige Antwort auf die Fragen (i) – (iii) war der Verweis auf (a) evolutionäre Strukturbildung, auf (b) embryonale Entwicklung, sowie auf die (c) flexible Verschaltung von neuronalen Karten sowohl durch (c.1) Rückkopplungen wie auch durch (c.2) Hierarchiebildungen. Mit diesen Annahmen zu einer komplexen dynamischen Maschinerie verbindet Edelman die Überzeugung, dass sich damit alle bekannten komplexen Funktionsleistungen des Gehirns (wie z.B. ‚Gedächtnis‘ (‚memory‘) wie auch beobachtbare psychologische Eigenschaften ‚erklären‘ lassen. (vgl. S.99f)
Für das, was nach Edelman ‚erklärt‘ werden soll, benutzt er die Worte ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘ (‚perceptual categorization‘), ‚Gedächtnis‘ und ‚Lernen‘. Und er spricht im Zusammenhang dieser Wortmarken von ‚höheren Gehirnfunktionen‘ (‚higher brain functions‘). Damit verknüpft Edelman in dieser kurzen Beschreibung zwei methodisch unterschiedliche Betrachtungsweisen: die Begriffe ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘, ‚Gedächtnis‘ und ‚Lernen‘ gehören normalerweise in den Bereich der verhaltensbasierten Psychologie; der Begriff ‚höhere Gehirnfunktionen‘ dagegen verweist auf den Bereich der Biologie mit den Spezialbereichen Physiologie und darin noch spezieller der Gehirnforschung. Damit findet sich hier die Stelle, wo er die beiden Pole Psychologie und Gehirnforschung verknüpfen möchte. Bemerkenswert ist seine ausdrückliche Feststellung, dass diese 5 mentalen Leistungen, obwohl sie oft ‚getrennt/ isoliert‘ (’separated‘) behandelt werden, doch ‚untrennbare Aspekte einer gemeinsamen mentalen Leistung‘ (‚inseparable aspects of a common mental performance‘) darstellen. Diese Feststellung geht weit über die benannten einzelnen Wortmarken hinaus. Aus dieser Feststellung folgt, dass wir es hier mit 5 unterscheidbaren mentalen ‚Leistungen‘ zu tun haben, die man als ‚Funktionen‘ {f1, …,f5} auffassen kann und sie in einer wissenschaftlichen Sicht auch so auffassen muss; dazu postuliert Edelman eine Superfunktion f*, die sich aus diesen genannten 5 Funktionen ‚zusammensetzt‘ als etwa f* = f1 u … u f5. Sind schon die einzelnen Funktionen – jede für sich – sehr ‚komplex‘ (und bis heute in der Psychologie nur unvollständig erklärt), so führt die postulierte Superfunktion f* in einen Denkbereich, der nur schwer zu fassen ist, und der bislang eigentlich von niemandem theoretisch irgendwie modelliert worden ist. (vgl. S.100) //* Falls es doch irgendwo solch eine Ausarbeitung gibt, wäre ich als Autor für einen Hinweis sehr dankbar! *//
Edelman sagt ganz klar, dass es der Bereich des ‚Verhaltens‘ (‚behavior‘, ‚B‘ ) ist, an dem die Bedeutung der drei ‚fundamentalen Funktionen‘ (‚fundamental functions‘) f1 ‚Kategorisierung der Wahrnehmung‘, f2 ‚Gedächtnis‘ und f3 ‚Lernen‘ zu ‚testen‘ sind. Und er sieht auch eine funktionale Abhängigkeit zwischen diesen fundamentalen Funktionen der Art, dass f2 (Gedächtnis) die Funktion f1 (Kategoriale Wahrnehmung) voraussetzt und die Funktion f3 (Lernen) setzt sowohl f1 als auch f2 voraus. Alle drei ‚beeinflussen‘ (‚affect‘) das Verhalten ‚B‘, weil sie sich untereinander beeinflussen. Angenähert könnte man dann formulieren B = (f1,f2,f3). Nach Edelmann versorgen Wahrnehmen und Gedächtnis das System mit grundlegenden Datenstrukturen, und Lernen kann daraus neue, weiterreichende Strukturen ableiten. Dann stellt Edelman plötzlich fest, dass die beiden Funktionen f1 und f2 für das Lernen f3 zwar notwendige Voraussetzungen bilden (also: f3 = (f1,f2), aber sie alleine noch nicht ausreichend wären; es bedarf noch einer weiteren Funktionalität fx, also f3=(f1,f2,fx). Diese weitere Funktion fx verweist nach Edelman auf ein ‚Wertesystem‘ (‚value system‘), das von den Kategorisierungsleistungen des Wahrnehmens und Erinnerns unabhängig ist. Wir bekommen damit folgende Zusammenhänge: B = f*() mit f* = (f3,f4,f5) und f3 = (f1,f2,fx). (vgl. S.100)
Das ‚Wertesystem‘ fx hat – aus Sicht des Verhaltens B – mehrere Eigenschaften: (i) es basiert auf unterschiedlichen Wertelieferanten fx = (fx1, …, fxn), die (ii) unterschiedliche ‚Erwartungen‘ (‚expectancy‘) als ‚Referenzpunkte‘ (’set points‘) ausbilden können. Diese Erwartungen können als Fitnesswerte in dem Sinne genutzt werden, dass ein Systemverhalten solche Referenzpunkte entweder ‚befriedigt‘ (und damit wieder ‚zurück setzt‘) oder ’nicht befriedigt‘ (und damit ’nicht zurücksetzt‘). Ein Lernen f3 ist ‚erfolgreich‘ (‚is achhieved‘), wenn das System seine ‚Systemzustände‘ (‚IS‘) so arrangieren kann, dass ‚in der Zukunft‘ das Verhalten des Systems bei Auftreten von werthaften Referenzpunkten direkt die ‚richtige Verhaltensantwort‘ findet. Dies impliziert als eine weitere Komponente eine ‚Dauer‘, eine zeitliche Erstreckung zwischen zwei ‚Zeitpunkten‘ (t,t‘) mit t‘ als ’später‘ zu t. Nur unter Voraussetzung einer ‚hinreichend langen‘ Zeitdauer (t,t‘) kann Lernen sich realisieren, also f3(f1,f2,fx,(t,t‘)) = (Success_1, …, Success_n) mit der Bedeutung, dass Lernen innerhalb einer Zeitspanne (t,t‘) dazu führt, dass werthafte Referenzpunkte von fx() mit Hilfe von Wahrnehmung, Wahrnehmungskategorien und Gedächtnis in ‚möglichst kurzer Zeit‘ so bedient werden können, dass sie auf einen ’neutralen Wert‘ zurück gehen. Das exakte Zusammenspiel zwischen einem solchen Lernen f3() und den übrigen Größen f4, f5 und Verhalten ‚B‘ bleibt zunächst offen. (vgl. S.101)
Den Zusammenhang zwischen diesen verhaltensbasierten Begriffen – nennen wir sie hier ‚Begriffe_B‘ – und jenen Begriffen, die auf der Theorie der neuronalen Gruppen basiert – nennen wir sie hier ‚Begriffe_NN‘ – sieht Edelman grundsätzlich darin, dass die Begriffe_NN letztlich ein materielles System S_NN beschreiben, das als ein ‚Modell‘ dienen kann, über dem man die Begriffe_B ‚interpretieren‘ kann. Anders ausgedrückt postulirt Edelman hier eine Abbildung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN. Edelman beschreibt diese Abbildung an dieser Stelle aber nicht wirklich; er unterstellt sie einfach; er nimmt sie an und illustriert sie anhand sehr vager Beispiele. (vgl. S.101)
Edelman führt an dieser Stelle noch einen weiteren Prozess (eine Funktion) ‚fc‘ ein, dem er die Fähigkeit zuschreibt, dass dieser auf der Basis von Wahrnehmung (f1) und von Gedächtnis (f2) im Kontext des Lernens (f3) und möglicherweise auch — das sagt er nicht explizit – unter Berücksichtigung des Wertesystems (fx) in der Lage ist, ‚allgemeine Beziehungen‘ (‚general relational properties‘) hervorzubringen (‚to yield‘). Unter Voraussetzung dieser fünf Funktionen {f1, f2, f3, fx, fc} will er dann später zeigen, wie man damit das ‚Auftreten eines Bewusstseins‘ (‚the emergence of consciousness‘) erklären kann. //* Es sei hier darauf hingewiesen, dass die Kozeptualisierungsleistung fc im Rahmen psychologischer Modelle des Gedächtnisses oft als eine Eigenschaft des Gedächtnisses angesehen wird bzw. — was Edelman ja zuvor selbst feststellt – z.T. auch schon als eine Leistung der Wahrnehmung f1. *//
Den Rest des Kapitels widmet Edelman zwei Wortmarken: ‚Gedächtnis‘ (‚memory‘) und ‚Konzepte‘ (‚concepts‘).
Seine allgemeinste Bedeutungszuschreibung zur Wortmarke ‚Gedächtnis‘ geschieht in der verhaltensbasierten Perspektive der Psychologie, indem er die Wortmarke ‚Gedächtnis‘ verbindet mit der ‚Fähigkeit, ein Verhalten zu wiederholen‘ (f2) (‚ability to repeat a performance‘). Diese Fähigkeit beinhaltet die andere, kurz zuvor eingeführte, Fähigkeit zur Konzeptualisierung fc, die im Rahmen des Gedächtnisses die zu einem bestimmten Zeitpunkt t vorhandenen konzeptuellen Strukturen ISc(t) ‚erweitert‘ (‚enhancement‘), so dass zu einem späteren Zeitpunkt T‘ eine erweiterte konzeptuelle Struktur ISc(t‘) vorliegt.(vgl. S.102)
Parallel und zwischen diesen vorausgehenden psychologischen Erklärungen streut Edelman immer wieder auf informelle Weise Bemerkungen ein, wie sich die so beschriebenen psychologischen Strukturen und Funktionalitäten durch seine neuronale Maschinerie S_NN erklären lassen würden. Eine wirkliche Erklärung der hier notwendigen Interpretationsleistung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN mit Begriffe_NN = S_NN leistet Edelman hier aber nicht. (vgl. S.102)
Edelman verweist ferner auf das sich im Verhalten manifestierende Phänomen, dass Konzeptualisierungen, die wir als ‚Kategorien‘ auffassen und nutzen, nicht statisch sondern ‚dynamisch‘ sind, d.h. der Prozess des Anordnens läuft kontinuierlich und neue Ereignisse können bisherige Anordnungen ‚überschreiben‘, ‚ergänzen‘. (vgl. S.102)
Wie schon zuvor bemerkt, ist die Einführung der eigenständigen Kategorisierungsleistung (Konzeptbildung) fc im Rahmen des Gedächtnisses in ihrer Beziehung zu der vorausgehenden Kategorisierungsleistung f1 in der Wahrnehmung nicht klar beschrieben. Und auf S.104 charakterisiert er die Kategorisierungsleistung der Wahrnehmung f1 als ‚zufallsgesteuert‘ (‚probabilistic‘) und als die ‚initiale Basis‘ (‚initial basis‘) des Gedächtnisses f2 und — das muss man hier unterstellen – der weiteren Kategorisierungsleistung fc des Gedächtnisses. Allgemeine, sich im Verhalten manifestierende psychologisch begründete Begriffe wie ‚Assoziation‘, ‚Ungenauigkeit‘ (‚inexactness‘), sowie ‚Generalisierung‘, sieht Edelman als Ergebnis dieser vorausgesetzten f1, f2 und fc Leistungen.(vgl. S.104)
Edelman betont ausdrücklich, dass das ‚Gedächtnis‘ f2 über die Fähigkeit verfügt, die ‚zeitliche Abfolge von Ereignissen‘ zu ’notieren‘ (‚to account of‘).(vgl. S.104)
Nachdem Edelman eine Reihe von psychologisch motivierte Wortmarken – wie z.B. {f1, f2, f3, fx, fc} – eingeführt hatte, die das verhaltenspsychologische Begriffsfeld Begriffe_B bilden, führt er nun weitere, neue Wortmarken aus dem Bereich des Gehirns ein, die alle zum physiologisch motivierten Begriffsfeld Begriffe_NN gehören. Sein Motiv für diese begrifflichen Erweiterungen ist, dadurch mehr begriffliche Möglichkeiten zu bekommen, um die Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN zu differenzieren.
Er beginnt mit der Einführung der Begriffe ‚Cortex‘ (Cx), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg), wobei Cm, Hp und Bg den Prozess des Cortex im Bereich des ‚räumlichen und zeitlichen Ordnens‘ unterstützen, was Edelman in Verbindung sieht mit den psychologisch beschriebenen Leistungen des Gedächtnisses. (vgl. S.104) Auf der nächsten Seite erwähnt er auch noch den ‚Motor Cortex‘ (Cxm), der als Teil des Cortex eng mit den zuvor genannten Strukturen kooperiert. (vgl. S.105)
Bemerkenswert ist, dass Edelman bei der Charakterisierung der Leistungen der genannten Gehirnstrukturen auf psychologische Begriffe zurückgreift, z.B. wenn er vom Cerebellum Cm sagt, dass es eine wichtige Rolle spiele bei der ‚zeitlichen Ordnung‘ und einem ‚möglichst kontinuierlichen Verlauf‘ von Bewegungen (‚timing and smoothing of successions of movements‘). Letztlich kennen wir primär nur ein beobachtbares Verhalten und dessen Eigenschaften. Und es ist natürlich ein solches beobachtbares Verhalten (Gegenstand der Psychologie) als eine Art ‚Referenzpunkt‘ zu nehmen, um zu schauen, welche physiologischen Prozesse und welche zugehörigen physiologische Strukturen – wie z.B. das Cerebellum – im Kontext eines solchen beobachtbaren Verhaltens auftreten. Sofern es gelingt (was methodisch und messtechnisch extrem schwierig ist), eine irgendwie statistisch signifikante Korrelation zwischen physiologischen Messwerten und psychologischen Beobachtungswerten zu erfassen, kann man feststellen, dass z.B. das Cerebellumg Cm ‚eine wichtige Rolle spiele bei‘. Ohne ein explizites psychologisches Referenzmodell Begriffe_B wäre eine solche Korrelation ’spielt eine Rolle bei‘ nicht möglich. Dabei reicht es auch nicht aus, irgendwelche isolierte physiologische Messwerte zu haben, sondern man benötigt ein komplettes physiologisches Referenzmodell Begriffe_NN, das von den physiologischen Messwerten motiviert wird, das man mit dem psychologischen Referenzmodell Begriffe_NN in Beziehung setzt. Man müsste dann verfeinert sagen: (i) aufgrund von psychologischen Verhaltensdaten DAT_B generieren Psychologen ein psychologisches Referenzmodell Begriffe_B; (ii) aufgrund von physiologischen Messwerten DAT_NN generieren Physiologen (Gehirnforscher) ein physiologisches Referenzmodell Begriffe_NN; (iii) In einem interdisziplinären Team wird eine Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN konstruiert, die einen Zusammenhang herstellt zwischen psychologischen Verhaltensdaten und physiologischen Messwerten.(vgl. S.104f)
Auf der Verhaltensebene unterscheidet Edelman zwischen der ‚einzelnen Handlung‘ mit deren zeitlicher und kontinuierlicher Ausführung einerseits und ‚zeitlich sich erstreckenden Handlungsfolgen‘. Diese längeren, komplexeren – psychologisch charakterisierten — ‚Handlungsfolgen‘ bringt er in Verbindung mit der physiologischen Struktur genannt ‚Basal Ganglia‘ Bg. Eine solche komplexe Funktion wie ‚Handlungsplanung‘ (fd) interagiert mit sehr vielen unterschiedlichen anderen Funktionen, u.a. auch mit dem Wertesystem fx.(vgl. S.105f)
Für die Charakterisierung der nächsten physiologischen Struktur Hippocampus (Hp) benötigt Edelman weitere psychologische Begriffe, die er bislang noch nicht eingeführt hatte: er unterscheidet bei der psychologischen Funktion des Gedächtnisses (f2) zwischen eine ‚Kurzzeit-Gedächtnis‘ (’short-term memory‘) (Mst) und einem ‚Langzeit-Gedächtnis‘ (‚long-term memory‘) (Mlt). Zwischen diesen beiden psychologischen Formen des Gedächtnisses gib es spezifische Interaktionsmuster. Eines hat damit zu tun, dass Elemente des Kurzzeitgedächtnisses in das Langzeitgedächtnis ‚übernommen‘ werden. Und mit Bezug auf dieses psychologische Referenzmodell sieht Edelman den Hippocampus mit beteiligt. Der Hippocampus empfängt von allen Teilen des Cortex Signale, auch vom Wertesystem fx, und schickt seine Prozesswerte auch wieder zu den sendenden Stellen zurück.(vgl. S.106f)
Abschließend zu den genannten Strukturen ‚Cortex‘ (Cx), mit ‚Motor-Cortex (Cxm), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg) meint Edelman, dass die Differenziertheit und Flexibilität dieser Strukturen – kondensiert in einem physiologischen begrifflichen Modell Begriffe_NN – ausreicht, um das zuvor erstellte psychologische Referenzmodell des Verhaltens zu erklären.(vgl. S.107f)
An dieser Stelle kommt Edelman nochmals zurück auf die Wortmarke ‚Konzepte‘ (‚concepts‘) und grenzt seine Verwendung dieser Wortmarke ab von jener, in der ‚Konzepte‘ in einem rein linguistischen Kontext gesehen wird. Für Edelman sind ‚Konzepte‘ Ordnungsstrukturen (Kategorien), durch die der Strom der Wahrnehmungen und der Gedächtnisinhalte, immer wieder neu geordnet werden können, vorab zu jeder Sprache, als Voraussetzung für Sprache. Das System gewinnt dadurch die Möglichkeit, sein Verhalten mit Bezug auf diese Strukturen neu zu kontrollieren. (vgl. S.108)
Das Besondere an der Konzeptualisierungsfähigkeit ist, dass sie auch unabhängig von aktuellen Stimuli stattfinden kann, dass sie sich auf ‚alles‘ anwenden kann, was im Wahrnehmen, Erinnern und Denken vorkommen kann. Dies bedeutet, die Konzeptualisierungsfähigkeit kann ihre eigenen Ergebnisse, so abstrakt sie auch sein mögen, zum Gegenstand einer späteren Aktivität machen. //* Mathematiker nennen solch eine Struktur ‚rekursiv‘ *// Solche ‚abstrakteren‘ Strukturen (Konzepte) benötigen auch keine ‚topographischen‘ Strukturen, wie man sie im Bereich der sensorischen Wahrnehmung findet. Dies hat zur Folge, dass auch nicht-topographische Ereignisse wie z.B. systemrelevante ‚Werte‘ (über Bedürfnisse wie Hunger, Durst,…) in die Strukturierung einbezogen und damit verhaltensrelevant werden können. (vgl. S.108-110)
Erstaunlich ist, dass Edelman an dieser Stelle nun eine Wortmarke einführt, die weder dem physiologischen Sprachspiel zugehört, noch dem psychologischen, sondern dem philosophischen Sprachspiel sofern es auf den Raum subjektiver Phänomene fokussiert ist: ‚Intentionalität‚, indem er sagt, dass die konzeptuellen Strukturbildungen ‚intentional‚ (‚intentional‘) sind. Und Edelman geht noch weiter; er sieht hier einen ‚Übergang‘, eine ‚Brücke‘ (‚the bridging elements‘) von der Physiologie zum ‚Bewusstsein‚ (‚consciousness‘) und er stellt ausdrücklich fest, dass für diesen Brückenschlag ‚keine neuen theoretischen Annahmen‘ (’no new theoretical assumptions‘) gemacht werden müssen. Diese letzte Bemerkung trifft zu, wenn man sie auf die vorausgesetzte physiologische Maschinerie bezieht: das physiologische Modell Begriffe_NN wird nicht verändert. Mit der Einführung der Wortmarken ‚Intentional‘ und ‚Bewusstsein‘ aktiviert er aber ein neues (philosophisches) Sprachspiel, das er bislang nicht benutzt hat, und das er bislang in keiner Weise erklärt hat. Man müsste hierfür auch einen eigenen Begriff Begriffe_PH einführen vergleichbar zu Begriffe_B und Begriffe_NN und man müsste natürlich auch hier explizite Interpretationsfunktionen einführen wie Interpretation_B_PH : Begriffe_B <—> Begriffe_PH sowie Interpretation_NN_PH : Begriffe_NN <—> Begriffe_PH.
DISKUSSION FORTSETZUNG: KAP.10
Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.
Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußbote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.
Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:
Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.
Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.
Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.
Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:
Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN
Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH
Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN
Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.
ANHANG: BILD VON ANGESTRICHENEN BUCHSEITEN
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Das aktuelle Publikationsinteresse des Blogs findet sich HIER.
Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)
POSITION DES AUTORS ALS DISKUSSIONSPUNKTE
Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:
Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
… wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
‚Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.
Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Metawissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.
Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).
Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.
Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.
Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.
Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:
In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:
In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:
Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).
Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.
Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).
Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.
Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.
Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.
Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Phänotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.
In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas. Wohl findet zwischen Individuen ein ‚Genmix‘ (oft als ‚crossover‘ bezeichnet) statt, der neue Genotypen ermöglicht, z.T. Ergänzt durch zufällige Änderungen (Mutationen) des Genotyps, mit nachfolgend neuen Phänotypen.
Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.
Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.
Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.
Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nichts anderes übrig, als , im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.
Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommt, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.
Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.
Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch zwar noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das
‚Biologische‘ erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.
Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. auf neue Weise zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als ohne dieses Wissen.
ZWISCHENREFLEXION FITNESS VORGEGEBEN
Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitnessbiologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‚ oder gar ‚vermehren‚ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‚ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
Ferner wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere). Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
c : cross xmut:= die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
cross : POP x POP —–> POP:= In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
mut : POP —–> POP:= In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.
Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systeme – die Erde und das Biologische – einerseits unabhängig voneinandersind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkungstehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlichkönnte das Biologische aber auch andere Formenannehmen, würde es in einer anderen Umgebung leben.
Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚BootstrappingFunktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
boot-life : EARTH —–> EARTH x POP(auch geschrieben: POP(t=1) = boot-life(POP(t=0))):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.
DISKUSSION FORTSETZUNG: HIER KAP.9
Die Verwendung des Ausdrucks ‚Erkennung/ Erkennen‘ (‚recogniton‘) in Nr. 2 erscheint mir sehr gewagt, da die übliche Verwendungsweise des Ausdrucks ‚Erkennung‘ ein menschliches Subjekt voraussetzt, das im Rahmen seines Bewusstseins und dem zugehörigen – weitgehend unbewussten – ‚Kognitiven System‘ die wahrgenommenen – äußerliche (Sinnesorgane) wie innerliche (Körpersensoren) – Ereignisse ‚interpretiert‘ auf der Basis der ‚bisherigen Erfahrungen‘ und im Rahmen der spezifischen Prozeduren des ‚kognitiven Systems‘. Das von Edelman unterstellte ’selektive System‘ bezieht sich primär auf Strukturen, die sich ‚evolutiv‘ ausbilden oder aber ’somatisch‘ auf die Arbeitsweise des Gehirns, wie es sich im ‚laufenden Betrieb‘ organisiert. Das somatische System ist aber Teil des weitgehend ‚unbewussten kognitiven Systems‘, das in der alltäglichen Verwendung des Begriffs ‚Erkennung‘ ohne jegliche Bezugnahme auf die Details der Maschinerie einfach voraussetzt wird. Im Alltag liegt hier die Aufspaltung der Wirklichkeit in den bewussten Teil und den unbewussten vor, dessen wir uns – normalerweise – im alltäglichen ‚Vollzug‘ nicht bewusst sind (daher ja ‚unbewusst‘). Wenn Edelman also hier einen Ausdruck wie ‚Erkennung‘ aus dem ‚bewussten Verwendungszusammenhang‘ einfach so, ohne Kommentar, für einen ‚unbewussten Verwendungszusammenhang‘ benutzt, dann kann dies nachfolgend zu nachhaltigen Verwirrungen führen.
Der Punkt (3) von Edelman ist absolut fundamental. An ihm hängt alles andere.
Der Punkt (4) spiegelt ein anderes fundamentales Verhältnis wieder, das Edelman immer und immer wieder thematisiert: das Verhältnis von Psychologie (die Wissenschaft vom Verhalten) und Physiologie (die Wissenschaft vom Körper, speziell vom Gehirn). Alle Eigenschaftszuschreibungen, die die Psychologie vornimmt (wie z.B. mit dem Ausdruck ‚Intelligenz‘, ‚Intelligenzquotient‘, ‚Reflex‘, usw.), basieren auf empirischen Beobachtungen von realem Verhalten von realen Menschen, die dann im Rahmen expliziter (formaler = mathematischer) Modelle/ Theorien in Beziehungen eingebracht werden. Die Psychologie schaut nicht (!) in das ‚Innere‘ des Systems. Das tut die Physiologie. Die Physiologie untersucht die Struktur und die Dynamik des Körpers; dazu gehört auch das Gehirn. Und auch die Physiologie sammelt empirische Daten von den Körperprozessen (z.B. wie ein Neuron zusammengesetzt ist, wie es physikalisch, chemisch, mikrobiologisch usw. funktioniert) und versucht diese empirische Daten in explizite Modelle/ Theorien einzubauen. Im Idealfall haben wir dann eine psychologische Theorie T_psych über beobachtbares Verhalten mit theoretisch unterstellten möglichen Faktoren ‚hinter‘ dem Verhalten, und parallel eine physiologische Theorie T_phys über körperinterne Prozesse, die die verschiedenen Einzelbeobachtungen in einen ‚Zusammenhang‘ bringen. Was wir aber NICHT haben, das ist eine Erklärung des Zusammenhangs ZWISCHEN beiden Theorien! Die Gegenstandsbereiche ‚beobachtbares Verhalten‘ und ‚beobachtbare Körperprozesse‘ sind zunächst voneinander völlig abgeschottet. Spontan vermutet man natürlich, dass es zwischen Gehirnprozessen, hormonellen Prozessen, Atmung usw. und dem beobachtbaren Verhalten einen Zusammenhang gibt, aber diesen Zusammenhang EXPLIZIT zu machen, das ist eine eigenständige Leistung mit einer ‚Brückentheorie‘ T_physpsych(T_phys, T_psych), in der dieser Zusammenhang ausdrücklich gemacht wird. Es gibt dazu sogar Ausdrücke wie ‚Psychosomatik‘, ‚Neuropsychologie‘, aber die dazu gehörigen Texte kommen bislang nicht als explizite ‚Brückentheorie‘ daher. Und wenn Edelman hier ausdrücklich die Ausdrücke ‚Wahrnehmung, ‚Gedächtnis‘, ‚Bewusstseins‘, ‚Sprache‘ nennt, dann handelt es sich ausnahmslos um hochkomplexe Sachverhalte, zu denen es bislang keine hinreichende psychologische Theorien gibt, wenngleich beeindruckende Forschungen und Forschungsansätze. Festzustellen, dass eine physiologische Theorie des Gehirns Erklärungsansätze liefern müsse, wie diese psychologischen Phänomene zu ‚erklären‘ seien ist folgerichtig, aber aktuell schwierig, da die Psychologie diese Phänomene noch keineswegs zweifelsfrei abklären konnte. Am weitesten fortgeschritten sind möglicherweise die psychologischen Forschungen zur ‚Wahrnehmung‘, zum ‚Gedächtnis‘, und irgendwie zu ‚Sprache‘, kaum zu ‚Bewusstsein‘ und dem Verhältnis zum ‚Unbewussten‘.
Die beiden in (5) aufgeführten metatheoretischen (= wissenschaftsphilosophischen) Postulate sind so, wie sie Edelman formuliert, mindestens missverständlich und darum Quelle möglicher gravierender Fehler. Die Verortung von wissenschaftlichen Aussagen in der ‚physikalischen‘ Welt und von speziell psychologischen Aussagen in den ‚physiologischen Prozessen des Körpers‘ sind als solche sicher kompatibel mit dem bisherigen Verständnis von empirischer Wissenschaft generell. Allerdings, wie gerade im vorausgehenden Punkt (C) dargelegt, gibt es empirische Datenbereiche (hier: Verhaltensdaten, Körperprozesse), die direkt zunächst nichts miteinander zu tun haben. Die auf diesen unterschiedlichen Datenbereichen beruhenden Modell-/ Theoriebildungen sind von daher zunächst UNABHÄNGIG voneinander und haben ihre wissenschaftliche Daseinsberechtigung. Zu wünschen und zu fordern, dass zwei zunächst methodisch unabhängige Modelle/ Theorien T_psych und T_phys miteinander in Beziehung gesetzt werden, das liegt ‚in der Natur des wissenschaftlichen Verstehenwollens‘, aber dies wäre eine zusätzliche Theoriedimension, die die beiden anderen Teiltheorien VORAUSSETZT. Dieser methodisch-logische Zusammenhang wird in der Formulierung von Edelmann nicht sichtbar und kann dazu führen, dass man eine wichtige Voraussetzung der gewünschten Erklärungsleistung übersieht, übergeht, und damit das Ziel schon im Ansatz verfehlt.
Dass – wie in (6) behauptet – die ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ jene Erklärung liefere, die die psychologischen Theorien ‚erklärt‘ ist von daher methodisch auf jeden Fall falsch. Allerdings kann man die Position von Edelman dahingehend verstehen, dass die TNGS ein physiologisches Modell liefere (was die große Schwäche besitzt, dass weder der übrige Körper, von dem das Gehirn nur ein verschwindend kleiner Teil ist, noch die jeweilige Umgebung einbezogen sind), das im Rahmen einer T_physpsych-Brückentheorie entscheidende Beiträge für solche einen Zusammenhang liefern könnte. Letzteres scheint mir in der Tat nicht ganz ausgeschlossen.
In den Punkten (7) – (12) beschreibt Edelman drei Phasen der Strukturbildung, wie es zu jenen physiologischen Strukturen kommen kann, die dann – unterstellt – dem beobachtbaren Verhalten ‚zugrunde‘ liegen. Allerdings, für das aktuell beobachtbare Verhalten spielen die verschiedenen Entstehungsphasen keine Rolle, sondern nur der ‚Endzustand‘ der Struktur, die dann das aktuelle Verhalten – unterstellt – ‚ermöglicht. Der Endzustand ist das Gehirn mit seinen neuronalen Verschaltungen, seinen Versorgungsstrukturen und seiner anhaltenden ‚Plastizität‘, die auf Ereignismengen reagiert. Aus den Punkten (7) – (12) geht nicht hervor, wo und wie diese Strukturen das ‚Bewusstsein erklären‘ können.
Wenn Edelman in (13) meint, dass seine neuronalen Karten mit den reziproken Verbindungen eine Grundlage für das psychologische Konzept des Gedächtnisses liefern können, dann ist dies sicher eine interessante Arbeitshypothese für eine mögliche Brückentheorie, aber die müsste man erst einmal formulieren, was wiederum eine psychologische Theorie des Gedächtnisses voraussetzt; eine solche gibt es bislang aber nicht.
Der Punkt (14) adressiert mögliche Details seiner Modellvorstellung von neuronalen Karten mit reziproken Verbindungen.
Der Punkt (15) greift das Thema von Punkt (13) nochmals auf. Die ‚Kategorisierung von Wahrnehmungsereignissen‘ ist letztlich nicht von dem Thema ‚Gedächtnis isolierbar. Er zitiert im Postskript auch viele namhafte PsychologenInnen, die dazu geforscht haben. Die Kerneinsicht dieser empirischen Forschungen geht dahin, dass sich solche Strukturen, die wir ‚Kategorien‘ nennen, ‚dynamisch‘ herausbilden, getriggert von konkreten Wahrnehmungsereignissen, die bei jedem individuell verschieden sind. Natürlich liegt hier die Vermutung nahe, dass entsprechend dynamische Strukturen im Körper, im Gehirn, vorhanden sein müssen, die dies ermöglichen. Dass hier Psychologie und Physiologie Hand-in-Hand arbeiten können, liegt auch auf der Hand. Aber dies stellt erhebliche methodische Herausforderungen, die Edelman kaum bis gar nicht adressiert.
In Punkt (16 – 18) beschreibt Edelman auf informelle Weise, wie er sich das Zusammenspiel von psychologischen Eigenschaften (die eine explizite psychologische Theorie T_psych voraussetzen) und seinem neuronalen Modell (für das er eine physiologische Theorie T_phys beansprucht) vorstellt. Auf dieser informellen Ebene wirkt seine Argumentation zunächst mal ‚plausibel‘.
Ab Punkt (19) berührt Edelman jetzt einen weiteren Fundamentalpunkt, der bis heute generell ungeklärt erscheint. Es geht um die Frage der ‚Werte‘, die ein Verhalten in einem gegeben Möglichkeitsraum in eine bestimmte ‚Richtung‘ anregen/ drängen …. (es gibt dafür eigentlich kein richtiges Wort!), so dass das System einem neuen Zustandsraum erreicht, der für es ‚günstiger‘ ist als ein anderer, auf jeden Fall ‚das Leben ermöglicht‘. Die Evolutionstheorie hat über das Phänomen der hinreichenden ‚Nachkommen‘ ein ‚operationales Kriterium‘ gefunden, mit dem sich der Ausdruck ‚Fitness‘ mit Bedeutung aufladen lässt. Über das ‚Überleben‘ bzw. ‚Nicht-Überleben‘ wirkt sich dies indirekt auf den Genotyp aus: die ‚günstigen‘ Genotypen überleben und die ’nicht günstigen‘ sterben aus. Ein ‚überlebender‘ Genotyp – einen, den man ‚fit‘ nennt – triggert dann den embryonalen Prozess und den darin gründenden ‚Entwicklungsprozess‘, der in einer ’nicht-deterministischen‘ Weise Körper- und damit Gehirnstrukturen entstehen lässt, die auf individueller Ebene immer verschieden sind. Jene Gehirnstrukturen, die für lebenserhaltende Systeme wichtig sind (letztlich die gesamte Körperarchitektur und das Zusammenspiel aller Komponenten untereinander) werden aber – trotz des nicht-deterministischen Charakters – offensichtlich dennoch herausgebildet. In all diesem lässt sich kein ‚geheimnisvoller Faktor‘ erkennen und er erscheint auch nicht notwendig. Das System ‚als Ganzes‘ repräsentiert ein ‚Erfolgsmodell‘. Hier jetzt – wie Edelman es versucht – im konkreten Details nach ‚Orten von Präferenzen‘ zu suchen erscheint unplausibel und seine Argumentation ist auch nicht schlüssig. Wenn Edelman ‚interne Kriterien für werthaftes Verhalten‘ postuliert, die genetisch bedingt sein sollen, dann postuliert er hier Eigenschaften, die sich nicht aus der Biochemie der Prozesse herauslesen lassen. Was er hier postuliert ist so eine Art ‚genetischer Homunculus‘. Damit widerspricht er letztlich seinen eigenen wissenschaftlichen Überzeugungen. Letztlich ist es nur ein ‚Genotyp als ganzer‘, der ein ‚bislang erfolgreichen Phänotyp‘ repräsentiert. Scheiter er irgendwann – was auf lange Sicht der Normalfall ist, da die Erde sich ändert –, dann verschwindet der Genotyp einfach; jener, der ‚überlebt‘, verkörpert als ‚Ganzer‘ ein Erfolgsmodell, nicht ein einzelner, isolierter Aspekt. Mit dieser empirisch-wissenschaftlichen Sicht verschwinden die ‚Werte‘ zwar ‚aus dem System‘, aber das übergeordnete ’system-transzendente‘ Verhältnis zwischen System und Umwelt bleibt weiter erhalten und es ist dieses Verhältnis, das alleine darüber entscheidet, ob etwas ‚Leben-Ermöglichendes‘ ist oder nicht. Damit erweitert sich die Fragestellung nach der ‚Verortung möglicher Präferenzen‘ deutlich, wenn man das empirisch neue Phänomen des Bewusstseins einbezieht (das nur in Kombination mit einem Unbewussten auftritt!). Während die Umwelt-System-Beziehung primär über das Überleben entscheidet, ermöglicht das Bewusstsein in Kombination mit dem Unbewussten (z.B. dem Gedächtnis) eine ‚Extraktion‘ von Eigenschaften, Beziehungen, Dynamiken und mit kombinatorischen Varianten von dieser Umwelt-System-Beziehung, so dass eine kommunizierende Gruppe von Homo sapiens Exemplaren von nun an mögliche Zukünfte schon in der Gegenwart bis zu einem gewissen Graf ‚voraus anschauen‘ und auf ‚Lebensfähigkeit‘ ‚testen‘ kann. Insofern stellt das Bewusstsein und die Kommunikation eine radikale Erweiterung der Überlebensfähigkeit dar, nicht nur für den Homo sapiens selbst, sondern auch für die Gesamtheit des biologischen Lebens auf der Erde! Mit dem Ereignis Homo sapiens tritt das biologische Leben auf der Erde (und damit im ganzen Universum!?) in eine radikal neue Phase. Edelmans Versuch, ‚Werte‘ in einzelnen genetischen Strukturen und dann in einzelnen Strukturen des Gehirns zu finden wirken von daher unlogisch und abwegig. Edelmans Beispiele in den Punkten (20) – (23) können nicht klarmachen, wie diese interne Präferenzsystem funktionieren soll (ich werde diesen Punkt an konkreten Systemen nochmals selbst durchspielen).
Zusammenfassend würde ich für mich den Text von Edelman so interpretieren, dass (i) seine Skizze der neuronalen Maschinerie mit den reziproken Verbindungen und den unterschiedlichen Verschaltungen ganzer Karten ein interessanter Ansatzpunkt ist, für ein neuronales Modell, das in einer psychologisch-physiologischen Brückentheorie getestet werden könnte und sollte, sein Versuch aber (ii), die Wertefrage in biochemische Prozesse verorten zu wollen, ist in mehrfachem Sinne unplausibel, methodisch unklar und führt vom Problem eher weg.
DISKUSSION FORTSETZUNG: KAP.10
Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.
Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußnote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.
Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:
Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.
Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.
Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.
Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:
Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN
Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH
Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN
Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.
Fortsetzung folgt
Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.
Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.
Das aktuelle Publikationsinteresse des Blogs findet sich HIER.