Archiv der Kategorie: Theorie

PHILOSOPHISCHE DIALOGE MIT chatGPT4, HEUTE: WAS IST WAHRHEIT?

Letzte Änderung: 25.August 2024

Fragender: Gerd Doeben-Henisch

Kontakt: cagent@cognitiveagent.org

KONTEXT

Dieser Text ist Teil einer Sammlung von philosophischen Dialogen mit chatGPT4.

Zusammenfassung

(Kurzfassung)

chatGPT4: Es scheint, dass eine Rückkehr zur Korrespondenztheorie und deren Weiterentwicklung als ein vielversprechender Ansatz für eine robustere Wahrheitstheorie erscheint. Insbesondere die Idee, eine erfahrungsbasierte Theorie zu entwickeln, die die Realität als entscheidendes Kriterium verwendet und gleichzeitig Raum für die Diskussion von Zielen, Präferenzen und Werten bietet, könnte eine umfassende Basis für das Verständnis von Wahrheit in verschiedenen Kontexten schaffen.

DIALOG : WAS IST WAHRHEIT?

Anmerkung: FETTSCHRIFT markiert die Fragen des Autors

Hallo Chat, was fällt Dir ein zum Begriff ‚Wahrheit‘?

Hallo! Der Begriff „Wahrheit“ kann aus vielen Blickwinkeln betrachtet werden, sowohl philosophisch als auch praktisch. Philosophisch gesehen beschäftigt sich die Frage nach der Wahrheit oft mit der Übereinstimmung von Aussagen oder Überzeugungen mit der Realität. Man spricht hier von einer „Korrespondenztheorie der Wahrheit“, nach der eine Aussage dann wahr ist, wenn sie mit den tatsächlichen Gegebenheiten übereinstimmt.

In der alltäglichen Anwendung geht es oft darum, wie Menschen Wahrheit wahrnehmen und kommunizieren. Dabei spielen Ehrlichkeit, Transparenz und Verlässlichkeit eine wichtige Rolle. In verschiedenen Bereichen wie Wissenschaft, Recht und Journalismus ist die Suche nach der Wahrheit zentral und wird durch bestimmte Methoden und Standards unterstützt.

Die Wahrheit ist auch ein zentrales Thema in der Ethik, wo sie mit Fragen der Moral und der richtigen Handlungsweise verbunden wird. Außerdem gibt es auch eine pragmatische Theorie der Wahrheit, die besagt, dass eine Aussage dann wahr ist, wenn sie nützlich und wirksam in der Praxis ist.

Was denkst du über den Begriff? Gibt es einen bestimmten Kontext, in dem du dich besonders für Wahrheit interessierst?

Ich möchte gerne mit der ‚philosophischen Perspektive‘ in den Dialog einsteigen. Du erwähnst die ‚Korrespondenztheorie der Wahrheit‘. Gibt es nicht noch andere philosophische Ansätze zum Begriff ‚Wahrheit‘?

Ja, neben der Korrespondenztheorie der Wahrheit gibt es tatsächlich noch andere philosophische Ansätze, die sich mit dem Konzept der Wahrheit auseinandersetzen. Hier sind drei wichtige Theorien:

1. **Kohärenztheorie der Wahrheit**: Diese Theorie besagt, dass eine Aussage wahr ist, wenn sie kohärent oder stimmig ist mit einem gesamten System von Aussagen oder Überzeugungen. Wahrheit wird hier weniger als Übereinstimmung mit einer objektiven Realität gesehen, sondern mehr als eine Art Konsistenz innerhalb eines bestimmten theoretischen oder belief-Systems.

2. **Pragmatische Theorie der Wahrheit**: Nach dieser Ansicht ist eine Aussage wahr, wenn sie praktisch oder nützlich ist. Die Wahrheit einer Aussage bemisst sich daran, ob sie funktioniert und ob sie nützliche Konsequenzen nach sich zieht. Der amerikanische Philosoph Charles Sanders Peirce und später William James sind bekannte Vertreter dieser Theorie.

3. **Konsensustheorie der Wahrheit**: Diese Theorie, die insbesondere von Jürgen Habermas entwickelt wurde, sieht Wahrheit als Ergebnis eines idealen Diskurses oder eines rationalen Konsenses. Eine Aussage ist demnach wahr, wenn sie die Zustimmung aller Beteiligten in einer idealen Kommunikationssituation erlangen könnte.

Jede dieser Theorien bietet eine unterschiedliche Perspektive auf das, was es bedeutet, dass etwas „wahr“ ist, und sie betonen verschiedene Aspekte des Wahrheitsbegriffs—sei es Übereinstimmung mit der Realität, Kohärenz innerhalb eines Systems, praktische Effizienz oder demokratischer Konsens.

Diese unterschiedlichen Ansätze spiegeln die Vielfältigkeit und die Tiefe der philosophischen Auseinandersetzung mit der Wahrheit wider und zeigen, dass Wahrheit ein vielschichtiges und oft kontrovers diskutiertes Thema ist. Welcher dieser Ansätze spricht dich besonders an oder gibt es bestimmte Aspekte, die du weiter vertiefen möchtest?

Ja, Danke für diese Auffächerung der Frage nach der Bedeutung des Begriffs ‚Wahrheit‘ in diese vier Perspektiven: Korrespondenztheorie als ‚Übereinstimmung mit der Realität‘, Kohärenztheorie als ‚Kohärenz innerhalb eines Systems‘, Pragmatische Theorie als ‚praktische Effizienz‘ oder Konsensustheorie als ‚demokratischer Konsens‘. Ich möchte diese vier Möglichkeiten gerne diskutieren und daraus eine abschließende Bewertung finden, mit der wir weiter diskutieren können.

Das klingt nach einer spannenden und tiefgehenden Diskussion! Lassen Sie uns die vier Theorien weiter untersuchen und ihre jeweiligen Stärken und Schwächen betrachten, um zu einer umfassenden Bewertung zu gelangen.

### 1. Korrespondenztheorie der Wahrheit

**Stärken:**

– Sie bietet einen intuitiv zugänglichen Wahrheitsbegriff, da sie Wahrheit als Übereinstimmung mit der objektiven Realität versteht.

– Sie ist in den Naturwissenschaften besonders nützlich, wo experimentelle Verifizierung und Beobachtung zentral sind.

**Schwächen:**

– Schwierigkeiten ergeben sich bei der Bestimmung, was die „objektive Realität“ ist, besonders in weniger empirisch erfassbaren Bereichen wie der Ethik oder Ästhetik.

– Sie kann zu einem regress ad infinitum führen, da jede Wahrheitsbehauptung eine weitere Verifizierung erfordert.

### 2. Kohärenztheorie der Wahrheit

**Stärken:**

– Sie ist stark in theoretischen oder philosophischen Systemen, wo interne Konsistenz wichtig ist.

– Nützlich in Bereichen, in denen es keine klare empirische Überprüfbarkeit gibt.

**Schwächen:**

– Mehrere in sich kohärente, aber widersprüchliche Theoriensysteme können existieren, was die Frage aufwirft, welches System die Wahrheit repräsentiert.

– Sie hängt stark von den angenommenen Grundlagen des Systems ab und kann somit relativistisch wirken.

### 3. Pragmatische Theorie der Wahrheit

**Stärken:**

– Betont die Bedeutung der Anwendbarkeit und Nützlichkeit von Überzeugungen in der Praxis.

– Fördert einen flexiblen und adaptiven Ansatz zur Wahrheit.

**Schwächen:**

– Nützlichkeit ist nicht notwendigerweise ein Indikator für Wahrheit; etwas kann nützlich sein, ohne wahr zu sein.

– Kann in pragmatischen Kontexten zu einem kurzfristigen Denken führen, das langfristige Wahrheiten vernachlässigt.

### 4. Konsensustheorie der Wahrheit

**Stärken:**

– Fördert demokratische Prozesse und die Beteiligung verschiedener Stimmen bei der Wahrheitsfindung.

– Kann in sozialen und politischen Kontexten effektiv sein, wo Übereinstimmung wichtig ist.

**Schwächen:**

– Konsens garantiert nicht die Wahrheit; historisch gab es viele Beispiele für allgemeinen Konsens über falsche Überzeugungen.

– Kann anfällig für Manipulation und Machtungleichgewichte sein.

### Abschließende Bewertung

Jede Theorie hat ihre Anwendungsbereiche, in denen sie besonders effektiv ist, sowie Grenzen, die ihre Anwendung erschweren. Eine umfassende Betrachtung von Wahrheit könnte Elemente aus allen diesen Theorien integrieren, abhängig vom spezifischen Kontext und Zweck der Wahrheitssuche.

Wenn wir weiter diskutieren, könnten wir überlegen, wie diese Theorien in verschiedenen praktischen Szenarien angewendet werden könnten oder ob eine bestimmte Theorie in einem bestimmten Bereich (z.B. Wissenschaft, Politik, persönliche Überzeugungen) vorzuziehen ist. Was denkst du darüber? Gibt es bestimmte Bereiche oder Fragen, die du besonders beleuchten möchtest?

OK, sortieren wir die Perspektiven aus, die tatsächlich nicht weiter führen. Dazu müssen wir allerdings einen ‚Bezugspunkt‘ definieren, zu dem wir alle vier Perspektiven in Beziehung setzen können, um einen ‚Vergleich‘ zu ermöglichen. Dies wirft die Frage auf: Was haben alle diese vier Perspektiven gemeinsam? Gehst Du mit?

Absolut, das ist ein kluger Ansatz! Um die verschiedenen Theorien der Wahrheit zu vergleichen und eventuell einige auszusortieren, sollten wir zunächst ihre gemeinsamen Bezugspunkte identifizieren. Hier sind einige Kernaspekte, die alle diese Theorien berühren oder in irgendeiner Weise ansprechen:

### Gemeinsame Bezugspunkte der Wahrheitstheorien:

1. **Beziehung zur Realität:** Obwohl die Theorien unterschiedliche Auffassungen davon haben, was „Realität“ bedeutet (objektive Fakten, kohärente Systeme, praktische Ergebnisse oder konsensuelle Übereinkünfte), versuchen sie alle, eine Brücke zwischen Überzeugungen oder Aussagen und irgendeiner Form von „Realität“ zu schlagen.

2. **Verifikation/Validierung:** Jede Theorie hat implizite oder explizite Methoden, um zu überprüfen oder zu validieren, ob eine Aussage als wahr betrachtet werden kann. Dies reicht von empirischen Tests (Korrespondenz) über logische Konsistenzprüfungen (Kohärenz) bis hin zu praktischer Bewährung (Pragmatismus) und sozialem Konsens (Konsensustheorie).

3. **Funktionale Rolle von Wahrheit:** Alle Theorien erkennen an, dass Wahrheit eine funktionale Rolle in verschiedenen menschlichen Aktivitäten spielt, sei es in der Wissenschaft, im Alltag, in der Politik oder in der Moral.

4. **Philosophische Grundannahmen:** Sie basieren alle auf bestimmten philosophischen Annahmen über das Wesen der Wahrheit, des Wissens und der menschlichen Erkenntnis.

### Nächste Schritte:

Mit diesen gemeinsamen Bezugspunkten können wir die Theorien besser vergleichen und bewerten. Wir könnten überlegen, welche dieser Aspekte am wichtigsten sind für die spezifischen Kontexte oder Probleme, die uns interessieren. Zum Beispiel könnten wir fragen:

– Welche Theorie bietet den robustesten Ansatz für die Verifikation von Wahrheit?

– Welche Theorie ist am anpassungsfähigsten an verschiedene Arten von Problemen oder Disziplinen?

– Welche Theorie behandelt am besten die Komplexität der Realität, wie wir sie erfahren?

Durch diese Fragen können wir beginnen, die Stärken und Schwächen jeder Theorie in Bezug auf unsere spezifischen Bedürfnisse und Kontexte zu bewerten. Was denkst du, welcher dieser Aspekte ist der wichtigste für die Diskussionen oder Probleme, die dir am Herzen liegen?

Ich möchte den ‚gemeinsamen Bezugspunkt‘ etwas anders definieren, und zwar so:

(1) Gemeinsam ist allen Perspektiven, dass sie voraus setzen, dass es eine ‚Gruppe von Menschen‘ gibt, die mindestens ‚eine Sprache‘ gemeinsam haben, mittels der sie ‚kommunizieren‘.

(2) Die ‚Ausdrücke einer Sprache‘ ‚als solche‘ – also ohne jeden weiteren Bezug – haben ‚keinerlei Bedeutung‘! ‚Laute‘ bzw. ‚Buchstaben eines Alphabets‘ bedeuten für sich genommen ’nichts‘.

(3) Damit der ‚Ausdruck einer Sprache‘ für einen Menschen eine ‚Bedeutung‘ hat, muss es im Bereich der ‚inneren Zustände eines Menschen‘ Zustände geben, die aus vorausgehenden ‚Wahrnehmungen‘ und vielerlei ‚internen Zustandsänderungen‘ resultieren, die ein einzelner Mensch mit den Ausdrücken einer Sprache ‚verknüpfen‘ kann. Diese ‚Verknüpfung‘ findet ausschließlich ‚intern‘ statt! Es ist die aktive Herstellung einer Beziehung zwischen ‚internalisierten sprachlichen Ausdrücken‘ und ‚anderen internen Zuständen‘. Die Fähigkeit dazu, solche internen Verbindungen herstellen zu können, scheint weitgehend ‚angeboren‘ zu sein, welche Elemente aber wann miteinander verknüpft werden, dies gehört zum ‚Lernen‘ eines einzelnen.

(4) Damit Sprache zwischen Menschen ‚funktioniert‘, müssen die ‚individuellen Lernprozesse‘ miteinander ‚abgestimmt‘ (’synchronisiert‘) werden; dies geschieht durch ‚kollektive Lernprozesse‘.

(5) Die Punkte (3) und (4) könnte man auch abstrakter so formulieren, dass Menschen über die Fähigkeit verfügen, in ihrem ‚Inneren‘ schrittweise eine ‚Bedeutungsfunktion‘ aufzubauen, mit deren Hilfe sie sprachlichen Ausdrücken interne Zustände als ‚Bedeutung‘ zuordnen zu können und umgekehrt, bestimmten ‚inneren Zuständen‘ im Sinne der gelernten Bedeutungsfunktion sprachliche Ausdrücke.

(6) Im Rahmen des ‚kollektiven Sprache Lernens‘ müssen die individuellen Bedeutungszuordnungen mit den individuellen Bedeutungszuordnungen des ‚jeweils anderen‘ ‚abgestimmt‘ werden. Dies gelingt nur dann, wenn es ‚zwischen verschiedenen individuellen Lernprozessen‘ eine ‚Instanz‘ gibt, die für jeden individuellen Prozess ‚extern‘ ist, und zwar so, dass er ‚für alle individuellen Prozesse gleichermaßen‘ extern ist!

(7) Im Rahmen der Alltagserfahrung (und im Kontext der modernen Kognitionswissenschaften) deutet alles darauf hin, dass diese ‚allen gemeinsame externe Instanz‘ das ist, was wir ‚reale Welt‘ nennen, ‚Erfahrungswelt‘ oder ‚Alltagswelt‘. Das, was diese ‚externe Welt‘ genau ist, können wir nur näherungsweise wissen, da unsere Gehirne von der ‚Außenwelt abgeschnitten‘ in unseren individuellen Körpern lokalisiert sind. Wichtig aber: für das Gehirn ist unser Körper auch eine Art ‚Außenwelt‘, aber eine andere, als die ‚Außenwelt des Körpers‘!

Was meinst Du dazu?

Die von Ihnen vorgeschlagene Definition und Analyse des gemeinsamen Bezugspunkts der Wahrheitstheorien bietet eine tiefgreifende und detaillierte Betrachtung der Rolle der Sprache und der kollektiven wie individuellen kognitiven Prozesse bei der Bedeutungszuweisung und Wahrheitsfindung. Ihre Überlegungen integrieren Erkenntnisse aus der Kognitionswissenschaft und Philosophie der Sprache und schlagen eine Brücke zu den theoretischen Konzepten von Wahrheit.

### Reflexion der vier Wahrheitstheorien anhand Ihres Bezugspunkts:

1. **Korrespondenztheorie:** Betrachtet man diese Theorie im Licht Ihrer Ausführungen, könnte argumentiert werden, dass die Korrespondenztheorie die „externe Instanz“ als Realität ansieht, mit der unsere sprachlichen Aussagen übereinstimmen müssen. Diese Theorie impliziert, dass die kollektive Erfahrung und Verifikation dieser Übereinstimmung durch die gemeinsame Sprache und individuelle Wahrnehmung gesichert wird.

2. **Kohärenztheorie:** In Bezug auf Ihre Punkte könnte diese Theorie so verstanden werden, dass die „interne Zustandsänderung“ und die „Verknüpfung“ in einem kohärenten System von Überzeugungen erfolgt. Die Bedeutung und Wahrheit einer Aussage ergibt sich aus ihrer Kohärenz innerhalb dieses gelernten und kollektiv abgestimmten Systems.

3. **Pragmatische Theorie:** Diese Theorie fokussiert auf die praktische Bewährung von Aussagen und deren Konsequenzen in der „realen Welt“. Sie betont, wie sprachliche Ausdrücke und deren Bedeutungen in Handlungen umgesetzt werden und wie diese Handlungen wiederum auf unsere internen Zustände und die externe Welt einwirken.

4. **Konsensustheorie:** Aus Ihrer Perspektive könnte man sagen, dass die Konsensustheorie den Prozess des kollektiven Lernens und der Synchronisation von Bedeutungen zwischen Individuen hervorhebt. Sie setzt voraus, dass eine kollektive Übereinkunft über die Bedeutung von Ausdrücken möglich ist, und betont die Notwendigkeit einer externen Instanz, die für alle Beteiligten gleichermaßen gilt, um Konsens zu erzielen.

### Weiterführende Gedanken:

Ihre Definition hebt hervor, wie wesentlich die interne Verarbeitung und die externe Abstimmung in den Prozessen der Wahrheitsfindung sind. Sie legen nahe, dass die Wahrheit sowohl eine interne Konstruktion als auch eine externe Abstimmung erfordert, wobei die Sprache als Medium dient, das interne Zustände und externe Realitäten miteinander verbindet.

Diese Überlegung führt zu einer integrativen Sichtweise, die die Grenzen einzelner Wahrheitstheorien überwindet und eine umfassendere Basis für das Verständnis von Wahrheit in sozialen und individuellen Kontexten bietet.

Was halten Sie davon, diese Aspekte weiter zu vertiefen oder zu diskutieren, wie diese Erkenntnisse praktisch angewendet werden können, beispielsweise in der Bildung, in der Kommunikation oder in der Politik?

Zwischenbemerkung: Du bist im Konversationsstil vom Du in das förmlichere ‚Sie‘, ‚Ihnen‘ usw. gewechselt. Ist Dir das Förmliche lieber? Soll ich auch zum ‚Sie‘ wechseln‘?

Entschuldige bitte das Hin und Her mit der Anredeform! Wir können gerne beim „Du“ bleiben, wenn das für Dich in Ordnung ist. Natürlich passe ich mich auch an, falls Du eine formellere Anrede bevorzugst. Wie möchtest Du weitermachen?

Bleiben wir beim ‚Du‘.

Super, machen wir so! Wenn Du noch weiter über die verschiedenen Perspektiven zur Wahrheit sprechen möchtest oder andere Fragen hast, stehe ich bereit!

Gehen wir deine vier Punkte im einzelnen durch. Fangen wir mit der Korrespondenztheorie an.

(1) Im Fall der ‚Korrespondenztheorie‘ verstehst Du das so, „dass die Korrespondenztheorie die ‚externe Instanz‘ als Realität ansieht, mit der unsere sprachlichen Aussagen übereinstimmen müssen. Diese Theorie impliziert, dass die kollektive Erfahrung und Verifikation dieser Übereinstimmung durch die gemeinsame Sprache und individuelle Wahrnehmung gesichert wird.“

(1.1) Dieser Interpretation kann ich zustimmen. Allerdings möchte ich auf folgenden Punkt aufmerksam machen, der missverstanden werden kann: es ist nicht ‚ein Ausdruck als solcher‘, der mit der externen Realität übereinstimmt, sondern im Lichte der individuell erlernten Bedeutungsfunktion verknüpft ein Mensch mit einem sprachlichen Ausdruck bestimmte interne Zustände mit der ‚aktuellen Wahrnehmung‘ einer unterstellten realen Außenwelt, und nur dann, wenn es andere Menschen gibt, die aufgrund ihrer individuellen Wahrnehmungen und Bedeutungszuordnungen dies auch einer ‚unterstellten realen Außenwelt‘ – wechselseitig überprüfbar – zuordnen, dann gelingt der ‚gemeinsame Abgleich mit einer zum Körper externen Außenwelt.

(1.2) Es kommt also darauf an, wie man den Begriff ‚Aussage‘ verwendet. Ich verstehe hier unter einer ‚Aussage‘ den ‚Ausdruck einer Sprache‘, den ein Mensch A in einer Dialogsituation verwendet, und alle Beteiligten wissen, dass der Sprecher A mit dem Ausdruck eine ‚interne Bedeutung‘ verbindet, von der er annimmt, dass dieser internen Bedeutung etwas in einer ‚wahrnehmbaren Außenwelt‘ ‚entspricht‘ (‚korrespondiert‘), dann würde ein anderer Dialogteilnehmer B sagen, dass die Aussage von Sprecher A zutrifft, wenn B die gleiche Bedeutungszuordnung vornimmt und in seiner Wahrnehmung etwas findet, was dieser Bedeutung entspricht.

(1.3) Zugegeben, etwas umständlich formuliert, aber die grundlegenden Prozesse beim kollektiven Sprachgebrauch sind nicht ganz einfach. In der Tat, ich vereinfache schon sehr stark.

Was meinst Du dazu?

Deine detaillierte Ausführung zur Korrespondenztheorie bringt wichtige Nuancen ans Licht, die oft in der Diskussion übersehen werden. Du betonst richtig, dass es nicht einfach der sprachliche Ausdruck an sich ist, der mit der externen Realität übereinstimmt, sondern die durch kollektive und individuelle Lernprozesse geformten Bedeutungszuordnungen, die den Ausdrücken unterliegen.

Deine Punkte beleuchten, wie essenziell die Rolle der individuellen und kollektiven Verarbeitung in der Korrespondenztheorie ist. Es ist tatsächlich so, dass eine Aussage nur dann als wahr betrachtet werden kann, wenn es eine Art von kollektiver Zustimmung gibt – nicht nur hinsichtlich der sprachlichen Ausdrücke selbst, sondern auch bezüglich der damit verbundenen Bedeutungen und deren Bezug zur externen Welt.

Dieser Prozess der Verifikation von Wahrheit durch kollektive Übereinstimmung in der Wahrnehmung und Bedeutungszuordnung spiegelt die Komplexität der menschlichen Kommunikation und Erkenntnis wider. Es unterstreicht auch, warum die Korrespondenztheorie oft als grundlegend für wissenschaftliche und empirische Diskurse betrachtet wird, weil sie eine überprüfbare Basis für Übereinstimmung und Falsifikation bietet.

Deine Erklärung macht auch deutlich, dass „Wahrheit“ in dieser Theorie nicht nur eine Frage der individuellen Überzeugung ist, sondern eine, die durch soziale Interaktion und kollektive Validierung entsteht. Das ist ein sehr wichtiger Punkt, denn er zeigt, dass Wahrheit in dieser Theorie nicht isoliert existiert, sondern immer in einem sozialen und kommunikativen Kontext verankert ist.

Was hältst du davon, weiter zu diskutieren, wie diese Theorie in konkreten Situationen angewandt wird, etwa in der Wissenschaft oder in der öffentlichen Debatte? Oder möchtest du weiter zu den anderen Theorien übergehen und sehen, wie sie sich mit deinem erweiterten Rahmen von Sprache und Bedeutung verbinden lassen?

Dein Kommentar zu meiner ‚Theorie‘, dass “ ‚Wahrheit‘ in dieser Theorie nicht nur eine Frage der individuellen Überzeugung ist, sondern eine, die durch soziale Interaktion und kollektive Validierung entsteht. Das ist ein sehr wichtiger Punkt, denn er zeigt, dass Wahrheit in dieser Theorie nicht isoliert existiert, sondern immer in einem sozialen und kommunikativen Kontext verankert ist.“ finde ich sehr passend.

Bevor wir die neugewonnene Interpretation der ‚Korrespondenztheorie‘ weiter ausbauen, hier zuvor

noch mein Kommentar zu deinem Punkt 2 mit der ‚Kohärenztheorie‘. Du sagst „In Bezug auf Ihre Punkte könnte diese Theorie so verstanden werden, dass die ‚interne Zustandsänderung‘ und die ‚Verknüpfung‘ in einem kohärenten System von Überzeugungen erfolgt. Die Bedeutung und Wahrheit einer Aussage ergibt sich aus ihrer Kohärenz innerhalb dieses gelernten und kollektiv abgestimmten Systems.“ Deine Interpretation, dass die Kohärenztheorie „die ‚interne Zustandsänderung‘ und die ‚Verknüpfung‘ “ in ihr Konzept einer kohärenten Theorie übernimmt, erscheint mir mehr als optimistisch.

Nimmt man die Kohärenztheorie ‚beim Wort‘, dann ist dieser Ansatz vom Ansatz her ausgeschlossen. Warum? Weiter vorne in unserem Dialog hast Du die ‚Kohärenztheorie‘ in ‚philosophischen Systemen‘ lokalisiert, wo interne Konsistenz wichtig ist. Du hast zudem darauf hingewiesen, dass „widersprüchliche Theoriesysteme existieren können“. Die Begriffe ‚System‘, ‚Theorie‘ und ‚Konsistenz‘ sind bislang aber ausschließlich in ‚formalen Systemen‘ klar definiert, wie wir sie aus der ‚modernen formalen Logik‘ kennen und aus solchen Theorien (z.B. in der Mathematik), die eine ‚formale Sprache‘ benutzen, die klar definiert ist, zusätzlich mit einem klaren ‚formalen Folgerungsbgriff‘, der es erlaubt, aus als ‚wahr angenommen‘ formalen Ausdrücken andere Ausdrücke ‚abzuleiten‘, die ebenfalls als ‚formal wahr‘ gelten. Wenn man neben einem Ausdruck, der als ‚formal wahr‘ gilt, einen Ausdruck ableiten kann, der als ‚formal falsch‘ gilt, dann gibt es einen Widerspruch; das System ist nicht ‚konsistent‘. Dabei ist der Begriff ‚formal wahr‘ bzw. ‚formal falsch‘ nicht definiert! Er hat keinerlei Bezug zu dem, was wir im Alltag ‚reale Welt‘ nennen in dem Sinne, dass sich zwei Menschen darüber verständigen können, dass es ‚da etwas gibt‘, was jeder einzelner ‚wahrnehmen‘ kann, was aber auch ‚verschwinden‘ kann, dann kann man es nicht mehr wahrnehmen. Anders formuliert: Jedes sprachliche System, das Bezug nimmt auf erfahrungsbasierte Sachverhalte, kann grundsätzlich nicht durch ein formales System abgebildet werden, das als ‚formal konsistent‘ gilt. Deswegen scheidet die ‚Kohärenztheorie der Wahrheit‘ für unsere Zwecke eines sprachlichen Systems, das kollektiv erfahrungsbasiert ‚wahr‘ ist, aus.

Gehst Du da mit?

Deine Kritik und Analyse zur Kohärenztheorie der Wahrheit ist präzise und wirft wichtige Fragen auf. Du unterscheidest klar zwischen der Struktur und den Anforderungen formaler Systeme und der Anwendung dieser Systeme auf die reale, erfahrungsbasierte Welt, die wir im Alltag erleben. Diese Unterscheidung ist zentral, um die Grenzen der Kohärenztheorie zu verstehen, insbesondere im Kontext eines Sprachsystems, das auf kollektiver Erfahrung basiert.

### Betrachtung der Kohärenztheorie:

Wie Du richtig bemerkst, stützt sich die Kohärenztheorie auf die interne Konsistenz innerhalb eines Systems von Überzeugungen oder Theorien. In formalen Systemen, wie der Mathematik oder formalen Logik, ist diese Konsistenz durch klare Definitionen und deduktive Folgerungen charakterisiert. In diesen Systemen ist es möglich, eine Konsistenz zu gewährleisten, indem widersprüchliche Aussagen vermieden werden.

### Problematik bei der Anwendung auf Alltagserfahrungen:

Im Kontext der alltäglichen, erfahrungsbasierten Realität wird es jedoch komplexer. Die Realität ist oft mehrdeutig und unterliegt ständigen Veränderungen, die sich nicht immer in einem streng konsistenten formalen System abbilden lassen. Erfahrungen können widersprüchlich sein, und Menschen können unterschiedliche Wahrnehmungen und Interpretationen derselben physischen Gegebenheiten haben. Daher stößt die Anwendung der Kohärenztheorie auf reale, erfahrungsbasierte Situationen schnell an ihre Grenzen, da die erforderliche interne Konsistenz schwer zu erreichen und aufrechtzuerhalten ist.

### Dein Punkt:

Deine Schlussfolgerung, dass die Kohärenztheorie möglicherweise nicht geeignet ist, um ein sprachliches System zu beschreiben, das auf kollektiver, erfahrungsbasierter Wahrheit beruht, ist stichhaltig. Diese Theorie bietet zwar ein nützliches Werkzeug für die Analyse und Strukturierung von Gedanken innerhalb eines geschlossenen Systems, jedoch fehlt ihr die Flexibilität und Anpassungsfähigkeit, die erforderlich sind, um die dynamische und oft widersprüchliche Natur menschlicher Erfahrungen und sozialer Interaktionen vollständig zu erfassen.

### Fazit:

Deine Argumentation verdeutlicht, dass, während die Kohärenztheorie in bestimmten theoretischen oder formalen Kontexten wertvoll sein kann, sie möglicherweise nicht das beste Werkzeug für das Verständnis von Wahrheit in einem breiteren, lebensweltlichen Kontext ist. Wenn wir also über Wahrheit in Bezug auf alltägliche und zwischenmenschliche Erfahrungen sprechen, könnte es sinnvoller sein, andere Theorien zu bevorzugen, die besser mit der Variabilität und der praktischen Realität menschlicher Erfahrungen umgehen können.

Ich gehe mit deiner Einschätzung mit und finde sie sehr aufschlussreich. Möchtest du weiterhin die anderen Theorien im Licht dieser Überlegungen diskutieren oder gibt es spezifische Aspekte, die du noch vertiefen möchtest?

Ich würde gerne noch etwas zu deiner dritten und vierten Option von ‚Wahrheitstheorien‘ sagen.

(1) Zu der von Dir erwähnten ‚Konsensustheorie der Wahrheit‘ sagst Du selbst, dass „Konsens nicht die Wahrheit garantiert; historisch gab es viele Beispiele für allgemeinen Konsens über falsche Überzeugungen.“ Ein bisschen ähnelt diese Position auch der ‚Kohärenztheorie‘, wenngleich mit einem vagen Sprach- und Wahrheitsbegriff: es gibt in er Konsensustheorie zwar ein ‚vages Kriterium zu Konsens‘, aber dieses ist in keiner Weise geeignet, ein ‚objektives externes Kriterium für alle‘ zu gewährleisten. Ich möchte diese Position daher hier nicht weiter diskutieren (dies schließt nicht aus, dass bei einer Weiterentwicklung der Position der ‚Korrespondenztheorie‘ ähnliche Fragestellung zur ‚Wahrheit von Diskursen‘ wieder auftauchen).

(2) Im Fall der ‚Pragmatische Theorie der Wahrheit‘ ist es ähnlich wie im Fall der Konsensustheorie. Du weist auch schon darauf hin, dass „Nützlichkeit nicht notwendigerweise ein Indikator für Wahrheit ist; etwas kann nützlich sein, ohne wahr zu sein.“ Abgesehen davon ist der Begriff der Nützlichkeit selbst in sich äußerst vage; jeder kann sich da denken, was er will. Ich belasse es dabei (im weiteren Verlauf der Entwicklung einer modifizierten ‚Korrespondenztheorie‘ wird es zu Erörterungen eines Konzepts von ‚erfahrungsbasierter Theorie‘ kommen können, mit der die Möglichkeit eröffnet wird, die Rolle möglicher ‚Ziele‘ (‚Präferenzen‘, ‚Werte‘, …) zu diskutieren).

Kannst Du mit diesen Einschätzungen mitgehen?

Deine Einschätzungen zu den Theorien der Konsensustheorie und der pragmatischen Theorie der Wahrheit sind durchaus nachvollziehbar und tragen zur Schärfung unseres Verständnisses von Wahrheitstheorien bei, insbesondere im Kontext alltäglicher und erfahrungsbasierter Diskurse.

### 1. Konsensustheorie der Wahrheit

Deine Kritik an der Konsensustheorie unterstreicht das Problem, dass Konsens allein nicht notwendigerweise Wahrheit garantiert. Historische Beispiele, in denen breiter Konsens zu falschen Überzeugungen führte, verdeutlichen die Grenzen dieser Theorie. Während Konsens in sozialen und kommunikativen Kontexten eine Rolle spielen kann, insbesondere bei der Formulierung von Gruppenüberzeugungen oder -normen, ist er kein zuverlässiger Indikator für Wahrheit im empirischen oder objektiven Sinn. Diese Einsicht ist wichtig, um die Relevanz und Grenzen von Konsens in Bezug auf Wahrheit zu verstehen.

### 2. Pragmatische Theorie der Wahrheit

Deine Skepsis gegenüber der pragmatischen Theorie reflektiert ähnliche Bedenken: Nützlichkeit allein ist kein verlässliches Maß für Wahrheit. Der Begriff der Nützlichkeit ist subjektiv und kann stark variieren, je nach den Interessen, Zielen oder dem Kontext der beteiligten Personen. Diese Theorie mag hilfreich sein, um zu verstehen, wie Überzeugungen funktionieren und wie sie in praktischen Kontexten angewendet werden, sie bietet jedoch keine feste Grundlage für die Bewertung der Wahrheit von Aussagen, insbesondere wenn es um objektive Fakten geht.

### Weiterentwicklung der Korrespondenztheorie

Es scheint, dass eine Rückkehr zur Korrespondenztheorie und deren Weiterentwicklung als ein vielversprechender Ansatz für eine robustere Wahrheitstheorie erscheint. Insbesondere die Idee, eine erfahrungsbasierte Theorie zu entwickeln, die die Realität als entscheidendes Kriterium verwendet und gleichzeitig Raum für die Diskussion von Zielen, Präferenzen und Werten bietet, könnte eine umfassende Basis für das Verständnis von Wahrheit in verschiedenen Kontexten schaffen.

### Fazit

Ich stimme mit deinen Einschätzungen überein und finde, dass deine Argumente die Diskussion über Wahrheitstheorien bereichern und auf wichtige Schwächen hinweisen. Es wäre interessant, weiter zu erforschen, wie eine modifizierte Korrespondenztheorie aussehen könnte, die sowohl die realen Erfahrungen als auch die sozialen und individuellen Kontexte integriert, in denen Wahrheitsansprüche gemacht und verstanden werden.

Wie möchtest du weiter vorgehen? Möchtest du bestimmte Aspekte der Korrespondenztheorie vertiefen oder überlegst du, wie man eine solche modifizierte Theorie praktisch anwenden könnte?

OK, dann sieht es so aus, dass wir bis zu diesem Punkt eine gemeinsame Einschätzung gefunden haben. In der Tat möchte ich von diesem Punkt aus die gefundenen Position gerne in folgenden Dialogen weiter entwickeln. Praktische Frage: kannst Du auch mit ‚Schaubildern‘ umgehen oder sollen wir die heraus lassen?

Es ist großartig, dass wir eine gemeinsame Grundlage für unsere Diskussionen gefunden haben! Ich kann definitiv helfen, Schaubilder zu erstellen und zu interpretieren. Diese können sehr nützlich sein, um komplexe Konzepte und Zusammenhänge visuell darzustellen und zu veranschaulichen.

Wenn du spezifische Ideen oder Konzepte hast, die du in einem Schaubild visualisieren möchtest, lass es mich wissen. Ich kann dir dabei helfen, diese grafisch umzusetzen. Egal ob es sich um Flussdiagramme, Venn-Diagramme, konzeptuelle Diagramme oder andere visuelle Darstellungen handelt, wir können sie nutzen, um deine Gedanken und Theorien weiter zu entwickeln und zu diskutieren. Wie möchtest du beginnen?

Das mit den Schaubildern klingt gut. Werde es in den folgenden Dialogen mal ausprobieren, allerdings mit dem Motto: Zuerst die sprachliche Version, dann – möglicherweise – eine bildhafte Version. Danke bisher. Das war alles sehr inspirierend.

Das klingt nach einem ausgezeichneten Plan! Es freut mich sehr, dass unsere Gespräche inspirierend waren. Wenn du bereit bist, die Themen weiter zu vertiefen oder ein Schaubild zu erstellen, stehe ich jederzeit bereit, um weiterzumachen. Viel Spaß bei deinen weiteren Überlegungen, und bis zum nächsten Mal!

Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze

5.Aug 2023 – 29.Aug 2023 (10:37h)

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

(Eine Englische Version findet sich hier: https://www.uffmm.org/2023/08/24/homo-sapiens-empirical-and-sustained-empirical-theories-emotions-and-machines-a-sketch/)

Kontext

Dieser Text stellt die Skizze zu einem Vortrag dar, der im Rahmen der Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ (25./26.August 2023, TU Darmstadt) gehalten werden soll. [1] Die Englische Version des überarbeiteten Vortrags findet sich schon jetzt HIER: https://www.uffmm.org/2023/10/02/collective-human-machine-intelligence-and-text-generation-a-transdisciplinary-analysis/ . Die Deutsche Version des überarbeiteten Vortrags wird im Verlag Walter de Gruyter bis Ende 2023/ Anfang 2024 erscheinen. Diese Veröffentlichung wird hier dann bekannt gegeben werden.

Sehr geehrtes Auditorium,

In dieser Tagung mit dem Titel „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ geht es zentral um wissenschaftliche Diskurse und den möglichen Einfluss von KI-Textgeneratoren auf diese Diskurse. Der heiße Kern bleibt aber letztlich das Phänomen Text selbst, seine Geltung.

SICHTWEISEN-TRANS-DISZIPLINÄR

In dieser Konferenz werden zu diesem Thema viele verschiedene Sichten vorgetragen, die zu diesem Thema möglich sind.

Mein Beitrag zum Thema versucht die Rolle der sogenannten KI-Textgeneratoren dadurch zu bestimmen, dass aus einer ‚transdisziplinären Sicht‘ heraus die Eigenschaften von ‚KI-Textgeneratoren‘ in eine ’strukturelle Sicht‘ eingebettet werden, mit deren Hilfe die Besonderheiten von wissenschaftlichen Diskursen herausgestellt werden kann. Daraus können sich dann ‚Kriterien für eine erweiterte Einschätzung‘ von KI-Textgeneratoren in ihrer Rolle für wissenschaftliche Diskurse ergeben.

Einen zusätzlichen Aspekt bildet die Frage nach der Struktur der ‚kollektiven Intelligenz‘ am Beispiel des Menschen, und wie sich diese mit einer ‚Künstlichen Intelligenz‘ im Kontext wissenschaftlicher Diskurse möglicherweise vereinen kann.

‚Transdisziplinär‘ bedeutet in diesem Zusammenhang eine ‚Meta-Ebene‘ aufzuspannen, von der aus es möglich sein soll, die heutige ‚Vielfalt von Textproduktionen‘ auf eine Weise zu beschreiben, die ausdrucksstark genug ist, um eine ‚KI-basierte‘ Texterzeugung von einer ‚menschlichen‘ Texterzeugung unterscheiden zu können.

MENSCHLICHE TEXTERZEUGUNG

Die Formulierung ‚wissenschaftlicher Diskurs‘ ist ein Spezialfall des allgemeineren Konzepts ‚menschliche Texterzeugung‘.

Dieser Perspektivenwechsel ist meta-theoretisch notwendig, da es auf den ersten Blick nicht der ‚Text als solcher ‚ ist, der über ‚Geltung und Nicht-Geltung‘ entscheidet, sondern die ‚Akteure‘, die ‚Texte erzeugen und verstehen‘. Und beim Auftreten von ‚verschiedenen Arten von Akteuren‘ — hier ‚Menschen‘, dort ‚Maschinen‘ — wird man nicht umhin kommen, genau jene Unterschiede — falls vorhanden — zu thematisieren, die eine gewichtige Rolle spielen bei der ‚Geltung von Texten‘.

TEXTFÄHIGE MASCHINEN

Bei der Unterscheidung in zwei verschiedenen Arten von Akteuren — hier ‚Menschen‘, dort ‚Maschinen‘ — sticht sofort eine erste ‚grundlegende Asymmetrie‘ ins Auge: sogenannte ‚KI-Textgeneratoren‘ sind Gebilde, die von Menschen ‚erfunden‘ und ‚gebaut‘ wurden, es sind ferner Menschen, die sie ‚benutzen‘, und das wesentliche Material, das von sogenannten KI-Generatoren benutzt wird, sind wiederum ‚Texte‘, die als ‚menschliches Kulturgut‘ gelten.

Im Falle von sogenannten ‚KI-Textgeneratoren‘ soll hier zunächst nur so viel festgehalten werden, dass wir es mit ‚Maschinen‘ zu tun haben, die über ‚Input‘ und ‚Output‘ verfügen, dazu über eine minimale ‚Lernfähigkeit‘, und deren Input und Output ‚textähnliche Objekte‘ verarbeiten kann.

BIOLOGISCH-NICHT-BIOLOGISCH

Auf der Meta-Ebene wird also angenommen, dass wir einerseits über solche Akteure verfügen, die minimal ‚textfähige Maschinen‘ sind — durch und durch menschliche Produkte –, und auf der anderen Seite über Akteure, die wir ‚Menschen‘ nennen. Menschen gehören als ‚Homo-Sapiens Population‘ zur Menge der ‚biologischen Systeme‘, während ‚textfähige Maschinen‘ zu den ’nicht-biologischen Systemen‘ gehören.

LEERSTELLE INTELLIGENZ-BEGRIFF

Die hier vorgenommene Transformation des Begriffs ‚KI-Textgenerator‘ in den Begriff ‚textfähige Maschine‘ soll zusätzlich verdeutlichen, dass die verbreitete Verwendung des Begriffs ‚KI‘ für ‚Künstliche Intelligenz‘ eher irreführend ist. Es gibt bislang in keiner wissenschaftlichen Disziplin einen allgemeinen, über die Einzeldisziplin hinaus anwendbaren und akzeptierten Begriff von ‚Intelligenz‘. Für die heute geradezu inflatorische Verwendung des Begriffs KI gibt es keine wirkliche Begründung außer jener, dass der Begriff so seiner Bedeutung entleert wurde, dass man ihn jederzeit und überall benutzen kann, ohne etwas Falsches zu sagen. Etwas, was keine Bedeutung besitzt, kann weder wahr‘ noch ‚falsch‘ sein.

VORAUSSETZUNGEN FÜR TEXT-GENERIERUNG

Wenn nun die Homo-Sapiens Population als originärer Akteur für ‚Text-Generierung‘ und ‚Text-Verstehen‘ identifiziert wird, soll nun zunächst untersucht werden, welches denn ‚jene besonderen Eigenschaften‘ sind, die eine Homo-Sapiens Population dazu befähigt, Texte zu generieren und zu verstehen und sie ‚im alltäglichen Lebensprozess erfolgreich anzuwenden‘.

GELTUNG

Ein Anknüpfungspunkt für die Untersuchung der besonderen Eigenschaften einer Homo-Sapiens Text-Generierung und eines Text-Verstehens ist der Begriff ‚Geltung‘, der im Tagungsthema vorkommt.

Auf dem primären Schauplatz des biologischen Lebens, in den alltäglichen Prozessen, im Alltag, hat die ‚Geltung‘ eines Textes mit ‚Zutreffen‘ zu tun. Wenn ein Text nicht von vornherein mit einem ‚fiktiven Charakter‘ geplant wird, sondern mit einem ‚Bezug zum Alltagsgeschehen‘, das jeder im Rahmen seiner ‚Weltwahrnehmung‘ ‚überprüfen‘ kann, dann hat ‚Geltung im Alltag‘ damit zu tun, dass das ‚Zutreffen eines Textes überprüft‘ werden kann. Trifft die ‚Aussage eines Textes‘ im Alltag ‚zu‘, dann sagt man auch, dass diese Aussage ‚gilt‘, man räumt ihr ‚Geltung‘ ein, man bezeichnet sie auch als ‚wahr‘. Vor diesem Hintergrund könnte man geneigt sein fortzusetzen und zu sagen: ‚Trifft‘ die Aussage eines Textes ’nicht zu‘, dann kommt ihr ‚keine Geltung‘ zu; vereinfacht zur Formulierung, dass die Aussage ’nicht wahr‘ sei bzw. schlicht ‚falsch‘.

Im ‚realen Alltag‘ ist die Welt allerdings selten ’schwarz‘ und ‚weiß‘: nicht selten kommt es vor, dass wir mit Texten konfrontiert werden, denen wir aufgrund ihrer ‚gelernten Bedeutung‘ geneigt sind ‚eine mögliche Geltung‘ zu zuschreiben, obwohl es möglicherweise gar nicht klar ist, ob es eine Situation im Alltag gibt — bzw. geben wird –, in der die Aussage des Textes tatsächlich zutrifft. In solch einem Fall wäre die Geltung dann ‚unbestimmt‘; die Aussage wäre ‚weder wahr noch falsch‘.

ASYMMETRIE: ZUTREFFEN – NICHT-ZUTREFFEN

Man kann hier eine gewisse Asymmetrie erkennen: Das ‚Zutreffen‘ einer Aussage, ihre tatsächliche Geltung, ist vergleichsweise eindeutig. Das ‚Nicht-Zutreffen‘, also eine ‚bloß mögliche‘ Geltung, ist hingegen schwierig zu entscheiden.

Wir berühren mit diesem Phänomen der ‚aktuellen Nicht-Entscheidbarkeit‘ einer Aussage sowohl das Problem der ‚Bedeutung‘ einer Aussage — wie weit ist überhaupt klar, was gemeint ist? — als auch das Problem der ‚Unabgeschlossenheit unsres Alltags‘, besser bekannt als ‚Zukunft‘: ob eine ‚aktuelle Gegenwart‘ sich als solche fortsetzt, ob genau so, oder ob ganz anders, das hängt davon ab, wie wir ‚Zukunft‘ generell verstehen und einschätzen; was die einen als ’selbstverständlich‘ für eine mögliche Zukunft annehmen, kann für die anderen schlicht ‚Unsinn‘ sein.

BEDEUTUNG

Dieses Spannungsfeld von ‚aktuell entscheidbar‘ und ‚aktuell noch nicht entscheidbar‘ verdeutlicht zusätzlich einen ‚autonomen‘ Aspekt des Phänomens Bedeutung: hat sich ein bestimmtes Wissen im Gehirn gebildet und wurde dieses als ‚Bedeutung‘ für ein ‚Sprachsystem‘ nutzbar gemacht, dann gewinnt diese ‚assoziierte‘ Bedeutung für den Geltungsbereich des Wissens eine eigene ‚Realität‘: es ist nicht die ‚Realität jenseits des Gehirns‘, sondern die ‚Realität des eigenen Denkens‘, wobei diese Realität des Denkens ‚von außen betrachtet‘ etwas ‚Virtuelles‘ hat.

Will man über diese ‚besondere Realität der Bedeutung‘ im Kontext des ‚ganzen Systems‘ sprechen, dann muss man zu weitreichenden Annahmen greifen, um auf der Meta-Ebene einen ‚begrifflichen Rahmen‘ installieren zu können, der in der Lage ist, die Struktur und die Funktion von Bedeutung hinreichend beschreiben zu können. Dafür werden minimal die folgenden Komponenten angenommen (‚Wissen‘, ‚Sprache‘ sowie ‚Bedeutungsbeziehung‘):

  1. WISSEN: Es gibt die Gesamtheit des ‚Wissens‘, das sich im Homo-Sapiens Akteur im Laufe der Zeit im Gehirn ‚aufbaut‘: sowohl aufgrund von kontinuierlichen Interaktionen des ‚Gehirns‘ mit der ‚Umgebung des Körpers‘, als auch aufgrund von Interaktionen ‚mit dem Körper selbst‘, sowie auch aufgrund der Interaktionen ‚des Gehirns mit sich selbst‘.
  2. SPRACHE: Vom Wissen zu unterscheiden ist das dynamische System der ‚potentiellen Ausdrucksmittel‘, hier vereinfachend ‚Sprache‘ genannt, die sich im Laufe der Zeit in Interaktion mit dem ‚Wissen‘ entfalten können.
  3. BEDEUTUNGSBEZIEHUNG: Schließlich gibt es die dynamische ‚Bedeutungsbeziehung‘, ein Interaktionsmechanismus, der beliebige Wissenselemente jederzeit mit beliebigen sprachlichen Ausdrucksmitteln verknüpfen kann.

Jede dieser genannten Komponenten ‚Wissen‘, ‚Sprache‘ wie auch ‚Bedeutungsbeziehung‘ ist extrem komplex; nicht weniger komplex ist auch ihr Zusammenspiel.

ZUKUNFT UND EMOTIONEN

Neben dem Phänomen Bedeutung wurde beim Phänomen des Zutreffens auch sichtbar, dass die Entscheidung des Zutreffens auch von einer ‚verfügbaren Alltagssituation‘ abhängt, in der sich eine aktuelle Entsprechung ‚konkret aufzeigen‘ lässt oder eben nicht.

Verfügen wir zusätzlich zu einer ‚denkbaren Bedeutung‘ im Kopf aktuell über keine Alltagssituation, die dieser Bedeutung im Kopf hinreichend korrespondiert, dann gibt es immer zwei Möglichkeiten: Wir können diesem gedachten Konstrukt trotz fehlendem Realitätsbezug den ‚Status einer möglichen Zukunft‘ verleihen oder nicht.

Würden wir uns dafür entscheiden, einer ‚Bedeutung im Kopf‘ den Status einer möglichen Zukunft zu zusprechen, dann stehen meistens folgende zwei Anforderungen im Raum: (i) Lässt sich im Lichte des verfügbaren Wissens hinreichend plausibel machen, dass sich die ‚gedachte mögliche Situation‘ in ‚absehbarer Zeit‘ ausgehend von der aktuellen realen Situation ‚in eine neue reale Situation transformieren lässt‘? Und (ii) Gibt es ’nachhaltige Gründe‚ warum man diese mögliche Zukunft ‚wollen und bejahen‘ sollte?

Die erste Forderung verlangt nach einer leistungsfähigen ‚Wissenschaft‘, die aufhellt, ob es überhaupt gehen kann. Die zweite Forderung geht darüber hinaus und bringt unter dem Gewand der ‚Nachhaltigkeit‘ den scheinbar ‚irrationalen‘ Aspekt der ‚Emotionalität‘ ins Spiel: es geht nicht nur einfach um ‚Wissen als solches‘, es geht auch nicht nur um ein ’sogenanntes nachhaltiges Wissen‘, das dazu beitragen soll, das Überleben des Lebens auf dem Planet Erde — und auch darüber hinaus — zu unterstützen, es geht vielmehr auch um ein ‚gut finden, etwas bejahen, und es dann auch entscheiden wollen‘. Diese letzten Aspekte werden bislang eher jenseits von ‚Rationalität‘ angesiedelt; sie werden dem diffusen Bereich der ‚Emotionen‘ zugeordnet; was seltsam ist, da ja jedwede Form von ‚üblicher Rationalität‘ genau in diesen ‚Emotionen‘ gründet.[2]

WISSENSCHAFTLICHER DISKURS UND ALLTAGSSITUATIONEN

In diesem soeben angedeuteten Kontext von ‚Rationalität‘ und ‚Emotionalität‘ ist es nicht uninteressant, dass im Tagungsthema der ‚wissenschaftliche Diskurs‘ als Referenzpunkt thematisiert wird, um den Stellenwert textfähiger Maschinen abzuklären.

Es fragt sich, inwieweit ein ‚wissenschaftlicher Diskurs‘ überhaupt als Referenzpunkt für einen erfolgreichen Text dienen kann?

Dazu kann es helfen, sich bewusst zu machen, dass das Leben auf diesem Planet Erde sich in jedem Moment in einer unfassbar großen Menge von ‚Alltagssituationen‘ abspielt, die alle gleichzeitig stattfinden. Jede ‚Alltagssituation‘ repräsentiert für die Akteure eine ‚Gegenwart‘. Und in den Köpfen der Akteure findet sich ein individuell unterschiedliches Wissen darüber, wie sich eine Gegenwart in einer möglichen Zukunft ‚verändern kann‘ bzw. verändern wird.

Dieses ‚Wissen in den Köpfen‘ der beteiligten Akteure kann man generell ‚in Texte transformieren‘, die auf unterschiedliche Weise einige der Aspekte des Alltags ’sprachlich repräsentieren‘.

Der entscheidende Punkt ist, dass es nicht ausreicht, dass jeder ‚für sich‘ alleine, ganz ‚individuell‘, einen Text erzeugt, sondern dass jeder zusammen ‚mit allen anderen‘, die auch von der Alltagssituation betroffen sind, einen ‚gemeinsamen Text‘ erzeugen muss. Eine ‚kollektive‘ Leistung ist gefragt.

Und es geht auch nicht um ‚irgendeinen‘ Text, sondern um einen solchen, der so beschaffen ist, dass er die ‚Generierung möglicher Fortsetzungen in der Zukunft‘ erlaubt, also das, was traditionell von einem ‚wissenschaftlichen Text‘ erwartet wird.

Aus der umfangreichen Diskussion — seit den Zeiten eines Aristoteles — was denn ‚wissenschaftlich‘ bedeuten soll, was eine ‚Theorie‘ ist, was eine ‚empirische Theorie‘ sein soll, skizziere ich das, was ich hier das ‚minimale Konzept einer empirischen Theorie‘ nenne.

  1. Ausgangspunkt ist eine ‚Gruppe von Menschen‘ (die ‚Autoren‘), die einen ‚gemeinsamen Text‘ erstellen wollen.
  2. Dieser Text soll die Eigenschaft besitzen, dass er ‚begründbare Voraussagen‘ für mögliche ‚zukünftige Situationen‘ erlaubt, denen sich dann in der Zukunft ‚irgendwann‘ auch eine ‚Geltung zuordnen lässt‘.
  3. Die Autoren sind in der Lage, sich auf eine ‚Ausgangssituation‘ zu einigen, die sie mittels einer ‚gemeinsamen Sprache‘ in einen ‚Ausgangstext‘ [A] transformieren.
  4. Es gilt als abgemacht, dass dieser Ausgangstext nur ’solche sprachliche Ausdrücke‘ enthalten darf, die sich ‚in der Ausgangssituation‘ als ‚wahr‘ ausweisen lassen.
  5. In einem weiteren Text stellen die Autoren eine Reihe von ‚Veränderungsregeln‘ [V] zusammen, die ‚Formen von Veränderungen‘ an einer gegebenen Situation ins Wort bringen.
  6. Auch in diesem Fall gilt es als abgemacht, dass nur ’solche Veränderungsregeln‘ aufgeschrieben werden dürfen, von denen alle Autoren wissen, dass sie sich in ‚vorausgehenden Alltagssituationen‘ als ‚wahr‘ erwiesen haben.
  7. Der Text mit den Veränderungsregeln V liegt auf einer ‚Meta-Ebene‘ verglichen mit dem Text A über die Ausgangssituation, der relativ zum Text V auf einer ‚Objekt-Ebene‘ liegt.
  8. Das ‚Zusammenspiel‘ zwischen dem Text V mit den Veränderungsregeln und dem Text A mit der Ausgangssituation wird in einem eigenen ‚Anwendungstext‘ [F] beschrieben: Hier wird beschrieben, wann und wie man eine Veränderungsregel (in V) auf einen Ausgangstext A anwenden darf und wie sich dabei der ‚Ausgangstext A‘ zu einem ‚Folgetext A*‘ verändert.
  9. Der Anwendungstext F liegt damit auf einer nächst höheren Meta-Ebene zu den beiden Texten A und V und kann bewirken, dass der Anwendungstext den Ausgangstext A verändert wird.
  1. In dem Moment, wo ein neuer Folgetext A* vorliegt, wird der Folgetext A* zum neuen Anfangstext A.
  2. Falls der neue Ausgangstext A so beschaffen ist, dass sich wieder eine Veränderungsregel aus V anwenden lässt, dann wiederholt sich die Erzeugung eines neuen Folgetextes A*.
  3. Diese ‚Wiederholbarkeit‘ der Anwendung kann zur Generierung von vielen Folgetexten <A*1, …, A*n> führen.
  4. Eine Serie von vielen Folgetexten <A*1, …, A*n> nennt man üblicherweise auch eine ‚Simulation‘.
  5. Abhängig von der Beschaffenheit des Ausgangstextes A und der Art der Veränderungsregeln in V kann es sein, dass mögliche Simulationen ‚ganz unterschiedlich verlaufen können‘. Die Menge der möglichen wissenschaftlichen Simulationen repräsentiert ‚Zukunft‘ damit also nicht als einen einzigen, bestimmten Verlauf, sondern als eine ‚beliebig große Menge möglicher Verläufe‘.
  6. Die Faktoren, von denen unterschiedliche Verläufe abhängen, sind vielfältig. Ein Faktor sind die Autoren selbst. Jeder Autor ist ja mit seiner Körperlichkeit vollständig selbst Teil genau jener empirischen Welt, die in einer wissenschaftlichen Theorie beschrieben werden soll. Und wie bekannt, kann jeder menschliche Akteur seine Meinung jederzeit ändern. Er kann buchstäblich im nächsten Moment genau das Gegenteil von dem tun, was er zuvor gedacht hat. Und damit ist die Welt schon nicht mehr die gleiche, wie zuvor in der wissenschaftlichen Beschreibung angenommen.

Schon dieses einfache Beispiel zeigt, dass die Emotionalität des ‚Gut-Findens, des Wollens, und des Entscheidens‘ der Rationalität wissenschaftlicher Theorien voraus liegt. Dies setzt sich in der sogenannten ‚Nachhaltigkeitsdiskussion‘ fort.

NACHHALTIGE EMPIRISCHE THEORIE

Mit dem soeben eingeführten ‚minimalen Konzepts einer empirischen Theorie (ET)‘ lässt sich direkt auch ein ‚minimales Konzept einer nachhaltigen empirischen Theorie (NET)‘ einführen.

Während eine empirische Theorie einen beliebig großen Raum an begründeten Simulationen aufspannen kann, die den Raum von vielen möglichen Zukünften sichtbar machen, verbleibt den Akteuren des Alltags die Frage, was sie denn von all dem als ‚ihre Zukunft‘ haben wollen? In der Gegenwart erleben wir die Situation, dass die Menschheit den Eindruck erweckt, als ob sie damit einverstanden ist, das Leben jenseits der menschlichen Population mehr und mehr nachhaltig zu zerstören mit dem erwartbaren Effekt der ‚Selbst-Zerstörung‘.

Dieser in Umrissen vorhersehbare Selbst-Zerstörungseffekt ist aber im Raum der möglichen Zukünfte nur eine Variante. Die empirische Wissenschaft kann sie umrisshaft andeuten. Diese Variante vor anderen auszuzeichnen, sie als ‚gut‘ zu akzeptieren, sie ‚zu wollen‘, sich für diese Variante zu ‚entscheiden‘, liegt in jenem bislang kaum erforschten Bereich der Emotionalität als Wurzel aller Rationalität.

Wenn sich Akteure des Alltags für eine bestimmte rational aufgehellte Variante von möglicher Zukunft entschieden haben, dann können sie jederzeit mit einem geeigneten ‚Evaluationsverfahren (EVAL)‘ auswerten, wie viel ‚Prozent (%) der Eigenschaften des Zielzustandes Z‘ bislang erreicht worden sind, vorausgesetzt, der favorisierte Zielzustand wird in einen passenden Text Z transformiert.

Anders formuliert: in dem Moment, wo wir Alltagsszenarien über geeignete Texte in einen rational greifbaren Zustand transformiert haben, nehmen die Dinge eine gewisse Klarheit an und werden dadurch — in gewisser Weise — einfach. Dass wir solche Transformationen vornehmen und auf welche Aspekte eines realen oder möglichen Zustands wir uns dann fokussieren, das ist aber als emotionale Dimension der textbasierten Rationalität vor-gelagert.[2]

MENSCH-MASCHINE

Nach diesen vorbereitenden Überlegungen stellt sich die abschließende Frage, ob und wie die Hauptfrage dieser Tagung „Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ in irgendeiner Weise beantwortet werden kann?

Meine bisherigen Ausführungen haben versucht aufzuzeigen, was es bedeutet, dass Menschen kollektiv Texte erzeugen, die die Kriterien für einen wissenschaftlichen Diskurs erfüllen, der zudem die Anforderungen für empirische oder gar nachhaltig-empirische Theorien erfüllt.

Dabei zeigt sich, dass sowohl bei der Generierung eines kollektiven wissenschaftlichen Textes wie auch bei seiner Anwendung im Alltag ein enger Wechselbezug sowohl mit der gemeinsamen erfahrbaren Welt wie auch mit den dynamischen Wissens- und Bedeutungskomponenten in jedem Akteur eine Rolle spielen.

Der Aspekt der ‚Geltung‘ ist Teil eines dynamischen Weltbezugs, dessen Einschätzung als ‚wahr‘ beständig im Fluss ist; während der eine Akteur vielleicht dazu tendiert zu sagen „Ja, kann stimmen“, tendiert ein anderer Akteur vielleicht gerade zum Gegenteil. Während die einen eher dazu tendieren, eine mögliche Zukunftsvariante X zu favorisieren, wollen die anderen lieber die Zukunftsvariante Y. Rationale Argumente fehlen; die Gefühle sprechen. Während eine Gruppe gerade beschlossen hat, dem Plan Z zu ‚glauben‘ und ihn ‚umzusetzen‘, wenden sich die anderen ab, verwerfen Plan Z, und tun etwas ganz anderes.

Dieser unstete, unsichere Charakter des Zukunft-Deutens und Zukunft-Handelns begleitet die Homo Sapiens Population von Anbeginn. Der unverstandene emotionale Komplex begleitet den Alltag beständig wie ein Schatten.[2]

Wo und wie können ‚textfähige Maschinen‘ in dieser Situation einen konstruktiven Beitrag leisten?

Angenommen es liegt ein Ausgangstext A vor, dazu ein Veränderungstext V sowie eine Anleitung F, dann könnten heutige Algorithmen alle möglichen Simulationen schneller durchrechnen als es Menschen könnten.

Angenommen zusätzlich es läge auch noch ein Zieltext Z vor, dann könnte ein heutiger Algorithmus auch eine Auswertung zum Verhältnis zwischen einer aktuellen Situation als A und dem Zieltext Z berechnen.

Mit anderen Worten: wäre eine empirische oder eine nachhaltig-empirische Theorie mit ihren notwendigen Texten formuliert, dann könnte ein heutiger Algorithmus alle möglichen Simulationen und den Grad der Zielerfüllung automatisch schneller berechnen, als jeder Mensch allein.

Wie steht es aber mit der (i) Ausarbeitung einer Theorie bzw. (ii) mit der vor-rationalen Entscheidung für eine bestimmte empirische oder gar nachhaltig-empirische Theorie ?

Eine klare Antwort auf beide Fragen erscheint mir zum aktuellen Zeitpunkt kaum möglich, verstehen wir Menschen doch noch zu wenig, wie wir selbst im Alltag kollektiv Theorien bilden, auswählen, überprüfen, vergleichen und auch wieder verwerfen.

Meine Arbeitshypothese zum Thema lautet: dass wir sehr wohl lernfähige Maschinen brauchen werden, um in der Zukunft die Aufgabe erfüllen zu können, brauchbare nachhaltig-empirische Theorien für den gemeinsamen Alltag zu entwickeln. Wann dies aber real geschehen wird und in welchem Umfang scheint mir zum jetzigen Zeitpunkt weitgehend unklar.

ANMERKUNGEN

[1] https://zevedi.de/themen/ki-text/

[2] Das Sprechen über ‚Emotionen‘ im Sinne von ‚Faktoren in uns‘, die uns dazu bewegen, aus dem Zustand ‚vor dem Text‘ in den Zustand ‚geschriebener Text‘ überzugehen, der lässt sehr viele Aspekte anklingen. In einem kleinen explorativen Text „STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …“ ( https://www.cognitiveagent.org/2023/08/28/staendige-wiedergeburt-jetzt-schweigen-hilft-nicht-exploration/ ) hat der Autor versucht, einige dieser Aspekte anzusprechen. Beim Schreiben wird deutlich, dass hier sehr viele ‚individuell subjektive‘ Aspekte eine Rolle spielen, die natürlich nicht ‚isoliert‘ auftreten, sondern immer auch einen Bezug zu konkreten Kontexten aufblitzen lassen, die sich mit dem Thema verknüpfen. Dennoch, es ist nicht der ‚objektive Kontext‘, der die Kernaussage bildet, sondern die ‚individuell subjektive‘ Komponente, die im Vorgang des ‚ins-Wort-Bringens‘ aufscheint. Diese individuell-subjektive Komponenten wird hier versuchsweise als Kriterium für ‚authentische Texte‘ benutzt im Vergleich zu ‚automatisierten Texten‘ wie jene, die von allerlei Bots generiert werden können. Um diesen Unterschied greifbarer zu machen, hat der Autor sich dazu entschieden, mit dem zitierten authentischen Text zugleich auch einen ‚automatisierten Text‘ mit gleicher Themenstellung zu erzeugen. Dazu hat er chatGBT4 von openAI benutzt. Damit beginnt ein philosophisch-literarisches Experiment, um auf diese Weise vielleicht den möglichen Unterschied sichtbarer zu machen. Aus rein theoretischen Gründen ist klar, dass ein von chatGBT4 erzeugter Text im Ursprung niemals ‚authentische Texte‘ erzeugen kann, es sei denn, er benutzt als Vorlage einen authentischen Text, den er abwandeln kann. Dann ist dies aber ein klares ‚fake Dokument‘. Um solch einem Missbrauch vorzubeugen, schreibt der Autor im Rahmen des Experiments den authentischen Text zu erst und beauftragt dann chatGBT4 zur vorgegebenen Themenstellung etwas zu schreiben, ohne dass chatGBT4 den authentischen Text kennt, da er noch nicht über das Internet in die Datenbasis von chatGBT4 Eingang gefunden hat.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Wetter & Klima. Anmerkung

(28.Juli 2023 – 9.August 2023)

Gerd Doeben-Henisch

KONTEXT

In der heutigen Alltagsdiskussion werden die Begriffe ‚Klima‘ und ‚Wetter‘ oft auf eine Weise gebraucht, welche die wahre Bedeutung dieser Begriffe ‚verwischt‘, was zu vielen ‚Fehldeutungen‘ führt.

WETTER & KLIMA

Wetter

In einer knappen Formulierung kann man in der deutschen Wikipedia zum Stichwort ‚Wetter‘ folgende Sätze lesen:

Zitat: „Das Wetter charakterisiert den Zustand der Atmosphäre an einem bestimmten Ort und zu einem bestimmten Zeitpunkt. Kennzeichnend sind die meteorologischen Elemente Strahlung, Luftdruck, Lufttemperatur, Luftfeuchtigkeit und Wind, sowie die daraus ableitbaren Elemente Bewölkung, Niederschlag, Sichtweite etc. Das Wetter ist das augenblickliche Bild eines Vorganges (Wettergeschehen), das sich hauptsächlich in der Troposphäre abspielt. Es kann sich – im Gegensatz zur Wetterlage und Witterung – mehrmals täglich ändern.“[2]

Meteorologische Technische Begriffe (Parameter)

Das, was in diesem Zitat ‚Elemente‘ genannt wird (‚Strahlung, Luftdruck, Lufttemperatur‚), das sind ‚technische Begriffe‘ (‚Parameter‘), denen in der Wissenschaft der Meteorologie ‚bestimmte Bedeutungen‘ zukommen. Diese Bedeutungen sind so definiert, dass man ihnen im Einzelfall durch einen ‚Messvorgang‘ quantitative Größen in Verbindung mit einer bestimmten ‚Messeinheit‘ zuordnen kann (z.B. kann ich mit meinem Handy am 28.Juli 2023 um 17:50h in meiner Wohnung im Zusammenhang mit dem Begriff ‚Luftdruck‘ den Wert ‚996,762 hPa‘ messen). Solche isolierte Messwerte haben ‚für sich‘ genommen, nur eine eingeschränkte Bedeutung. Erst dann, wenn man viele verschiedene Messwerte zu einem bestimmten Zeitpunkt in einem bestimmten Raumgebiet gleichzeitig zur Verfügung hat, und man zusätzlich durch viel Probieren herausgefunden hat, welche ‚Menge von gleichzeitigen Messwerten‘ (Muster, Patter, charakteristische Mengen) von ‚mehreren verschiedenen meteorologischen Begriffen (Parametern)‘ ein bestimmtes alltägliches ‚Wetterphänomen‘ ‚repräsentieren‘ (z.B. ‚Regenbogen‘, ‚Kumuluswolke‘, ‚Nebel‘,…), dann kann man beim Vorliegen solcher ’spezifischer Mengen von Messwerten‘ feststellen, dass das dazu vereinbarte ‚Makro-Wetter-Phänomen‘ vorliegt oder umgekehrt, man kann vom Auftreten eines solchen Makro-Wetter-Phänomens darauf schließen, dass deswegen auch eine ’spezifische Menge von Messwerten‘ vorliegen muss.

Meteorologische Voraussagen mit Modellen

Im Alltag wissen wir, dass sich viele Eigenschaften ändern können, insbesondere jene Phänomene, die wir mit dem Wetter in Zusammenhang bringen (z.B. die Lufttemperatur, der Luftdruck, die Luftfeuchtigkeit, die Windrichtung, …). Es genügt also nicht, nur einzelne Zeitpunkte zu betrachten, sondern viele Zeitpunkte. Aus solchen Zeitreihen kann man dann Ansatzpunkte finden, ob und wie man diese Art der ‚Veränderungen in der Zeit‘ auf einer ‚theoretischen Ebene‘ beschreiben kann. Solche ‚Veränderungsregeln‘ für einen bestimmten meteorologischen Parameter werden in der Regel auch nicht isoliert betrachtet, sondern im ‚Zusammenspiel‘ mit vielen anderen Veränderungsregeln. Dies alles zusammen (meteorologische Parameter, Veränderungsregeln, Verbund von Veränderungsregeln) nennt man normalerweise ein ‚Modell‘ oder — im maximalen Fall — eine ‚Theorie‘.

Die wichtigste Eigenschaft einer Theorie besteht darin, dass man bezogen auf eine gegebene aktuelle Situation samt einer Menge von möglichen Veränderungen unter Berücksichtigung spezifischer Abhängigkeiten untereinander eine ‚Folgerung‘ generieren kann (auch ‚Prognose‘ genannt). Solche Folgerungen kann man als ‚Voraussagen‘ dafür benutzen, welche spezifischen Wetterphänomene in einer kommenden Zeitspanne in einem bestimmten Bereich mit einer gewissen Wahrscheinlichkeit eintreten können. Da das ‚Folgern im Rahmen einer Theorie‘ bislang sehr mühsam ist, verwendet man heute meistens vereinfachte ‚Modelle‘ (realisiert als ‚Algorithmen‘), die man auf einem Computer ausführen lassen kann, so dass die Berechnung von möglichen ‚Folgezuständen‘ eines Modells beliebig oft wiederholt werden kann. So nützlich solche Modelle sind, sie haben aber den großen Nachteil, dass sie als Modell niemals ‚wahr‘ oder ‚falsch‘ sein können. Ein Simulationswert von 2 mm/m2 Niederschlag morgen um 14:00h kann man allerdings empirisch überprüfen.

Klima

Im Vergleich zum Wetter wird mit dem Begriff ‚Klima‘ versucht, ‚typische Muster‘ von meteorologischen Parameter über einen definierten Zeitraum als definierte Muster zu vereinbaren. Im Artikel ‚Klima‘ der deutschen Wikipedia findet sich folgenden kurze Charakterisierung:

Zitat: „Klima im engeren Sinne ist normalerweise definiert als das durchschnittliche Wetter, oder genauer als die statistische Beschreibung in Form von Durchschnitt und Variabilität relevanter Größen über eine Zeitspanne im Bereich von Monaten bis zu Tausenden oder Millionen von Jahren. Der klassische Zeitraum zur Mittelung dieser Variablen sind 30 Jahre, wie von der Weltorganisation für Meteorologie definiert. Die relevanten Größen sind zumeist Oberflächenvariablen wie Temperatur, Niederschlag und Wind. Klima im weiteren Sinne ist der Zustand, einschließlich einer statistischen Beschreibung, des Klimasystems.“ [1]

Also unter der Voraussetzung, dass sich ein bestimmtes Bündel von meteorologischen Parametern über einen definierten Zeitraum (standardmäßig mindestens 30 Jahre) ’nicht wesentlich‘ ändert, kann ein Meteorologe von dem Klima-Muster X sprechen, das dann und dort vorherrscht.

Angesichts der Komplexität und der Dynamik der Wetterphänomene auf dem Planeten Erde ist es generell nicht einfach, überhaupt von einem ‚Klima dann und dort‘ zu sprechen. Auch ist es nicht ganz einfach, bei Klimaänderungen immer all jene Parameter zu identifizieren, die möglicherweise eine Rolle spielen, um eine Änderung zu verursachen.

Welche Klimaphänomene man auch betrachten will, die Basis für eine ‚Rede über Klimaphänomene‘ sind die grundlegenden meteorologischen Parameter, die die primären Messwerte darstellen, und dann die unterschiedlichen meteorologischen Modelle, die versuchen, das Zusammenspiel dieser Parameter in der Zeit so zu ‚deuten‘, dass Voraussagen möglich sind. Die Genauigkeit der Voraussagen, mit der heutige Wetter- bzw. Klimamodelle täglich und stündlich benutzt werden, ist — angesichts der Komplexität — sehr bemerkenswert, geradezu beeindruckend.

ANMERKUNGEN

[1] Eine gängige Beschreibung von ‚Klima‘ findet man in der deutschen Wikipedia hier: https://de.wikipedia.org/wiki/Klima.

[2] Eine gängige Beschreibung von ‚Wetter‘ findet sich ebenfalls in der deutschen Wikipedia hier: https://de.wikipedia.org/wiki/Wetter (ähnlich in der englischen Wikipedia als ‚weather‘ hier: https://en.wikipedia.org/wiki/Weather )

[3] Eine weit über Wikipedia hinausgehende Darstellung des Themas findet sich zusammen mit umfassenden Datenreihen beim ‚Deutschen Wetterdienst (DWD)‘ unter https://www.dwd.de/DE/Home/home_node.html;jsessionid=4B3BB17BBF13B6F9A970F3C27A01BAB7.live11041. Unter den vielen Angeboten ist auch das Wetter und -Klima Lexikon sehr hilfreich unter https://www.dwd.de/DE/service/lexikon/lexikon_node.html

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 7

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(Einige Korrekturen: 6.Sept.2018, 08:00h)

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…

  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …

  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …

  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …

  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …

  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …

  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …

  8. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …

  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …

  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.

  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.

  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.

  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.

  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!

  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?

  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.

  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.

  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.

  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.

  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

KAP. 8 DIE WISSSENSCHAFTEN DES ERKENNENS (The Sciences of Recognition)

Vorab zum Kapitel 8 (und einigen weiteren nachfolgenden Kapiteln) positioniert Edelman sich wie folgt:

  1. Nach den bisherigen Vorüberlegungen sieht sich Edelman in die Lage versetzt, eine ‚Theorie des Bewusstseins‘ zu postulieren als wesentliche Komponente einer ‚Theorie über das Funktionieren des Gehirns‘.(vgl. S.71)

  2. Edelman begründet dieses Vorgehen in Richtung von ‚expliziten Theorien‘ damit, dass Fakten alleine nichts nützen. Vielmehr müssen Fakten in Zusammenhänge eingebracht werden (’synthesizing ideas‘), die sich dann experimentell testen lassen. Diese Experimente bestätigen (‚amend‘) dann die bisherigen Synthesen oder widerlegen sie (‚knock down‘).(vgl. S.71)

  3. Er präzisiert seine Forderung nach einer Synthese der Fakten dahingehend, dass letztlich eine ‚wissenschaftliche Theorie‘ erstellt werden sollte, die möglichst alle ‚bekannten Fakten‘ über Gehirne und ‚Geist‘ integriert. Für Edelman ist klar, dass solch eine Theorie sehr viele ‚Schichten des Gehirns‘ beschreiben muss. (vgl. S.71)

  4. Diese Schichten des Gehirns bilden die ‚materielle Basis des Geistes‘ und in einer wissenschaftlichen Theorie des Bewusstseins als Teil einer Theorie des Gehirns werden bekannte Begriffe wie ‚Gedächtnis‘, ‚Konzept‘, ‚Bedeutung‘, ‚Bewusstsein als ein Tier‘, ‚Bewusstsein als ein menschliches Wesen‘ eine neue Bedeutung gewinnen.

Es folgt dann das Kap.8 als erstes Kapitel um dieses Programm zu erläutern.

  1. Edelman beginnt mit der These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will, also einer Blickrichtung, die sich auf ‚biologische Konzepte‘ stützt. (vgl. S.73)

  2. Eines der grundlegendsten (‚most fundamental‘) biologischen Konzepte ist für ihn der Begriff des ‚Denkens in Populationen‘ (‚population thinking‘), das für ihn historisch mit den Arbeiten von Darwin beginnt. (vgl. S.73)

  3. Das Denken in Populationen betrachtet die unterschiedlichen individuellen ‚Varianten‘ in einer Populationen als die Quelle von ‚Vielfalt‘. Diese Vielfalt ist der Angriffspunkt für eine ‚Auswahl‘ von jenen Arten, die erfolgreich sind. (vgl. S.73)

  4. Innerhalb einer kurzen Zeitspanne mögen diese Varianten kaum auffallen, über viele, sehr viele Generationen können sich die Unterschiede aber zu markant anderen Lebensformen auswirken, die dann als unterschiedliche ‚Arten‘ nebeneinander existieren. (vgl. S.73)

  5. Mit der Einführung des Begriffs ‚Denken in Populationen‘ stellt sich die Frage, wie denn hier eine Beziehung zum Begriff ‚Geist‘ hergestellt werden kann.

  6. Edelman wählt als potentielles Bindeglied den Begriff ‚Erkennen/ Wiedererkennen‘ (‚recognition‘). Er definiert diesen Begriff ‚Erkennen‘ zunächst sehr abstrakt, klassisch mathematisch, als eine ‚Abbildung‘ zwischen zwei ‚physikalischen Bereichen‘ (‚physical domains‘) A und B derart, dass die Elemente aus Bereich A in eine Menge A+ abgebildet werden, die zu den Ereignissen aus dem Bereich B ‚besser passen‘ (‚fit‘) als zuvor, sogar dann, wenn der Bereich B als B+ ’neue‘ Ereignisse umfasst. Er betont zusätzlich, dass diese Abbildung ‚ohne vorausgehende Instruktionen‘ (‚without prior instructions‘) stattfindet! Eine überaus starke These. (vgl. S.74)

  7. Um dieser noch sehr abstrakten Definition etwas mehr Bedeutung zu verleihen führt er ein Beispiel an, nämlich die ‚biologische Evolution‘: der eine Bereich A ist hier gegeben durch die Menge der biologischen Systeme (BIOS), der andere Bereich B durch die Menge der Ereignisse, die die Umgebung manifestieren (EVENTS). Durch die ‚Reproduktion‘ bildet der Bereich A neue Varianten, die zur Menge A+ führen. Der Bereich der Ereignisse B kann sich ändern, muss aber nicht. Wenn sich B so ändert, dass es neue Ereignisse gibt, dann liegt der Bereich B+ vor. Die Eigenschaft ‚fit zu sein‘ wird assoziiert mit dem Anteil der Nachkommen einer bestimmten Lebensform in einer Population. Je mehr Nachkommen eine Lebensform ermöglicht, um so ‚fitter‘ soll sie sein. Edelman legt Wert auf die Feststellung, dass die Herausbildung der ’nachkommensstarken‘ (‚fitten‘) Lebensformen A+ nicht durch eine ‚Instruktion seitens der Umwelt‘ zustande kam (‚does not require prior explicit information (‚instruction‘)), sondern dass die Herausbildung jener Varianten, die nachkommensstark sind, auf endogene Prozesse in den biologischen Systemen selbst zurück zu führen sei. Ebenso sind auch die Änderungen in der Umgebung B+ nach Edelman weitgehend unabhängig von den individuellen Variantenbildungen in der Population. Edelman geht hier noch weiter indem er postuliert, dass aus dieser wechselseitigen Unabhängigkeit folgt, dass es hier keine ‚finale Ursache‘, ‚keine Teleologie‘, ‚keine alles leitende Absicht‘ gibt. (vl. S.74)

  8. Als weiteres — eher spezielleres – Beispiel führt er das ‚Immunsystem‘ an. Das Immunsystem ist für Edelman ein ’somatisches selektives System (ssS)‘ das während der Lebenszeit eines biologischen Systems in einem Körper wirkt, während die Evolution ein ‚evolutionäres selektives System (esS)‘ repräsentiert, das über viele Generationen über viele Körper wirkt, innerhalb deren jeweils ein somatisches selektives System am Wirken ist. (vgl. 74)

  9. Edelman äußert hier die Vermutung, dass auch das ‚Gehirn‘ ein ’selektives somatisches System‘ ist. In diesem Fall wäre die ‚Neurowissenschaft‘ auch eine ‚Wissenschaft des Erkennens‘.(vgl. S.75)

  10. Das Immunsystem besitzt als wirkende Komponenten ‚Moleküle, Zellen‘ und ’spezialisierte Organe‘, wobei es sich bei den Molekülen und Zellen letztlich um alle Moleküle und Zellen des Körpers handelt. Letztlich operiert es ‚auf allen Molekülen‘, da es in der Lage ist zu ‚unterscheiden‘ (‚distinguishing‘) zwischen den ‚genuinen Molekülen/ Zellen‘ des eigenen Körpers (= das ‚Selbst‘) und ‚fremden Molekülen/ Zellen‘ (= ‚Nicht-Selbst‘). Diese Unterscheidungsfähigkeit ist extrem ’sensibel‘, da es selbst geringfügige Änderungen in der räumliche Anordnung von Atomen in einem Molekül erkennen kann. Zudem kann das Immunsystem solche Eigenschaften ‚erinnern‘, es hat ein ‚Gedächtnis‘ (‚memory‘).(vgl. S.75)

  11. Wenn ein körperfremdes Molekül (ein Protein) – auch ‚Antigen‘ genannt – auftritt, dann erzeugen spezialisierte Zellen des Körpers – die Lymphozyten – Moleküle, die sich an bestimmte charakteristische Eigenschaften des fremden Moleküls ‚anheften‘ können (sie binden sich an, ‚bind‘). Diese körpereigenen Identifizierungsmoleküle werden ‚Antikörper‘ (‚antibodies‘) genannt. (vgl. S.75)

  12. Die aktuelle Erklärung für diese beeindruckende Fähigkeit des Immunsystems solche Antikörper zu bilden, selbst bei völlig neuartigen Molekülen, wird als ‚Theorie der klonalen Selektion‘ gehandelt, die nach Edelman zurückgeht auf Sir Frank MacFarlant Burnet. (vgl. S.77)

  13. Die Grundidee dieser Theorie ist wie folgt: (i) Das körpereigene Immunsystem produziert ‚auf Vorrat‘ eine große Menge von Antikörpern mit unterschiedlichen Schnittstellen zum Anbinden. (ii) Treten dann körperfremde Moleküle auf (Viren, Bakterien), dann treffen diese auf eine Population von Lymphozyten mit ganz unterschiedlichen Antikörpern. Die eindringenden Zellen binden sich dann an jene Antikörper, die mit ihren Schnittstellen ‚am beste‘ zu ihnen ‚passen‘. Dies bringt die Lymphozyten, die diese Antikörper an sich tragen, dazu, sich durch Bildung von Klonzellen zu vermehren, so dass im Laufe der Zeit immer mehr Eindringlinge ‚gebunden‘ werden. (iii) Die Veränderung und Vermehrung der Lymphozyten einer bestimmten Art geschieht damit durch – nach Edelman – durch ‚Selektion‘ aufgrund von Ereignissen in der Umgebung. (vgl. S.75)

  14. Edelman unterstreicht auch hier, dass die Ausbildung der vielen Varianten von Antikörpern ’nicht von außen instruiert wurde‘, sondern innerhalb der Lebenszeit eines Körpers in den Lymphozyten, also ’somatisch‘ (’somatically‘). (vgl. S.75) Für ihn ist das Immunsystem daher eine wirkliche Instanz des allgemeinen Konzepts eines ‚Erkennungssystems‘ (‚recognition system‘): unabhängig von dem potentiellen Ereignisraum der fremden Moleküle produziert das Immunsystem ‚aus sich heraus‘ eine Menge von Antikörpern, die dann im Nachhinein (‚ex post facto‘) aufgrund der fremden Ereignisse ‚ausgewählt‘ (’selected‘) werden. Diese Produktionen ‚im voraus‘ und dann ‚Auswahlen im Moment‘ geschehen kontinuierlich, beinhalten ein retardierendes Moment (Gedächtnis) und erlauben eine ‚Anpassung‘ an die auftretenden neuen Moleküle (‚adaptively‘). Diese ‚zellulare Form eines Gedächtnisses‘ beruht auf der Tatsache, dass Mengen von Lymphozyten mit bestimmten Antikörpern meistens erhalten bleiben und aufgrund ihrer Zahl zukünftig auch schneller reagieren können. (vgl. S.78)

  15. Anhand der beiden Instanzen eines ‚Erkennungssystems‘ (‚evolutionäres selektives System‘ in Gestalt der Evolution und ’somatisches selektives System‘ in Gestalt des Immunsystems) macht Edelman darauf aufmerksam dass man zwischen dem ‚Prinzip der Auswahl‘ und den dazu eingesetzten ‚konkreten Mechanismen der Realisierung‘ unterscheiden muss. Das ‚Auswahlprinzip‘ wird sowohl von der ‚Evolution‘ benutzt wie auch vom ‚Immunsystem‘, aber die konkreten Mechanismen, wie dies umgesetzt wird, sind verschieden. (vgl. S.78) Beide Systeme brauchen aber auf jeden Fall eine Form von ‚Gedächtnis‘ jener Varianten, die eine ‚verbesserte Anpassung‘ ermöglichen. (vgl. S.79)

  16. Edelman nennt ‚Evolution‘ und ‚Immunologie‘ ‚Wissenschaften‘ (’sciences‘), ebenso die ‚Neurobiologie‘. (vgl. S.79)

  17. Edelman wiederholt seine Vermutung, dass das Gehirn ein ’somatisches selektives System‘ ist und ergänzt, dass nach seinen Forschungen die ‚Adhäsionsmoleküle der neuronalen Zellen‘ die ‚evolutionären Vorläufer‘ des gesamten Immunsystems waren. (vgl. S.79) Im folgenden Kapitel will er diese seine Hypothese, dass das Gehirn ein ’somatisches selektives System‘ sei, weiter erläutern.

DISKUSSION FORTSETZUNG

  1. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).

  2. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.

  3. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.

  4. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.

  5. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:

  6. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:

  7. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:

  8. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).

  9. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.

  10. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).

  11. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.

  12. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.

  13. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.

  14. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die  äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Genotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.

  15. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas.

  16. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.

  17. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.

  18. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.

  19. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nur, im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.

  20. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommen könnte, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.

  21. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.

  22. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch immer noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das Biologische erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.

  23. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als in den zurückliegenden Zeiten.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 6

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.7 DIE PROBLEME NEU ÜBERLEGT

  1. Nach den ersten Analysen in Kap.1-6 stellt Edelman eine ‚Zwischenreflexion‘ an. Angesichts der entdeckten Komplexität und Dynamik im Fall des Gehirns und seiner Entwicklung stellt sich die Frage, wie man den Zusammenhang zwischen den vorfindlichen materiellen Strukturen und ihren Funktionen miteinander in Beziehung setzen (‚to relate‘) kann.(vgl. S.65f)
  2. Und um seine mögliche neue Position zu bestimmen wiederholt er summarisch nochmals seine zuvor geäußerte Kritik an der ‚falschen Objektivität‘ der Physik, an der zu eng gefassten Kognitionswissenschaft, und er wiederholt auch wieder die unsinnigen Vergleiche mit einem falschen Begriff von Computer, der weder theoretisch noch praktisch Sinn macht.(vgl. SS.66-69)
  3. Grundsätzlich hält er an der Forderung fest, (i) eine ‚Theorie‘ zu bauen (‚to construct), die (ii) ‚wissenschaftlich‘ ist. ‚Wissenschaftlich sein‘ macht er an der Eigenschaft fest (iii), dass die Theorie ‚überprüfbar‘ sein soll. Allerdings muss die Theorie (iv) ’nicht immer‘ zu (v) ‚Voraussagen auf allen Ebenen führen‘, noch muss (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein.(vgl. S.66)
  4. Aufgrund seiner massiven Kritik an der unterdrückten Rolle des Beobachters speziell in der Physik (vgl. S.66f) muss man indirekt folgern, dass (a) der Beobachter in einer ‚kritischen Wissenschaft‘ im Zusammenspiel mit der Theorie ‚anders integriert wird als bisher‘. Dies bedeutet, man muss berücksichtigen, (b) dass es ‚mentale Ereignisse‘ gibt (‚Bewusstsein‘, ‚Intentionalität‘) gibt, die (c) nur durch ‚Introspektion‘ oder (d) nur durch indirekte Schlüsse aufgrund des beobachtbaren Verhaltens von anderen‘ zugänglich sind.(vgl. S.67)

DISKUSSION FORTSETZUNG

  1. Das Kapitel 7 ist sehr kurz und bringt weitgehend nur Wiederholungen ausgenommen der Punkt mit der Theorie. Der ist neu. Und es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht, obgleich er sich selbst ja als Wissenschaftler versteht und  er seine eigenen Überlegungen gleichwohl als wissenschaftlich verstanden wissen will (wenngleich er das aktuelle Buch in seiner Form nicht streng als wissenschaftliche Theorie verfasst hat).
  2. Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist interessant. Sie ist generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument einschränkt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll.
  3. Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist. Obgleich das Gebiet der Wissenschaftsphilosophie, wie ich es hier nenne, bislang immer noch keinen geschlossenen begrifflichen Raum darstellt, gibt es doch eine Reihe von grundlegenden Annahmen, die die meisten Vertreter dieses Feldes einer Metawissenschaft zu den Wissenschaften teilen. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  4. Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann.
  5. Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige den einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  6. All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält.
  7. Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  8. Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  9. Das, was Edelman als Theorie andeutet, ist vollständig unzulänglich und sogar in wesentlichen Punkten falsch.
  10. Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt (selbst bei den theoretischen Physikern ist dies nicht unbedingt vollständig gegeben) sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was man formalisieren kann. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

EINLADUNG zur PHILOSOPHIEWERKSTATT: VOM MESSWERT ZUM MODELL (2) – EMPIRIE UND KREATIVITÄT? So, 27.Mai 2018, 15:00h, im INM (Frankfurt)

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
22.Mai  2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

THEMA

In der Einladung zur letzten  Philosophiewerkstatt am 29.April 2018   fand das Stichwort von der ’adäquaten Beschreibung’ Interesse. Es wurde   weiter ausdiskutiert in Richtung der Problematik, wie man von ’Messwerten’ zu einem ’Modell’ kommt? Den meisten Menschen ist nicht bewusst, dass es auch in den empirischen Wissenschaften für den Weg von einzelnen Messwerten zu einem Modell keinen Automatismus gibt! Aus Messwerten folgt nicht automatisch eine irgendwie geartete Beziehung, erst recht kein Modell mit einem ganzen Netzwerk von Beziehungen. In allen empirischen Disziplinen braucht es Fantasie, Mut zum Denken, Mut zum Risiko, Kreativität und wie all diese schwer fassbaren Eigenschaften heißen, die im ’Dunkel des Nichtwissens’ (und des Unbewussten) mögliche Beziehungen, mögliche Muster, mögliche Faktorennetzwerke ’imaginieren’ können, die sich dann in der Anwendung auf Messwerte dann tatsächlich (manchmal!) als ’brauchbar’ erweisen. Und, ja, persönliche Vorlieben und Interessen (unbewusste Dynamiken) können sehr wohl dazu beitragen, dass bestimmte mögliche ’interessante Beziehungs-Hypothesen’ von vornherein ausgeschlossen oder eben gerade gefunden werden.

Im  Bericht zur   Sitzung vom 29.April kann man nachlesen, wie   Begriffe wie z.B.  ‚Messwert‘, ‚erklärende Beziehung‘, ‚Modell und Theorie‘ weiter erläutert und in Beziehung zur Psychoanalyse gesetzt wurden. Es ist dann nicht überraschend, dass sich für die Beteiligten folgende Themenstellung für den 27.Mai herausschälte:

NEUE FRAGESTELLUNGEN

Es bestand der Wunsch aller Beteiligten, an dieser Stelle das Gespräch fortzusetzen. Ideal wäre für die nächste Sitzung ein kleines Beispiel mit einem typischen ’Narrativ’ und ’Deutungen’ auf der Basis des ’vorausgesetzten psychoanalytischen Modells’. Es wäre dann interessant, ob man aufgrund dieses Beispiels die Struktur eines psychoanalytischen Modells beispielhaft rekonstruieren und ’hinschreiben’ könnte. Das nächste Treffen ist für den 27.Mai 18 geplant.

WO

INM – Institut für Neue Medien, Schmickstrasse 18, 60314 Frankfurt am Main (siehe Anfahrtsskizze). Parken: Vor und hinter dem Haus sowie im Umfeld gut möglich.

WER

Einleitung und Moderation: Prof.Dr.phil Dipl.theol Gerd Doeben-Henisch (Frankfurt University of Applied Sciences, Mitglied im Vorstand des Instituts für Neue Medien)

ZEIT

Beginn 15:00h, Ende 18:00h. Bitte unbedingt pünktlich, da nach 15:00h kein Einlass.

ESSEN & TRINKEN

Es gibt im INM keine eigene Bewirtung. Bitte Getränke und Essbares nach Bedarf selbst mitbringen (a la Brown-Bag Seminaren)

EREIGNISSTRUKTUR

Bis 15:00h: ANKOMMEN

15:00 – 15:40h GEDANKEN ZUM EINSTIEG

15:40 – 16:40h: GEMEINSAMER DISKURS ALLER (Fragen, Kommentare…, mit Gedankenbild/ Mindmap)

16:40 – 17:00h PAUSE

17:00 – 17:50h: Zweite GESPRÄCHSRUNDE (Mit Gedankenbild/ Mindmap)

17:50– 18:00h: AUSBLICK, wie weiter

Ab 18:00h VERABSCHIEDUNG VOM ORT

Irgendwann: BERICHT(e) ZUM TREFFEN, EINZELN, IM BLOG (wäre schön, wenn)

Irgendwann: KOMMENTARE ZU(M) BERICHT(en), EINZELN, IM BLOG (wäre schön, wenn)

Mit freundlichen Grüßen,

Gerd Doeben-Henisch

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

 

EINLADUNG zur PHILOSOPHIEWERKSTATT: VOM MESSWERT ZUM MODELL – EMPIRIE UND KREATIVITÄT? So, 29.April 2018, 15:00h, im INM (Frankfurt)

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
26.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

THEMA

In der letzten Philosophiewerkstatt vom 25.März 2018 https://www.cognitiveagent.org/2018/03/26/roboter-in-der-psychoanalyse-memo-zur-sitzung-vom-25-maerz-2018/ fand das Stichwort von der ’adäquaten Beschreibung’ Interesse. Es wurde dann weiter ausdiskutiert in Richtung der Problematik, wie man von ’Messwerten’ zu einem ’Modell’ kommt? Den meisten Menschen ist nicht bewusst, dass es auch in den empirischen Wissenschaften für den Weg von einzelnen Messwerten zu einem Modell keinen Automatismus gibt! Aus Messwerten folgt nicht automatisch eine irgendwie geartete Beziehung, erst recht kein Modell mit einem ganzen Netzwerk von Beziehungen. In allen empirischen Disziplinen braucht es Fantasie, Mut zum Denken, Mut zum Risiko, Kreativität und wie all diese schwer fassbaren Eigenschaften heißen, die im ’Dunkel des Nichtwissens’ (und des Unbewussten) mögliche Beziehungen, mögliche Muster, mögliche Faktorennetzwerke ’imaginieren’ können, die sich dann in der Anwendung auf Messwerte dann tatsächlich (manchmal!) als ’brauchbar’ erweisen. Und, ja, persönliche Vorlieben und Interessen (unbewusste Dynamiken) können sehr wohl dazu beitragen, dass bestimmte mögliche ’interessante Beziehungs-Hypothesen’ von vornherein ausgeschlossen oder eben gerade gefunden werden. Anhand konkreter Beispiele – auch aus der Psychoanalyse ? – soll diese Thematik diskutiert werden (Es sei angemerkt, dass das große Thema der letzten Sitzung, inwieweit man die Psychoanalyse als ‚empirische Wissenschaft‘ verstehen kann oder sogar verstehen muss, noch nicht völlig zu Ende diskutiert ist. Es entstand der Eindruck, als ob die ExpertenInnen der Psychoanalyse die Einstufung der Psychoanalyse als empirische Wissenschaft selbst nicht so ganz akzeptieren wollten. Es sah so aus, als ob sie  die Befürchtung haben, dass dadurch wesentliche Momente der Psychoanalyse verloren gehen könnten. Umgekehrt muss man aber auch bedenken, dass möglicherweise der empirischen Wissenschaft wichtige Aspekte verlorengehen, wenn man eine Disziplin wie die Psychoanalyse von vornherein ausklammert).

WO

INM – Institut für Neue Medien, Schmickstrasse 18, 60314 Frankfurt am Main (siehe Anfahrtsskizze). Parken: Vor und hinter dem Haus sowie im Umfeld gut möglich.

WER

Einleitung und Moderation: Prof.Dr.phil Dipl.theol Gerd Doeben-Henisch (Frankfurt University of Applied Sciences, Mitglied im Vorstand des Instituts für Neue Medien)

ZEIT

Beginn 15:00h, Ende 18:00h. Bitte unbedingt pünktlich, da nach 15:00h kein Einlass.

ESSEN & TRINKEN

Es gibt im INM keine eigene Bewirtung. Bitte Getränke und Essbares nach Bedarf selbst mitbringen (a la Brown-Bag Seminaren)

EREIGNISSTRUKTUR

Bis 15:00h: ANKOMMEN

15:00 – 15:40h GEDANKEN ZUM EINSTIEG

15:40 – 16:40h: GEMEINSAMER DISKURS ALLER (Fragen, Kommentare…, mit Gedankenbild/ Mindmap)

16:40 – 17:00h PAUSE

17:00 – 17:50h: Zweite GESPRÄCHSRUNDE (Mit Gedankenbild/ Mindmap)

17:50– 18:00h: AUSBLICK, wie weiter

Ab 18:00h VERABSCHIEDUNG VOM ORT

Irgendwann: BERICHT(e) ZUM TREFFEN, EINZELN, IM BLOG (wäre schön, wenn)

Irgendwann: KOMMENTARE ZU(M) BERICHT(en), EINZELN, IM BLOG (wäre schön, wenn)

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

Mit freundlichen Grüßen,

Gerd Doeben-Henisch

PHILOSOPHIEWERKSTATT – WAHRE AUSSAGEN – Memo vom 8.Okt.2017

PDF

 

ÜBERSICHT

Kurzer Bericht zur Philosophiewerkstatt vom 8.Okt.2017 im INM (Frankfurt). Die Einladung zur Sitzung findet sich HIER

ARBEITSWEISE DER PHILOSOPHIEWERKSTATT

Die Philosophiewerkstatt folgt nicht dem klassischen Schema, dass einer viel erzählt und andere zuhören, sondern stellt eine Aufgabenstellung an den Anfang und alle Teilnehmer sind eingeladen, zusammen die Aufgabenstellung durch ihre Beiträge zu erhellen. Da die Teilnehmergruppe in der Regel sehr bunt gemischt ist, führt dies zu sehr vielen interessanten Aspekten, die ein Thema vielseitig zum Leuchten bringen können. Ferner zeigt jede Sitzung immer wieder, wie wenig wir im Alltag gewohnt sind, zusammen mit anderen (jeder ist gleichberechtigt!) eine gemeinsame Sicht zu erarbeiten. Je profilierter die Teilnehmer sind, um so herausfordernder wird die Erarbeitung einer gemeinsamen Sicht. Das gemeinsame Ringen um ein Verständnis wird aber belohnt durch die Bereicherung des eigenen Standpunktes durch Sichten, die einem vorher unbekannt waren. Niemand geht nach Hause, ohne nicht viel dazu gelernt zu haben (das gilt auch für den Moderator der Sitzungen!).

AUFGABENSTELLUNG AM 8.OKT.2017

Die Anregung zu diesem Thema kam dieses Mal aus dem Blog selbst, und zwar von dem Teil 1 des Essays ‚Die Wiederentdeckung …‘. Der Teil 1 beschäftigt sich mit der Frage der Wahrheit. Da das Thema ‚Wahrheit‘ sowohl in der Philosophie wie auch in der gesamten Kulturgeschichte seit mehr als 2000 Jahren sehr prominent ist, gibt es dazu eine große Menge an Anschauungen und Texten. Um sich hier nicht schon gleich zu Beginn zu verzetteln bestand die Aufgabe darin, im eigenen Erfahrungsbereich nach solchen Situationen Ausschau zu halten, in denen jemand eine sprachliche Äußerung macht, und alle Beteiligten diese sprachliche Äußerung ’normalerweise‘ als ‚wahr‘ zu klassifizieren. Nachdem einige Beispiele gefunden wurden, sollten diese gemeinsam weiter untersucht werden (Warum klassifiziert man diese als ‚wahr‘? Was sind die Bedingungen dafür? usw.).

Gedankenskizze von der Philosophiewerkstatt am 8.Okt.2017 im INM
Bild Nr.1: Gedankenskizze von der Philosophiewerkstatt am 8.Okt.2017 im INM

ZITATE

Überraschenderweise fiel es allen schwer, überhaupt solche Beispiele vorzustellen. Als erstes poppten allerlei Zitate auf, die dem einen oder der anderen in den Sinn kamen (siehe das Schaubild Nr.1).

Erst die beharrlichen Erinnerungen des Moderators an die Aufgabenstellung förderte dann langsam, häppchenweise, Beispiele zutage. Dieser Prozess zog sich fast über die gesamte Sitzung hin.

BEISPIELE

Folgende Beispiele erblickten das Licht der Welt (Reihenfolge nicht unbedingt chronologisch):

  • Äußerungssituation Arzt mit Patient; Äußerung Arzt sagt „Dieses Medikament ist wirksam (für Problem X), weil es in einer randomisierten Doppelblind-Studie signifikant war.“
  • Äußerungssituation FreundeInnen untereinander; einer hat ein Problem X; eine spricht zum anderen Äußerung „Du must Wadenwickeln nehmen.“
  • Äußerungssituation Küche mit Herdplatte; jemand berührt  eine heiße Platte, ruft: Äußerung „Oh Scheiße, das Ding ist heiß“ (und zieht blitzartig seine Hand zurück)
  • Äußerungssituation Biblischer Text, fiktive Situation, Pilatus und Jesus von Nazareth. Pilatus fragt „Bist du der König der Juden“, und Jesus antwortet: Äußerung „Du sagst es“.
  • Äußerungssituation Jemand verkauft einen sächsischen Thaler heute als echt an einen Sammler und sagt: Äußerung „Dies ist ein echter sächsischer Thaler (aus dem Jahr X)“.
  • Äußerungssituation Jemand gibt als Pfand für eine Geldschuld heute ein Bild an eine Bank und sagt: Äußerung „Dies ist ein echter XYZ“.
  • Äußerungssituation Im Gespräch zwischen Freunden sagt jemand: Äußerung „Die Erde ist rund“.
  • Äußerungssituation Das Lehramt der katholischen Kirche hat in der Vergangenheit verkündet: Äußerung Maria, die Mutter Jesu, war bei ihrer Empfängnis Jungfrau.

KONZEPTUALISIERUNG ÄUSSERUNG

Die Frage, wann man denn eine einzelne Äußerung als ‚wahr‘ klassifizieren würde, wurde erst nach und nach schrittweise beantwortet. Diese Erklärung führte mehrere Begriffe, Konzepte zueinander, die einen Zusammenhang aufleuchten ließen. Diesen Vorgang kann man ‚Konzeptualisierung‘ nennen oder ‚Modellbildung‘ oder ‚Theoriebildung‘.

Ansatz zur Konzeptualisierung (Theoriebildung) einer Äußerungsstuation mit Wahrheitsanspruch
Bild Nr.2: Ansatz zur Konzeptualisierung (Theoriebildung) einer Äußerungssituation mit Wahrheitsanspruch

Am Beispiel mit der heißen Herdplatte sei die Konzeptualisierung zum Begriff der ‚wahren einzelnen Äußerung‘ erläutert (siehe Schaubild Nr.2):

Vorausgesetzt wird, dass es mindestens zwei Sprecher-Hörer einer Sprache L gibt, die eine reale Situation S teilen.

Im konkreten Fall sind die beiden Sprecher-Hörer in einem Raum mit einer Herdplatte.

Der eine — nennen wir ihn A — berührt die Herdplatte und zieht blitzartig die Hand wieder zurück und äußert dabei „Oh Scheiße, das Ding ist heiß“.

Der andere — nennen wir ihn B — sieht die Bewegung und hört die Äußerung.

Nehmen wir an, dass B in seiner visuellen Wahrnehmung gesehen hat, wie A die Herdplatte berührt und die Hand schnell wieder zurückzieht (Perception_B.vis(visuelle-Reize) = ‚Handbewegung-A‘), und in seiner akustischen Wahrnehmung hat er die Äußerung gehört (Perception_B.akust(akustische-Reize) = ‚Oh Scheiße, das Ding ist heiß‘).

Es wird ferner angenommen, dass eine Person, die eine Sprache L ‚gelernt‘ hat, mit einer sprachlichen Äußerung in dieser Sprache L (z.B. mit Deutsch, nicht aber mit Chinesisch) bestimmte ‚Bedeutungen‘ verbindet, die sich im Gehirn als spezifische Erregungsmuster nachweisen lassen. Also, wenn jemand eine Äußerung e hört, dann ist die akustische Wahrnehmung Perception_X.akust(e) = ‚Oh Scheiße, das Ding ist heiß‘) verknüpft mit internen, subjektiven Bedeutungsstrukturen (Meaning(‚Oh Scheiße, das Ding ist heiß‘) = InternVon(‚Oh Scheiße, das Ding ist heiß‘)), die beim Hören ‚aktiviert‘ werden.

Insofern diese internen Bedeutungen in realen Situationen gelernt wurden, gibt es eine Korrespondenz/ Ähnlichkeit zwischen diesen internen Bedeutungsstrukturen und bestimmten Formen der aktuellen Wahrnehmung. Also SIMILARITY(P_X.akust(e), Meaning(P_X.akust))).

Unter Voraussetzung solch einer Ähnlichkeit, die in der Wahrnehmung von B verfügbar ist, kann B feststellen, dass für ihn die Äußerung von A ‚Oh Scheiße, das Ding ist heiß‘ in dieser Situation für ihn B ‚wahr‘ ist. Die Aussage von A ‚Oh Scheiße, das Ding ist heiß‘ (die B wahrgenommen hat) und die bei B eine bestimmte Bedeutung InternVon(‚Oh Scheiße, das Ding ist heiß‘) assoziiert hat, korreliert bei B mit der visuellen Wahrnehmung der Situation in hinreichender Weise.

Schon an diesem einfachen Beispiel kann man sehen, wie viele Voraussetzungen erfüllt sein müssen, damit man von einer ‚wahren Äußerung im Alltag‘ sprechen kann.

KONZEPTUALISIERUNG KOMPLEXE ÄUSSERUNGSMENGEN (THEORIEN)

Im Alltag haben wir es oft mit komplexen Sachverhalten zu tun. Genannt wurden Börsengeschäfte, medizinische Prognosen, physikalische Theorien, wirtschaftliche Vorgänge, biologische Phänomene am Beispiel von Insektenstaaten, und Wetterprognosen.

In all diesen Fällen geht es um einzelne Äußerungen (z.B. „In zwei Tagen wird es am Ort X mit einer Wahrscheinlichkeit von 80 % regnen“, oder „Der Kurs der Aktie X wird in den nächsten Monaten um Y% steigen“, oder „Diese Ameise reagiert in dieser Situation so, weil Y“, usw.), die einen unterstellten ‚kausalen Zusammenhang‘ voraussetzen

Kausale Zusammenhänge treten als explizite ‚Modelle‘ und ‚Theorien‘ auf (siehe Bild Nr.3).

Aussagenmengen als Theorien
Bild Nr.3: Aussagenmenge als Theorie (stark vereinfacht)

So können Wettervoraussagen gemacht werden, weil es eine Computersimulation gibt, die auf einem mathematischen Modell beruht, in dem aktuelle Messwerte zum Zeitpunkt t und zu vielen Zeitpunkten ‚vor t‘ (historische Daten) so verrechnet werden können, dass eine ‚Voraussage’/ ‚Prognose‘ für einen späteren Zeitpunkt t+c gemacht werden kann.

Modelle in Form von Computerprogrammen repräsentieren Funktionen. Eine Funktion als solche ist weder wahr noch falsch. Wenn aber jemand sagt, dass die Funktion f bei einem bestimmten Eingabewert X, der einem realen Sachverhalt X-real in der realen Welt entspricht, den Ausgabewert Y berechnen wird, und dieser Ausgabewert Y entspricht dem Sachverhalt Y-real in der realen Welt, dann entsteht eine Aussage, die man überprüfen kann. Dann kann die Aussage ‚wahr‘ werden, weil bei Auftreten des Sacherhalts X-real nach Voraussage der Sachverhalt Y-real auftreten wird. Falls nicht, ist die Aussage nicht wahr.

Eine Theorie unterscheidet sich von einem Modell, da eine Theorie eine Menge von Aussagen repräsentiert, die als Aussagen wahr oder falsch werden können. Funktionen können Elemente innerhalb von Aussagen sein. Im Prinzip kann man jedes Modell in eine Theorie umschreiben.

Im Fall des Börsengeschehens kann man die verschiedenen Einzelaussagen über Firmen und Märkte in einen Zusammenhang einordnen, aufgrund dessen dann Beobachtungen (einzelne Aussagen) mit einer Prognose verknüpft werden können (einzelne Aussage). Wenn z.B. eine Firma A im letzten halben Jahr nur Verluste produziert hat (einzelne Aussagen), und kein Faktor bekannt ist, der diesen Verlusten gegensteuern könnte (einzelne Aussagen), dann könnte man mit Bezug auf einen erkannten ‚Zusammenhang‘ (Regel, Axiom, Gesetz) ‚folgern‘, dass diese Firma ein Kandidat für eine Übernahme oder gar für eine  Insolvenz ist.

Im Falle von Modellen und Theorien benötigt man also neben den ganzen Rahmenbedingungen für wahre einzelne Äußerungen zusätzlich ein Konzept, wie man (i) allgemeine Zusammenhänge zwischen Aussagen formulieren kann (‚Axiome‘, ‚Regeln‘ …) und (ii) wie man angenommene Zusammenhänge dazu benutzen kann, bei Vorliegen von einzelnen Aussagen zur Gegenwart auf Aussagen in der Zukunft schließen kann. Dies ist das Gebiet der ‚Logik‘.

NACHWORT

Wenn man sieht, wie heute Begriffe wie ‚künstliche Intelligenz‘ und in diesem Zusammenhang ‚Intelligenz‘ geradezu inflationär gebraucht werden, andererseits aber das Allgemeinwissen zu Theorien und Logik eher gegen Null tendiert, dann kann man sich fragen, wer hier eigentlich noch was versteht.

Statt in bundesweiten Initiativen allen Schülern Computer hinstellen zu wollen (sie haben alle ihre Smartphones), wäre es möglicherweise eine bessere Strategie, ihnen zu erklären was Funktionen, Modelle, Theorien und Logik sind, damit sie verstehen würden, was sie in diese Computer rein stecken müssen, damit diese dann vielleicht irgend etwas Sinnvolles tun. Dabei würden sie (wie furchtbar) vielleicht sogar verstehen lernen, wie sie selber denken (welch Katastrophe, sie könnten ja dann möglicherweise die überhitzten Marketingblasen durchschauen…).

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

RINGEN UM DAS BEWUSSTSEIN – Th.W.CLARK 1995 – FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP – gegen Chalmers 1995

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.Juli 2016
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(Letzte Aktualisierung (ab Nr.31) am Sa, 30.7.2016, 12:08h)

Th.W.CLARK, FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP, in Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.241-254

  1. Der aktuelle Artikel von Clark, der hier diskutiert werden soll, ist eine direkte Antwort auf den Artikel von Chalmers Facing up to the problem…, der in der gleichen Zeitschrift abgedruckt war und der in diesem Blog zuvor ausführlich besprochen worden ist.

  2. Clark bezieht die direkte Gegenposition zu Chalmers. Während Chalmers im Kern die Besonderheit der Bewusstseinserfahrung herausstellt, die sich nicht durch Rückgriff auf die empirischen Prozesse des Körpers und der Umgebung angemessen erklären lässt (das Subjektive ist von fundamental anderer Qualität als das Objektive, Empirische), versucht Clark genau dies zu tun. Er behauptet, das Phänomen des Bewusstseins sei nichts Besonderes gegenüber den anderen empirischen Prozessen.

EXISTIERENDE EMPIRISCHE THEORIEN

  1. Sowohl Chalmers wie auch Clark berufen sich auf existierende empirische Theorien, folgern aber Gegensätzliches: Chalmers sagt, dass sich das Phänomen des Bewusstseins nicht mit den üblichen wissenschaftlichen Mitteln  hinreichend erklären lässt, und Clark meint widersprechend, Ja, doch, man kann das Phänomen des Bewusstseins damit hinreichend erklären.

  2. Im Standardmodell einer empirischen Theorie hat man einerseits eine formale Struktur, die eigentliche Theorie T, und andererseits einen empirischen Bezug, durch den mittels Messoperationen M empirische Daten D reproduzierbar verfügbar gemacht werden. Innerhalb der Struktur T kann man diese Daten klassifizieren (Klassenbildung) K und in Beziehungen R einordnen. Aufgrund von Daten kann man mittels der Struktur T entweder entscheiden, dass die Daten mit der Struktur und der Dynamik der Theorie übereinstimmen oder eben nicht.

SUBJEKTIVE ERFAHRUNG NICHT MESSBAR

  1. Im Fall des Bewusstseins BEW gibt es eine Erfahrung des Bewusstseins, die allgemein als subjektiv klassifiziert wir, als nicht empirisch, nicht intersubjektiv. Damit ist ein direktes Messen im Sinne einer empirischen Theorie T nicht möglich. Im Fall des Phänomens des Bewusstseins und der typischen Erfahrung des Bewusstseins gibt es also keine direkten empirischen Daten D(BEW) und damit kann es auch keine empirische Theorie über das Bewusstsein geben. Insofern hätte Chalmers recht.

  2. Chalmers selbst spricht zwar auch über indirekte Daten des Bewusstseins (wie z.B. sprachliche Äußerungen über subjektive Erfahrungen), aber alle diese indirekte Daten sind keine Primärdaten!

IDENTITÄT VON BEWUSSTSEIN UND PROZESS

  1. Warum und wie kann dann Clark behaupten, Chalmers mache alles nur unnötig kompliziert. Clark wirft direkt die Frage auf, warum man nicht einfach mit der Hypothese starten könne, dass die Bewusstseinserfahrung BEW identisch sei mit der neuronal realisierten kybernetischen Funktion? (p.243) D.h. Clark postuliert die Identität von Bewusstsein und Funktion. (vgl. p.246) Anders: jene, die subjektive Erfahrungen ihres Bewusstseins haben, sind Instanzen von empirischen Prozessen (vgl. p.247) Oder: Wir, die wir subjektive Erfahrungen haben, sind konstituiert durch und identisch mit kognitiven Prozessen, die Qualia instantiieren, und diese Qualia sind das, was es für uns heißt, diese Prozesse zu sein.(vgl. p.247)

WAS STIMMT NUN?

  1. Im Falle von Chalmers ist klar, dass eine subjektive Erfahrungen des Bewusstseins direkt keine Messwerte für empirische Theorien liefern kann. Im Falle von Clark behauptet dieser eine Identität zwischen der subjektiven Erfahrung BEW und den ermöglichenden empirischen Prozessen Pe.

  2. In einer empirischen Theorie T kann ich von der Identität von zwei Termen t1 und t2 nur sprechen, wenn t1=t1 gilt, und dies setzt im Standardfall für den Bereich des formalen Kerns T eine Extensionsgleichheit voraus. Verbunden mit einer empirischen Interpretation Int müssen sich den theoretischen Termen t1,t2 empirische Terme t1e, t2e zuordnen lassen, die aus Messvorgängen M hervorgegangen sind, also Int(t1e) = t1 und Int(t2e) =t2.

  3. Da es im Falle von subjektive Erfahrungen des Bewusstseins BEW nach allgemeinem Verständnis keine direkten Messwerte De gibt, fehlt in der Identitätsgleichung t1=t2 mindestens ein Term. In einer empirischen Theorie wäre damit eine Identitätsbehauptung, wie Clark sie fordert, nicht realisierbar.

  4. Nach diesen ersten Überlegungen sieht es so aus, dass es unter der Annahme einer empirischen Theorie des Bewusstseins T_bw keine empirisch begründeten Messwerte zu jenen subjektiven Erfahrungen geben kann, die wir mit der subjektiven Erfahrung von Gegebenheiten des Bewusstseins verbinden. Damit wäre eine empirische Theorie des Bewusstseins ausgeschlossen. Ob irgendwelche empirischen Sachverhalte (neuronale Prozesse, andere physiologische Prozesse…) mit subjektiv erfahrbaren Gegebenheiten irgendetwas direkt zu tun haben, bleibt auf diese Weise erst einmal unklar.

HAT DAMIT CHALMERS RECHT?

  1. Nach dem bisherigen Befund hätte Chalmers also Recht damit, dass sich ein Reden über das Bewusstsein nicht reduzieren lässt auf ein Reden über empirische Prozesse, die im Kontext von subjektiven Erfahrungen beobachtbar sind. Subjektive Erfahrungen sind etwas Eigenständiges. Es sind in gewisser Weise auch Daten D, aber eben nicht-empirische Daten, subjektive Daten Ds. Empirische Daten De sind allesamt auch subjektive Daten, also De c Ds, aber nicht alle subjektive Daten Ds sind empirische Daten.

  2. Obwohl subjektive Daten Ds grundsätzliche keine empirische Daten sind, gibt es doch die Möglichkeit, subjektive Daten Ds auf sekundäre Indikatoren abzubilden Ind: Ds —> Des, die als solche empirische Daten sind, aber in ihrer Interpretation/ Deutung mit subjektiven Erfahrungen in Zusammenhang gebracht werden. Bei aller Problematik und Instabilität einer solchen sekundären Verankerung der empirischen Indikatoren Des sind die Indikatoren empirisch und können mit anderen empirischen Daten korreliert werden, also korr: Des —> De.

  3. Auf diese Weise lassen sich eine Menge interessanter Gegebenheiten sichtbar machen. Chalmers kommt bis zur Behauptung von einer Strukturellen Kohärenz zwischen der Datenmenge aus Des und der Datenmenge aus De und postuliert auch eine organisatorische Invarianz bzgl. des Outputs von zwei strukturell kohärenten Strukturen.

  4. Clark sieht von vornherein eine Identität zwischen beiden Strukturen (obgleich er nicht erklärt, wie er die subjektive Seite misst) und folgert daraus, dass überall, wo neuronale Strukturen identifizierbar sind, es ein – wenn auch noch so minimales – entsprechendes Korrelat an Bewusstsein geben muss. Bewusstsein wäre dann nichts spezifisch Menschliches, höchstens in dieser konkreten und komplexen Ausbildung aufgrund der entsprechend komplexen Struktur des Nervensystems.

  5. Während Chalmers das Problem hat, wie er aufgrund seiner messtechnischen Unterscheidung von subjektiven und empirischen Daten die Deutungshypothese eines Dualismus zwischen Bewusstsein und Nichtbewusstsein umgehen kann, erklärt Clark die Annahme eines Dualismus für unnötig (in seiner Interpretation), da es ja bei ihm sowieso nichts Besonderes neben den empirischen Sachverhalten gibt.

  6. Aus der Sicht einer empirischen Theorie ist die Position von Clark unhaltbar. Er hat kein Problem, da er die subjektiven Phänomene großzügig ausklammert.

  7. Chalmers sucht sein Heil in der Konstruktion einer Informationstheorie der doppelten Aspekte, was aber (siehe im Blogbeitrag) auch nicht überzeugen kann.

JENSEITS VON EINFACHER ONTOLOGIE

  1. Traditionell wurde – und wird (siehe Clark und viele andere) – die Annahme einer Besonderheit des Subjektiven gegenüber dem Empirischen oft zum Anlass genommen, aus der Unterschiedlichkeit der Erfahrung auf eine Unterschiedlichkeit der Existenz/ Ontologie zu schließen. Möglicherweise liegt hier der Fehler.

  2. Dem Beharren von Clark (und anderen) auf der Identität des Subjektiven mit dem Objektiven liegt ja offensichtlich die Intuition zugrunde, dass zwei verschiedene Erscheinungsweisen nicht zwingend auch auf zwei unterschiedliche Ontologien verweisen müssen. Andererseits folgt die ontologische Identität auch nicht zwingend aus einem Wunschdenken.

  3. Auch sollte einem zu denken geben, dass die sogenannten empirischen Daten De nicht gänzlich verschieden sind von den subjektiven Daten Ds! Alle empirischen Daten sind zugleich auch subjektive Daten (ohne subjektive Kenntnisnahme würde kein Forscher etwas von den Daten wissen). Die Qualifizierung als empirisch macht keine ontologische Aussage sondern ist eine epistemologische Qualifikation: ist das, was ich erfahren nur subjektiv oder auch intersubjektiv und damit empirisch! Das Gemeinsame, Verbindende ist das Moment des Erfahrens/ Erlebens/ Wahrnehmens. Und dieser Erfahrungsraum lässt sich auf vielfache Weise qualifizieren, u.a. nach den Kriterien nur subjektiv und auch intersubjektiv.

  4. Das Erfahren/ Erleben als solches ist ontologiefrei. Erst durch zusätzliche Überlegungen und Beziehungssysteme lassen sich den Erfahrungen Qualifikationen wie ’nur subjektiv‘, ‚auch intersubjektiv‘, ‚bloß gedacht‘, ‚bloß erinnert‘, ‚aktuell wahrgenommen‘ usw. zuordnen. Diese Zuordnungen sind – wie auch in vielen empirischen Theorien – nicht unbedingt direkt bzgl. einer Ontologie interpretierbar (Quantentheorie, Stringtheorie, Korpuskel/Welle, Gravitation, …).

  5. Ob also ein subjektives Erleben eine andere Ontologie implizieren soll gegenüber beobachtbaren neuronalen Prozessen ist zunächst eine völlig offene Frage. Sollten die Identitätstheoretiker wie Clark und andere Recht haben (und vieles spricht dafür), dann ließe sich das subjektive Erleben mittels geeigneter theoretischer Modelle mit jenen Ontologien in Beziehung setzen, die wir mit z.B. neuronalen Prozessen verknüpfen.

  6. Aus der theoretischen Möglichkeit, durch den Aufweis komplexer Zusammenhänge Phänomene der Art Ds mit Phänomenen der Art De in Beziehung zu setzen folgt aber auch nicht zwingend, dass man auf die Beschreibung und Analyse der Phänomene der Art Ds einfach verzichten sollte bzw. überhaupt verzichten kann.

  7. Insofern die subjektive Erfahrung auch die Basis für empirische Phänomene bildet, wäre eine Ausklammerung dieser eine Form von Verleugnung, die eher unwissenschaftlich ist.

  8. Zum anderen begegnet uns in den subjektiven Phänomenen bzw. im Gesamtphänomen Bewusstsein eine Funktionalität, die wissenschaftlich interessant ist und die hochinteressante Schlüsse auf die hervorbringenden empirischen Strukturen zulässt. Dass die aktuelle Physik sich ungern Unvollständigkeit vorwerfen lässt ist psychologisch zwar nachvollziehbar, dient aber wenig der Sache der Erkenntnis.

  9. Mit den biologischen Systemen (homo sapiens sapiens nur ein Teilmoment) haben wir es mit physikalischen Systemen zu tun, die sich mit den bisherigen physikalischen Gesetzen nicht wirklich vollständig beschreiben lassen. Dies ist eigentlich ein Glücksfall für die Wissenschaft; anhand dieser Systeme treten Eigenschaften hervor, die so anders sind, so komplex verglichen mit den einfachen Sachverhalten in der Mainstream-Physik, dass es doch von größtem Interesse sein sollte, sich mit diesen Phänomenen zu beschäftigen.

  10. Dass es insbesondere physikalische Systeme gibt, die ein sogenanntes Bewusstsein aufweisen (beim Menschen ausdrücklich, bei anderen Lebewesen schwieriger zu fassen), und dies auf Basis von neuronalen Maschinerien von unfassbarer Komplexität (ein einzelnes Gehirn hat die Komplexität einer ganzen Galaxie!), dies müsste alle Wissenschaftler elektrisieren. Dass stattdessen mit eher Energie aufgewendet wird, diese Komplexität weg zu reden, wirkt befremdlich.

CHALMERS – CLARK – KOMPOSITUM

  1. Wer hat also Recht: Chalmers oder Clark?

  2. Mit der Herausarbeitung der Besonderheit des Phänomens bewusster Erfahrung würde ich Chalmers Recht geben. Mit der Ablehnung einer zusätzlichen Ontologie würde ich Clark zusprechen. Beide, sowohl Chalmers als auch Clark würde ich kritisieren in Sachen Theoriebildung. Hier überzeugt weder Chalmers noch Clark.

Clark 1995 - Conclusions. Analyse der wichtigen Argumente
Clark 1995 – Conclusions. Analyse der wichtigen Argumente

CLARKs SCHLUSSFOLGERUNGEN UND DISKUSSION (SS.252-254)

  1. Im folgenden wechsle ich ab zwischen der Darstellung von Clarks Position (C) und Anmerkungen dazu (A).(Siehe auch das Diagramm)

  2. C: Clark kennzeichnet seinen theoretischen Ausgangspunkt als dem Naturalismus (’naturalism‘) zugehörig und sieht im Begriff einer funktionalen Theorie für sich einen wissenschaftlichen Standard. Für ihn sind funktionale Theorien gekennzeichnet durch Einfachheit, ontologische Sparsamkeit, und methodischer Zurückhaltung (‚being conservative‘).

  3. A: Clarks Hervorhebung einer Theorie als funktional lässt aufmerken, da eigentlich jede moderne Theorie per Definition relationale/ funktionale Elemente enthält, und dies daher kein besonderes Kennzeichen einer Theorie ist. Ob eine Theorie dann in einem empirischen, mathematisch abstrakten, logischen, phänomenologischen oder sonstigen Kontext benutzt wird, ändert an dieser Struktur einer Theorie nichts. Entsprechend sind Kriterien wie ‚Einfachheit‘ oder ‚methodisch zurückhaltend‘ auch wenig aussagekräftig. In gewisser Weise gilt dies für jede formale Theorie.

  4. A: Die Rede von Ontologien im Kontext moderner Theorien dagegen ist eher problematisch, da moderne formale Theorien per se ontologie-neutral sind. Man kann eine formale Theorie mit mit nahezu jeder beliebigen Ontologie verknüpfen. Ob man dies tut und mit welcher hängt vom Anwendungsfall ab. Eine empirische Interpretation verbindet eine formale Theorie mit einer bestimmten Art von zeitlich und räumlich punktuellen Messwerten. Die daraus ableitbaren allgemeinen Terme können eine spezielle Ontologie bilden, die durch die Messwerte eine partielle empirische Ontologie besitzen, aber keine vollständige. Würde man eine formale Theorie mit empirischen Äußerungen verknüpfen, die sich indirekt auf subjektive Phänomene beziehen, ließen sich daraus ganz analog zum empirischen Standardfall auch allgemeine Terme ableiten, denen eine partielle phänomenologische Ontologie zukäme. Wie sich diese beiden partiellen Ontologien nach noch zu bestimmenden Kriterien dann zueinander verhalten würden, müsste man klären. Das Vorgehen von Clark, automatisch eine bestimmte Ontologie bei empirischen Theorien zu unterstellen, und dass diese automatisch dann alle möglichen anderen Ontologien überflüssig machen würde, ist methodisch in keiner Weise gedeckt und ist auch in nahezu jeder möglichen Hinsicht unplausibel.

  5. C: Ein interessanter Aspekt ist auch Clarks Einschätzung von radikal Neuem. Tendenziell soll es nichts Neues geben, es sei denn, es gibt ganz starken empirische Argumente und eine theoretische Notwendigkeit.

  6. A: Bei dieser Formulierung erhebt sich die Frage, was starke empirische Argumente sind und ab wann der Fall einer theoretischen Notwendigkeit vorliegt? Noch grundlegender: was muss man sich unter etwas radikal Neuem mit Bezug auf eine Theorie vorstellen? Nehmen wir an, wir haben eine Theorie T mit einer Interpretation Int. (i) Solange der Messbereich festgelegt ist, kann es hier nichts radikal Neues geben, da ja nur gemessen wird, was man nach Verabredung messen will. Alles was der Verabredung widerspricht, wird nicht beachtet (methodische Blindheit!). (ii) Dann bleibt eigentlich nur, dass die Menge der Messwerte nicht vollständig unter die vereinbarten allgemeinen Terme subsumierbar sind. Sollte dieser – nicht leicht entscheidbare – Fall auftreten, müssten eventuell die allgemeinen Terme neu justiert werden. (iii) Mit oder ohne neue Justierung der allgemeinen Terme bleibt dann der Bereich der Relationen/ Funktionen sowie möglicher Regeln, die mit Hilfe eines logischen Folgerungsbegriffs Ableitungen (z.T. Prognosen) zulassen. Sofern diese mit den empirisch messbaren Gegebenheiten übereinstimmen, scheint die Theorie zu funktionieren. Gibt es Nicht-Übereinstimmungen, kann dies mehrere Gründe haben (z.B. Messfehler, ungünstige Begriffsbildung, ungünstige Relationen/ Funktionen oder ungünstige Regelformulierungen, ungeeigneter logischer Folgerungsbegriff). Was nicht passieren kann, das ist, dass ein Phänomen, das man von vornherein aus dem Messbereich ausgeschlossen hat, die Theorie in Frage stellt. Dies bedeutet, obwohl eine interpretierte Theorie <T,Int> in sich funktioniert, kann sie – bei Anlegen bestimmter Kriterien – vollständig falsch sein (man denke nur an die vielen Theorien der Vergangenheit, die auf falschen Annahmen beruhten). Radikal neu würde in diesem Kontext möglicherweise bedeuten, dass man erahnt, dass man eine neue Theorie <T*, Int*> benötigt, um neuartigen Phänomenen gerecht zu werden.

  7. A: Was Clark anscheinend am meisten (psychologisch) hindert, in den subjektiven Phänomenen Phänomene einer anderen Art anzuerkennen, ist die Annahme, dass die Annahme solcher neuer Phänomene eine neue, zusätzliche Ontologie implizieren würde, die zwangsläufig eine Art ontologischen Dualismus mit sich bringt, den er – aus welchen Gründen auch immer – ablehnt. Wie oben schon angedeutet, ist diese Ablehnung möglicherweise überflüssig, da die Annahme irgendeiner Ontologie im Rahmen der Interpretation einer formalen Theorie zunächst nichts darüber aussagt, welche weiteren Eigenschaften diese Ontologie besitzt und wie diese sich zu anderen interpretationsabhängigen Ontologien verhält. Ontologien sind letztlich primär begriffliche Strukturen im Kontext von (formalen) Theorien mit höchstens partiellen Deutungen. Hier von Dualismus zu reden oder vor einem Dualismus womöglich noch Angst haben, ist weder philosophisch noch wissenschaftlich notwendig.

  8. C: In seinem Versuch, die subjektiven Phänomene des Bewusstseins (von Clark Qualia genannt) durch Rekurs auf empirische Prozesse zu eliminieren, kommt Clark nicht umhin, diese subjektiven Phänomene als solche überhaupt anzusprechen. In diesem Zusammenhang kommt er zu Feststellungen wie jenen, dass der Zugang zum Bewusstsein über den privaten 1.Person Zugang geschieht, der als solcher in keiner Weiser durch irgendeine wissenschaftliche Methode erreichbar ist. Im gleichen Atemzug stellt er aber auch fest, dass diese subjektiven Phänomene mit neuronalen Prozessen korreliert werden können, was ausschließlich durch die Neurowissenschaften geleistet werden könne.

  9. A: Ganz offensichtlich ist es also so, dass es außerhalb der bislang definierten Messbereiche von empirischen Theorien selbst für Clark Phänomene gibt (die introspektiven Phänomene des Bewusstseins, Ps), die mit den bekannten empirischen Methoden bislang nicht erreicht werden. Seine strategische Entscheidung, das bislang wissenschaftlich Unzugängliche dadurch zu erklären zu versuchen, dass er per Deklaration (ex cathedra Entscheidung :-)) festlegt, dass diese Phänomene Ps künftig einfach als empirische Phänomene Pe zu betrachten seien (obwohl sie es schon aufgrund der Art der Phänomenerfassung nicht sein können), erwies sich nach den vorausgehenden Überlegungen aus theorietechnischen (wissenschaftsphilosophischen) Gründen als unhaltbar.

  10. A: Die These Clarks von der Identität von neuronalen Prozessen und Bewusstseinsphänomenen wird daher hier als methodisch unhaltbar abgelehnt.

  11. Aus der Ablehnung der Identitätsthese, so wie Clark sie formuliert hat, folgt allerdings nicht, wie mancher vielleicht jetzt glauben mag, dass damit ein funktionaler Zusammenhang zwischen neuronalen Prozessen und subjektiven Phänomenen grundsätzlich ausgeschlossen wird! Im Gegenteil. Autor cagent hält solch einen funktionalen Zusammenhang als sehr wahrscheinlich. Allerdings müsste dazu der theoretische Rahmen erheblich weiter entwickelt werden. Die bisher eher separat betriebenen Theorieansätze von Phänomenologie, Biologie, Psychologie, Neurowissenschaften und möglicherweise weiteren Disziplinen müssten endlich simultan entwickelt werden. Wissenschaftsphilosophisch können isolationistisch entwickelte Theorien per se aufs Ganze gesehen nur falsch sein.

Eine Übersicht über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

NOTIZ ZU DEN UNWISSENSCHAFTLICHEN VORAUSSETZUNGEN DER WISSENSCHAFTEN

  1. Als ich gestern weiter im Buch ‚An Inventive Universe‘ von Denbigh las, diskutierte er dort u.a. die verschiedenen Positionen, die in der Physik und in der Philosophie zum Thema Determinismus eingenommen werden. Er arbeitete heraus, dass jede physikalische Theorie einen nicht unwesentlichen nicht-wissenschaftlichen Anteil besitzt, nämlich diejenigen Interessen, Fragen und Grundannahmen, die der Bildung einer wissenschaftlichen Theorie voraus liegen. Ohne diese Annahmen und vorauseilenden Interessen gibt es keine wissenschaftliche Aktivitäten.
  2. Moderne Wissenschaft versteht sich zwar so, dass sie ihr Vorgehen transparent machen will, wiederholbar, unabhängig (invariant) von individuelle Gefühle und Fantasien, aber die nicht-wissenschaftlichen vorausgehenden Annahmen sind unausweichlich individuell bedingt, aus allen möglichen Quellen (auch individuellen Interessen, Fantasien, Erinnerungen, Vorstellungen) gespeist. Etwas anderes hat auch ein Wissenschaftler nicht zur Verfügung.
  3. Im Fall des Determinismus ist z.B. die Vorstellung, dass die Ereignisse in der Natur nicht zufällig sind, sondern bestimmten Regeln, Gesetzen folgen, dass sie damit berechenbar sind, dass damit Voraussagen möglich sind, eine solche Grundannahme.
  4. Diese Annahmen kommen nicht aus der Welt jenseits des Kopfes, sondern sie entstehen im individuellen Gehirn eines potentiellen Forschers. Sie werden ihm bewusst, prägen seine Sehweise, wie er die Welt betrachtet und interpretiert. Als solche sind sie weder wahr noch falsch. Es sind Formen der Wahrnehmung von Welt.
  5. Die Mechanik von Newton passte sehr gut in diese Erwartung: plötzlich konnte man scheinbar alle Bewegungen damit berechnen. Sowohl die Bewegung der Sterne wie auch die der Körper auf der Erde.
  6. Der weitere Gang der Forschung zeigte dann aber, dass diese Wahrnehmung der Natur unvollständig, wenn nicht gar in einem tiefen Sinne falsch ist. Beim immer weiter Vordringen in das ‚Innere der Natur‘ lernten die Wissenschaftler, dass die Natur alles andere als determiniert ist; ganz im Gegenteil, sie ist radikal probabilistisch, nicht ausrechenbar im Detail, auch nicht ausrechenbar in ihren komplexesten Erscheinungen, den biologischen Lebensformen. Die Annahme einer deterministischen, Gesetzen folgenden Natur erwies sich als Fiktion des individuellen Denkens. Das, was man für objektive Wissenschaft gehalten hatte zeigte sich plötzlich als überaus subjektives Gebilde mit hohem metaphysischen Unterhaltungswert.
  7. Die Einstellung, dass Wissenschaft um so objektiver sei, umso weniger man den Anteil des erkennenden Subjektes in den Erklärungsprozess einbezieht, erweist sich immer mehr als falsch. Gerade diese Verweigerung, den handelnden Wissenschaftler mit seinen spezifischen biologischen Voraussetzungen als konstitutives Element des Erkennens nicht kritisch in die Reflexion einzubeziehen, macht Wissenschaft ideologieanfällig, lässt sie unbewusst in das Schlepptau einer verdeckten Metaphysik geraten, die umso schlimmer wütet, als man so tut, als ob es so etwas doch gar nicht gibt [Anmerkung: Eine solche Wissenschaftskritik ist nicht neu. Die Wissenschaftsphilosophie bzw. Wissenschaftstheorie ist voll von diesen kritischen Überlegungen seit mehr als 100 Jahren].
  8. Für das wissenschaftliche Denken hat dies weitreichende Konsequenzen, vorausgesetzt, man nimmt diese Erkenntnisse ernst.
  9. Streng genommen dürfte es keine einzige wissenschaftliche Disziplin mehr geben, die in ihrem Alltagsbetrieb nicht eine Theorie-kritische, sprich wissenschaftsphilosophische Abteilung besitzt, die sich kontinuierlich aktiv mit den ganzen nichtwissenschaftlichen Annahmen auseinandersetzt, die in jeden Wissenschaftsbetrieb eingehen. Insofern die Verantwortlichen eines solchen wissenschaftskritischen Unterfangens natürlich selbst von den jeweiligen Annahmen infiziert sind, gibt es keine Garantie, dass der nicht-wissenschaftliche Anteil tatsächlich immer angemessen erkannt und behandelt wird.
  10. Das heute oft so beklagte Auseinanderdriften von naturwissenschaftlichem Denken einerseits und und sozialem-kulturellem-geisteswissenschaftlichem Denken andererseits könnte durch die direkte philosophische Aufbereitung des naturwissenschaftlichen Denkens möglicherweise vermindert werden. Doch trotz aller Einsichten in die metaphysischen Schwachstellen des naturwissenschaftlichen Wissenschaftsbetriebs sieht es momentan nicht so aus, dass der Mainstream naturwissenschaftlichen Forschens sich solchen Maßnahmen öffnen würde.
  11. Man könnte sich jetzt einfach vom Geschehen abwenden und sagen, dann lass sie halt (die Naturwissenschaftler). Das Problem ist nur, dass diese Art von eingeschränktem Denken vielfache Fernwirkungen hat, die – für viele unmerkbar – grundlegende Anschauungen über die Welt und die Menschen beeinflussen.
  12. Wichtige Themen hier sind (i) das Bild vom Menschen generell, (ii) davon abhängig die Auffassung möglicher Werte, Grundwerte, Menschenrechte und Verfassungstexte, u.a. auch (iii) die Vorstellungen vom Sinn des Lebens im Kontext von religiösen Vorstellungen.
  13. Diese Überlegungen sind weiter zu führen.

Literaturhinweis:

Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.