M.DONALD: EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 2

Diesem Beitrag ging voraus Teil 1.

1) Das siebte Kapitel ist überschrieben ‚The First Hybrid Minds on Earth‘ (etwa: ‚Die ersten hybriden Geister auf der Erde‘). (S.252)
2) [Anmerkung: Das Problem ist, dass es für den Plural des englischen Begriffs ‚minds‘ in diesem Kontext keine direkte Übersetzung gibt. Die Übersetzung ‚Geister‘ ist eher irreführend, da mit ‚Geister‘ im Deutschen etwas anderes assoziiert wird als mit dem Plural von ‚minds‘. Das liegt daran, dass der deutsche Singular ‚Geist‘ einmal die ‚geistige Kapazität‘ im allgemeinen meinen kann, aber auch ein ontologisch schillerndes Wesen, das als ‚Geist‘ zwar ‚irgendwie‘ da ist, aber nicht so, wie ein reales Wesen. Von der ‚geistigen Kapazität‘ im Singular gibt es im Deutschen aber keinen wirklichen Plural, also die ‚geistige Kapazität‘ in vielfachen Ausprägungen, viele ‚reale‘ Wesen mit einem ‚realen‘ Geist. Die Übersetzung von ‚mind‘ als ‚Verstand‘ oder ‚Vernunft‘ ist nicht ganz falsch, aber auch nicht ganz richtig. Aber auch von ‚Verstand‘ und ‚Vernunft‘ gibt es im Deutschen keinen Plural! Das ist eigentlich interessant. Warum kann man im Deutschen von ‚Geist‘, ‚Verstand‘ und ‚Vernunft‘ nicht im Plural sprechen bzw. denken? Faktisch sind diese Eigenschaften an individuelle Körper gebunden, von denen es viele gibt. Warum kann man im Deutschen dann nicht von ‚den Geistern‘, den ‚Verständen‘, ‚den Vernünften‘ sprechen? Ich denke, hier zeigt sich in der Sprache etwas, das man nicht so einfach hinnehmen sollte.]
3) Das Kapitel startet mit der These, dass die Entwicklung ’symbolischer Fähigkeiten‘ (’symbolic skills‘) nicht durch Beschränkung auf ein isoliertes Gehirn alleine erklärt werden können, da es sich um Phänomene handelt, die ‚inhärent vernetzte Phänomene‘ (‚inherent network phenomena‘) sind.(vgl. S.252)
4) [Anmerkung: Wenn ich einen Körper als Ansammlung von vielen Zellen (ca. 14 Billionen, 14 * 10^12) verstehe, die in ihrer Ausformung von einem genetischen Bauplan und seiner ‚Umsetzung‘ in Form von ‚Wachstum‘ abhängig sind, dann kann ich die genetische und die ontogenetische Maschinerie natürlich bis zu einem gewissen Grad beschreiben, ohne explizit Bezug auf externe Faktoren zu nehmen. Eine solche Beschreibung ist auch nicht ‚falsch‘, da das, was ich beschreibe, ja empirisch aufweisbar ist. Dennoch kann diese empirische nicht falsche Beschreibung in ihrem Verzicht auf korrelierende Kontext-Faktoren möglicherweise entscheidende Faktoren ‚unterschlagen‘ (‚verdrängen‘,…). Dies wäre dann der Fall, wenn sich die ‚körperinternen‘ Faktoren in ihren Veränderungen nur ‚verstehen lassen würden‘, wenn man die korrelierenden Faktoren einbeziehen würde. Verstehen ist aber relativ, kriterienabhängig: welche Eigenschaften erscheinen einem ‚wichtig‘, so dass man sie in eine Erklärung einbeziehen möchte? ]
5) [Anmerkung: In einer empirischen Erklärung gelten nur Phänomene, die notwendig sind, um das Auftreten eines bestimmten Phänomens auch in Form einer Voraussage ‚erklären‘ zu können, etwa: Wenn X gegeben ist, dann wird Y mit einer Wahrscheinlichkeit von p auftreten. Wenn ich mehrere biologische Arten A1, …, Ak habe, die eine Eigenschaft P0 gemeinsam haben, sich aber jeweils in mindestens einer Eigenschaft P1, …, Pk voneinander unterscheiden, dann würde eine Beschränkung auf P0 zwar nicht falsch sein, aber eben nicht alles erklären. Um die Art Ai in ihrer Besonderheit erklären zu können, müsste ich die Eigenschaften P0 + Pi erklären, nicht nur P0 alleine.]
6) [Anmerkung: Wie im Falle biologischer Systeme bekannt, entwickeln sich besondere Arten Ai mit einer Spezialeigenschaft Pi in der Regel immer in Abhängigkeit von einer besonderen Umgebungseigenschaften Ei. Dies bedeutet, man kann das Auftreten der Eigenschaft Pi bei der Art Ai nicht ‚verstehen‘, wenn man die korrelierende Eigenschaft Ei nicht berücksichtigt. Aus diesem Grund betrachtet die moderne Biologie biologische Systeme Ai niemals isoliert, sondern immer nur im Kontext von jeweiligen umgebenden Lebensräumen Ei und die ‚Wechselwirkungen‘ zwischen Umgebung und der Population der Art Ai. Diese Wechselwirkungen setzen sich zusammen aus individuellen Eigenschaften des jeweiligen individuellen biologischen Systems (z.B. spezifische Wahrnehmungsfähigkeit, Verdauungsfähigkeit, Bewegungsform, usw.) und verbunden damit mit der Zahl der Nachkommen während der Lebenszeit. Die individuellen Fähigkeiten erweisen ihre Bedeutung in der Fähigkeit, dass die Population als Ganze in jeder Generation über hinreichend viele und fähige Nachkommen verfügt. Diese Sicht der Dinge war in der Biologie nicht immer schon da; sie musste Schritt für Schritt erarbeitet werden.]
7) [Anmerkung: Die These von Donald , dass man den Kontext einbeziehen muss, ist von daher einerseits nichts grundlegend Neues. Andererseits legt er den Finger auf Kontexteigenschaften, die als solche qualitativ verschieden sind von den vorausgehenden. ‚Symbole‘ sind vieldeutige Werkzeuge, die der Mensch so in der Natur nicht vorgefunden, sondern die er selber geschaffen hat. In dem Maße, wie er sie geschaffen hat, können sie zu einem Teil seiner Umgebung werden, die wie die ’natürliche‘ Umgebung auf ihn ‚einwirken‘ kann. Und hier kommt die nächste Besonderheit: Symbole als Umgebung wirken nicht nur physisch auf den Menschen ein wie die natürliche Natur, sondern sie beeinflussen die gedanklichen Prozesse des Menschen, sie bilden ‚Formen‘, ‚Muster‘, ‚Regeln‘, Strukturen‘, ‚Inhalte‘ usw. der gedanklichen Prozesse, mit Hilfe deren sich der Mensch in seiner Welt ‚orientiert‘. Die Orientierung besteht darin, dass der Mensch ‚im Medium seiner Gedanken‘ seine Wahrnehmungen von der Welt (und sich selbst) ‚interpretiert‘. Anders gesagt: mit den Symbolen als Werkzeug schafft der Mensch eine Umgebung, die auf ihn zurückwirken kann, und mit Hilfe von der er die Welt interpretiert; eine bizarre ‚Rückkopplung‘. Dies ist keine genetisch-ontogenetisch vermittelte Koevolution sondern eine symbolisch vermittelte Koevolution ‚mit sich selbst‘; das ist eine neue Qualität. Der Mensch schafft sich in symbolischen Räumen ein Medium, das als dieses Medium auf sein Denken zurückwirkt und darin permanent sein Medium verändert.]
8) [Anmerkung: Verglichen mit der genetischen basierten Evolution ist diese Art von symbolischer Koevolution um Dimensionen schneller. Durch die ‚Ungleichzeitigkeit‘ von genetischer und symbolischer Koevolution ist ein massiver Konflikt vorprogrammiert: wird die schnellere symbolische Evolution die langsamere genetische Evolution letztlich strukturell verändern können (durch ‚Gentechnik‘) oder wird die symbolische Evolution durch Schaffung eines ‚künstlichen Geistes‘ die genetische Evolution überflüssig machen? ]
9) Diese These bedeutet im Fall der Sprache, dass es – nach Donald — nicht die Fähigkeit zum Sprechen als solche war, die zum Phänomen der Sprache in ihrem vollem Umfang geführt hat, sondern in der Bildung von ‚gedanklichen Gemeinschaften‘ (‚cognitive communities‘). Dies bedeutet, das Zusammensein und das Zusammenwirken von mehreren Menschen als solchen muss gegeben gewesen sein, damit sich aus einem elementaren ‚Sprechen‘ ein ‚Sprache‘ entwickeln konnte. (vgl. SS.252-254)
10) [Anmerkung: So suggestiv diese Formulierungen von Donald klingen mögen, so erscheint mir doch Vorsicht geboten. Wie schon das einfache Beispiel mit den beiden Nervenzellen A und B andeutete, die ein UND oder OR-Gatter realisieren: der einzelnen Zelle kann man dies Eigenschaft nicht ansehen. Noch kann man sagen, dass A sich nur so entwickeln konnte, weil es B gab (oder umgekehrt); in dem Falle reicht es aus, dass sowohl A als auch B bestimmte Grundeigenschaften besitzen, die in Kombination unterschiedliche Funktionen ‚zeigen‘. Das gleiche gilt für Atome; auch wenn man nicht sagt, dass Wasserstoff ‚H‘ sich bilden musste, weil es Sauerstoff ‚O‘ gab (oder umgekehrt), gilt, dass eine Kombination von ‚H‘ und ‚O‘ zu ‚H2O‘ möglich ist und dann in dieser Kombination ’neue‘ Eigenschaften zeigt. M.a.W. das Vorkommen von einzelnen Gehirnen im Rahmen einer Population bedeutet, dass die Gehirne ‚ihre eigene Umgebung‘ sind. Das Besondere wäre nicht die Umgebung als solche, sondern die Tatsache, dass Gehirne spezielle Eigenschaften besitzen, die, wenn sie auf ein anderes Gehirn treffen, ’sichtbar‘ werden. Im Falle der Sprache als einem vernetzten Beziehungssystem von ‚Sprachmaterial‘ (‚token‘) ‚Z‘, möglichem ‚intentionalem Gegenstand‘ ‚O'(‚real‘ oder ‚gedacht‘), ‚gewusster Bedeutungsbeziehung‘ ‚B: Z <---> O‘ und einem ’semiotischen System‘ ‚S‘ als Träger und Realisator dieser Bedeutungsbeziehungen, sind Gehirne in einem Körper – soweit wir sie kennen – die idealen Mediatoren für Sprache: Gehirne können intentionale Gegenstände O ‚repräsentieren‘, sie können Zeichenmaterial Z ‚produzieren‘, sie können beliebige Bedeutungsbeziehungen B realisieren, und sie können diese Fähigkeiten als dynamische Systeme kontinuierlich einsetzen. Dies bedeutet, die Präsenz von mindestens zwei Gehirnen bietet alle Voraussetzungen dafür, dass sich Sprache bilden kann. ]
11) [Anmerkung: Vor diesem Hintergrund erscheint es bemerkenswert, dass die Wissenschaft sich bislang so schwer tut, Sprachbildungsprozesse mit dem Computer nach zu vollziehen. Seit den pionierhaften Talking-Heads Experimenten eines Luc Steels sind wir nicht viel weiter gekommen (siehe Quellen unten) (vergleicht man die Forschungsmittel, die generell ausgegeben werden mit jenen, die für Forschungen zur künstlichen Intelligenz ausgegeben werden, so ist der Betrag für künstliche Intelligenz so niedrig, dass man ihn kaum in Prozenten ausdrücken kann. Aber ich bezweifle, ob es nur am Geld liegt.]
12) Das erste, was Kinder in solchen gedanklichen Gemeinschaften lernen müssen, das ist ein Satz von ‚reziproken Verhaltensmustern‘, in denen man sich wechselseitig der Aufmerksamkeit versichern kann. Dies wiederum geht nur, sofern die Gedächtnisstrukturen hinreichend differenziert sind. Objekte, Relationen, Strukturen, Rollen, Abläufe usw. müssen erinnert werden können; Selbstmodelle und Fremdmodelle, die Metareflexionen voraussetzen. Dies alles impliziert komplexe Lernprozesse, die wiederum Zeit brauchen und entsprechende soziale Umgebungen, die dazu beitragen, dass bestimmte Muster ’sozial einprogrammiert‘ werden. (vgl.SS.254-257)
13) [Anmerkung: Aufgrund des nachweisbaren Zusammenhangs zwischen bestimmten Umgebungseigenschaften Ei und bestimmten Eigenschaften Pi einer bestimmten Art Ai ist die Versuchung groß, diesen Zusammenhang ‚kausal‘ zu interpretieren, also im Sinne ‚weil‘ es Ei gibt, daher bildete sich Pi heraus. Mir scheint, dies ist – wenn überhaupt – höchstens die ‚halbe Wahrheit‘. Bedenkt man die Funktionsweise der genetischen basierten Evolution, so ist die primäre Quelle von möglichen Strukturen das Wechselspiel von Selbstreproduktion des genetischen Codes und der molekularen Übersetzung des Codes in Proteinstrukturen als Ontogenese. Dies bedeutet, dass – egal welche Umgebungseigenschaften jeweils gegeben sind – primär der verfügbare genetische Code und dessen molekulare Übersetzung darüber entscheidet, was sich überhaupt an Strukturen bilden kann. So könnte es grundsätzlich auch so sein, dass die Menge der genetisch bedingten Strukturen grundsätzlich nicht zu den umgebungsmäßig gegebenen Eigenschaften Ei passen würde. In diesem Fall könnten die Umgebungseigenschaften niemals ‚bewirken‘, dass sich ‚geeignete‘ Strukturen bilden. Der Eindruck von möglichen kausalen Zusammenhängen ist ‚beobachterabhängig‘ und eher ein ‚Artefakt des Denkens‘. Dass es zu scheinbaren ‚Anpassungen‘ kommen kann ist zwar ein ‚Auswahlprozesse‘ (Selektion‘), aber nicht in dem Sinne, dass die gegebenen Umgebungseigenschaften Ei aller erst die speziellen genetischen Eigenschaften Gi schaffen, die zu den phänotypischen Eigenschaften Pi führen, sondern weil der genetische und ontogenetische Prozess ‚von sich aus‘ die Eigenschaften Gi bereitstellen kann bzw. sie bereitgestellt hatte können diese dann ’selektiert‘ werden, weil jene Phänotypen, die aus diesen Gi hervorgegangen sind, mehr Nachkommen haben, als jene Phänotypen, die aus einem anderen Genotyp Gj hervorgegangen sind. Die Dramaturgie von geologischem Erdprozess und genetisch basierter Evolution ist damit in keiner Weise aufgeklärt; hier gibt es mehr Fragen als Antworten.‘]
14) Donald ergänzt seine Bemerkungen zum Gedächtnis dahingehend, dass er für das menschliche Gedächtnis postuliert, dass es die beobachtbaren Verhaltensleistungen nur unterstützen kann, wenn es in viele funktional differenzierte Bereich aufgegliedert ist, die parallel arbeiten können. So müssten wir grundsätzlich unterscheiden können zwischen ‚Selbst‘ und ‚Anderer‘, ‚Gegenwart‘, ‚Vergangenheit‘ und ‚Zukunft‘. (vgl. SS.257-259)
15) [Anmerkung: Es ist interessant, wie vage und allgemein die Aussagen zum Gedächtnis sind, obgleich doch gerade das Gedächtnis so zentral sein soll für die symbolisch vermittelte Kultur (ein ähnliches Phänomen war bei Norman zu beobachten. Auch bei ihm waren die Aussagen zum Gedächtnis sehr vage, plakativ, nicht durch harte empirische Modellbildung abgesicherten. Andererseits, wenn man sieht, wie schwer sich selbst die neuesten neurowissenschaftlichen Forschungen zum Raumgedächtnis und episodischen Gedächtnis tun, dann darf man Donald hier nicht zu hart kritisieren. Aber zumindest sollte er dann darauf hinweisen, dass es ziemlich spekulativ ist, was er da sagt…]

LITERATURHINWEISE

Steels, L.; Cooperation between distributed agents through self-organisation, Intelligent Robots and Systems ’90. ‚Towards a New Frontier of Applications‘, Proceedings. IROS ’90. IEEE International Workshop on, pp. 8 – 14 supl, 1990
Steels, Luc (1990) „Components of Expertise“ , AI Magazine Volume 11 Number 2 (1990), pp. 28-49.
Steels, L.; Mathematical analysis of behavior systems, From Perception to Action Conference, 1994., Proceedings, pp. 88 – 95, 1994
Steels, L.; A self-organizing spatial vocabulary, Artificial Life Journal, 2(3), pp. 319-332, 1995
Steels, L.; Language Games for Autonomous Robots, IEEE Intelligent Systems , Volume 16 Issue 5, pp.16 – 22, 2001
Steels, Luc; (2001) Grounding Symbols through Evolutionary Language Games. In: Cangelosi A. and Parisi D. (Eds.) Simulating the Evolution of Language Springer.
Steels, L.; Evolving grounded communication for robots, Trends in Cognitive Science 7(7), July 2003, pp.308 – 312
Steels, L.; Semiotic Dynamics for Embodied Agents, Intelligent Systems, IEEE, Volume: 21 , Issue: 3, pp. 32 – 38, 2006
Steels, L.; The Symbol Grounding Problem has been solved. So What’s Next?, In Glenberg, A.; Graesser, A.; Vega, M. de; (Eds.), Symbols, Embodiment, and Meaning, Oxford University Press, pp. 506-557, 2008
Steels, L.; Work on Symbol Grounding now needs concrete Experimentation, Intern. J. of Signs and Semiotic Systems, 1(1), pp. 57-58, 2011
Steels, Luc (2011) „Design Patterns in Fluid Construction Grammar“ , Amsterdam: John Benjamins Pub.
Steels, Luc (2011) „Modeling the cultural evolution of language.“ Physics of Life Reviews, 8(4) pp. 339-356.

Fortsetzung folgt in Teil 3.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.