1) Das siebte Kapitel ist überschrieben ‚The First Hybrid Minds on Earth‘ (etwa: ‚Die ersten hybriden Geister auf der Erde‘). (S.252)
2) [Anmerkung: Das Problem ist, dass es für den Plural des englischen Begriffs ‚minds‘ in diesem Kontext keine direkte Übersetzung gibt. Die Übersetzung ‚Geister‘ ist eher irreführend, da mit ‚Geister‘ im Deutschen etwas anderes assoziiert wird als mit dem Plural von ‚minds‘. Das liegt daran, dass der deutsche Singular ‚Geist‘ einmal die ‚geistige Kapazität‘ im allgemeinen meinen kann, aber auch ein ontologisch schillerndes Wesen, das als ‚Geist‘ zwar ‚irgendwie‘ da ist, aber nicht so, wie ein reales Wesen. Von der ‚geistigen Kapazität‘ im Singular gibt es im Deutschen aber keinen wirklichen Plural, also die ‚geistige Kapazität‘ in vielfachen Ausprägungen, viele ‚reale‘ Wesen mit einem ‚realen‘ Geist. Die Übersetzung von ‚mind‘ als ‚Verstand‘ oder ‚Vernunft‘ ist nicht ganz falsch, aber auch nicht ganz richtig. Aber auch von ‚Verstand‘ und ‚Vernunft‘ gibt es im Deutschen keinen Plural! Das ist eigentlich interessant. Warum kann man im Deutschen von ‚Geist‘, ‚Verstand‘ und ‚Vernunft‘ nicht im Plural sprechen bzw. denken? Faktisch sind diese Eigenschaften an individuelle Körper gebunden, von denen es viele gibt. Warum kann man im Deutschen dann nicht von ‚den Geistern‘, den ‚Verständen‘, ‚den Vernünften‘ sprechen? Ich denke, hier zeigt sich in der Sprache etwas, das man nicht so einfach hinnehmen sollte.]
3) Das Kapitel startet mit der These, dass die Entwicklung ’symbolischer Fähigkeiten‘ (’symbolic skills‘) nicht durch Beschränkung auf ein isoliertes Gehirn alleine erklärt werden können, da es sich um Phänomene handelt, die ‚inhärent vernetzte Phänomene‘ (‚inherent network phenomena‘) sind.(vgl. S.252)
4) [Anmerkung: Wenn ich einen Körper als Ansammlung von vielen Zellen (ca. 14 Billionen, 14 * 10^12) verstehe, die in ihrer Ausformung von einem genetischen Bauplan und seiner ‚Umsetzung‘ in Form von ‚Wachstum‘ abhängig sind, dann kann ich die genetische und die ontogenetische Maschinerie natürlich bis zu einem gewissen Grad beschreiben, ohne explizit Bezug auf externe Faktoren zu nehmen. Eine solche Beschreibung ist auch nicht ‚falsch‘, da das, was ich beschreibe, ja empirisch aufweisbar ist. Dennoch kann diese empirische nicht falsche Beschreibung in ihrem Verzicht auf korrelierende Kontext-Faktoren möglicherweise entscheidende Faktoren ‚unterschlagen‘ (‚verdrängen‘,…). Dies wäre dann der Fall, wenn sich die ‚körperinternen‘ Faktoren in ihren Veränderungen nur ‚verstehen lassen würden‘, wenn man die korrelierenden Faktoren einbeziehen würde. Verstehen ist aber relativ, kriterienabhängig: welche Eigenschaften erscheinen einem ‚wichtig‘, so dass man sie in eine Erklärung einbeziehen möchte? ]
5) [Anmerkung: In einer empirischen Erklärung gelten nur Phänomene, die notwendig sind, um das Auftreten eines bestimmten Phänomens auch in Form einer Voraussage ‚erklären‘ zu können, etwa: Wenn X gegeben ist, dann wird Y mit einer Wahrscheinlichkeit von p auftreten. Wenn ich mehrere biologische Arten A1, …, Ak habe, die eine Eigenschaft P0 gemeinsam haben, sich aber jeweils in mindestens einer Eigenschaft P1, …, Pk voneinander unterscheiden, dann würde eine Beschränkung auf P0 zwar nicht falsch sein, aber eben nicht alles erklären. Um die Art Ai in ihrer Besonderheit erklären zu können, müsste ich die Eigenschaften P0 + Pi erklären, nicht nur P0 alleine.]
6) [Anmerkung: Wie im Falle biologischer Systeme bekannt, entwickeln sich besondere Arten Ai mit einer Spezialeigenschaft Pi in der Regel immer in Abhängigkeit von einer besonderen Umgebungseigenschaften Ei. Dies bedeutet, man kann das Auftreten der Eigenschaft Pi bei der Art Ai nicht ‚verstehen‘, wenn man die korrelierende Eigenschaft Ei nicht berücksichtigt. Aus diesem Grund betrachtet die moderne Biologie biologische Systeme Ai niemals isoliert, sondern immer nur im Kontext von jeweiligen umgebenden Lebensräumen Ei und die ‚Wechselwirkungen‘ zwischen Umgebung und der Population der Art Ai. Diese Wechselwirkungen setzen sich zusammen aus individuellen Eigenschaften des jeweiligen individuellen biologischen Systems (z.B. spezifische Wahrnehmungsfähigkeit, Verdauungsfähigkeit, Bewegungsform, usw.) und verbunden damit mit der Zahl der Nachkommen während der Lebenszeit. Die individuellen Fähigkeiten erweisen ihre Bedeutung in der Fähigkeit, dass die Population als Ganze in jeder Generation über hinreichend viele und fähige Nachkommen verfügt. Diese Sicht der Dinge war in der Biologie nicht immer schon da; sie musste Schritt für Schritt erarbeitet werden.]
7) [Anmerkung: Die These von Donald , dass man den Kontext einbeziehen muss, ist von daher einerseits nichts grundlegend Neues. Andererseits legt er den Finger auf Kontexteigenschaften, die als solche qualitativ verschieden sind von den vorausgehenden. ‚Symbole‘ sind vieldeutige Werkzeuge, die der Mensch so in der Natur nicht vorgefunden, sondern die er selber geschaffen hat. In dem Maße, wie er sie geschaffen hat, können sie zu einem Teil seiner Umgebung werden, die wie die ’natürliche‘ Umgebung auf ihn ‚einwirken‘ kann. Und hier kommt die nächste Besonderheit: Symbole als Umgebung wirken nicht nur physisch auf den Menschen ein wie die natürliche Natur, sondern sie beeinflussen die gedanklichen Prozesse des Menschen, sie bilden ‚Formen‘, ‚Muster‘, ‚Regeln‘, Strukturen‘, ‚Inhalte‘ usw. der gedanklichen Prozesse, mit Hilfe deren sich der Mensch in seiner Welt ‚orientiert‘. Die Orientierung besteht darin, dass der Mensch ‚im Medium seiner Gedanken‘ seine Wahrnehmungen von der Welt (und sich selbst) ‚interpretiert‘. Anders gesagt: mit den Symbolen als Werkzeug schafft der Mensch eine Umgebung, die auf ihn zurückwirken kann, und mit Hilfe von der er die Welt interpretiert; eine bizarre ‚Rückkopplung‘. Dies ist keine genetisch-ontogenetisch vermittelte Koevolution sondern eine symbolisch vermittelte Koevolution ‚mit sich selbst‘; das ist eine neue Qualität. Der Mensch schafft sich in symbolischen Räumen ein Medium, das als dieses Medium auf sein Denken zurückwirkt und darin permanent sein Medium verändert.]
8) [Anmerkung: Verglichen mit der genetischen basierten Evolution ist diese Art von symbolischer Koevolution um Dimensionen schneller. Durch die ‚Ungleichzeitigkeit‘ von genetischer und symbolischer Koevolution ist ein massiver Konflikt vorprogrammiert: wird die schnellere symbolische Evolution die langsamere genetische Evolution letztlich strukturell verändern können (durch ‚Gentechnik‘) oder wird die symbolische Evolution durch Schaffung eines ‚künstlichen Geistes‘ die genetische Evolution überflüssig machen? ]
9) Diese These bedeutet im Fall der Sprache, dass es – nach Donald — nicht die Fähigkeit zum Sprechen als solche war, die zum Phänomen der Sprache in ihrem vollem Umfang geführt hat, sondern in der Bildung von ‚gedanklichen Gemeinschaften‘ (‚cognitive communities‘). Dies bedeutet, das Zusammensein und das Zusammenwirken von mehreren Menschen als solchen muss gegeben gewesen sein, damit sich aus einem elementaren ‚Sprechen‘ ein ‚Sprache‘ entwickeln konnte. (vgl. SS.252-254)
10) [Anmerkung: So suggestiv diese Formulierungen von Donald klingen mögen, so erscheint mir doch Vorsicht geboten. Wie schon das einfache Beispiel mit den beiden Nervenzellen A und B andeutete, die ein UND oder OR-Gatter realisieren: der einzelnen Zelle kann man dies Eigenschaft nicht ansehen. Noch kann man sagen, dass A sich nur so entwickeln konnte, weil es B gab (oder umgekehrt); in dem Falle reicht es aus, dass sowohl A als auch B bestimmte Grundeigenschaften besitzen, die in Kombination unterschiedliche Funktionen ‚zeigen‘. Das gleiche gilt für Atome; auch wenn man nicht sagt, dass Wasserstoff ‚H‘ sich bilden musste, weil es Sauerstoff ‚O‘ gab (oder umgekehrt), gilt, dass eine Kombination von ‚H‘ und ‚O‘ zu ‚H2O‘ möglich ist und dann in dieser Kombination ’neue‘ Eigenschaften zeigt. M.a.W. das Vorkommen von einzelnen Gehirnen im Rahmen einer Population bedeutet, dass die Gehirne ‚ihre eigene Umgebung‘ sind. Das Besondere wäre nicht die Umgebung als solche, sondern die Tatsache, dass Gehirne spezielle Eigenschaften besitzen, die, wenn sie auf ein anderes Gehirn treffen, ’sichtbar‘ werden. Im Falle der Sprache als einem vernetzten Beziehungssystem von ‚Sprachmaterial‘ (‚token‘) ‚Z‘, möglichem ‚intentionalem Gegenstand‘ ‚O'(‚real‘ oder ‚gedacht‘), ‚gewusster Bedeutungsbeziehung‘ ‚B: Z <---> O‘ und einem ’semiotischen System‘ ‚S‘ als Träger und Realisator dieser Bedeutungsbeziehungen, sind Gehirne in einem Körper – soweit wir sie kennen – die idealen Mediatoren für Sprache: Gehirne können intentionale Gegenstände O ‚repräsentieren‘, sie können Zeichenmaterial Z ‚produzieren‘, sie können beliebige Bedeutungsbeziehungen B realisieren, und sie können diese Fähigkeiten als dynamische Systeme kontinuierlich einsetzen. Dies bedeutet, die Präsenz von mindestens zwei Gehirnen bietet alle Voraussetzungen dafür, dass sich Sprache bilden kann. ]
11) [Anmerkung: Vor diesem Hintergrund erscheint es bemerkenswert, dass die Wissenschaft sich bislang so schwer tut, Sprachbildungsprozesse mit dem Computer nach zu vollziehen. Seit den pionierhaften Talking-Heads Experimenten eines Luc Steels sind wir nicht viel weiter gekommen (siehe Quellen unten) (vergleicht man die Forschungsmittel, die generell ausgegeben werden mit jenen, die für Forschungen zur künstlichen Intelligenz ausgegeben werden, so ist der Betrag für künstliche Intelligenz so niedrig, dass man ihn kaum in Prozenten ausdrücken kann. Aber ich bezweifle, ob es nur am Geld liegt.]
12) Das erste, was Kinder in solchen gedanklichen Gemeinschaften lernen müssen, das ist ein Satz von ‚reziproken Verhaltensmustern‘, in denen man sich wechselseitig der Aufmerksamkeit versichern kann. Dies wiederum geht nur, sofern die Gedächtnisstrukturen hinreichend differenziert sind. Objekte, Relationen, Strukturen, Rollen, Abläufe usw. müssen erinnert werden können; Selbstmodelle und Fremdmodelle, die Metareflexionen voraussetzen. Dies alles impliziert komplexe Lernprozesse, die wiederum Zeit brauchen und entsprechende soziale Umgebungen, die dazu beitragen, dass bestimmte Muster ’sozial einprogrammiert‘ werden. (vgl.SS.254-257)
13) [Anmerkung: Aufgrund des nachweisbaren Zusammenhangs zwischen bestimmten Umgebungseigenschaften Ei und bestimmten Eigenschaften Pi einer bestimmten Art Ai ist die Versuchung groß, diesen Zusammenhang ‚kausal‘ zu interpretieren, also im Sinne ‚weil‘ es Ei gibt, daher bildete sich Pi heraus. Mir scheint, dies ist – wenn überhaupt – höchstens die ‚halbe Wahrheit‘. Bedenkt man die Funktionsweise der genetischen basierten Evolution, so ist die primäre Quelle von möglichen Strukturen das Wechselspiel von Selbstreproduktion des genetischen Codes und der molekularen Übersetzung des Codes in Proteinstrukturen als Ontogenese. Dies bedeutet, dass – egal welche Umgebungseigenschaften jeweils gegeben sind – primär der verfügbare genetische Code und dessen molekulare Übersetzung darüber entscheidet, was sich überhaupt an Strukturen bilden kann. So könnte es grundsätzlich auch so sein, dass die Menge der genetisch bedingten Strukturen grundsätzlich nicht zu den umgebungsmäßig gegebenen Eigenschaften Ei passen würde. In diesem Fall könnten die Umgebungseigenschaften niemals ‚bewirken‘, dass sich ‚geeignete‘ Strukturen bilden. Der Eindruck von möglichen kausalen Zusammenhängen ist ‚beobachterabhängig‘ und eher ein ‚Artefakt des Denkens‘. Dass es zu scheinbaren ‚Anpassungen‘ kommen kann ist zwar ein ‚Auswahlprozesse‘ (Selektion‘), aber nicht in dem Sinne, dass die gegebenen Umgebungseigenschaften Ei aller erst die speziellen genetischen Eigenschaften Gi schaffen, die zu den phänotypischen Eigenschaften Pi führen, sondern weil der genetische und ontogenetische Prozess ‚von sich aus‘ die Eigenschaften Gi bereitstellen kann bzw. sie bereitgestellt hatte können diese dann ’selektiert‘ werden, weil jene Phänotypen, die aus diesen Gi hervorgegangen sind, mehr Nachkommen haben, als jene Phänotypen, die aus einem anderen Genotyp Gj hervorgegangen sind. Die Dramaturgie von geologischem Erdprozess und genetisch basierter Evolution ist damit in keiner Weise aufgeklärt; hier gibt es mehr Fragen als Antworten.‘]
14) Donald ergänzt seine Bemerkungen zum Gedächtnis dahingehend, dass er für das menschliche Gedächtnis postuliert, dass es die beobachtbaren Verhaltensleistungen nur unterstützen kann, wenn es in viele funktional differenzierte Bereich aufgegliedert ist, die parallel arbeiten können. So müssten wir grundsätzlich unterscheiden können zwischen ‚Selbst‘ und ‚Anderer‘, ‚Gegenwart‘, ‚Vergangenheit‘ und ‚Zukunft‘. (vgl. SS.257-259)
15) [Anmerkung: Es ist interessant, wie vage und allgemein die Aussagen zum Gedächtnis sind, obgleich doch gerade das Gedächtnis so zentral sein soll für die symbolisch vermittelte Kultur (ein ähnliches Phänomen war bei Norman zu beobachten. Auch bei ihm waren die Aussagen zum Gedächtnis sehr vage, plakativ, nicht durch harte empirische Modellbildung abgesicherten. Andererseits, wenn man sieht, wie schwer sich selbst die neuesten neurowissenschaftlichen Forschungen zum Raumgedächtnis und episodischen Gedächtnis tun, dann darf man Donald hier nicht zu hart kritisieren. Aber zumindest sollte er dann darauf hinweisen, dass es ziemlich spekulativ ist, was er da sagt…]
LITERATURHINWEISE
Steels, L.; Cooperation between distributed agents through self-organisation, Intelligent Robots and Systems ’90. ‚Towards a New Frontier of Applications‘, Proceedings. IROS ’90. IEEE International Workshop on, pp. 8 – 14 supl, 1990
Steels, Luc (1990) „Components of Expertise“ , AI Magazine Volume 11 Number 2 (1990), pp. 28-49.
Steels, L.; Mathematical analysis of behavior systems, From Perception to Action Conference, 1994., Proceedings, pp. 88 – 95, 1994
Steels, L.; A self-organizing spatial vocabulary, Artificial Life Journal, 2(3), pp. 319-332, 1995
Steels, L.; Language Games for Autonomous Robots, IEEE Intelligent Systems , Volume 16 Issue 5, pp.16 – 22, 2001
Steels, Luc; (2001) Grounding Symbols through Evolutionary Language Games. In: Cangelosi A. and Parisi D. (Eds.) Simulating the Evolution of Language Springer.
Steels, L.; Evolving grounded communication for robots, Trends in Cognitive Science 7(7), July 2003, pp.308 – 312
Steels, L.; Semiotic Dynamics for Embodied Agents, Intelligent Systems, IEEE, Volume: 21 , Issue: 3, pp. 32 – 38, 2006
Steels, L.; The Symbol Grounding Problem has been solved. So What’s Next?, In Glenberg, A.; Graesser, A.; Vega, M. de; (Eds.), Symbols, Embodiment, and Meaning, Oxford University Press, pp. 506-557, 2008
Steels, L.; Work on Symbol Grounding now needs concrete Experimentation, Intern. J. of Signs and Semiotic Systems, 1(1), pp. 57-58, 2011
Steels, Luc (2011) „Design Patterns in Fluid Construction Grammar“ , Amsterdam: John Benjamins Pub.
Steels, Luc (2011) „Modeling the cultural evolution of language.“ Physics of Life Reviews, 8(4) pp. 339-356.
Merlin Donald, A Mind So Rare. The Evolution of Human Consciousness. New York – London: W.W.Norton & Company, 2001
Zur Person von Merlin Donald gibt es einen Eintrag in der englischen Wikipedia und einen kurzen Text der Case Western University. Das aktuelle Buch ist eine Art Weiterentwickung seines Buches von 1991 (s.u.).
1) Dass ich bei einem Buch nur ausgewählte Kapitel bespreche ist neu. Liegt aber darin begründet, dass die im Kontext dieses Blogs interessante Thesen sich erst in den Schlusskapiteln finden (und weil die knappe Zeit eine Auswahl erzwingt).
2) Im Vorwort (‚Prologue‘) (vgl. SS.X – XIV) macht Donald darauf aufmerksam dass wissenschaftlicher Fortschritt nicht selten erst möglich wurde, wenn wir anscheinend gültige alltäglich Wahrheiten als trügerisch und falsch erkannt haben (z.B. erwiesen sich die Atome Demokrits im Laufe der Zeit nicht nur nicht als nicht ’solide‘, sondern die Unterscheidung zwischen Energie und Materie brach grundsätzlich in sich zusammen). Ähnlich erwiesen sich viele Anschauungen der Philosophie und der Psychologie über den menschlichen Geist als Täuschungen. Die Realität unserer Körper bestätigt keine einzige der Anschauungen der letzten Jahrtausende. Ein Schwerpunkt des Buches von Donald liegt darin, dass er die Besonderheit des menschlichen Geistes nicht in der Besonderheit der spezifischen Beschaffenheit des Gehirns alleine liegt (wenngleich es welche aufweist), sondern in der Fähigkeit, ‚Kultur‘ (‚culture‘) hervorzubringen und zu assimilieren. (vgl. S.XIII) Der menschliche ‚Geist‘ (‚mind‘) existiert nicht ‚für sich‘, sondern nur eingewoben in das Netzwerk einer Kultur. Für sich genommen ist ein einzelnes Gehirn isoliert, eingeschlossen in einen Körper, vollständig ’solipsistisch‘. Und es ist eine spannende Frage, wie es möglich war, dass die einzelnen Gehirne ihre Isoliertheit und Gefangenschaft im einzelnen Körper entkommen konnten.
3) Im Kap.1 zeichnet er ein wenig das Spannungsverhältnis zwischen dem Thema ‚Bewusstsein‘ einerseits und dem Thema ‚Evolution‘ andererseits nach. Im Allgemeinen sehen – nach Donald – Vertreter der Evolutionstheorie das Phänomen des Bewusstseins als etwas an, das ganz und gar unwissenschaftlich ist. (vgl. S.1) Als ‚Anti-Bewusstseins-Denker‘ nennt er ausdrücklich die Namen Daniel Dennett (der sich selbst als ‚Philosoph‘ bezeichnet) und den Psychologen Stephen Pinker. (vgl. S.1f) Die Grundthese von diesen beiden und anderen, die Donald nur ‚evolutionäre Hardliner‘ nennt, besteht nach Donald darin, dass sie die ‚Gene‘ und die ‚Maschinerie der Neuronen‘ zu den eigentlichen ‚Akteuren‘ erklären und dem Phänomen des Bewusstseins nur eine ephemere Rolle zubilligen. Die Erfolge der künstlichen Intelligenzforschung nutzen sie dann als zusätzlichen Hinweis darauf, dass man für die Erklärung sogenannter ‚geistiger Eigenschaften‘ keine speziellen ‚geistigen Eigenschaften‘ benötigt, sondern dass die normale ‚Hardware‘ – also sowohl die Chips der Computer wie die Zellen des Gehirns – ausreiche, um diese ‚Geistigkeit‘ – auch in Form eines ‚Bewusstseins‘ – zu erzeugen. (vgl. S.2f) Entsprechend sind auch emergente Phänomene wie ‚Kultur‘ nur Ausstülpungen der zugrunde liegenden ‚Hardware‘. (vgl. S.3) Richard Dawkins hat in diesem Kontext das Denkmodell der ‚Meme‘ eingeführt; diese sieht er in Analogie zu den Genen als Grundelemente kulturellen Denkens.(vgl. S.4) Der einzelne Mensch ist nach Donald in diesem Modell von Dawkins ein willenloses Etwas, von ‚unten‘ determiniert durch die Gene und die übermächtige Hardware des Körpers, von außen durch eine vorgegebene Umwelt und dann, zusätzlich, durch die Meme der Kultur, die von außen in ihn eindringen und seine Wahrnehmung und sein Denken steuern.(vgl. S.4)
4) Diesem das Bewusstsein herunter spielende Denken setzt Donald zahlreiche empirische Befunde entgegen (Oliver Sacks, Melvyn Goodale, A.D.Milner, Tony Marcel, Ariel Mack, Irvin Rock, Peter Juszyck), die alle zusammen die Hypothese unterstützen sollen, dass nahezu alle wichtigen Lernleistungen ganz bestimmte Aufmerksamkeitsleistungen und Bewusstheit voraussetzen. Nachdem man etwas mit Aufmerksamkeit und Bewusstsein gelernt hat, kann man es oft ‚automatisieren‘. Außerdem zeigt sich, dass diese charakteristischen ‚Bewusstheiten‘ mit bestimmten Gehirnarealen korrelieren; werden diese beschädigt sind diese Bewusstheiten nicht mehr verfügbar. (vgl. SS.4-7)
5) Donald sieht sich selbst nicht im Gegensatz zu einer evolutionären Sicht der Entstehung des Lebens. Im Gegensatz zu jenen, die er evolutionäre Hardliner nennt, betrachtet er aber das Phänomen des Bewusstseins, so, wie es sich bei den Menschen dann zeigte, als eine Entwicklung, die etwas Besonderes repräsentiert, das den Menschen von anderen Lebewesen unterscheidet. Natürlich gibt es reale Veränderungen im Gehirn selbst, die nachweisbar sind, aber diese Veränderungen der ‚Hardware‘ erklärt als solche nicht den zusätzlichen ‚Funktionszuwachs‘, der letztlich der Schlüssel zu allem ist, was den Menschen von den anderen Lebewesen markant unterscheidet; das Phänomen der ‚Sprachen‘ ist hier nur ein Aspekt, wenngleich vielleicht ein sehr zentraler. Während alle anderen Lebewesen – soweit wir heute erkennen können – weitgehend von ihren genetisch induzierten Programmen bestimmt sind, hat der Mensch die Fähigkeit erlangt, durch sein Selbstbewusstsein und durch seine Sprachfähigkeit die vorgegebenen Bahnen eindrücklich und nachhaltig aufzubrechen, nicht nur einmal, sondern andauernd. (vgl. S.7f)
6) Donald gibt auch zu, dass er selbst noch keine ‚Theorie des Selbstbewusstseins‘ im engeren Sinn habe und er sieht auch nicht, dass es solch eine Theorie in naher Zukunft geben könnte. Was er aber versucht, das ist die Inblicknahme des Phänomens ‚Selbstbewusstsein‘ in all seinen Manifestationen, in der Hoffnung, dass dann in der Zukunft vielleicht so langsam eine Theorie entstehen könnte, die diese Manifestationen in Beziehung setzen kann zu der zugrunde liegenden Maschinerie.(vgl. S.8f)
7) [Anmerkung: Donald benutzt ohne erkennbare Logik verschiedene Wortmarken abwechselnd, wenn er von (Selbst-)Bewusstsein spricht, z.B. ‚awareness‘, ‚consciousness‘, ’subjective awareness‘. Mir kommt es so vor, als ob die Wortmarke ‚conscsiousness‘ am häufigsten vorkommt. ]
8) Nach Donald fängt das Problem auch schon mit der Schwierigkeit einer klaren Definition an. Er selbst lehnt es ab, das Phänomen des ‚Selbstbewusstseins‘ z.B. auf reine ’sensorische Empfindung‘ oder auf ‚Sprache‘ zu reduzieren. Für ihn zeigt sich das Phänomen auf vielen Ebenen und in vielen Brennpunkten gleichzeitig und es ist zugleich tief verwurzelt in einem evolutionären Prozess. Unsere Art, Dinge ‚bewusst‘ tun zu können zeichnet uns aus vor allen anderen Arten. (vgl. SS.8-10) Dies schließt nicht aus, dass wir Teile unsere zerebralen Maschinerie mit anderen Lebewesen teilen, aber eben nicht alles. (vgl. S.10f) Und das Besondere des Menschen ist eben, dass seine zerebrale Maschinerie nicht nur Sprache und Kultur ermöglicht, sondern – und das ist das absolut Besondere – dass Sprache und Kultur auf den einzelnen Menschen so zurückwirken können, dass er als Teil von Sprache und Kultur einfach ein ‚anderes Wesen‘ wird als ohne diese beiden Elemente. (vgl. S.11)
9) [Anmerkung: Der Text von Donald liest sich recht packend, fast dramatisch. Man spürt, wie er mit den starken Tendenzen in Wissenschaft und Philosophie ringt, das Phänomen des Selbstbewusstseins ‚klein zu reden‘, es ‚weg zu reden‘. Während man es bei empirischen Wissenschaftlern fast noch verstehen kann, dass sie eine ’natürliche Scheu‘ vor zu komplexen Phänomenen haben, die sich einer einfachen empirischen Analyse entziehen, gewinnt es bei Menschen, die sich Philosophen nennen, dann schon fast bizarre Züge. Andererseits, auch das ‚Kleinreden‘ von Phänomenen kann seinen Wert haben und die Position eines Daniel Dennett hat in ihrer Radikalität so manchen vielleicht aufgeschreckt und dazu gebracht, doch auch einmal selbst über das Phänomen Selbstbewusstsein nachzudenken und nicht nur ’nachdenken zu lassen‘.]
10) [Anmerkung: Wie bei allen ‚emergenten‘ Phänomenen (z.B. ‚Wärme‘, ‚Phänotypen‘, ‚Verhalten‘ usw.) ist es natürlich immer am einfachsten sich einer Erklärung ganz zu verweigern und einfach nur auf die hervorbringenden Einzelelemente zu verweisen, die mit dem emergenten Phänomen korrelieren. So sind die einzelnen neuronalen Zellen in einem Nervensystem als solche aufweisbar und man kann einzelne ihrer Eigenschaften ‚messen‘. Aber mit noch so vielem Aufweisen einzelner Zellen kann man das Gesamtverhalten von z.B. nur zwei einzelnen Zellen NICHT erklären, die sich z.B. wie ein logisches Gatter (UND, ODER) verhalten. Von einer ‚höheren Betrachtungsebene‘ aus ist klar, dass es genau diese logische Struktur ist, die da ‚am Werke‘ ist, aber diese logische Struktur als solche ist kein ‚Objekt‘ wie die einzelnen, beteiligten Zellen. Die logische Struktur ist eine ‚Funktion‘ die sich ‚implizit im Verhalten zeigt‘, wenn man das Verhalten entsprechend ‚betrachtet‘. D.h. im ‚Zusammenwirken‘ beider einzelner Zellen zeigt sich eine ‚Eigenschaft‘, die sie beide ‚zusammen‘ haben, aber nur zusammen; bei Betrachtung jeder Zelle für sich würde diese Eigenschaft nicht sichtbar werden. Die Frage ist dann, wie man den ‚ontologischen Status‘ dieser ‚gemeinsamen Eigenschaft‘ bewertet. Die gemeinsame Eigenschaft ist ‚manifest‘, ‚real‘ beim ‚Zusammenwirken‘ und auch nur für denjenigen, der das Zusammenwirken als Zusammenwirken ‚beobachtet‘. Ohne einen Beobachter werden sich beide Zellen – nach unserem Wissen – genauso verhalten, aber für den menschlichen Erkenntnisraum erschließt sich dieser Sachverhalt nur, wenn es wenigstens einen menschlichen Beobachter gibt, der speziell auf das Zusammenwirken der beiden Zellen achtet und der darüber hinaus in der Lage ist, ein ‚Konzept‘ wie das des ‚logischen Gatters‘ oder einer ‚boolschen logischen Funktion‘ zu denken. Jemand, der keine Ahnung von Logik hat, würde das Verhalten der beiden Zellen, obgleich es da wäre, gar nicht wahrnehmen. ]
11) [Anmerkung: Das emergente Phänomen des Selbstbewusstseins ist zwar um ein Unendliches komplexer als unser Zwei-Neuronen-Modell eines logischen Gatters (es gibt ca. 100 Mrd. Nervenzellen die mit dem Phänomen des Selbstbewusstseins korrelieren…), es ist aber strukturell sehr ähnlich. Sollte es spezielle Verhaltenseigenschaften der 100 Mrd. Neuronen geben, die sich eben nur in ihrem Zusammenwirken zeigen, und zwar als ‚reale‘ Eigenschaften, dann wäre es eine Form von ‚kognitiver Blindheit‘, diese nicht wahrzunehmen, nur weil man die dazu notwendigen begrifflichen Konzepte nicht parat hätte. Bei Dennett und Pinker könnte man – wenn man Donald liest – den Verdacht hegen, dass sie von solch einer Spielart ‚kognitiver Blindheit‘ betroffen sind, dass sie nicht einmal im Ansatz anzunehmen scheinen, dass es reale komplexe Eigenschaften geben kann, die sich nur im Zusammenspiel von vielen einzelnen Elementen – in ‚emergenter‘ Weise, wie man so schön sagt – zeigen können. Wenn man bedenkt, wie schwer wir uns mit unserem Denken tun, schon bei vergleichsweise einfachen emergenten Phänomenen (z.B. bei logischen Sachverhalten mit nur ein paar Duzent logischen Operatoren) den Überblick zu behalten, dann wundert es vielleicht nicht, wenn wir bei so unendlich komplexen Phänomen wie den verschiedenen Verhaltenseigenschaften des Gehirns uns eher auf die ‚kognitive Flucht‘ begeben als uns der mühsamen Analyse ihrer impliziten Logik zu unterziehen. ]
Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.
QUELLENNACHWEISE
Ein älteres Buch von Donald:
Merlin Donald, Origins of the Modern Mind. Three stages in the evolution of culture and cognition. Cambridge (MA) – London: Harvard University Press, 1991
1) Treffen die Überlegungen im Blogeintrag ‚EMERGING MIND – Mögliche Konsequenzen‘ zu, dann befinden wir uns im Jahr 2013 an einem Punkt der Entwicklung des Geistes auf der Erde, der einen sich andeutenden umfassenden kulturellen Umbruch markiert.
2) In der Geschichte des Lebens auf der Erde gab es viele solcher Umbruchzonen, wobei der Begriff ‚Umbruchzone‘ nicht unproblematisch ist; schließlich ist jeder Abschnitt in der bisherigen Entwicklung letztlich eine Umbruchphase. Es scheint aber so zu sein, dass man Phasen unterscheiden kann, in denen aus Sicht der Beteiligten anscheinend ‚Weniger‘ oder gar ‚Nichts‘ geschieht gegenüber solchen, wo die Umbrüche durch real stattfindenden Veränderungen offensichtlicher zu sein scheinen.
3) Beispiele für global sichtbar werdende Strukturumbrüche waren die zuvor genannten ’neuen Strukturen S‘, die sich zum Vorausgehenden deutlich abhoben (Von der Anfangs-Energie zu den Quanten, von den Quanten zu den Atomen, …., von den einzelnen Zellen zu organisierten Zellverbänden, … die Sesshaftwerdung mit Ackerbau und Stadtbildung, ….. Motorisierung des Verkehrs, …. Gemeinsame Datenräume durch das Internet….).
4) Neben diesen Änderungen, die sich in realen Strukturänderungen widerspiegeln, gab es aber auch Änderungen, die sich in den semiotischen Räumen, in den deutenden ‚Weltbildern‘ abspielten, die nicht minder ‚real‘ und ‚wirksam‘ waren. So führte das Aufkommen experimenteller und formaler Methoden in der Renaissance nicht nur zu neuen Detailansichten, nein, es entstanden neue Zusammenhänge, neue Deutungsmuster, die sich zu einem kognitiven, wissensmäßigen Gegensatz zu den bisherigen Deutungsmustern aufbauten, weltanschauliche Konflikte hervorriefen, die die damals Mächtigen (die katholische Kirche) meinten, mit ‚Gewalt‘ kontrollieren und unterdrücken zu müssen. Galilei als ein Repräsentant dieser neuen Gedankenwelt sollte sich verleugnen, sollte abschwören, doch ca. 100 Jahre später waren diese neuen, gefährlich erscheinenden Gedanken in vielfältiger Weise in die Öffentlichkeit vorgedrungen. Die Erde bewegt sich um die Sonne und das Weltall ist erheblich größer, als sich jeder zuvor vorstellen konnte.
5) Weitere Umbrüche in der Deutung der Welt folgten (geologisch die Erde als Teil eines größeren Veränderungsprozesses, die biologische Evolution, das Gehirn als Organ des Fühlens und Denkens abhängig von physikalisch-chemischen Prozessen, die alltägliche Wirklichkeit als Artefakt unseres Denkens verglichen mit den zugrunde liegenden molekularen, atomaren, quantenhaften Strukturen, usw.). Allerdings scheint es so zu sein, dass die Ausbildungsprozesse mit der Explosion dieses Wissens über die Welt und uns selbst immer weniger Schritt halten können. In der Alltagswelt heute durchdringen zwar immer mehr technische Produkte als Konsequenz des erweiterten Denkens unseren Lebensraum, aber man hat nicht den Eindruck, dass im gemeinsamen öffentlichen Denken dieses Wissen tatsächlich ‚angekommen‘ ist.
6) Während digital gespeichertes Wissen sich – zumindest im Prinzip – beliebig schnell in beliebigen Mengen überall hin kopieren lässt, sich rasant schnell nahezu beliebigen formalen Operationen unterziehen lässt, haben die menschlichen biologischen Gehirne eine ihnen eingeborene eigene Langsamkeit, Trägheit, Begrenztheit, die dem Entstehen und dem Verwandeln von Wissen im einzelnen einen natürlichen Widerstand entgegen setzen. Was immer ein Individuum A in einer Generation G(t) schon alles erkannt und gedacht haben mag, ein Individuum B aus Generation G(t’>t) weiß dies alles nicht, es sei denn, er durchläuft ähnliche mühsame Lernprozesse. Solche Lernprozesse sind aber nicht notwendig, nicht zwingend, verlaufen nicht automatisch, und sind in ihren möglichen Inhalten nicht wirklich voraussagbar: keine Lernumgebung kann sicher stellen, dass die Inhalte, die die Lernorganisatoren intendieren, auch tatsächlich so in einem lernenden Individuum ‚entstehen‘.
7) Es ist von daher nicht erstaunlich, dass in einer Gesellschaft mit immer ‚mehr‘ und immer ‚komplexeren‘ Wissen immer weniger Menschen in der Lage sind, das bereits schon zuvor errungene Wissen für sich selbst erneut ‚wieder zu entdecken‘ und ‚für sich nutzbar‘ zu machen. Historisch bekannt ist der Untergang der griechischen Denkwelt samt ihren Schriften, der in Europa dann gut 1000 Jahre zu einer ‚Verdunklung‘ des Wissens geführt hatte. Erst über den Umweg vom Griechischen zum Arabischen (das damals das Wissen der Welt in sich aufsog) und dann wieder ins Lateinischen kam das ‚Licht der Erkenntnis‘ wieder nach Mitteleuropa. Ein langwieriger Übersetzungs- und Lernprozess, der nur durch den Aufbau eines neuen Ausbildungssystems (Schulen, erste Universitäten, Abschreiben, Kopieren und Übersetzen vieler Schriften…) über viele Jahrhunderte den Wissensstand von vorher ‚rekonstruierte‘ und durch diese aktive Rekonstruktion dann auch weiter entwickelte.
8) Wir leben heute in einer Welt von bizarren Wissensgegensätzen: während wir einerseits über einen Wissensschatz verfügen, der differenzierter und größer ist als jemals zuvor, erleben wir zugleich, dass viele Menschen, die meisten (?), sich in ihrem Wissen fragmentiert erleben, unvollständig oder, noch schlimmer, dass sie heute Weltbilder pflegen und für wahr halten, die 1000, 2000 Jahre alt sind, die mehrfach widerlegt wurden, aber die sie benutzen, als ob es die aktuellen Wahrheiten sind. Dies betrifft nicht nur solche Menschen, die aufgrund ihrer Lebensumstände keine oder fast keine Ausbildung genießen konnten, sondern sogar solche die Abitur haben, die studiert haben, ja sogar solche, die einen Doktortitel erworben haben. Unsere Wissenslandschaft ist mittlerweile so komplex und zerklüftet, dass Menschen mit Doktortiteln auftreten können und den letzten ‚Unsinn‘ erzählen, ohne dass ihnen bewusst ist, dass dem so ist.
9) In dieser Situation macht es keinen Sinn, die einzelnen dafür haftbar zu machen (obgleich natürlich schon jeder bis zu einem gewissen Grad Verantwortung für sein eigenes Denken trägt), sondern man muss den Kontext berücksichtigen, innerhalb dessen jemand heute Denken kann bzw. muss. Aus Sicht einer modernen Lerntheorie scheint es so zu sein, dass die Rahmenbedingungen für ein individuelles Lernen schwieriger denn je sind. Die Vielfalt der Methoden und die ungeheure Fülle an Fakten sind von einem einzelnen biologischen Gehirn nicht mehr bewältigbar. Eine Situation, die ich vor vielen Jahren schon mal als ’negative Komplexität‘ bezeichnet hatte: Komplexität, die da ist, die aber von uns nicht mehr hinreichend verarbeitet werden kann.
10) In einer solchen Situation wird es für alle Entscheidungsträger – insbesondere auch politisch Verantwortliche – immer schwieriger, das ‚Richtige‘ zu tun. Die Angst, dass alles aus dem Ruder läuft, außer Kontrolle gerät, ist real. Die Versuchung, durch immer mehr ‚Kontrollen‘ dieser ‚Unübersichtlichkeit‘ Herr zu werden ist real gegeben, wird immer stärker. Bedenkt man nun, dass diejenigen Menschen, die in höhere Verwaltungs- und Entscheidungspositionen drängen, tendenziell eher egozentriert sind, machthungrig, ’nicht zimperlich‘, es mit der Wahrheit eher nicht so genau nehmen, usw., dann erstaunt es nicht, zu sehen, wie heute weltweit in immer mehr Staaten die führenden Politiker autokratische Züge entwickeln, Meinungsfreiheit mehr und mehr unterdrücken, Technik dazu benutzen, immer mehr Datenströme und Lebenszuckungen der Menschen zu kontrollieren, einfache (in der Regel falsche) Weltbilder favorisieren, sich auch in sogenannten demokratischen Gesellschaften die Mächtigen von ‚den anderen‘ durch immer mehr Pseudoprivilegien abzusondern trachten, sich die alten absolutistischen Klassen von ‚früher‘ neu bilden.
11) Diese Phänomene stehen in seltsamem Kontrast zur tatsächlichen globalen Entwicklung des Lebens. Sie repräsentieren ‚Rückfälle‘, eine Art von ‚Verweigerung der Zukunft‘, sind ‚Reflexe‘ des ‚alten‘ Menschen vor der anrückenden Zukunft, die von jedem einzelnen Menschen und dann von den Gemeinschaften mehr verlangt als jeder einzelne bislang gewohnt ist, zu geben. Ob diese Reflexe stärker sind als das Neue, ob der Prozess des Lebens auf der Erde durch diese Anti-Reflexe zum Scheitern kommt, ist offen. Die ungeheure Wucht des bisherigen Lebens-Prozesses im Universum und auf der Erde kann den Verdacht nähren, dass die immanenten Faktoren dieses Prozesses stärker sind als die Abwehrreflexe eines Stadiums von Leben, das zu überschreiten ist. Wirklich wissen tut es vermutlich niemand, wie auch.
12) Vom individuellen biologischen Körper kennen wir nicht nur das Immunsystem, das auf geradezu fantastische Weise praktisch in jeder Sekunde gewaltige Abwehrschlachten gegen Millionen und Milliarden von Mikroorganismen führt. Wir haben gelernt, dass dieses Immunsystem sich auch irren kann; dann fängt es an, körpereigene Zellen zu bekämpfen, eine sogenannte Autoimmunreaktion. Wenn man sich den Lebensprozess auf der Erde anschaut, wie sich tatsächlich weltweit momentan in fast allen Ländern die politisch Verantwortlichen gegen den Trend stellen, dann drängt sich unwillkürlich das Bild einer globalen kulturellen Autoimmunreaktion auf: die Verantwortlichen, die für das Wohl ihrer jeweiligen Gesellschaften verantwortlich sind, wenden sich gegen ihre eigenen Gesellschaften, indem sie sich selbst zu ernst nehmen und das kreative Potential der jüngeren Generation mehr oder weniger mit Füssen treten (was nicht heißt, dass es auch viele Jüngere gibt, die sich totalitären Weltbildern zugewandt haben, die nicht besser sind; woher sollen sie es auch wissen?).
13) In diesem Kontext spielen die sogenannten ‚Offenbarungsreligionen‘ (die bekanntesten sind das Judentum, das Christentum, und der Islam) eine zwielichtige Rolle. Insofern sie alle einen ‚heißen Kern‘ haben der auf einen allumfassenden Schöpfergott ausgerichtet ist, haben sie prinzipiell einen ‚Anschluss‘ an den Lebensprozess im Universum; insofern sie aber diesen heißen Kern mit allzu viel historischen Zufälligkeiten, allzu zeitgebundenem Menschlichen aus ihren Entstehungszeiten um diesen Kern herum gesponnen haben, ist die immanente Sprengkraft eines universalen Gottesbildes weitgehend ‚abgedunkelt‘ worden durch Dinge, die irreführend oder falsch sind und die in der Vergangenheit allzu oft für persönliche Machtspielchen missbraucht wurden. Die Unwissenheit von Menschen für persönliche Machtinteressen zu instrumentalisieren ist eines der größten Verbrechen, das ein Mensch begehen kann (ein Gedanke, der sich u.a. im Neuen Testament der Christen findet; dort wird es Jesus von Nazareth als Aussage zugeschrieben (viele der heutigen Zeitungen, Radiostationen und Fernsehsender mit ihren Verantwortlichen haben in dieser Hinsicht möglicherweise schlechte Karten….)).
Eine Übersicht über alle bisherigen Blogbeiträge nach titeln findet sich HIER.
1) In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise.
DREI LERNMETHODEN, MOTIVATION, FLOW
2) Ohne Bezug auf die umfangreiche Literatur zum ‚Lernen‘ unterteilt Norman dann das ‚Lernen‘ in drei Formen ein: (i) Sammeln (‚accretion‘) von Fakten; (ii) eine – meistens – lang andauernde ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw.; (iii) Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Während er (i) und (ii) dem ‚Erfahrunfstyp‘ zurechnet bringt er (iii) in Zusammenhang mit der Reflexion. (vgl.SS.28-30)
3) [Anmerkung: von den vielen anderen Autoren und Strömungen, die Überschneidungen mit diesen Überlegungen aufweisen fällr mir insbesondere die Position von Jean Piaget (1896 – 1980) auf, der in beeindruckender Weise Theorieansätze zur Lernentwicklung erarbeitet hatte. Dass Norman mindestens ihn hier nicht erwähnt liegt vielleicht daran, dass der Gesamtrahmen bei Piaget die ‚Entwicklung‘ des Lernens war, während es Norman weniger um die Entwicklung als solcher ging sondern – meine persönliche Spekulation – um Verhaltenstypen von schon ‚entwickelten‘ Personen unter der Annahme, dass es im wesentlichen nur das ’spontane‘ oder das ‚reflektierte‘ Verhalten gibt. Allerdings, eine weitere Analyse von ’spontanem‘ und ‚reflektiertem‘ Verhalten würde unweigerlich zu den Strukturen führen, mit denen sich u.a. Piaget auseinandergesetzt hat (siehe weiter unten). ]
4) Zusätzlich erwähnt er noch den Aspekt der ‚Motivation‘. Anhand eigener Lernexperimente meint er aufzeigen zu können, dass das Vorliegen von Motivation unter sonst gleichen Voraussetzungen zu besseren Lernergebnissen führt als wenn wenn nur ‚Desinteresse‘ vorliegt. (vgl.S.30f)
5) [Anmerkung: Wenn man weiß, wie schwierig die theoretische Formulierung und die empirische Überprüfung von Begriffen wie ‚Motivation‘ ist, dann stellen sich bei diesen Schilderungen von Norman sehr viele Fragen. ]
6) Er stellt dann an mehreren Beispielen Formen von hochmotiviertem Lernen vor, denen gemeinsam ist, dass die Teilnehmer hochmotiviert und konzentriert sind, dies über viele Stunden oder gar Tage, letztlich wiederholbar, dies in Gruppen tun können, sich die Ziele und die Lerngeschwindigkeit bis zu einem gewissen Grad selber setzen können, in denen es direkte persönliche Rückmeldungen (Feedbacks) gibt, keine Ablenkung, mit einem deutlichen Spaßfaktor. (vgl. S.31-41) Diese Art von einem stark benutzerorientiertem und benutzergetriebenem Lernen sieht er im Kontrast zu den meisten Lernprozessen in Schulen und Universitäten.
7) [Anmerkung: Die Darlegungen von Norman zu diesen Punkten sind nicht sehr präzise, lassen aber einen groben Eindruck entstehen über mögliche wirksame Faktoren. Das Hauptproblem in der Theoriebildung sehe ich darin, dass sich hier beobachtbare Verhaltensaspekte mit ‚Deutungsmodellen‘ über lernerinterne Strukturen und Prozesse mischen. Niemand kann in einen Menschen hineinschauen. Alle Annahmen über mögliche interne Faktoren und Prozesse sind theoretische Annahmen, die Hypothesen bilden, die durch experimentelle Daten zu bestätigen oder zu widerlegen wären. Dies würde explizite Annahmen über Wahrnehmungs- und Gedächtnisprozesse voraussetzen, darin als Teilstrukturen explizite Annahmen über Konzept- und Begriffsbildung, usw. Dazu gibt es eine sehr umfangreiche Literatur. All dies findet man in der Darstellung von Norman nicht. ]
1) Nach unserem heutigen Wissensstand beginnt die Existenz des Körpers eines Exemplars des homo sapiens sapiens auf der heutigen Erde durch die Befruchtung einer bestimmten Zelle im Körper einer Frau durch eine bestimmte Zelle aus dem Körper eines Mannes. Eine von 10 Billionen (10^12) Zellen wird befruchtet, und – unter bestimmten Randbedingungen – beginnt diese Zelle dann zu ‚wachsen‘, d.h. es beginnt ein Teilungs- und Vervielfältigungsprozess, der im Laufe von Monaten und dann Jahren von dieser einen befruchteten Zelle zu einem Körper führt, der ca. 10 Billionen (10^12) Zellen umfassen wird, darin eingebettet ca. eine Billionen (10^12) Bakterien im Körper und etwa die gleiche Zahl auf der Oberfläche des Körpers.
2) Diese Zellen leben nicht ewig sondern werden innerhalb von Tagen/ Wochen/ Monaten – je nachdem, welche Funktion diese Zellen im Körper innehaben – immer wieder durch neue Zellen ersetzt. Der Körper als Körper bleibt gleich, aber seine Bestandteile, die Zellen, werden kontinuierlich ‚ausgetauscht‘, ‚ersetzt‘.
3) Hier gäbe es sehr viele interessante Dinge zu betrachten. Unter anderem stellt sich die Frage, wie diese ca. 10 Billionen Zellen ‚wissen‘ können, was sie jeweils ‚zu tun haben‘; wie kommt es überhaupt zu dieser ‚Selbstorganisation‘ der vielen Zellen aufgegliedert nach unterschiedlichen ‚Körperorganen‘ mit ganz unterschiedlichen, schwindelerregend komplexen Funktionen?
4) In Megastädten mit 20-30 Millionen – oder mehr – Einwohnern wissen wir, dass dies nur funktioniert, weil alle Bewohner bestimmte ‚Regeln‘ einhalten, die zuvor vereinbart worden sind (ausdrücklich oder ’stillschweigend‘). Dabei weiß normalerweise ein einzelner Bewohner nur einen kleinen ‚Teil‘ vom gesamten Räderwerk; es gibt unterschiedliche Verwaltungsebenen, unterschiedliche Arten von Institutionen, unterschiedlichste Rollen…
5) Die ‚Kultur der Städte‘ hat sich über viele tausend Jahre entwickelt, weil alle Beteiligten ‚gelernt‘ haben, was man wie tun kann; weil man dieses Wissen ‚weitergegeben‘ hat, ‚weiterentwickelt‘. Und jeder neue Bewohner muss ‚lernen‘, was er in einer Megastadt zu tun hat.
6) Der menschliche Körper hat ca. 50.000 mal mehr Zellen als eine 20 Mio Stadt. Woher aber wissen die einzelnen Zellen im Körper was sie jeweils zu tun haben? Vor allem, woher wissen sie, wie sie all diese unfassbar komplexen Funktionen in der Leber, in der Niere, in der Lunge, im Gehirn, im Blutsystem mit dem eingebetteten Immunsystem usw. ‚organisieren‘ sollen? Sobald die befruchteten Zelle ihr ‚Wachstum‘ beginnt, wissen alle beteiligten Zellen, ‚was zu tun‘ ist. Woher?
7) Die Biologie hat komplexe Antworten auf diese schwierigen Fragen erarbeitet. Im Kern läuft es darauf hinaus, dass sowohl die Struktureigenschaften wie auch das ‚Verhalten‘ einer einzelnen Zelle in ‚Abstimmung mit ihrer jeweiligen Umgebung‘ vom Zellkern, dem ‚Genom‘ gesteuert wird, einem Molekül, das als ‚Informationsträger‘ dient. Alle Details dieser Informationsverarbeitung sind zwar noch nicht bekannt, wohl aber der grundsätzliche Sachverhalt als solcher und einige wenige Teilprozesse.
8) Damit verlagert sich die Frage nach dem erstaunlichen ‚Wissen einer Zelle‘ auf die der ‚Entstehung dieses Wissens‘ im Genom. Und hier laufen alle bisherigen Antworten darauf hinaus, dass sich das ‚Wissen im Genom‘ samt der zugehörigen ‚Wissensverarbeitungsstrukturen‘ offensichtlich in einem speziellen Lernprozess entwickelt hat, den wir ‚chemische Evolution‘ nennen gefolgt von der ‚biologischen‘ Evolution (geschätzte Dauer ca. 4 Mrd Jahre vor heute bis ca. 200.000 Jahre vor heute (dem geschätzten ersten Auftreten des homo sapiens sapiens in Afrika).
9) Irgendwann in den letzten 200.000 Jahren begann dann das, was wir ‚kulturelle Evolution‘ nennen können. Ein Prozess der sich zusehends zu ‚beschleunigen‘ scheint, wenngleich die aktuelle körperliche Verfasstheit des Menschen aktuelle ‚Begrenztheiten‘ erkennen lässt, die sowohl durch die wachsende Komplexität wie auch durch die Beschleunigung ’sichtbar werden‘.
10) Wenn man all dies weiß, dann ist die Frage, wo und wie man zu einem bestimmten Zeitpunkt t ‚geboren‘ wird, abhängig von der Frage, was dieser Geburt vorausging: die Auswanderung unserer ‚Vorfahren‘ aus Afrika von ca. 60-70 Tsd Jahren, ihre Ausbreitung nach Asien, Europa, Nord- und Südamerika, ihre unterschiedlichen Entwicklungen, Entdeckung von Handwerk, Sesshaftwerdung, Städtebau, usw. Irgendwann gab es nahezu ‚überall auf dieser Erde‘ Lebewesen der Art homo sapiens sapiens; irgendwann wurden bestimmte Zellen in den Körpern von Frauen überall auf dieser Erde ‚befruchtet‘ und begannen ihr Wachstum. Irgendwann gab es die Zelle, aus der jeder von uns hervorging, gesteuert von dem gleichen unfassbar komplexen Programm, das sich im menschlichen Genom im Laufe von 4 Mrd Jahren ‚angereichert‘ hat.
11) Jeder von uns ist von daher das Ergebnis einer unfassbaren Geschichte des Lebens auf dieser Erde. WO jeder von uns geboren wurde ist von daher – betrachtet man alle Menschen gleichzeitig – in gewisser Weise ‚zufällig‘; zu einem bestimmten Zeitpunkt t0 der Erdgeschichte kann man nicht voraussagen, welcher Mann sich mit welcher Frau paaren wird und ob daraus eine Zelle hervorgehen wird, die zu einem Zeitpunkt t1>t0 dann zu ‚wachsen‘ beginnt. Sicher ist nur, wenn es zu solch einem neuen Wachstumsprozess einer Zelle kommt, dann nur deshalb, weil es zu einem Zeitpunkt t0 irgendwo eine Frau und einen Mann gab, die dies tun konnten und auch taten.
12) Mit Fortschreiten der Technologie wird man menschliche Zellen auch ohne die Körper ausgewachsener Frauen und Männer zum Wachstum bewegen können, mehr noch, man wird versuchen, die körperlichen Strukturen von Menschen durch gezielte Eingriffe zu verändern. Die aktuellen Wertvorstellungen verurteilen ein solches Vorgehen. Aber die aktuellen Wertvorstellungen (zu denen auch religiöse Vorstellungen gehören) sind ja auch ‚geworden‘, ein Ergebnis der ‚kulturellen Evolution‘; es ist wenig wahrscheinlich, dass die aktuellen Wertvorstellungen ‚ewig‘ bestehen; im Lichte neuer Erfahrungen und neuer Erkenntnisse werden sie sich ändern. Die Zeit wird kommen, dass der Mensch sich an der Veränderung genetischer Baupläne versuchen wird (unter dem Schlagwort ‚Gentechnologie‘ geschieht des ja schon im großen Stil im Bereich Pflanzen (und Tiere)). Hier werden unausweichlich ‚Fehler‘ gemacht werden; es ist nicht auszuschließen, dass diese ‚irreversibel‘ sind.
13) Das Problem ist dabei nicht in erster Linie die Gentechnologie als solche, sondern ihre wachsende ‚Monopolisierung‘ in wenigen globalen Firmen, die die ’natürlichen‘ Gene ‚ausrotten‘, um so kurzfristig lokal ihre Gewinne zu maximieren. Mit Hilfe von massiver Lobbyarbeit werden hier von wenigen global ‚Rechte‘ geschaffen, die – aufs Ganze gesehen – ein ‚Un-Recht‘ etablieren, das – würde es ungebremst sich weiter entwickeln können – in relativ kurzer Zeit das gesamte Leben ernsthaft bedrohen würde.
14) Der ‚Missbrauch‘ von Gentechnologie ist aber zu unterscheiden von der Gentechnologie selbst. Die Gentechnologie als solche erscheint vor dem Hintergrund der Gesamtentwicklung als ’natürliche Weiterentwicklung‘ der Evolution, als ’notwendig‘, und damit auch die Herausforderung, unser Wertesystem entsprechend weiter zu entwickeln. Zu verhindern ist die Monopolisierung und der Missbrauch von Gentechnologie.
15) Anders betrachtet, würden wir unser aktuelles Wertesystem ‚einfrieren‘ wollen indem wir ‚Denkverbote‘ aufstellen, dann würden wir genauso schnell einen ‚Untergang‘ heraufbeschwören, da der Lebensprozeß auf dieser Erde samt der Erde und ihrer kosmologischen Umgebung hochdynamisch ist (siehe auch unten). Eine ’statische‘ Ethik in einer ‚dynamischen‘ Umgebung ist ein Widerspruch in sich).
16) Der Verweis auf die chemische, die biologische und die kulturelle Evolution erklärt zwar ein wenig, WIE wir entstanden sind, lässt aber letztlich noch offen, WARUM es uns gibt, WER wir damit letztlich sind, WAS das alles zu bedeuten hat?
17) Bei all dem sollte klar sein, dass das Geschlecht (Mann, Frau, diverse genetisch bedingte Mischstrukturen), die Nationalität, die Zugehörigkeit zu einer bestimmten gesellschaftlichen Gruppe – und was wir Menschen im Laufe der Zeit sonst noch an sekundären Eigenschaften erfunden haben – keine substantielle Rolle spielen dürfen, wollen wir uns in der Zukunft ‚bewähren‘.
18) Das Leben auf der Erde gibt es nur, weil das Leben es bislang verstanden hat, alle diese Strukturen und Verhaltensweisen zu ‚belohnen‘, die sich den ‚Gegebenheiten der Erde‘ ‚angepaßt‘ haben, die sie ‚geschickt genutzt‘ haben.
19) Da u.a. die Sonne in unserem Sonnensystem in ca. 1 Mrd Jahren das Leben auf der Erde unmöglich machen wird, wird es darauf ankommen, dass das Leben, zu dem wir gehören, ‚lernt‘, sich nicht nur den Eigenschaften der Erde anzupassen, sondern mindestens die nächsten Galaxien einbeziehen muss. Dann gibt es eine kleine ‚Verschnaufspause‘ von ca. 3-4 Mrd Jahren bis die Andromeda Galaxie mit unserer Milchstraßen-Galaxie ‚verschmelzen‘ wird; ein Prozess, dessen Dauer auf ca. 1 Mrd Jahre geschätzt wird.
20) Das tägliche Hickhack um lokale Ressourcen, nationalen Animositäten, Firmenegoismen, Machtgelüsten weniger, religiösen Absolutheitsansprüchen, usw. das unseren Alltag durchzieht und zu dominieren scheint, ist auf jeden Fall nicht geeignet, die Lernprozesse in Gang zu setzen, die ‚zukunftsorientiert‘ sind. Persönlicher Ruhm Macht, Reichtum, Totale Wahrheitsansprüche,… all dies repräsentiert ein Wertesystem, das wenig geeignet ist, das zu unterstützen, was wir tatsächlich brauchen. Aber da das ‚Neue‘ seinem Wesen nach ‚radikal neu‘ ist, weiß man vorher nie genau, wann und wie das Neue sich Bahn brechen wird. In der Regel wird es sich an vielen verschiedenen Stellen mehr oder weniger zeitgleich ‚zeigen‘, ‚zu Worte‘ kommen, ‚getan werden‘. ‚Gewinnen‘ werden die, die es zuerst gesellschaftlich umsetzen können. Lassen wir uns überraschen.
Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER
1. In den folgenden Kapiteln 14-19 spekuliert Kauffman auf der Basis des bislang Gedachten. Das Kapitel ‚Living in Mystery‘ (etwa ‚Leben im Geheimnis‘) SS.230-245 beginnt er mit der zusammenfassenden Feststellung, dass nach den vorausgehenden Untersuchungen die gesamte bisherige – biologische wie auch kulturelle – Geschichte ’selbst-konsistent‘ (’self-consistent‘) sei, ‚ko-konstruierend‘ (‚co-constructing‘), ‚evolvierend‘ (‚evolving‘), ‚emergent‘ und ’nicht voraussagbar‘ (‚unpredictable‘).(vgl. S.231) In allem erkennt er eine fortschreitende ‚Individualisierung‘ (‚individuation‘) von Teilsystemen und Prozessen mit kontinuierlichen Ausprägungen von ’selbst-konsistenten Zusammenfügungen von Gemeinschaften‘. Alle diese Prozesse geschehen ständig, ohne dass wir in der Lage wären, sie mit den bekannten physikalischen Gesetzen hinreichend beschreiben zu können. (vgl. S.231) Für all dieses Geschehen, in dem er eine spezifische ‚Kreativität‘ am Werke sieht, führt er seinen Begriff von ‚Gott‘ (‚god‘) ein als eine Art technischen Begriff für das Ganze. (vgl.S.276) Und unter Voraussetzung dieses seines speziellen Gottesbegriffs führt er dann als weiteren technischen Begriff den Term ‚Heilig(es)‘ (’sacred‘) ein mit der Bemerkung, dass wir mit unserer Entscheidung (‚our choice‘) das ‚Heilige‘ im Universum und seinem Werden hochhalten (‚hold‘). (vgl. S.232,)
KRITISCHE ANMERKUNGEN ZU KAUFFMANS GOTTESBEGRIFF
2. [Anmerkung: Dieses Vorgehen ist schon etwas merkwürdig. Einerseits beteuert Kauffman dass er mit Glauben und Religion nichts zu schaffen habe, andererseits versucht er hier den historisch gewaltig aufgeladenen Begriff ‚Gott‘ in diesem neuen Kontext mit seiner Bedeutung zu etablieren, zusätzlich ergänzt um den nicht weniger aufgeladenen Begriff ‚heilig’/ ‚Heiligkeit‘. Warum tut er das? Wenn ihm die bisherigen Glaubenstraditionen egal wären, gäbe es eigentlich keine Motivation, Begriffe wie ‚Gott‘ bzw. ‚heilig‘ in diesen Kontexten zu erwähnen. Wenn er es aber dennoch tut, scheinen ihm diese Begriffe wichtig zu sein. Irgendwie verbindet sich für ihn mit den Begriffen ‚Gott‘ und ‚heilig‘ etwas, was er mit den für ihn spannendsten Eigenschaften dieser Welt verknüpft sehen will. Ich selbst bin 1990 aus der katholischen Kirche ausgetreten, da ich mit ihrer Art den Glauben an das Ganze zu vermitteln, einfach nicht mehr einhergehen konnte. Andererseits sind für mich die verschiedenen religiösen Traditionen (jüdisch, jüdisch-christlich, jüdisch-christlich-islamisch,…) trotz all ihrer Unvollkommenheiten nicht grundsätzlich etwas ‚Schlechtes‘, transportieren sie doch in ihrer geschichtlichen Konkretheit wertvolle menschliche Erfahrungen, von denen wir alle lernen können, sofern wir unser kritisches Denken dabei nicht ausschalten. Und mit Blick auf diese Traditionen muss man sagen, dass es hier Bilder und Überlegungen zu dem Begriff ‚Gott‘ gibt, die mit den Überlegungen von Kauffman vollständig kompatibel sein können; man könnte die Überlegungen von Kauffman ohne weiteres als eine Art weiterführenden Beitrag zum Thema sehen. Ein christlicher Theologe wie Teilhard de Chardin (1881 – 1955) war – trotz seiner beständigen Unterdrückung durch das kirchliche Lehramt – sehr nahe bei den Sichten, die Kauffman propagiert; in gewisser Weise vielleicht sogar weiter, wenngleich im technischen Detail natürlich – zeitbedingt – nicht so weit wie Kauffman. Kurzum, mir scheint dass Kauffman entweder das Thema ‚Gott‘ aus seinen Überlegungen heraushalten sollte (wenn Religion doch so unwichtig ist) oder aber, wenn er doch historisch so aufgeladene Begriffe wie ‚Gott‘ und ‚heilig‘ benutzt, sich die Mühe machen müsste, seine Art der Verwendung dieser Begriffe mit den in diesen gewachsenen Traditionen gebräuchlichen Verwendungen abzugleichen. Die wissenschaftliche Redlichkeit, um die er sich ansonsten immer bemüht, gebietet dies. Seine seltsam ‚verdrängende‘ Vorgehensweise im Gebrauch der Begriffe ‚Gott‘ und ‚heilig‘ erscheint mir von daher – so stimulierend diese Gedanken sind – wissenschaftlich unredlich und damit der schwächste Teil seines ganzen Buches. Nicht nur das, indem er diese Dimension seines Buches nahezu vollständig ausklammert beraubt er sein Buch einer wichtigen möglichen Wirkkomponente: die große Schwäche der religiösen Traditionen Judentum, jüdisches Christentum, jüdisch-christlicher Islam heute besteht nach meiner Wahrnehmung darin, dass sie die gesamten modernen Entwicklungen mehr oder weniger vollständig ausgeklammert haben. Ein konstruktiver Brückenschlag zwischen Erkenntnissen, wie sie Kauffman kommuniziert und diesen Positionen könnte ‚belebend‘ sein für beide Seiten. Dies setzt allerdings voraus, dass man die religiösen Traditionen nicht als vollständigen Unsinn abtut sondern in ihrem ‚Kern‘ eine empirisch vollziehbare Gottesbeziehung erkennt und für möglich hält, die jedem Lebewesen, ja dem ganzen Universum ‚innewohnt‘. Es ist für mich eine offene Frage, ob es irgend einen offiziellen religiösen Repräsentanten gibt, der in diesem radikalen Sinne ‚an Gott glaubt‘ – oder verbirgt sich hinter der ‚religiösen Fassade‘ letztlich ein abgrundtiefer Unglaube? Wirklich entscheiden werden wir diese Frage nie können. Es bleibt uns letztlich nur eine ‚Vertrauen‘ in den anderen, eine Art von ‚Glauben‘, der natürlich enttäuscht werden kann. Jede Art von Radikalismus ist hier fehl am Platz.]
PRINZIPIELL UNVOLLSTÄNDIGES WISSEN
3. Auf den SS.232-235 folgen dann verschiedene Überlegungen, in denen er unterschiedlichste Autoren zitiert (u.a. T.S.Eliot, Plato, Aristoteles, Newton, Carl Jung, Paul Dirac, Nietzsche) und das ‚Deep Blue‘ Computerprogramm von IBM, das den damaligen Schachweltmeister Gary Kasparow schlagen konnte. Alle diese Stellen sollen illustrieren, dass und wie wir mit einem begrenzten Wissen in einer offenen, sich beständig wandelnden Situation agieren.
4. Es folgt dann ein etwas systematischerer Abschnitt SS.236-245, in dem er anhand einer spieltheoretischen Situation illustriert, wie zwei Spieler sich wechselseitig hochschaukeln können, indem sie nach und nach jeweils ein ‚Modell des Anderen‘ konstruieren, das sie in ihren Entscheidungen leitet. Jede Ereigniskette, die solche Akteure als Produzenten enthält, verliert damit auf Dauer ihren ‚zufälligen‘ Charakter. Andererseits ist es so, dass die Verhaltensweisen solcher ‚lernfähiger‘ Akteure nicht ‚konstant‘ ist, sondern sich aufgrund ihrer aktiven Modellbildungen beständig verändert. D.h. adaptive Rationalität selbst ändert die erfahrbare Rationalität der Wirklichkeit. Und folgerichtig stellt Kauffman die Frage, was es denn heißt, ‚vernünftig‘ (‚wisely‘) zu handeln, wenn wir nicht nur das Ganze noch nicht kennen, sondern durch unser eigenes Verhalten das Ganze beständig verändern? (vgl. S.244) Und er kommt aufgrund wissenschaftlicher Überlegungen zu dem bedenkenswerten Schluss: „Das, was wir brauchen, um unser Leben zu leben, ist Glauben (‚faith‘); bei weitem wichtiger als Wissen (‚knowing‘) oder Erkennen (‚reckoning‘).“ (S.244) Und diese Art zu glauben ist ein biologisches Phänomen, eine inhärente Eigenschaft biologischer Lebensformen, die auf dieser Erde entstanden sind. (vgl. S.245)
DIE ZWEI KULTUREN (und Religion)
5. Auf den folgenden Seiten SS.246-254 variiert Kauffman diese Gedanken weiter anhand der kulturellen Aufspaltung in Wissenschaft und Nicht-Wissenschaft, wie sie Europa – und dann auch andere Teile der Erde – seit dem Aufkommen der modernen empirischen Wissenschaften charakterisiert und prägt. Angesichts der von ihm herausgearbeiteten grundsätzlichen ‚Kreativität‘ des ganzen Universums und des evolutionären Geschehens auf der Erde, hält er diese Aufspaltung für nicht mehr gerechtfertigt. Mit zahlreichen Zitaten von diversen Wissenschaftlern, Philosophen und Künstlern versucht er zu unterstreichen, dass die ‚Kunst‘ letztlich zum inneren Prinzip des kreativ-evolutionären Geschehens gehört. Wie zuvor aufgezeigt stößt die menschliche Vernunft beständig an ihre Grenzen, die sie nur überwinden kann, wenn sie diese Grenzen akzeptiert und sie durch ein geeignetes kreativ-koevolutionäres Verhalten ‚erweitert‘ und so dem Werden des je Unbekannten Raum gibt.
6. Verräterisch ist, wenn Kauffman zu Beginn dieses Kapitels hervorhebt, dass man jetzt mit einem Gottesbegriff leben kann, den ‚wir selber erfunden haben‘ (‚our own invention‘).(S.246) Damit bestätigt er indirekt die oben von mir geäußerte Vermutung, dass er die ‚älteren Verwendungsweisen des Begriffes ‚Gott“ als unangemessen ablehnt. [Anmerkung: Hier baut Kauffman einen Gegensatz auf, der so meines Erachtens nicht nur unnötig, sondern sogar falsch ist. Noch mehr, er vergibt sich die Chance, zu zeigen, dass auch die traditionellen jüdisch-christlich-islamischen Verwendungsweisen des Wortes ‚Gott‘ historisch gewachsen sind, dass sie sich kreativ-koevolutiv im Wechselspiel von menschlichem Leben und umgebender sich ereignender Geschichte ‚entwickelt‘ haben. Und dass gerade diese Entwicklung der verschiedenen Verwendungsweisen des Begriffs ‚Gott‘ in dramatisch wissenschaflich-künstlerischer Weise dokumentieren, wie hier der menschliche Geist damit ringt, trotz seiner konkreten und historischen Begrenztheiten das je Größere zu ahnen, irgendwie doch zu fassen, irgendwie doch das je Größere Absolute Transzendente in die endliche Konkretheiten einer historisch bedingten Körperlichkeit zu ‚übersetzen‘. Wer in den Wörtern der ‚heiligen‘ Texte immer nur die historischen Bedingtheiten, die zeitlich bezogenen Konkretheiten sieht, der verweigert diesen Texten genau die Ehrfurcht, die Weite, die Tiefe, die Großzügigkeit, den Mut, die transzendierende Mystik, die in ihnen ‚lebt‘, sich Ausdruck gesucht hat. Natürlich ist dieser ‚weitere, tiefere‘ Blick nicht logisch zwingend, nicht deduktiv absolut herleitbar (was manche immer wieder glauben), aber Kraft der transzendenten Wahrheit, die in jedem menschlichen Erkennen lebt, kann sie jeder ’sehen‘, wenn er will, und, vor allem, er kann sie mit seinem eigenen Leben ‚ausprobieren‘; dies nennt man dann entweder ‚Künstlersein‘ oder ‚religiös sein‘, gespeist von Kreativität und Glauben, oder beides in einem. Es ist sehr schade, dass Kauffman diesen tieferen und umfassenderen Zusammenhang offensichtlich nicht sieht. Dies kann u.a. daran liegen, dass die offiziellen religiösen Gemeinschaften den tieferen ‚Schatz ihrer eigenen Überlieferung‘ oft nicht voll verstehen und dass die sogenannten ‚geistlichen Führer‘ weniger ‚geistliche‘ Führer sind sondern Machtmenschen und Geschäftsleute, die ihre sehr persönlichen Vorteile in allem suchen. Die innere Freiheit des Geschehens kann solchen Missbrauch nicht verhindern und kann dann zur Abkehr von sehr vielen Menschen von den religiösen Traditionen führen. Schon ein Jesus von Nazareth hatte den Unterschied zwischen ’sich religiös geben‘ und ‚tatsächlich religiös sein‘ sehr klar erkannt und benannt.]
FÄHIG ZUM BÖSEN
7. Auf den SS.255-258 verweist Kauffman auf das Faktum, dass wir Menschen als konkreter Teil einer konkreten Evolution aufgrund unserer limitierten Ausstattung sehr vieles falsch machen können und auch schon falsch gemacht haben. zusätzlich haben wir Bedürfnisse, Emotionen, Motivationen die sehr partikulär sein können, sehr egoistisch und sehr, sehr grausam. Die Technologien der Zerstörung (und des Tötens) gehören immer mit zu den am weitesten entwickelten. Ob und wie wir diese destruktiven limitierenden Kräfte auf Dauer hinreichend konstruktiv einbinden können muss die Zukunft zeigen.
ETHIK
8. Ein Hauptthema des Buches von Kauffman war und ist der Versuch, aufzuzeigen, dass der sogenannte ‚Reduktionismus‘ aller Phänomene auf einen ‚Physikalismus‘ nicht haltbar ist. Ein zentrales Argument innerhalb dieses Aufweises ist die Behauptung, dass die meisten für uns Menschen interessante Phänomene der Evolution ‚emergenter‘ Natur sind, d.h. sich in ihrer Komplexität nicht aus den physikalischen Bestandteilen als solchen erschließen. Innerhalb dieser emergenter Phänomene gibt es das, was Kauffman ‚Agentenschaft‘ (‚agency‘) nennt, und verbunden mit der Agentenschaft, die Fähigkeit, bestimmten Vorkommnissen nicht nur allgemein eine ‚Bedeutung‘ zuzuweisen, sondern sogar eine ausgezeichnete Bedeutung im Sinne eines ‚Wertes‘: ein Vorkommnis x hat einen bestimmten ‚Wert‘ v mit Bezug auf einen ‚lebensrelevanten‘ Faktor L. D.h. innerhalb der biologischen Evolution haben sich Strukturen entwickelt, für die die wahrnehmbare Welt nicht ’neutral‘ ist, sondern ‚wertig‘; es gibt Ereignisse die mit Bezug auf das ‚Überleben‘ der Art ‚relevant‘ sind, ‚bedeutungsvoll‘, ‚wichtig‘.(vgl. S.259)
9. [Anmerkung: Man muss also sagen, dass es zum ‚Auftreten‘ des ‚Lebens‘ auf dieser Erde gehört, dass das Leben ‚als Teil von sich‘ bestimmte Ereignisse/ Eigenschaften dieser Welt als ‚wertvoll‘ erlebt. Oder, anders ausgedrückt, das Leben definiert sich wesentlich dadurch, dass es selbst einen ‚Wert‘ darstellt, der ‚von sich aus‘ ‚erhalten‘ sein will. Das Leben muss nicht künstlich irgendwelche Werte finden, derentwillen es sich lohnt zu leben, sondern das Leben als biologisches Phänomen ‚ist selbst der primäre Wert‘, um den es geht. Es existiert nur, weil es in dieser Form vom ‚Kosmischen Gesamtzusammenhang‘ Erde – Sonnensystem – Milchstraße – Universum in dieser Besonderheit ‚induziert‘ wurde und sich in Form dieser Besonderheit entwickeln konnte. Eine Alternative ist praktisch nicht möglich, da die Alternative vom kosmischen Gesamtzusammenhang her nicht unterstützt wird! Alle Atome, Moleküle, die sich nicht ‚in der Weise verhalten‘, wie es vom kosmischen Gesamtzusammenhang ‚belohnt‘ wird, haben keine Existenzmöglichkeit!!! Damit erscheint das Leben, so, wie es sich im kosmischen Gesamtzusammenhang entwickelt hat, als der einzige ‚fundamentale Wert‘, den wir bis heute kennen!!! Und natürlich liegt der Schluss nahe, dass sich aus diesem fundamentalen Wert (der sich aber nur den ‚im Leben befindlichen Akteuren‘ erschließt) alle anderen Werte ableiten lassen müssen.]
10. Im Lichte dieser fundamentalen Werteposition wundert es nicht, dass Kauffman zwei wichtige Positionen der heutigen Ethik kritisiert: den ‚Deontologismus‘ und den ‚Konsequentialismus‘. (vgl. S.259).
11. Sein Hauptargument besteht darin, dass unser moralisches Empfinden und unser Wertesystem sich erst in der Evolution und der zugehörigen Kultur ‚entwickelt‘ hat und dass von daher die Bezugnahme auf eine höheres, absolutes moralisches Fühlen im Sinne eines Deontologismus (sich verpflichtet fühlen) bzw. eines die Folgen des Handelns Bedenkens im Sinne eines Konsequentialismus ohne die Berücksichtigung der Entstehung und ihres jeweiligen Kontexts keinen Sinn macht. (vgl.S.259f)
12. Kauffman illustriert diese Kernthese mit vielen Zitaten (vgl. SS.260-266) und ergänzt den Entwicklungscharakter der Ethik noch um den Aspekt er formalen Unabgeschlossenheit (Gödels Theorem) jeglichen möglichen ethischen Systems. (vgl. S.266) [Anmerkung: Diese formale Unabgechlossenheit ergibt sich u.a. aus der evolutiven Entstehung des Wertesystems bzw. aus der inneren Struktur des Lebens. Diese innere Struktur besteht prinzipiell im beständig über das Gegebene Hinausgehen mit einem – zum Zeitpunkt des Darüberhinausgehens – unvollständigen Wissen! D.h. das ‚Innovative‘ am Leben ist seine ‚Kreativität‘ und die Fähigkeit, sich selbst permanent ‚transzendieren‘ zu können. Die Struktur des Lebens ist – was viele Philosophen früher auch schon erkannt hatten, ohne den Mechanismus der Evolution zu verstehen – in sich so, dass die ‚Erfüllung‘ des Lebensprozesses nur möglich ist, indem sich die bestehenden Strukturen mit etwas ‚außerhalb ihrer selbst‘ ‚verbinden‘!! Zum Zeitpunkt des Lebens ist dem jeweiligen lebenden System aber nicht vollständig klar, was dies genau ist; es erlebt sich selbst allerdings in einer ‚prinzipiellen Unabgeschlossenheit‘ (eine mögliche Version von ‚Transzendentalität‘), durch die es ‚angetrieben‘ ist, das ’noch Fehlende‘ zu ‚finden‘!!!]
13. Aus diesen Überlegungen folgert Kauffman, dass es nicht ein einzelnes höchstes Gut gibt, sondern eher – entsprechend der Idee eines ‚Pareto Optimums‘ im Kontext der Pareto Effizienz (nicht zu verwechseln mit dem Pareto Prinzip) – viele verschiedene Dinge, die alle zugleich wichtig sein können, damit bestimmte Lebensprozesse funktionieren. Nicht die Luftreinheit alleine oder die Wasserqualität oder die Ressourcenschonung oder …. bilden biologisch relevante Werte, sondern das Zusammenspiel vieler verschiedener Faktoren in einem bestimmten Gleichgewicht. (vgl. S.266f). Es kann also nicht darum gehen einige wenige absolute Werte zu identifizieren und zu isolieren. Nein, die biologische Evolution wird kontinuierlich neue Werteensembles ’sichtbar‘ machen, deren Einhaltung und Zusammenspiel wichtig sind; diese Werte können und werden sich im Laufe der Zeit ändern. (vgl. S.271f)
GLOBALE ETHIK
14. Es liegt nahe, den Gedanken der Ethik in einem globalen Rahmen weiter zu denken. Viele Gedanken aus den vorausgehenden Kapiteln wiederholen sich hier (vgl. SS.273-280). Ausdrücklich genannt wird das Thema Vielfalt und Vermischung von Kulturen, globale Ressourcenknappheit, die Problematik verzerrter (fundamentalistischer) religiöser Richtungen und unser Missbrauch anderer Lebewesen für unsere Ernährung. Und er wiederholt auch das Problem der prinzipiellen Wissensgrenzen zu jedem Zeitpunkt bei gleichzeitiger Notwendigkeit, handeln zu müssen. Dieses wissens-unvollständige Handeln verlangt nach Werten, die nicht ‚partikulär‘ sein können. Wo sollen diese neuen Werte herkommen? Er hofft, dass seine Deutung der natürlichen Entwicklung mit seinem Begriff der ‚Kreativität‘ als ‚Heiligkeit‘ eine Art ’natürlichen Gottesbegriff‘ begründet, der als gemeinsamer Grund für alle dienen kann. (vgl. S.276, 280)
15. [Anmerkung: Hier wird unmissverständlich deutlich, dass Kauffman einen bestimmten globalen Zusammenhang voraussetzt, ganz bestimmte kulturelle Gegebenheiten, die in seinem Verständnis eine neue Weltsicht einschließlich einer neuen Ethik verlangen. Während er glaubt, dass dies möglicherweise durch bloße Einführung eines neuen Begriffs (‚God‘, ‚Sacred‘) gelingt, beschreibt er indirekt, dass sehr viele Menschen noch unter dem Eindruck der ‚alten Bilder und Interpretationen‘ stehen, die durch ihre Begrenztheiten ein ‚angemesseneres‘ Verhalten verhindern. Angesichts des Beharrungsvermögens, das psychische und kognitive Muster an den Tag legen, ist es eher unwahrscheinlich, dass die bloße Einführung einer neuen Deutung von ‚Gott‘ die Gewohnheiten von 2000 – 3000 Jahren einfach so ändern; sie sind im Alltag eingebettet und leben dort u.a. in Form von Gewohnheiten, Gebräuchen, Schriftstücken, und Gesetzen, die sich von alleine nicht ändern. Ihre ‚Faktizität‘ prägt aber täglich das Verhalten und damit das Bewusstsein großer Teile der Bevölkerung. Durch diese Rückkopplung des subjektiven Erlebens und Denkens an objektive, soziale Tatbestände kann eine einschneidende Veränderung des Denkens von Dauer immer nur über eine entsprechende Änderung der realen Lebensverhältnisse führen. Die Geschichte hat Beispiele parat, wann und wie solche Prozesse stattgefunden haben.]
NOCHMALS GOTT
16. Auf den abschließenden Seiten SS.281-288 kulminiert nochmals das Denken von Kauffman in der Verwendung und Motivierung der Begriffe ‚Gott‘ und ‚Heilig‘, wie er sie eingeführt hat. Er nimmt ausdrücklich Bezug auf die jüdisch-christliche Traditionen, auch den Buddhismus, nicht aber auf den jüdisch-christlichen Islam. Er unterstreicht, dass eigentlich nur der Begriff ‚Gott‘ die kulturelle Kraft hat, die tiefsten und wichtigsten Überzeugungen der Menschheit zu repräsentieren. Er spricht von der Notwendigkeit von ‚Spiritualität‘ und auch von ‚Riten‘.
17. [Mit diesen vielfachen Wiederholung immer des gleichen Themas in den letzten Kapiteln manifestiert sich sowohl die Bedeutung, die Kauffman diesen Begriffen beimisst wie auch die Schwierigkeit, dieser Bedeutungschwere den angemessenen Ausdruck zu verleihen. Wenn man Kaufman auf all den Seiten seines Buches gefolgt ist, und schrittweise miterlebt hat, wie er sich seine eigene, neue Sichtweise mühsam gegen vielseitig gewohnte Sehweisen erkämpft hat, dann kann man ansatzweise nachempfinden, wie das Neue nachhallt und sich zugleich immer mehr Perspektiven auftun, neue Ansatzpunkte greifbar werden, wo und wie man diese stimulierenden Gedanken weiterführen und möglicherweise sogar umsetzen kann. Jeder erlebt die Lektüre eines Buches notgedrungen im Lichte seiner eigenen Fragen und seines eigenen Wissens. Für mich war dies Buch eine Art ‚Katalysator‘ für sehr viele wichtige Gedanken und Perspektiven. In der nächsten Zeit werde ich mit Sicherheit darauf zurückkommen. ]
Ende der besprechenden Lektüre von Kauffman’s Buch ‚Reinventing the Sacred‘.
Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER
Seit dem Frühjahr 2012 habe ich einen losen Kontakt mit dem Salon Slalom (URL: http://salonslalom.wordpress.com/salon-slalom/). Ein Team von aktuell fünf Personen organisiert gemeinsame Veranstaltungen zu allen möglichen Themen, meist aus den Reihen der Salon-Mitglieder. Das Besondere daran ist, dass es keinen festen Ort gibt. Die Veranstaltungen sind je nach Thema irgendwo, teilweise auch draußen. Ich war z.B. einmal bei einer sehr inspirierenden Veranstaltung mit einem Holzkünstler im Taunus. Irgendwann hatte ich auch mal zugesagt, einen Abend zu gestalten. Die Ankündigung findet sich hier:
Durch einen akuten Wintereinbruch mit starkem Schneefall wurde die Anreise für alle TeilnehmerInnen an diesem Abend zu einem kleinen Abenteuer. Dazu noch die Lage des INM im Osthafen, zwischen lauter Logistikunternehmen, im vierten Stock auf dem Dach eines alten Bunkers, ohne Aufzug (die Städte nehmen es in ihren eigenen Gebäuden mit der Barrierefreiheit nicht so genau…). Aber der Raum füllte sich dann doch.
Harakiri?
Angeregt durch die offene Atmosphäre des Salons hatte ich mir vorgenommen, meine aktuellen Gedanken zum neuen Welt- und Menschenbild so zusammen zu stellen, dass man zumindest ahnen konnte, wie das Wissen um den Menschen, die Evolution, und die Computer sich wechselseitig verschränken. Angereichert wurde das Ganze noch durch kurze Schilderungen meiner Radically Unplugged Music Selbstversuche mit Klangbeispielen (Startseite für die RUM-Experimente ist: http://www.doeben-henisch.de/sounds/index.html). Die Stücke, die ich für diesen Abend ausgewählt hatte, stammten von meiner provisorischen ‚Playlist‘: http://www.doeben-henisch.de/sounds/playlist). Natürlich weiß man vorher nie, wie die TeilnehmerInnen auf das alles reagieren.
Nach der Begrüßung und einigen einleitenden Worten habe ich erst mal ein Stück zur Einstimmung gespielt:
Thunderstorm Dancing Ahead of (Version c) Interesting, somehow I was nearly sleeping after a long day, but when I started the recorder and started playing I became awake again….somewhere in the night…
Fügte noch hinzu, dass ich im Sommer 2010 kurz vorher ein kleines Aufnahmegerät gekauft hatte, mit dem ich im Juli einen kleinen Sturm aufgenommen hatte. Den Sound von diesem Sturm hatte ich in diesem Stück als Ausgangspunkt benutzt.
Phänomene und hinter den Phänomenen
Hauptproblem bei allen Vorträgen ist immer, wie fange ich an. Ermutigt durch die positive Resonanz im Münchner Vortrag bei der YPO-Jahresveranstaltung wählte ich die Vielschichtigkeit des Menschen als Ausgangspunkt,
um davon ausgehend deutlich zu machen, dass alle unseren bewussten Bilder von einem Gehirn stammen, das im Körper sitzt und selbst keinen direkten Kontakt mit der Welt hat.
Daraus ergeben sich allerlei Konsequenzen dazu, wie wir mit den Bildern, die unser Gehirn von der Welt produziert, umgehen sollten. So wunderbar unser Gehirn arbeitet, so wenig darf man ihm blindlings trauen. Dazu habe ich ein paar Beispiele erzählt.
Die Philosophen in Europa haben sich mindestens seit der Zeit der griechischen Philosophie beständig damit beschäftigt, wie sie die Erscheinungsformen der Phänomene analysieren und bewerten sollten. Einige der letzten großen Heroen der bewusstseinsbasierten Philosopien waren Descartes, Kant, Hegel, Hume, Locke, Berckeley, Husserl, Hartmann, um nur einige zu nennen. Sie alle erkannten in den Phänomenen des Bewusstseins zwar gewisse Regelhaftigkeiten, sie blieben aber notgedrungen im Bewusstsein ‚gefangen‘. Erst die neuen Erkenntnisse zum Gehirn (ab Beginn 20.Jahrhundert) sowie zur Evolution (ab Ende 19.Jahrhundert) ermöglichten uns, die ‚Rahmenbedingungen der Entstehung der Phänomene‘ neu zu verstehen (was sich u.a. im Aufblühen neuer an den Naturwissenschaften orientierten Erkenntnistheorien manifestiert).
Die neuen naturwissenschaftlichen Erkenntnisse lieferten aber nicht nur einen Schlüssel zum Paradox des Bewusstseins in der Weise, dass wir jetzt die Dynamik unseres Bewusstseins in Beziehung setzen können zur Arbeitsweise des Gehirns , sondern wir bekommen damit einen weiteren Schlüssel dafür, warum wir überhaupt ein so unglaubliches Gehirn in einem nicht weniger unglaublichen Körper haben. Die Evolutionsbiologie kann uns in eindrücklicher Weise aufzeigen, wie dieses unser heutiges Gehirn mit dem Körper sich in einer langen 4 Milliarden Jahre dauernden mühevollen Geschichte herausbilden mussten. Wir Menschen haben eine Geschichte, eine reale Geschichte. Wir haben reale Vorfahren, die in unglaublichen erfinderischen Prozessen mit extrem hohen ‚Verlusten‘ das ermöglicht haben, was wir heute sind. Und wir sind kein Endpunkt, sondern – soweit wir sehen können – eine Durchgangsstation zu einem Zustand, den keiner aktuell genau beschreiben kann (obwohl es Menschen gab wie der französische Jesuit Teilhard de Chardin, der als weltweit geachteter Paläontologe sein von der Theologie und Philosophie inspirierte Visionen über das wahre Wesen des Menschen und des Kosmos in wortgewaltigen Texten niedergeschrieben hat; gegen das Lehramt der katholischen Kirche, mit mehrfachen Verboten mundtod gemacht, aber dann doch durch seine vielen Freunde der Öffentlichkeit gerettet).
Mit diesen neuen Erkenntnissen ergaben sich neue Fragen: wie ist diese atemberaubende ‚Gestaltwerdung‘ im Biologischen möglich?
Am Beispiel der Interaktion zwischen Genotyp und Phänotyp versuchte ich dann deutlich zu machen, wie hier ein lokaler Veränderungsmechanismus, der in sich völlig ‚blind‘ für den Kontext ist, mögliche Gestaltungsräume absucht, die dann über Wachstum und Körper mit der Umgebung Erde in Interaktion treten. Es ist dann die konkrete Erde, die quasi als ‚Schiedsrichter‘ auftritt, welche der versuchten Strukturen ‚es schaffen‘ und welche nicht (die Darwinsche Selektion). Man kann hier auch das fundamentale Wertesystem erkennen (wenn man will), das alles andere übertönt: Erhaltung des Lebens unter den Bedingungen der Erde. Allerdings, und darauf habe ich dann im weiteren Verlauf hingewiesen, hat die Evolution selbst die Bedingungen im späteren Verlauf tiefgreifend verändert.
Können diese Überlegungen noch sehr abstrakt wirken, so macht uns der reale Gang der universalen Genese seit dem Big Bang klar, dass wir es mit einem überaus realen Prozess zu tun haben, von dem wir ein Teil sind. Die geradezu dramatische Weise der Entstehung des Lebens seit ca. 4 Mrd.Jahren, die unglaublichen Vorgänge im Rahmen der chemischen Evolution, die zur ersten Zelle führten und die bis heute noch nicht vollständig aufgeklärt sind, dann die ca. 2.8 Milliarden dauernde Zeitspanne (!!!!!!!!), bis es von den einzelligen zu mehrzelligen Lebensformen kam, usw. usw. Wer sich dies bewusst anschaut und nicht in ergriffener Bewunderung endet, dem ist schwer zu helfen.
Bemerkenswert ist, dass nach heutigen Kenntnisstand bis zur Ausdehnung der Sonne noch ca. 1 Mrd Jahre Zeit haben, bis die mit der Aufblähung der Sonne einhergehende Temperaturerhöhung alles Leben auf der Erde unmöglich machen wird. Gemessen an der bisherigen Zeit unseres bekannten Universums von ca. 13.7 Mrd Jahren macht dies etwa 1/15 aus. Gemessen an der Evolution des Lebens von ca. 3.8 – 4 Mrd etwa 1/5. Wenn man sieht, welche ungeheure Beschleunigung die Evolution des Lebens auf der Erde allein in den letzten 100 Jahren genommen hat, können die verbleibenden 1 Mrd Jahre mehr als ausreichend sein, um eine Lösung für die Erhaltung des Lebens zu finden. Vorausgesetzt, wir nutzen unsere Möglichkeiten entsprechend.
Es gab dann einen Einschub mit Gedanken zu meinen Radically Unpluggd Music Selbstversuchen.
Schilderte kurz die Entstehungsgeschichte, die Auflehnung dagegen, nur passiver Konsument zu sein, die Versuchsanordnung, wie ich mit Musik experimentieren kann ohne Noten zu benutzen und ohne vorher üben zu können.
Dazu ein paar Gedanken zur Frage, was denn ein ‚Ton‘ ist und wie die Mathematik und die moderne Technik es erlaubt, den klassischen Produktions- und Reproduktionszusammenhang aufzubrechen und in schier unendliche Räume auszuweiten. Der ‚reale‘ menschliche Musiker und Komponist wird dadurch nicht ‚überflüssig‘, aber er kommt in eine neue Rolle. In gewisser Weise eröffnet die Mathematik in Kombination mit der Technik ein Universum an Instrumenten und Klängen und die Frage, was Musik ist, was wir mit ihr tun, stellt sich völlig neu. Auch hier, im Segment der Musik, wirkt sich die fortdauernde Evolution aus.
Es kam dann als nächstes Stück ‚Die Wahrheit spielt vor den schwarzen Riesen (The truth plays before the black giants‘).
The Truth Plays Before the Black Giants I have experimented with some abstract ‚dark‘ sound in the back and a very crisp and clear oboe-sound in the foreground. I am still curious about the many libraries of ableton. But besides this ’sound curiosity‘ I gave some space for inspirations. There was the picture of the ‚(seemingly) tiny truth‘ playing before the large dark giants of the ‚all earth’… The tiny small truth got their hearts and the darkness was rumbling, but in comfort…
Mathematik und Computer
Versuchte deutlich zu machen, dass nahezu alles, was wir heute im Alltag an Technologie benutzen, ohne die Entwicklung der modernen Mathematik unmöglich wäre. Die Mathematik ist das zentrale Instrument des modernen Geistes, um sich in der überwältigenden Vielfalt der Realität zurecht zu finden und es ist geradezu bizarr wie eine Gesellschaft, die nahezu vollständig auf er Mathematik basiert, in ihrem öffentlichen Leben, im öffentlichen Bewusstsein, in den Medien dies nahezu vollständig ausblendet, verdrängt. Dies grenzt an eine kollektive Neurose, die sich wie eine Gehirnwäsche über alles legt und schon die kleinsten Regungen, dass jemand irgendetwas Mathematisches äußert, zeigt, tut sofort negativ abstraft oder ins Lächerliche zieht.
Ich habe dann versucht, deutlich zu machen, dass die Technologie des Computers, die heute nahezu alle Winkel unseres alltäglichen Lebens erobert, durchdringt und damit mitgestaltet, ihren Ausgangspunkt in den Grundlagendiskussionen der Mathematiker kurz vor der Wende zum 20.Jahrhundert wie dann in den ersten Jahrzehnten eben dieses Jahrhunderts hatte.
Nach den ersten großen Formalisierungserfolgen entstand die Idee – insbesondere bei David Hilbert – ob sich nicht alle Fragen mathematischer Theorien völlig ‚automatisch‘ mittels eines endlichen Kalküls entscheiden lassen.
Es dauerte zwar ca. 30 Jahre von den ersten Vermutungen dieser Art bis zum Beweis von Kurt Gödel 1931, aber dafür war das Ergebnis um so schockartiger.
Kurt Gödel konnte beweisen, dass es schon bei den ‚einfachen‘ mathematischen Theorien nicht möglich ist, sowohl ihre ‚Widerspruchsfreiheit‘ als auch ihre ‚Vollständigkeit‘ zu beweisen. Der Beweis von Gödel konnte bis heute nicht widerlegt werden, aber Gödel selbst war mit ihm nicht ganz zufrieden. Ein Beweis bezieht seine Überzeugungskraft ja daher, dass er im Beweis nur solche Mittel benutzt, die ‚aus sich heraus‘ ‚zweifelsfrei‘ sind. Im Konkreten heißt dies, diese Mittel müssen – um der einfachen Struktur des menschlichen Gehirns zu entsprechen – durchweg ‚endlich‘ sein und nach ‚endlich vielen Schritten‘ einen klaren ‚Endzustand‘ erreichen. Was für die meisten Menschen im Alltag eher als Banaliät erscheinen mag (ist doch im Alltag alles sehr deutlich und konkret ‚endlich‘) war für den Bereich mathematischer Beweise offensichtlich nicht so trivial. Es war dann Alan Matthew Turing, ein genialer Engländer, der den Beweis von Gödel quasi mit anderen Mitteln wiederholte und der es auf eine Weise tat, die Gödel begeisterte. Diese Art des Beweises akzeptierte Gödel sofort.
Schaut man sich das Verfahren von Turing näher an, ist man zuerst einmal überrascht. Das Verfahren, das Turing beschreibt, sieht so einfach aus, dass man sich im ersten Moment gar nicht vorstellen kann, dass man damit irgend etwas Ernsthaftes machen könnte. Turings Vorbild war ein Büroangestellter, der mit einem Schreibstift auf einem Blatt Papier Zahlen schreibt. Wie sich dann aber in den Jahren nach Turing herausstellte, ist es genau dieses Verfahren, was sich bislang als ‚das‘ Konzept, als der ‚Maßstab‘ für einen ‚endlichen berechenbaren Prozess‘ erwiesen hat, denn von allen anderen Formalisierungsvorschlägen, die nach ihm gemacht wurden (oder zeitgleich oder kurz vorher) konnte bewiesen werden, dass sie höchstens ‚gleichwertig‘ sind oder schwächer. Damit dürfte dieses Konzept von Turing, das später und heute allgemein als ‚Turingmaschine‘ benannt wird, als das fundamentalste philosophische Konzept des 20.Jahrhunderts erscheinen (fragt sich natürlich, welche anderen Bereiche man noch hinzunehmen möchte. Im Bereich Naturwissenschaft gab es im 20.Jahrhundert viele bahnbrechende Erkenntnisse. Eventuell müsste man die dann dazurechnen). Jeder konkrete Computer heute kann nicht mehr als das, was das mathematische Konzept der Turingmaschine verkörpert (leider gibt es immer wieder Leute, die das mathematische Konzept der Turingmaschine als Beschreibung einer konkreten ’sequentiellen‘ Rechnerarchitektur missverstehen. Das führt dann natürlich zu allerlei logischen Ungereimtheiten).
Intelligenz bei Tieren und Computern
Dass das Prinzip der Turingmaschine umgesetzt in der Technologie heutiger Computer extrem vielseitig ist, das erleben wir heute in unserem Alltag (falls man sich überhaupt noch bewusst macht, dass nahezu in jedem Gerät heute mindestens ein Computer steckt (allein in einem einzigen Autositz können z.B. bis zu 7 kleine Computer vor sich hinwerkeln, ohne dass sich jemand dessen bewusst ist). Dennoch kann man die Frage stellen, wieweit die prinzipiellen Fähigkeiten dieser Technologie reichen.
Turing selbst dachte laut darüber nach (und hat dies auch in sehr vergnüglicher Weise beschrieben), dass das Prinzip der Turingmaschine eigentlich so universal ist, dass eine Maschine, die nach diesen Prinzipien gebaut würde (ein Computer, ein Roboter), mit der entsprechenden Ausstattung an Sensoren und bei Teilnahme an allen Lernprozessen, die auch ein Kind durchläuft, in der Lage sein müsste, alles lernen zu können, was auch ein Kind lernt. Turing selbst konnte es nicht erleben, ob dies tatsächlich geht.
Aber spätestens seit ihm wird immer wieder laut darüber nachgedacht, ob ein Computer so intelligent sein kann wie ein Mensch, oder gar noch intelligenter.
Ich habe dann kurz die Entwicklung der wissenschaftlichen Psychologie zu Beginn des 20.Jahrhunderts in den USA eingeblendet. Bekannt unter dem Schlagwort ‚verhaltensbasierte Psychologie‘ (‚Behaviorismus) versuchten in der ersten Hälfte des 20.Jahrhunderts (aufgrund starker Anregungen von europäischen Psychologen) Psychologen zu empirisch begründeten Aussagen über beobachtbares Verhalten zu kommen. Das vorherrschende Versuchsparadigma waren damals Ratten, die in einem Labyrinth nach Futter (oder Wasser) suchen mussten.
Ein Experiment von Tolman (und anderen), das ihm lange Zeit eine gewisse Berühmtheit bescherte, war die Beobachtung, dass nicht nur Ratten (i) die hungrig waren, nach einer Anzahl von Versuchen das Futter immer schneller fanden, sondern (ii) auch Ratten, die viele Versuche ohne Hunger im Labyrinth herumlaufen konnten, ab dem Zeitpunkt, wo sie dann ‚hungrig gemacht wurden‘, ziemlich direkt das Futter ansteuerten. Tolman & Co folgerten daraus, dass die Ratten offensichtlich während der ’nicht-Hunger-Zeit‘ trotzdem ‚gelernt‘ haben, wie das Labyrinth angeordnet ist, so dass sie in dem Moment, wo sie das Futter wirklich brauchten, dieses aufgrund des zuvor ‚erworbenen Wissens‘ direkt ansteuern konnten.
Die Psychologen dieser Zeit versuchten also aus den beobachtbaren Verhaltensdaten auf ‚Regelmäßigkeiten‘ ‚in‘ der Ratte zu schließen. Da man in dieser Zeit noch nicht so richtig in ein Rattengehirn hineinschauen konnte (übrigens auch heute ist das, was die Neurowissenschaften im Kontext von Rattenexperimenten zu Tage fördern, äußerst unbefriedigend!) , war der Interpretationsspielraum recht groß. Die Streitigkeiten zwischen den verschiedenen Interpretationsschulen (z.B. das Lager um Hull mit dem ‚Reward-learning‘ und das Lager um Tolman mit den ‚cognitive maps‘) erscheinen aus heutiger Sicht merkwürdig (zumal man zeigen kann, dass sich cognitive maps mit neuronalen Netzen nachbilden lassen, die ziemlich genau den Annahmen von Hull entsprechen). Entscheidend ist nur, dass man aufgrund des Verhaltens eindeutig ausschließen konnte, dass die Ratten ‚zufällig vorgehen.
Mittlerweile können wir – mittels Computern! – beliebige Typen von ‚virtuellen‘ Ratten simulieren. Das Bild zeigt die Struktur des Programms einer virtuellen Ratte basiert auf dem Konzept der Classifier Systeme, allerdings hier abgewandelt), die das Erlernen eines Weges im Labyrinth zum Futter sehr schnell erledigt. Was dieser einfache Typ aber nicht kann, ist das ‚Umlernen‘, falls das Futter nicht mehr am alten Ort ist, sondern an einem neuen Ort. Durch geringfügige Änderungen kann man dies aber ‚einbauen‘.
Die Frage ist, was man aus diesen Befunden folgern kann bzw. sollte. Hat die virtuelle Ratte die ‚gleiche Intelligenz‘ wie die reale Ratte, wenn die beobachtbaren Verhalten messtechnisch ‚gleich‘ sind (Eine Fragestellung, die in den berühmten Turing-Tests auch beständig diskutiert wird)?
Würde man ‚Ja‘ sagen, dann würde dies bedeuten, dass ‚Intelligenz‘ etwas ist, was nicht an die biologische Struktur als Körper gebunden ist, sondern mit jeder Struktur realisiert werden kann, die die entsprechenden ’strukturellen Eigenschaften‘ aufweist. Zwar ist damit nicht gesagt, dass man damit das Phänomen des biologischen Lebens ‚als solchem‘ reproduziert, aber die Eigenschaft der Intelligenz, die sich uns ursprünglich an, mit und durch die biologischen Strukturen ‚zeigt‘ (‚enthüllt‘, ‚offenbart‘, ‚emergiert’…).
Ich habe dann einen weiteren ‚Schwenk‘ gemacht und versuchte zu verdeutlichen, dass sich die Strukturen der Turingmaschine im Kern des Biologischen selbst finden. Am Beispiel des Übergangs vom Genotyp (die Gene) zum Phänotyp (die Körper) kann man sehen, dass die Prozesse, die hier ablaufen, strukturell identisch sind mit der Arbeitsweise einer Turingmaschine, im Prinzip sogar einer abgeschwächten Turingmaschine. Der molekulare Input für das Ribosom repräsentiert die ‚Bandinhalte‘, die ‚Gelesen‘ werden, und der molekulare Output des Ribosoms repräsentiert den Bandinhalt, der ‚geschrieben‘ wird.
Noch wichtiger aber ist vielleicht der Sachverhalt (von dem der Physiker Paul Davies anmerkte, dass er sich bislang jeder physikalischen Theorie widersetzt), dass der Input von einem Molekül kommt (DNA), dessen ‚Bedeutung‘ nicht durch seine primären physikalischen Eigenschaften gegeben ist, sondern durch einen Informationskode, für den es keinerlei physikalische Notwendigkeit gibt. Überhaupt ist das Auftreten von ‚Information‘ in diesem Kontext geradezu aberwitzig. Jeder Kode setzt das Zusammenspiel von einem Sender und Empfänger voraus. Wenn wir also hier , an der Wurzel des Biologischen unübersehbar einen Kode vorfinden, der Bau- und Wachstumsprozesse steuert, und es keine dritte Instanz gibt, die diesen Kode vereinbart hat (und eine solche Instanz ist nicht bekannt), dann muss die Struktur des Kodes schon im Ausgangsmaterial als physikalische Eigenschaft angelegt sein. Das würde aber bedeuten, dass diese eindeutigen Eigenschaften von Intelligenz und Geist inhärente Eigenschaften der Materie selbst sein müssen. Eine andere Erklärung ist aktuell rein logisch nicht möglich (Plato und die Neuplatoniker haben so etwas beispielsweise auch schon gedacht, allerdings ohne explizites Wissen um die Strukturen des Lebens und der Materie).
versucht man alle bekannten Fakten zusammen zu fassen, dann kann man zu folgendem eindrücklichen Bild kommen: das Phänomen des Biologischen im Universum resultiert zunächst einmal aus der Tatsache, dass sich das Universum laut Aussagen der Physik noch in einem Zustand unterhalb des Maximums der Entropie befindet. Dadurch gibt es noch ‚Energieunterschiede‘ im Universum, die sich in Form ‚frei verfügbarer Energie‘ nutzen lassen. Alle bekannten biologische Phänomene tun genau dies: sie nutzen freie Energie um – im Widerspruch zum Entropiegesetz der Physik!!! – immer komplexere Strukturen hervor zu bringen. Ab einem bestimmten Komplexitätspunkt (Tiere, insbesondere dann wir als homo sapiens sapiens) sind diese Strukturen in der Lage, Modell der Umgebung und von sich selbst zu erstellen, die für das eigene Handeln genutzt werden können. Damit hat sich die Evolution einen erweiterten Handlungsspielraum geschaffen, der die Geschwindigkeit der Lernprozesse um geschätzt den Faktor 10^7 zu beschleunigen (weitere Steigerungen nicht ausgeschlossen). Gleichzeitig gibt es im Konzept der Turingmaschine eine ‚technische Kopie‘ jener Struktureigenschaften, die wir mit Intelligenz verknüpfen. Die Evolution hat sich also neben den ‚intelligenten biologischen Strukturen‘ auch noch einen ‚Intelligenzverstärker‘ geschaffen, der sich unabhängig von den biologischen Strukturen entwickeln und nutzen lässt.
In diesem Zusammenhang fundamental bedeutsam ist auch der Umstand, dass alle biologischen Strukturen ‚wertabhängig‘ sind, d.h. Alle (!!!) Wachstums- und Lernprozesse setzen voraus, dass es messbare ‚Präferenzen‘ (Fitness, Werte) gibt, an denen sich diese Prozesse orientieren. Bislang ist dies die Erde selbst in ihrer Konkretheit. In dem Masse, wie die Evolution aber Strukturen geschaffen hat, die in ihrer Erkenntnisfähigkeit über die Erde ‚hinaus schauen‘ können, wird dies primäre Wertsystem ‚Leben unter den Bedingungen der Erde‘ abgelöst durch ein Wertesystem ‚Leben unter den Bedingungen des Universums‘. Eine solche Erweiterung des Wertesystem ist auch dringend notwendig, da mit den verbleibenden 1 Mrd Jahre bis zum Wärmtod durch die Sonne einiges getan werden muss, um diesem Wärmetod zu entgehen. Hierin deutet sich an, dass das Leben seinen ‚Sinn‘ ‚in sich selbst‘ hat. Dies alles zu verstehen stehen wir vermutlich erst ganz am Anfang.
Es gab dann noch ein paar Bilder und Bemerkungen zur Beschreibung von Vielfalt durch die Mathematik oder den direkten Strukturvergleich zwischen Menschen als selbsmodifizierendem System und der universellen Turingmaschine:
Verhaltensformel Mensch: phi: I x IS —> IS x O
Verhaltensformel UTM: phi: I x IS —> IS x O
Ich habe die Präsentation beendet mit dem Hinweis darauf, dass wir hier in Frankfurt, und zwar genau in diesem INM, wo an diesem Abend der Vortrag stattfand, zusammen mit der FH Frankfurt und der Goethe-Uni Frankfurt und allen, die mitmachen wollen, im Frühjahr 2014 das große ‚Geist-Sichtbarkeitsmachung-Projekt‘ starten wird. Rund um die Uhr, jeden Tag des Jahres, wird man zuschauen können, wie der künstliche Geist unter den Augen der Öffentlichkeit entstehen wird. Die Vorbereitungen dazu laufen schon. Noch im Dezember wird es eine erste Gründungsversammlung mit einer ersten Webseite geben. Wir werden auch Sponsorengelder einsammeln, da wir ganz ohne ein Minimalteam zum Management des Ganzen nicht auskommen werden.
Es folgte abschließend ein weiteres Musikstück, inhaltlich passend zum neuen Welt- und Menschenbild. ‚Du bist die Botschaft des Universums‘, womit jeder gemeint ist; jeder verkörpert – ob er/ sie will oder nicht – eine Botschaft, in der das Ganze des Universums enthalten ist. Wir müssen diese Botschaft nur lesen lernen:
You are the message of the universe (Rap-like…) Hatte nur so gespielt. Erst ein paar Drum-Clips arrangiert. Dann eine verfremdete Flöte als Hauptmotiv. Dazu dann einen Bass. Als mir dann keine geeignete weitere Stimme mehr einfiel, habe ich mich an einen Text erinnert, den ich vor Monaten schon in einem Musikvideo verarbeitet hatte ‚You are the message of the universe‘. Ich finde, im aktuellen Arrangement passt er ganz gut. Eine Art Anti-Rap Rap….oder auch nicht. Es gibt so unendlich viele Sichten zu jeder Sache. Die immanente Unendlichkeit ist der eigentliche ‚Hit‘, natürlich hervorgebraht vom Gehirn, dieses selbst aber ist eine Hervorbringung aus dem Innern der Materie, und damit aus der Mitte der Energie… diese wiederum ist — physikalisch betrachtet — ‚unsterblich‘. Wir sind alle viel mehr, als wir ahnen, geschweige denn denken können…letztlich ist es egal, was wir denken, bevor wir denken sind wir schon das, was wir sind… das ist unser Glück. Aber natürlich, warum können wir dann überhaupt denken? Wozu? Gute Frage… wer die Antwort findet, braucht sie nicht mehr….Good Luck..
PS: Ursprünglich hatte ich noch einen Abschnittt über die zentrale Rolle von Künstlern zusammen mit Wissenschaftlern; aber der blieb auf der Strecke, es war dann doch zu viel Stoff….
PS2: Es gab noch eine recht intensive Diskussion.
PS3: Am Tag drauf hatte ich eine lange, sehr inspirierende Besprechung mit einem guten Bekannten aus der Szene der experimentellen Musik, wo wir die verschiedenen Aspekte des kommenden Projektes zur ‚Sichtbarmachung von Geist‘ durchsprachen. Von den vielen Punkten, die wir demnächst auch entsprechend kommunizieren werden, war einer für den Zusammenhang hier besonders interessant: da der Begriff ‚Geist‘ (Englisch oft ‚mind‘) extrem vage ist und bis heute in keiner Wissenschaft eine operationale Definition existiert, die diesen Begriffen irgendwie fassbar macht (nur sehr viele blumige Beispiele), sollten wir uns in der Diskussion und Weiterentwicklung zunächst an den Begriff ‚Intelligenz‘ halten. Für diesen Begriff haben die experimentellen Psychologen eine sehr brauchbare operationale Definition entwickelt, die in Gestalt des IQ (Intelligenzquotienten) weit verbreitet ist. Was immer ‚Geist‘ sein mag, insofern er sich im Verhalten manifestiert, das man beobachten und messen kann, kann man die sich ‚im Verhalten zeigende Intelligenz‘ in ihren unterschiedlichen Ausprägungen ‚messen‘, d.h. mit vorgegebenen Standards ‚vergleichen‘. Für diese ‚Messungen‘ spielt es keine Rolle, ob es sich bei dem beobachteten System um eine Pflanze, ein Tier, einen homo sapiens sapiens oder um eine Maschine handelt. Der psychologische Intelligenzbegriff ist insofern ‚invariant‘ bzgl. derjenigen Struktur, die das zu messende Verhalten hervorbringt. Insofern ist dieser Intelligenzbegriff geeignet, ‚Intelligenz‘ so zu messen, dass man all die verschiedenen ‚Hervorbringungsstrukturen‘ vergleichen kann. Präzisierend müsste man von daher vielleicht sagen, dass wir in diesem Experiment zeigen wollen, dass die Entstehung und Anwendung von Intelligenz nicht an eine biologische Trägerstruktur gebunden ist, sondern nur an Strukturmerkmalen, die in nahezu beliebiger materieller Beschaffenheit auftreten können. Der philosophische ‚Druck‘ auf das Selbstverständnis von uns Menschen bleibt damit sehr wohl erhalten: Wer sind wir wirklich? Was soll das Ganze? Sind wir überflüssig? Haben wir eine spezielle Mission? Haben wir trotz allem eine Verantwortung für das Ganze? usw.
PS4: In einem privaten Kreis mit vielen Freunden flammten diese Diskussionen auch wieder auf, da im Kreis außer mir zwei da waren, die auch bei dem Salon waren. Diese Themen bewegen…
Literaturnachweise
Body Surface at http://en.wikipedia.org/wiki/Human_body (letzter Besuch: 12.Nov.2012)
Organs below the Body Surface at http://en.wikipedia.org/wiki/Human_anatomy (letzter Besuch: 12.Nov.2012)
Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27s_problems (Last access Sept-30, 2012)
Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL: http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/ (Last Access Sept-30, 2012)
Holland, J.H. Hidden Order. How adaptation Builds Complexity, New York: USA, Basic Books, 1995
Hull, C.L. Principles of Behavior, New York: Appleton-Century-Crofts, 1943
Hull, C.L. Essentials of Behavior, New Haven: Yale University Press, 1951
Hull, C.L. A behavior system: An introduction to behavior theory concerning the individual organism, New Haven: Yale University Press, 1952
Hull, C.L; Hovland, C.I.; Ross, R.T.; Hall, M.; Perkins, D.T.; Fitch, F.G. Mathematico-deductive theory of rote learning, New Haven: Yale University Press, 1940
Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
Tolman E.C., Purposive behavior in animals and men, New York: Appleton-Century-Crofts, 1932 (repr. 1949 by University of California Press)Tolman, E. C. (1948). Cognitive maps in rats and men, Psychological Review, 55, 189-208 (online version at: http://psychclassics.yorku.ca/Tolman/Maps/maps.htm ; last ascess: 14.Nov.2012)Tolman E.C., Collected Papers in Psychology, Berkeley: University of California Press, 1951
Tolman E.C., Principles of purposive behavior, in: Koch, S. (Ed.), Psychology: A study of a science. Vol.2, New York: McGraw-Hill, 1959 (repr. 1949 by University of California Press)
Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012))
8 Jahre und drei Monate später … es hat etwas Berührendes, nach einer so langen Zeit einen eigenen Text samt Musikbeispielen nochmals zu lesen (und zu hören). Alles gesagte würde ich auch heute wieder unterschreiben. Es ist sehr ‚zum Punkt‘; besonders das Rapp-artige Musikstück ‚You are the message of the universe‘ geht mir noch immer ‚unter die Haut‘. Das im Text angekündigte Experiment am INM hatte tatsächlich unter dem Label ‚emerging-mind‚ stattgefunden. Aber es ist wieder versandet… Seit ca. 2018/19 ist ein neues Projekt entstanden, nicht wirklich geplant, aber irgendwie auch nicht planlos, und gewinnt immer mehr Fahrt. Der innere Motor ist der Gedankenkomplex ‚Kollektive Mensch-Maschine Intelligenz‚. Der treibende Motor ist die Vereinigung von Philosopie, Engineering und Gesellschaft. Ausgang offen, aber die Dynamik ist stark. Das Thema ‚You are the Message of the Universe‘ schwingt in allem weiter …
Eine Übersicht über alle Beiträge anhand der Titel findet sich HIER
(1) Eigentlich versuche ich das Buch von Duve zu Ende zu besprechen. Während des Semesterbetriebes muss ich aber in vielen Prozessen parallel denken und arbeiten. Es gibt dann immer diese ‚Zeitscheiben‘ (wie das klingt, die Zeit in ‚Scheiben‘ geschnitten, wie Salami oder Käse…) und jede Zeitscheibe ist eine kleine ‚Welt für sich‘, als ob es das andere nicht gibt. Allerdings ist unser Körper (das unbekannte Wesen, letztlich), der diese verschiedenen Zeitscheibenwelten ‚beherbergt‘ und untereinander auf geheimnisvolle Weise verknüpfen kann, so als ob die eine Zeitscheibe mit der anderen ‚redet’….In diesem Sinne spricht jetzt hier eine ‚Zeitscheibe‘ während die andere (Besprechung Duve) ‚ruht’…
(2) Ich mache seit Jahren ‚Selbstversuche‘ mit experimenteller Musik. Ich wusste lange nicht, wie ich dies einschätzen sollte: Völliger ‚Humbug‘, ‚Zeitverschwendung‘, ‚Lächerlich‘, …mittlerweile bin ich aber sicher, dass dies eine fast unausweichliche Verhaltensweise ist, wenn man in der immer stärkeren Automatisierung und Virtualisierung unser Kultur seinen eigenen ‚Realitätskern‘ nicht verlieren will. Es ist sicher auch kein Zufall, dass die ’nachwachsende‘ Generation (wie das klingt ’nachwachsend‘, aber es ist mehr als wahr, wenn es auch den individuellen Egoismus und die individuelle Eitelkeit von so manchem stark ankratzt…) im Bereich Musik (zumindest abseits der populären Schiene, die immer nur das gewohnt Konventionelle reproduziert (man will ja ‚gefallen‘, es geht nicht um Erkenntnis…)) extrem experimentell vorgeht (die Musikerin Dominique Dillon de Byington, genannt Dillon ist hier nur ein Beispiel von vielen (hundert?)).
(3) Diese meine Einschätzung hängt damit zusammen, dass im täglichen Erkenntnisvollzug jeder von uns in erster Linie und unausweichlich in der ‚Schleife des Bekannten‘ hängt. Unser Körper (und hier speziell das Gehirn) verfügt über die wunderbare Gabe, wahrnehmbare Ereignisse (niemand spricht über die unfassbar große Menge der ’nicht-wahrnehmbaren‘ Ereignisse!) mit Hilfe von bestimmten Mustern (das hatte schon Kant und viele andere Philosophen zum Nachdenken gebracht) in ‚abstrakteren‘ Einheiten zu ‚organisieren‘ und uns damit ein ‚Bild‘ von einer ‚alltäglich geordneten‘ Welt aufbereitet, die wir für ‚wahr‘ nehmen und wir unser Verhalten entsprechend diesem Bild ausrichten.
(4) Der wichtige Punkt ist hier die ‚Unausweichlichkeit‘ in dem Sinne, dass unser Gehirn-Körper auch ohne unser ‚Zutun‘ so ‚arbeitet‘ und auf diese Weise in jeder wahrnehmbaren Zeitscheibe (ja, unser Körper arbeitet mit Zeitscheiben einer messbaren Länge!) ein ‚Produkt‘ abliefert, das wir als ‚Welt‘ bezeichnen.
(5) Solange sich die ‚reale‘ Welt mit den Bildern der ‚Gehirn-Körper-Generierten‘ Welt in Übereinstimmung befindet, ergibt sich ein gewisser Gleichklang, Einklang, Harmonie, eine ‚Flüssigkeit‘, eine ‚Vertrautheit‘, die uns in ‚gewohnten Bahnen‘ laufen lässt. Weichen die realen Ereignisse von den ‚erwarteten‘ ab, gibt es ‚Unruhe‘; bei solchen Gelegenheiten haben wir die Chance, zu bemerken (zu erkennen?), dass die ‚Welt im Kopf‘ nicht die ‚Welt da draußen‘ ist. Die einen unternehmen viele Anstrengungen, entweder solche ‚Beunruhigungen‘ von vornherein zu ‚unterbinden‘ (! lieber ‚Ruhe‘ als ‚Wahrheit‘!), oder sie zu unterdrücken, falls sie dann doch auftreten. Gelingt dies alles nicht, gibt es die Aggressiven, die die Quelle der Beunruhigung auszuschalten versuchen, die ‚Possenreißer‘, die das Ungeplante per Humor zersteuben wollen, … die Bandbreite möglicher Reaktionen ist groß. Das ‚Unerwartete‘ bewusst zu integrieren ist auf jeden Fall anstrengender als es nicht zu tun.
(6) Als Kinder ist dieser beständige Konstruktionsprozess das ‚Normale‘; wir nennen das ‚Lernen‘. Dass Kinder dabei ziemliche Dramen durchleben können ist nicht unbedingt Allgemeingut bei den Erwachsenen…
(7) Manche ziehen aus dem Unverhofften, Unerwarteten ‚Nutzen‘; sie verändern ihr Bild von sich, den anderen, der Welt….
(8) Die Frage ist auch, inwieweit wir im Laufe des Lebens diese grundlegende Lernfähigkeit verlieren können. Ich werde niemals den Kontrast vergessen, den ich als Jugendsozialarbeiter erlebt habe, als ich in einer deutschen Großstadt nachmittags mit Kindergruppen (7-11 Jahre) gearbeitet hatte und abends mit den ‚Älteren‘ (ca. 17-22 Jahren). Innerhalb von 5 bis 10 Jahren können junge Menschen nahezu alle positiven Fähigkeiten verlieren, die sie als Kinder mal hatten. Der Einfluss der täglichen Umgebung erscheint erschreckend gewaltig destruktiv: aus selbstbewussten kreativen neugierigen Wesen werden stumpfe ideenlose hoffnungslose Wesen ohne Selbstvertrauen, die Menschen, die unsere Zukunft tatkräftig gestalten sollen, ohne zu wissen, wer sie selbst sind….
(9) Wie auch immer, selbst wenn man viele Dinge in seinem Leben konstruktiv gemeistert haben mag. Die Tendenz, sich im Erfolg letztlich doch zu verstetigen, in gebahnte Bahnen zu erstarren, sich im Gewohnten zu betäuben, ist massiv. Als ich vor ein paar Jahren dazu kam, nach mehr als 35 Jahren Pause wieder Musik zu machen, ohne Training, unmusikalisch, keine Zeit zu großen Übungen, alleine, in einem Mehrparteienmietshaus (Lärm praktisch unmöglich), psychologisch in einer schlechten Situation: was denken die Leute (ganz zu schweigen von meiner Frau), da blieb mir nur eines, ‚radically unplugged music (RUM)‘ als ‚legale‘ Form des Musikmachens zu erklären. Quasi als Manifest gegen die Diktatur der herrschenden Gewohnheiten, die u.a. die meisten Radio- und Fernsehkanäle besetzt halten, als ‚Aufschrei‘ des unterdrückten Individuums, das angesichts dieser allseitigen ‚Vernormung‘ dessen was sein darf zu ersticken droht, an ‚Atemnot‘, weil alles, was man als einzelner tun kann, bevor man es tut, schon gesellschaftlich ’nichts‘ ist. Globalisierung als Elimination des Individuums im Ansatz. Zerstörung von Kreativität und Erkenntnis im Ansatz. Menschenverachtend. Zynismus pur…
(10) Als ich gestern — während ich etwas schrieb — zufällig im Hintergrund die Sendung ‚Punk in Myanmar‘ in zdf-kultur sah (siehe: http://aufnahmezustand.zdf.de/ZDF/zdfportal/programdata/cd946bca-3138-33a7-9ff7-c183e90cd233/20065425?doDispatch=1″), merkte ich, wie ich von diesem Bericht sehr beeindruckt war. Dieser Bericht verstand es, die Situation der jungen Menschen in der Diktatur Myanmar so in Szene zu setzen, dass jedem Zuschauer klar werden konnte, warum diese jungen Leute so waren, wie sie sind, und dass diese den Nerv des möglichen Lebens in einer lebensfeindlichen Umgebung in — auf ihre Weise — aufopfernder Weise zu Gehör bringen wollten. Die persönlichen Risiken, die sie dabei eingingen, ihr Engagement, war sehr beeindrucken. Beeindruckend auch die einzige Sängerin, die schließlich aber wegen ihres Vaters wieder aufhörte, zu singen. Am tiefsten beeindruckte mich die Mutter des einen, eine emeritierte Professorin für Chemie. Wahnsinn welche Personalität, Liebe und Tiefe. Wie sie mit der Andersartigkeit ihres Sohnes und der ganzen Bewegung umging trotz der Ablehnung und Aggressivität der Umgebung!!!!! Hier erschien die Musik als Teil des Lebens, des Lebenskampfes, des Lebenlernens, als authentische Tätigkeit in dem Kampf um Wahrheit, Authentizität, Lebensgefühl schlechthin.
(11) Myanmar erscheint weit weg von Deutschland aus gesehen. Aber in gewisser Weise ist es direkt um uns herum. Auch wir erleben unzählige Prozesse um uns herum, die ‚lebensfeindlich‘ sind, die die uns unsere Ideen stehlen, uns unserer Lebensgefühle zu entfremden drohen, und auch wir sind beständig herausgefordert, uns aus dem Alltagsschlaf heraus zu reißen und uns zu fragen: ist es das wirklich? Soll es so sein oder sollte es nicht ganz anders sein? Jeder weiß, dass wir genügend offene Rechnung mit der Gegenwart haben…
(12) In mir verstärkt sich das Gefühl, dass die Methode ‚Radically Unplugged‘ etwas wirklich Grundlegendes ist, die Art und Weise betrifft, in der wir mit uns selbst und der Welt um uns herum umgehen. In einer Welt der globalisierenden Virtualisierung und Normierung durch diktatorische Kapitalmassen haben wir als Individuen nur noch die Authentizität. Diese alleine reicht zwar nicht, ist aber eine fundamentale Voraussetzung. Ohne diese sind wir nur mehr das dreihundert-billionste Bit in einem gigantischen Datenmeer, das von so vielen verschiedenen ‚Geistern‘ angetrieben wird, dass …..
(13) Merkwürdigerweise können wir im Prinzip alles ändern… nicht nur, indem wir alles zerstören, was in ein paar Milliarden Jahre ohne unser Zutun aufgebaut wurde, nicht nur, aber das ‚konstruktive Gestalten‘, eher eine Form des ‚Miterschaffens‘, ist extrem lernabhängig, dialogisch, … wir müssen verstehen, wer wir sind, wozu wir da sind, was dieses ganze Universum soll, um vielleicht weniger zu zerstören und ein wenig beizutragen. Der kosmologische Prozess selbst hat uns ins Szene gesetzt, ohne dass wir es wollten. Es wäre mehr als erstaunlich, wenn diese implizit kosmologische Weisheit nicht auch für die Option eines konstruktiven Mitwirkens eine Option parat halten würde… unsere aktuelle Dummheit ist aber vielleicht noch zu groß, als dass wir es verstehen können…
Insgesamt wird empfohlen, entweder richtig gute Kopfhörer zu benutzen oder eine richtig gute Soundanlage. Normale PC-Lautsprecher sind einfach zu schlecht; man hört irgendein Gequäcke aber keinen wirklichen ‚Sound’…
Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER
Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)
[Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]
Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)
Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)
Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)
Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)
Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See, wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)
Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)
Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)
Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)
Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)
Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)
Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)
Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)
Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)
Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)
[Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]
[Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
]
[Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
]
Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil. Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
[Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können. Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen — diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]
Einen Überblick über alle bisherigen Themen findet sich HIER
Zitierte Literatur:
Chaitin, G.J.Information, Randomness & Incompleteness, 2nd ed., World Scientific, 1990
Turing, A. M.On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).
Interessante Links:
Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.