Archiv der Kategorie: Interpretation

AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 2

VORGESCHICHTE

1. In einem vorausgehenden Beitrag AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 1 hatte ich geschildert, wie ich zur Lektüre des Textes von Avicenna gekommen bin und wie der Text grob einzuordnen ist. In diesem Teil beginnt nun die kommentierende Lektüre des Hauptteils.

DANK AN GOTT, MOHAMMED und den HERRSCHER

2. Der Text beginnt mit einem Dank an Gott, an den Propheten Mohammed und an seinen Herrschern dafür, dass er über all die Voraussetzungen verfügt, die notwendig sind, überhaupt solch einen Text schreiben zu können. Dazu gehört auch das Bewusstsein, letztlich kein Experte zu sein, der alles weiß, sondern eher ein Suchender, der versucht, nach bestem Wissen und Gewissen zu verstehen, was es zu verstehen gibt.

3. Und bevor nun Avicenna mit der eigentlichen Logik beginnt, spendiert er ein paar Gedanken zur Frage, warum Logik überhaupt wichtig ist.

WARUM LOGIK?

4. Fluchtpunkt aller konkreten Denktätigkeiten ist für ihn die Wissenschaft (’science‘), die versucht, die Eigenart der Dinge, ihre Zusammenhänge, so zu klären, dass der einzelne Mensch darin genügend Klarheit findet, seinen Weg als Mensch gehen zu können.

5. Wissenschaft hat auf jeden Fall damit zu tun, das aktuelle Wissen zu vermehren, indem das, was aktuell noch nicht gewusst wird, in Wissen umgewandelt werden soll.

6. Avicenna unterscheidet verschiedene Arten von Wissen: (i) Wissen, das durch die Sinne zu uns kommt (perzeptiv, apprehensiv, intuitiv1), Wissen, das uns intuitiv2 durch das ‚erste Prinzip‘ gegeben wird, (iii) Wissen, das wir uns durch ‚Urteile‘ erschließen, und (iv) Wissen, das wir von anderen (Autoritäten, von dem Propheten, von Weisen, über ‚allgemeine Meinungen‘, …) übernehmen.

7. Interessant ist auch das Detail, dass er aufmerksam macht auf den Zusammenhang von sinnlicher (intuiv1) Erfahrung und Worten. So habe für uns das Wort ‚Mensch‘ solange keine Bedeutung, solange wir die Verwendung des Wortes im Kontext nicht kennengelernt haben.

8. Der Weg zum Wissen ist ein langer Prozess, durch den man mehr und mehr Details und Zusammenhänge erkennen kann, die schließlich einen Menschen dazu befähigen können, alle die wichtigen Zusammenhänge hinreichend erkennen zu können, die er für sein Leben als Mensch benötigt.

9. Und insofern die Logik jener Teil der Wissenschaft ist, der sich mit der Kunst des ‚richtigen‘ Urteilens beschäftigt, ist die Logik eine unverzichtbare Voraussetzung für die Wissenschaft. Ohne eine klare Kenntnis der Logik bleibt unklar, ob das wissenschaftliche Denken zurecht einen bestimmten Zusammenhang behauptet oder nicht.

DISKUSSION

10. Obwohl Avicenna die Wissenschaft in einer sehr prominenten Rolle für das Leben der Menschen sieht, lässt er die Erklärung dessen, was Wissenschaft ist, an dieser Stelle weitgehend im Dunklen; sein Beispiel mit der Erkenntnis der reinen Form der Seele und derjenigen Neigungen, die davon wegführen, gehört eigentlich eher in die Bereiche Metaphysik und Ethik.

11. Trotz seiner Unterteilung des Wissens in verschiedene Arten bleibt manches an dieser Stelle unklar.

12. So nimmt er sinnliches Wissen an, das durch die Sinnesorgane uns zugänglich wird.

13. Nehmen wir einmal an, dass das, was Avicenna ‚Wissen‘ [KNOW, K] nennt, ‚im‘ Menschen ist, und nennen wir alles ‚um den Menschen herum‘ einmal ‚Welt‘ [WORLD, W], dann könnte man sagen, dass das sinnliche perzeptive Wissen eine Abbildung von bestimmten Eigenschaften der Welt in das Wissen K ist ($latex perc: W \longrightarrow K$). Und da das sinnliche Wissen sich offenbar von anderen Wissensarten unterscheiden lässt, nennen wir das sinnliche Wissen $latex K_{s}$, also $latex perc: W \longrightarrow K_{s}$, oder $latex perc(W) = K_{s}$ und $latex K_{s} \subseteq K $.

14. Nun weist Avicenna aber auch ausdrücklich darauf hin, dass es ’sprachlich vermitteltes Wissen‘ in der Form gibt, dass Gruppen von sinnlichen Eindrücken ($latex k \subseteq K_{s}$) mit ‚Worten‘ [EXPRESSIONS, E] ($latex E \subseteq K_{s}$) verknüpft werden können $latex M(K_{s},K_{s})$ (mit M für Meaning), dass diese Verknüpfungen einzeln gelernt werden müssen (sie sind also ‚arbiträr‘, ‚konventionell‘), und dass damit ein intuives1 Wissen entsteht, auf das sich dann das ‚Urteilen‘ beziehen kann.

15. Offensichtlich ist ein solches ’sprachliches Wissen‘ eine ‚komplexere‘ Art von Wissen, da hier nicht einfach nur Muster von sinnlichen Eindrücken als ‚Wissensgegenstände‘ genommen werden, sondern jeweils ‚Paare von Gegenständen‘ mit einem eigenen Namen, wie z.B. M(Baumeigenschaften, ‚Baum‘). Nennen wir diese Art von sprachlich vermitteltem Wissen $latex K_{m}$ (auch als eine Teilmenge von K).

16. Das ‚Urteilen’/ ‚Schlussfolgern‘ soll sich u.a. auch auf dieses sprachliche Wissen $latex K_m$ beziehen können. Avicenna erklärt hier noch nicht wirklich, was er genau unter Urteilen versteht. Allerdings bringt er ein Beispiele (in der Form eines Syllogismus). Wenn man die Annahmen macht (i) Alles, was Farben hat, ist erschaffen und (ii) Die Welt besitzt Farben, dann könnte man folgern (iii) Die Welt ist erschaffen.

17. Diese Folgerungsmuster finden sich schon ca. 1300 Jahre früher bei Aristoteles und sie besitzen eine gewisse ‚intuitive‘ Kraft, was ihnen über die Zeiten hin Eindruck verschaffte. Schaut man näher hin (und die Entwicklung der modernen formalen Logik hat hier unseren Blick geschärft), dann basiert diese ‚Intuition‘ aber auf unterschiedlichen Voraussetzungen, die weitgehend (bis heute!!!) nicht vollständig erklärt worden sind. Die moderne Logik hat sich dieses Problems dadurch entledigt, dass sie die schwer fassbaren ‚Bedeutungsanteile‘ (vgl. das Beispiel M(Baumereignisse, ‚Baum‘)) einfach ersetzt hat durch den abstrakten formalen Begriff ‚Wahrheit‘ [‚true‘, t, $latex \top$], der nur noch eine syntaktische Bedeutung besitzt, und dass die moderne Logik die komplexen sprachlichen Muster ebenfalls durch einfache isolierte Symbole ersetzt hat, um dann alle Folgerungsmuster nur noch unter Voraussetzung des abstrakten Wahrheitsbegriffes und syntaktisch heruntergedimmter Symbole zu untersuchen. Dies hat viele wertvolle Erkenntnisse geliefert, das zentrale Problem einer sprachlich vermittelten Erkenntniss wurde damit aber sich selbst überlassen. Schlimmer noch, seit über hundert Jahren glaubt die Wissenschaft, mit der Erfindung der formalen Logik jetzt alle Probleme eines logischen Alltagsdenkens gelöst zu haben. Das Gegenteil ist der Fall: durch die einseitige Fixierung auf die Spezialisierung mit der formalen Logik fiel das Wissen über das ’normale logische‘ Denken möglicherweise hinter den Reflexionsstand des Mittelalters zurück.

18. Avicenna nennt neben dem ‚intuitiven1‘ Wissen der Sinneserkenntnis und des sprachlichen Wissens noch ein anderes ‚intuitives2‘ Wissen, nämlich jenes, das aus dem ‚ersten Prinzip‘ folge. Er zitiert das Beispiel, dass man aus dem Wissen, dass A=X und B=X ‚intuitiv2‘ folgern könne, dass dann A gleich B sei (Streng genommen müsste man vielleicht einschränkend sagen, dass A nur bezogen auf X gleich B ist). Man kann hier nur vermuten, dass Avicenna ‚implizite Regeln des Denkens‘ unterstellt, die im Denken ‚wirksam‘ werden, und zwar so, dass wir diese Wirkung ‚intuitiv2‘ als ‚richtig‘ empfinden. Nennen wir dieses intutive2 Wissen aus dem ‚ersten Prinzip‘ K_p1. Vielleicht könnte man das so rekonstruieren, dass unser Denken [think, t] aufgrund des intuiven2 Wissens $latex K_{p1}$ in der Lage ist, von Wissen K allgemein auf ‚wahres Wissen‘ [KW] zu schließen, also $latex t: K \times K_{p1} \longrightarrow KW$.

19. Entsprechend könnte man vielleicht auch das ‚Urteilen‘ [judge, j] so rekonstruieren, dass das ‚Urteilen‘ von Wissen allgemein K mittels – noch zu klärender Urteilsregeln $latex K_{p2}$ – auf wahres Wissen schließen kann, also $latex j: K \times K_{p2} \longrightarrow KW$.

20. Wir nehmen hier – bis auf weiteres – einmal an, dass die Prinzipien des Urteilens $latex K_{p2}$ auch den Fall des sprachlichen Wissens einschließen.

21. Es bleibt dann noch der Fall des Wissens, das man von anderen übernommen hat; nennen wir es $latex K_{a}$ (für ‚a‘ von ‚accepted‘).

22. Wie wir wissen, kann dies vielfältige Formen haben, z.B. Verhaltensweisen, die man einfach imitiert, oder aber sprachlich vermitteltes Wissen $latex K_{m}$ über Eigenschaften und Zusammenhänge in der Welt W, das wir ‚hören‘ und zu ‚verstehen/ interpretieren‘ versuchen. Wie wir auch wissen, kann man von der sprachlichen Form grundsätzlich nicht direkt und nicht zweifelsfrei auf die damit intendierte ‚Bedeutung‘ schließen. Überliefertes sprachlich vermitteltes Wissen ist also in allen Fällen zunächst kein ‚volles‘ Wissen, sondern nur ein ‚potentielles‘ Wissen der Art, dass die sinnliche Wahrnehmung perc() von sprachlich vermitteltem Wissen $latex K_{m}$ mit dem aktuell verfügbaren Wissen K des Hörers zwar eine Hypothese [Hyp] über eine mögliche Bedeutung bilden kann, dass diese Hypothese aber dann erst einmal noch überprüft werden muss: Verstehen [‚interprete‘, int] als Abbildung der Form $latex int: perc(K_{m}) \times K \longrightarrow Hyp(M(K_{s}))$. Eine solche Überprüfung von Bedeutungshypothesen ist schwierig, aufwendig und kann niemals zu einer vollständigen Klarheit führen. Alle Welt spricht von der ‚Unschärferelation‘, die Heisenberg in die moderne Physik eingeführt hat; viel weitreichender und problematischer ist jedoch diese radikale ’semantische Unschärferelation‘, die für jeden Menschen gilt. Diese zu verstehen und praktisch zu bewältigen ist eine der wichtigsten Herausforderungen für jeden Menschen zu allen Zeiten und an allen Orten.

23. Also, beim Wissen K werden spezielle Teilmengen unterschieden: sensorisches Wissen$latex K_{s}$, sprachlich vermitteltes Wissen $latex K_{m}$, implizites Denkwissen $latex K_{p1}, K_{p2}$, von anderen übernommenes Wissen $latex K_{a}$, sowie ‚wahres‘ Wissen KW; zusammenfasend $latex K=K_{s} \cup K_{m} \cup K_{p1} \cup K_{p2} \cup K_{a} \cup KW$. Die genauen Beziehungen dieser verschiedenen Wissensformen untereinander ist dabei noch offen.

24. Bezüglich Wissensaktivitäten werden unterschieden: Wahrnehmung perc(), Denken t(), Urteilen j(), Interpretieren int().

25. Alle Details im Umfeld dieser Begriffe liegen bei diesem Standpunkt der Lektüre noch im Dunklen.

26. Wenn man bedenkt, dass im Jahr 2014 alle diese Prozesse weiterhin weitgehend ungeklärt sind (!), dann darf man gespannt sein, was Avicenna vor nunmehr ca. 1000 Jahre dazu gesagt hat.

Eine Fortsetzung findet sich HIER.

QUELLEN

Avicenny, ‚Avicennas Treatise on Logic‘. Part One of ‚Danesh-Name Alai‘ (A Concise Philosophical Encyclopedia) and Autobiography, edited and translated by Farang Zabeeh, The Hague (Netherlands): Martinus Nijhoff, 1971. Diese Übersetzung basiert auf dem Buch ‚Treatise of Logic‘, veröffentlicht von der Gesellschaft für Nationale Monumente, Serie12, Teheran, 1952, herausgegeben von M.Moien. Diese Ausgabe wiederum geht zurück auf eine frühere Ausgabe, herausgegeben von Khurasani.

Digital Averroes Research Environment

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 1

Christian de Duve, VITAL DUST. Life as a Cosmic Imperative, New York: Basic Books, 1995

Beginn: 14.Okt.2012, 11:10h

Letzte Änderung: 20.Okt.2012, 11:30h

  1. Ich bin auf das Buch von Christian de Duve aufmerksam geworden durch das Buch von Paul Davies.
  2. Christian de Duve bekam 1974 zusammen mit Albert Claude und George Palade den Nobelpreis in Physiologie in seiner Eigenschaft als Zytologe und Biochemiker für die Erkenntnisse zur Struktur und Funktion der Zelle (eine Biographie findet sich auf der Seite der Nobelpreisverleihung.
  3. Man muss sich immer wieder fragen, warum man sich die Zeit nimmt, Bücher zu lesen, deren Inhalt zwangsläufig weniger ‚aktuell‘ ist als die entsprechenden Artikel in den einschlägigen wissenschaftlichen Zeitschriften (‚journals‘). Meine Erfahrung ist aber die, dass die Zeitschriftenartikel immer sehr punktuell sind, wenig Kontext sichtbar machen, und daher das Verständnis eines größeren Zusammenhangs nur bei Lektüre von vielen hundert Artikeln möglich ist (abgesehen davon, dass der heutige Zwang zur Spezialisierung und der übermäßige Druck zum Publizieren wenig geeignet ist, Qualität zu unterstützen. Dazu kommen immer mehr ‚Zitierkartelle‘, durch die bestimmte Arbeitsgruppen versuchen, sich im ‚Haifischbecken‘ der internationalen Anerkennung ‚Gehör‘ zu verschaffen. Weiterhin gibt es den rein statistischen Impactfacor im Verein mit ‚wissenschaftspolitisch orientierten‘ Redaktionen). Die Bücher von Wissenschaftlern mit Rang (wie Davies, Duve, Heisenberg, Schrödinger usw.) enthalten in der Regel einen ‚Metatext‘, implizite ‚Kontexte‘, die die vielen Details in einen Zusammenhang stellen, der es allererst erlaubt, die vielen Details zu gewichten. Sie ersetzen die Lektüre aktueller Artikel nicht, aber sie bilden nach meinem Verständnis einen notwendigen Interpretationskontext, ohne den alles eher ‚unkoordiniert‘, ‚wirr‘ erscheint.
  4. Wie so viele andere beginnt Duve sein Buch in der Vorrede mit der bezeichnenden Feststellung, dass er über das Thema nur schreiben kann, indem er seine Fachgrenzen übersteigt. Niemand habe heute mehr das umfassende Wissen das notwendig sei. Dennoch können wir über unsere Stellung im Kosmos nur Klarheit gewinnen, wenn wir den Gesamtzusammenhang in den Blick nehmen. Und das Leben – einschließlich unserer selbst –, das wir verstehen wollen, gehört zum Komplexesten, was das Universum bisher hervorgebracht hat (vgl. S.xiii).
  5. Er beklagt, dass der normale Wissenschaftsbetrieb für solche umfassenden Betrachtungen nicht ausgelegt ist. Das Alltagsgeschäft und die zunehmende Spezialisierung liegen konträr zur Forderung einer integrativen Gesamtsicht (vgl. S.xiii.f).
  6. Am Ende seines Buches ‚Blueprint for a Cell‘ (1991) war er schon zu der Einsicht gekommen, dass das Leben sich ‚obligatorisch‘ aus den Eigenschaften der Materie ergeben haben muss, eine Einsicht, die weitere Fragen mit sich bringt. (vgl. S.xiv)
  7. In all seinen Untersuchungen geht er davon aus, dass die Phänomene des Lebens sich als ‚rein natürlicher Prozess‘ erklären lassen, durch Bezug auf jene empirischen Gesetze, die auch in den anderen naturwissenschaftlichen Gebieten gelten.(vgl. S.xiv)
  8. Ausgestattet mit diesen Prämissen meint Duve in dem Prozess des Kosmos eine Zunahme von ‚Komplexität‘ zu erkennen, die er in sieben Stufen anordnet: Beginnend mit deterministischen chemischen Prozessen (vor ca. 4 Mrd. Jahren), sieht er in den Wechselwirkungen der chemischen Bestandteil ‚Informationen‚ am Werke, die steuernd wirken; es bilden sich komplexe Protozellen als Vorläufer von Zellen; dann Einzelzellen, die sich unterschiedliche Protozellen als Bestandteile einverleiben. In diesen Zusammenhang gehört auch die ‚Erfindung‘ der Photosynthese, die es erlaubt, Sauerstoff abzuspalten und damit zur Bildung einer Sauerstoffatmosphäre führte. Multizelluläre Organismen besiedeln das Land; erst Pflanzen, dann auch Tiere. Die Fortpflanzungstechniken (Sexualität) passen sich den neuen Verhältnissen an. Bei den Pflanzen von Sporen zu Samen zu Blüten zu Früchten. Bei den Tieren von einer Entwicklung im Wasser zu Kopulation, zu Eiern im Wasser, dann auf dem Land, dann im Bauch. Schließlich bilden sich immer komplexere Netzwerke von neuronalen Zellen, die als Gehirn (‚brain‘), die Grundlage für ein neues Phänomen, den Geist (‚mind‘) bilden. Dies führt zu einer extremen Beschleunigung bei der Entwicklung des Menschen. (vgl. S.xvi-xvii)
  9. Für Duve ist es wichtig, festzustellen, dass das Phänomen des Geistes eine natürliche Manifestation der Materie ist, kein ‚Witz‘ (‚joke‘).(vgl.S.xviii)
  10. [ANMERKUNG: Es ist nicht üblich, in einem Vorwort mehodologische Aspekte zu diskutieren. Da wir hier die Thematik aber aus philosophischer Sicht behandeln, soll hier angemerkt werden, dass die primäre Untersuchungsperspektive die der Naturwissenschaften sein soll. Nimmt man dies an, dann fallen zwei Begriffe auf ‚Komplexität‘ und ‚Geist‘.
  11. ‚Komplexität‘ ist ein theoretischer Begriff, der nicht nur einen bestimmten ‚Theorierahmen‘ voraussetzt, sondern dessen Bedeutungsbereich selbst schon theoretische Begriffe sein müssen, die bestimmten theoretischen Anforderungen entsprechen. Es ist im weiteren Verlauf darauf zu achten, wie Duve mit diesem Begriff umgeht.
  12. ‚Geist‘ ist – nach normalem Sprachgebrauch – kein Begriff aus dem Bereich der Naturwissenschaften. Der Begriff ‚Geist‘ hat eine vielschichte ‚Begriffsgeschichte‘. In den meisten Fällen verbindet man den Begriff ‚Geist‘ mit Eigenschaften von ‚Menschen‘, deren ‚Verhalten‘ man ‚Eigenschaften‘ zuschreibt, die man mit ‚Geist‘ verknüpft. Die Verwendungsweise dieses Begriffs ist aber alles andere als klar. Selbst in der modernen Philosophie gibt es hier keine einheitliche Position. Man darf also gespannt sein, wie Duve diesen Begriff in seinem Buch verwenden wird.
  13. Ferner fällt auf, dass Duve die ‚kosmologische Vorgeschichte‘ in seiner Komplexitätshierarchie ausklammert. Diese wird heute in der neueren Astrobiologie sehr intensiv behandelt. Aus diesen Untersuchungen wissen wir, dass die Vorgeschichte ‚wesentlich‘ ist für die Rahmenbedingungen, unter denen Leben auf der Erde entstehen konnte. Man wird also prüfen müssen, inwieweit sich diese Ausklammerung auf die Ausführungen Duves merklich auswirken.]
  14. In der Einleitung wiederholt Duve die These, dass das Phänomen ‚Leben‘ auf der Erde das außergewöhnlichste Ereignis (‚most extraordinary adventure‘) im bekannten Universum ist und er wiederholt, dass man in dieser Geschichte des Lebens eine Reihe von ‚Innovationen‘ erkennen kann, die sich durch einen jeweiligen Anstieg an ‚Komplexität‘ auszeichnen. Und zur Beschreibung all dieser Phänomene genügen die Gesetze der ‚Physik‘ und ‚Chemie‘. (vgl.S.1)
  15. [ANMERKUNG: Neben den schon getätigten Anmerkungen oben sollte man sich im Hinterkopf behalten, dass der Physiker Paul Davies bzgl. der ‚Beschreibungskraft‘ der Physik eher kritisch daher kommt. Natürlich bleibt uns kaum eine Alternative zum Ansatz einer experimentellen Naturwissenschaft, aber es kann sein – was Davies ausdrückt – dass eine bestimmte Disziplin zu einem bestimmten Zeitpunkt selbst noch zu wenig Erkenntnisse verfügbar hat, um ein ‚komplexes‘ Phänomen adäquat beschreiben zu können. Dies sind die interessanten Grenzfälle, die die Chance bieten, vorhandene Schwachstellen in der Erkenntnis zu identifizieren und evtl. zu verbessern. Um solche Schwachstellen zu erkennen, muss man die methodischen Voraussetzungen immer sehr klar auf den Tisch legen und sich ihrer allzeit bewusst sein. Ob ein Chemiker sich der Grenzen der Physik allzeit voll bewusst ist, darf man zunächst einmal methodisch anzweifeln. Von daher ist es gut, die Worte von Paul Davies nicht zu vergessen.]
  16. Duve beginnt mit der weiteren These, dass das Phänomen des Lebens ‚eins‘ sei, da es aus dem gleichen ‚Material‘ bestehe, da es sich nach den gleichen ‚Prinzipien‘ gebildet habe, und da es – nach allen bisherigen Untersuchungen – auf die gleichen gemeinsamen ‚Vorstrukturen‘ zurückverweisen. (vgl. S.1)
  17. Mit ‚Material‘ meint er ‚Proteine‘ und ‚Nukleinsäuren‘ (’nucleic acids‘). Protein sind Sequenzen von – standardmäßig 20 (in Ausnahmen auch 22) verschiedenen — Aminosäuren, so dass man Proteine auch als ‚Worte‘ über dem Alphabet der Aminosäuren bezeichnet. Die vergleichenden Analysen von Proteinen und Nukleinsäuren haben bislang eine so hohe ‚Ähnlichkeit‘ zwischen allen bekannten Lebewesen gezeigt, dass eine rein ‚zufällige‘ Bildung auszuschließen sei, eine Ähnlichkeit, die zudem jeweils auf gemeinsame Vorstufen verweise. Daraus ergibt sich die weitere Frage, wann und wie es zu den ‚ersten‘ Strukturen kam, die wir als ‚Leben‘ bezeichnen?(vgl. S.1f)
  18. [ANMERKUNG: Bezeichnet man das Alphabet der Aminosäuren, die zum Einsatz kommen mit ‚A‘ und gibt man die Anzahl der Elemente des Alphabets an mit 20 (22), dann kann man schreiben |A| = 20 (22). Die Menge aller ‚Worte‘ (= Sequenzen) über dem Alphabet bezeichnet man normalerweise mit ‚A*‘. Ein einzelnes Protein p aus der Menge aller Proteine P ist dann ein Element aus dieser Menge, also ‚p in A*‘ bzw. ‚P subset A*‘. Die tatsächlich vorkommende Menge der Proteine sei ‚P+ subset P‘. Für die Menge aller theoretisch möglichen Proteine P gilt |P| = 20^L (bzw. 22^L) mit ‚L‘ als Länge eines Proteins. Also bei L=2 gibt es theoretisch schon 22^2 = 484 verschiedene Proteine. Bei 22^8 = 54.875.873.536, usw. Umso größer die Zahl der theoretischen Möglichkeiten wird, umso geringer wird die Wahrscheinlichkeit für ein bestimmtes Protein, vorzukommen, nämlich ‚1/20^L‘.
  19. Auch sollte man beachten, dass das ‚Material‘ der Proteine und Nukleinsäure nur einen kleinen Ausschnitt aus dem darstellt, was die Physik heute als ‚Materie‘ bezeichnen würde. Der heutige Materiebegriff ist grundsätzlich verschieden von dem Materiebegriff der vorausgehenden Jahrhunderte und allemal der vorausgehenden Jahrtausende. Fast alle philosophischen Aussagen, die irgendwie Bezug nehmen auf den Begriff ‚Geist‘ im Unterschied zu ‚Materie‘ sind aus heutiger Sicht von daher stark ‚wertlos‘ geworden, da sie Voraussetzungen implizieren, die so einfach nicht mehr stimmen. In vielen Diskussionen — insbesondere auch theologischen — wird dies kaum bis garnicht beachtet.
  20. Die Angaben zu den konkreten Details der Gemeinsamkeiten zwischen den verschiedenen ‚Lebensmaterialien‘ sind an dieser Stelle noch sehr vage. Man sollte dies im Blick behalten.]
  21. Fragt man sich, wie man über die vorausgehende Geschichte der Lebensformen etwas wissen kann, so verweist Duve auf speziell zwei Quellen: Fossilien, die bis zu 600 Mio Jahren zurückreichen sollen und die genetischen Informationen der lebenden Zellen. (vgl. S.2f) Allerdings gibt es noch spezielle Fossilien von Bakterien und den Zellkörpern von Bakterien, die sich in Ablagerungen bis zu 3.5 Mrd Jahre zurück datieren lassen.(vgl. S.4f)
  22. Im Falle lebender Zellen herrscht die Annahme, dass sich Unterschiede im Laufe der Zeit aufgrund von Mutationen gebildet haben können. Je mehr sich unterschiedliche Codes unterscheiden, um so weiter liegen sie zeitlich (man muss dafür die Veränderungsgeschwindigkeit nach Anzahl von Generationen pro Zeiteinheit ermitteln) auseinander. Nach dieser Logik kann man auf der Zeitachse ‚zurückschauen‘ und die sich immer ähnlicher werdenden Vorfahren (‚ancestors‘) identifizieren. Bei diesem Verfahren muss man nicht das gesamte Genom vergleichen, sondern es hilft oft schon nur ein bestimmte Protein zu nehmen, das eine wichtige Funktion ausübt. (vgl. S.3f)
  23. Bei der Frage nach dem Ursprung des Lebens – auf der Erde oder von außerhalb der Erde – sieht Duve momentan keine überzeugenden Argumente für eine eindeutige Entscheidung in Richtung von ‚außerhalb‘ der Erde. Zumal im letzteren Fall die Frage nach der genauen Entstehung weiter im Dunkel verbliebe. Optiert man für den Entstehungsort Erde, dann bleiben ca. 200 Mio Jahre Zeit für solch einen Prozeß auf einer in dieser Phase eher lebensfeindlichen Erde.(vgl. S.6f) [Anmerkung: Eine Klärung der Frage einer möglichen Entstehung auf der Erde ist ja zugleich auch ein Beitrag zur Grundsatzfrage, wie die erste Zelle entstehen konnte (auch wenn bei einer Entstehung auf einem anderen Planeten durch unterschiedliche Randbedingungen Details im Zellaufbau evtl. anders sein würden)].
  24. Dennoch verbleibt die Frage, ob es wissenschaftlich Sinn macht, die Frage nach der Entstehung des Lebens tatsächlich zu stellen? Was, wenn – wie nicht wenige annehmen – die Entstehung des Lebens auf einer Reihe von absolut zufälligen Ereignissen beruht, die sich als solche nicht reproduzieren lassen? (vgl. S.7f)
  25. Dem hält Duve entgegen, dass die schon heute bekannten molekular-biologischen chemischen Mechanismen von Zellen und deren Bestandteile dermaßen komplex und hochorganisiert sind, dass rein logisch ein rein zufälliges Geschehen ausscheidet. Vielmehr sprechen alle Tatsachen dafür, dass es die Struktur der Materie selbst ist, die gewissen Entwicklungstendenzen als hochwahrscheinlich erscheinen lässt, also in dem Sinne, dass die Materie ‚von Leben geschwängert‘ ist (‚pregnant with life‘). Mit dieser Voraussetzung kann Leben quasi ‚überall‘ entstanden sein und wird auch entstehen, wenn gewissen Bedingungen gegeben sein. (vgl. S.6-7)
  26. Dieses ‚Schwanger sein von Leben‘ ist nicht zu verwechseln mit einem ‚Plan‘, oder einem expliziten ‚Design‘. Es realisiert sich vielmehr schrittweise, über viele Zwischenstationen, in denen zu keinem Zeitpunkt der aktuelle Prozess ‚weiß‘, was noch kommen soll. Der aktuelle Prozess lebt im ‚Augenblick‘ und es passiert nur das, was nach den herrschenden Gesetzen zu diesem Zeitpunkt möglich ist. (vgl. S.9f)

Zur Fortsetzung siehe TEIL 2.

Eine Übersicht über alle bisherigen Blogeinträg nach Themen findet sich HIER.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

SINN, SINN, und nochmals SINN

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.März 2012
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 16.Februar 2019 (Kontext eingefügt sowie im Text kursive Hervorhebungen)

KONTEXT

Zum Thema ‚Sinn‘ hab es zwei  vorausgehende Beiträge mit den Titel „Zur Grammatik des Sinns„ sowie „Weil es Sinn gibt, kann sich Wissen akkumulieren, das Sinn sichtbar macht. Oder: warum die Frage ‚Warum gerade ich?‘ in die Irre führen kann„. Beide Beiträge sind ziemlich  grundsätzlich und können den vorliegenden Text weiter vertiefen.

(1) Wie die vorausgehenden Beiträge auf unterschiedliche Weise gezeigt haben, führt die Frage nach dem ‚Sinn‘ (eng verknüpft mit der Frage nach der Wahrheit), wenn man sie ernsthaft stellt, schnell auf allerlei ‚Randbedingungen‘ des ‚Erkennens‘, die nicht nur ‚passiver Natur‘ sind (was ‚uns geschieht‘), sondern zugleich auch vielfältiger ‚aktiver‘ Momente (was ‚wir tun‘), damit wir überhaupt etwas erkennen, ‚wie‘ wir erkennen, ‚wann‘, ‚wo‘, usw. ‚Erkennen‘ zeigt sich somit als ein komplexes Geschehen, eingebettet in eine Vielzahl von Randbedingungen, die eine unüberschaubare Anzahl von Möglichkeiten zulassen.

(2) In jeder dieser unendlich vielen Kombinationen haben wir ein Erkenntniserlebnis, was immer auch die aktuelle Konstellation sein mag (Fernsehen gucken, Lesen, Laufen, reden, arbeiten, Malen, Streiten, Internet surfen, ….). Dieses aktuelle Erlebnis ist als Erlebnis ‚real‘. Wir können uns diesem realen Erleben nicht entziehen. Wir sind ‚mitten drin‘. Und wenn wir über das, was wir erleben, nicht explizit und zusätzlich ’nachdenken‘ (reflektieren…), dann ist die Welt das, was wir aktuell faktisch erleben (Wittgensteins berühmter Satz ‚Die Welt ist, was der Fall ist‘ (der in einem ganz bestimmten Kontext geäußert wurde) würde hier jetzt genau dies bedeuten: die Welt ist, was ich erlebe (was Wittgenstein genau vehement abstreiten würde (das war sein Problem…)). Denn nur das haben wir zur Verfügung (oder, wie zuvor mehrfach ausgeführt, das ist das, was das Gehirn ’sich selbst‘ aufgrund der verfügbaren Signale ‚zubereitet‘ (… wobei ‚Gehirn‘ ein komplexes theoretisches Konzept ist, dessen Anführung in diesem Kontext für viele Leser eher irreführend als zielführend sein kann)).

(3) Was die Sache mit dem Erleben (aus theoretischer Sicht) ’schwierig‘ macht (mit den entsprechenden weitreichenden Folgen für das alltägliche praktische Leben), ist die Tatsache, dass unser Erleben (wie jetzt schon oft besprochen) keine 1-zu-1-Abbildung von ‚Dingen außerhalb des Körpers‘ ist, sondern eine permanente dynamische Konstruktionsleistung unseres Gehirns, das aktuell verfügbare Signale mit schon zuvor ‚erworbenen (gelernten?)‘ Daten (Erinnerung, Gedächtnis) ‚verrechnet‘ und ‚Arbeitshypothesen‘ entwickelt, wie das alles ‚zusammenpassen‘ (Kohärenz, Konsistenz…) kann. Da das Gehirn endlich ist und in knapp bemessener Zeit aus einer Signalflut permanent auswählen muss, fallen beständig Sachen unter den Tisch, werden ausgeklammert, werden Dinge ‚vereinfacht‘ usw. Auf der ‚Habenseite‘ dieses atemberaubenden Geschehens verbleibt aber ein ‚Erkenntniseindruck‘, der ‚uns‘ das Gefühl vermittelt, wir ’sehen‘ etwas, wir ‚hören‘, usw.

(4) Dieser permanente Rückgriff auf ’schon Bekanntes‘ hat den großen Vorteil, dass die meist unvollkommenen Daten durch den Bezug auf ‚Ähnliches‘ ‚ergänzt‘ (interpretiert, gedeutet…) werden können und damit der ‚Entscheidungsprozess‘ während der ‚Berechnung‘ der ‚möglichen Strukturen in den Signalströmen‘ in Richtung des ’schon Bekannten‘ geleitet und damit abgekürzt werden kann (in Experimenten im Rahmen der Phonetik konnte man zeigen, dass Menschen bei der Identifizierung von akustischen Signalen ohne ‚Kontextwissen‘ deutlich schlechter waren, als mathematische Algorithmen für die Signalerkennung. Sobald die Menschen aber nur ein wenig Kontextwissen besaßen, waren sie den Algorithmen (nachvollziehbarerweise) deutlich überlegen. Andererseits konnte man sie dadurch aber auch gezielter ‚manipulieren‘: wenn man weiß, welches Kontextwissen bei einem bestimmten Menschen ‚dominant‘ ist, dann kann man ihm Daten so servieren, dass er diese Daten ’spontan‘ (wenn er nicht kritisch nachdenkt) im Sinne seines Kontextwissens interpretiert und damit zu ‚Schlüssen‘ kommt, die mit der tatsächlich auslösenden Situation gar nichts mehr zu tun haben).

(5) Diese ambivalente Rückwirkung des ’schon Bekannten‘ wird noch komplexer, wenn man berücksichtigt, dass mit dem Erlernen einer Sprache die ‚Gegenstandswelt‚ erweitert wird um eine ‚Welt der Zeichen‚, die auf diese Gegenstandswelt (und auf sich selbst!) auf vielfältige Weise ‚verweisen‘ kann. Ein sprachlicher Ausdruck als solcher ist auch ein reales Erlebnis, das aber – im Normalfall – von sich weg auf etwas ‚Anderes‘, auf seine ‚Bedeutung‘ ‚verweist‘. Jede mögliche Bedeutung ist letztlich immer erst mal wieder nur ein Erlebnis, das irgendwann einmal stattgefunden hat, und sei es als bloß ‚Imaginiertes/ Vorgestelltes/…‘. D.h. die Verwendung der Sprache als solche führt nicht grundsätzlich über den Bereich des Erlebbaren hinaus. Ein Denken mit Hilfe von sprachlichen Ausdrücken ist nur ’strukturierter‘, ‚berechenbarer‘, ‚handhabbarer‘ als ein Denken ohne sprachliche Ausdrücke. Sprache erlaubt die ‚wunderbare Vermehrung der Dinge‘, ohne dass real die Dinge tatsächlich vermehrt oder verändert werden (ein Roman von vielen hundert oder gar über tausend Seiten kann für den Leser ein sehr intensives ‚Erlebnis‘ erzeugen, gestiftet von einem bunten Strauss von sprachlich induzierten ‚Vorstellungen‘, die als solche real sind, ohne dass diesen Vorstellungen irgendetwas in der Außenwelt entsprechen muss.

(6) Mit den modernen Medien (Film, Fernsehen, Video, Computeranimation…) wird die Erzeugung von ‚Vorstellungen‘ nach ‚außen‘ verlagert in ein Medium, das Erlebnisse erzeugt ’scheinbar wie die Außenwelt‘, die aber ‚willkürlich erzeugt‘ wurden und die mit der empirisch-realen Welt nichts zu tun haben müssen. Dem ‚Erlebnis als solchem‘ kann man dies u.U. Nicht mehr ansehen, sofern man nicht (wie auch in allen anderen Fällen) sehr bewusst ‚kritisch‘ Randbedingungen überprüft und berücksichtigt. Während das Lesen eines Romans ‚als Lesen‘ deutlich macht, dass alle durch das Lesen induzierten Erlebnisse ‚künstlich‘ sind, kann das sehen/ hören/ fühlen… eines künstlichen Mediums die Einsichtsschwelle in die ‚Künstlichkeit‘ immer ‚höher‘ legen. Ein Film über ‚Erfundenes‘ neben einem Film über ‚empirisch-Reales‘ ist nicht mehr ohne weiteres identifizierbar.

(7) Sofern man nicht explizit die Frage nach der ‚Wahrheit‘ stellt (ich definiere ‚Wahrheit‘ hier jetzt nicht; siehe dazu die vorausgehenden Reflexionen) sind alle diese möglichen Erlebniswelten (real-empirisch bezogen oder beliebig generiert) aus Sicht des Erlebens ‚gleichwertig‘. Wer hier nicht ausdrücklich immer darauf achtet, was wann wie von wem mit welcher Absicht usw. ‚erzeugt‘ wurde, für den verschwimmen alle diese erlebnisfundierten Bilder zu einem großen Gesamtbild, wo jedes jedes ‚interpretiert‘ und wo die Frage nach der Wahrheit aus den Händen gleitet. Dennoch bieten alle diese Bilder – so verzerrt und willkürlich sie auch sein mögen – für den, der sie ‚hat‘ eine ‚Interpretation‘ und damit einen ‚möglichen Sinn‘. Ohne die ‚Gewichtung‘ durch den Aspekt der Wahrheit sind alle diese ‚möglichen Sinne‘ ‚gleichwertig‘. Es gibt im Bereich des möglichen Sinns keine ausgezeichnete Instanz, die einen besonderen Vorzug verdienen würde. Entsprechend ‚bunt‘ ist das Bild, das sich bietet, wenn man schaut, was Menschen alles für ’sinnvoll‘ halten. Es kann für jemand anderen noch so ‚grotesk‘ erscheinen, für den ‚Besitzer‘ dieses Sinns ist es ‚der allein Seligmachende‘.

(8) Wie gesagt, solange man die Frage nach der ‚Wahrheit‘ ausklammert, geht alles. Die Frage nach der Wahrheit wiederum setzt eine ‚kritische Reflexion‘ auf Randbedingungen voraus. Wie der Alltag zeigt, ist aber den meisten Menschen gar nicht klar, was ‚kritische Reflexion‘ praktisch bedeutet. Selbst wenn sie ‚kritisch reflektieren‘ wollten, sie könnten es nicht. Millionen von Menschen sind zwar bereit, viel Geld, viel persönliche Zeit, ja sogar ihr ganzes persönliche Leben, in ‚Gefolgschaften‘ von Kursen und Organisationen zu investieren, ohne ein Minimum an kritischem Denken dafür zurück zu bekommen. Das ‚Verwirrspiel‘ um den ‚Sinn‘, um den ‚Lebenssinn‘, um den ‚wahren Sinn‘ wird damit nur schlimmer und furchtbarer. Meist werden ein paar Leute dadurch sehr viel reicher, und viele andere sehr viel ärmer. So etwas sollte immer als ein mögliches Alarmzeichen dienen, um darauf aufmerksam zu machen, dass es bei solchen Veranstaltungen (das müssen nicht nur sogenannte ‚Sekten‘ sein, das kann — wie wir täglich leidvoll dazu lernen — jede Art von sogenannten ‚Beratern‘ sein) nicht um ‚wahren Sinn‘ geht, sondern um simple materielle Vorteile einzelner auf Kosten anderer.

(9) Das Thema ist damit nicht erschöpft (was ja auch die vorausgehenden Eindrücke zusätzlich belegen können), …es ist nur eine ‚Notiz‘ zwischendurch….

LITERATURNACHWEISE

Wittgenstein, L.: Logisch-philosophische Abhandlung, W. Ostwald (Hrsg.), Annalen der Naturphilosophie, Band 14, 1921, S. 185–262

nachlesbar in:

Wittgenstein, L.: Logisch-philosophische Abhandlung, Tractatus logico-philosophicus. Kritische Edition. Suhrkamp, Frankfurt am Main 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.