-
Als ich am 9.Dez.2009 einen Neustart meines Blocks ‚ad experimentum‘ begonnen hatte, war mir noch nicht so recht klar, was ich genau mit diesem Blog wollte. Seitdem zeigt sich aber, dass der Blog zu einem wichtigen Ort der ‚Klärung von Gedanken‘ wird. Für andere zwar nicht unbedingt leicht lesbar hilft er mir selbst doch, trotz nahezu nicht vorhandener Zeit wichtige — z.T. komplexe – Gedanken erst einmal ‚festzuhalten‘. Wie von ‚unsichtbarer Hand‘ wurden im Laufe des Jahres ansatzweise Zusammenhänge sichtbar, die ohne diese Notizen im ‚diffusen Allgemein- und Unterbewusstsein‘, eingebettet in das ‚Rauschen des Alltags‘, kaum sichtbar geworden wären.
-
Der Vortrag am 24.November 2010 bot Gelegenheit – auch hier trotz erheblicher Zeitknappheit – aus all den vielen Ideen ein Stück weiter einen Zusammenhang herauszustellen; ich habe den Eindruck, dass das Thema klarer wird. Würde mich jetzt jemand fragen, wie ich das Hauptthema des Blogs sehe, würde ich folgendes antworten:
-
Primärer Ausgangspunkt für alles ist offensichtlich das Phänomen des LEBENS hier auf der Erde. Denn ohne die Tatsache, dass es dieses Leben in seinen vielfältigen Formen geben würde, würde ich nicht existieren, hätte ich keinen Körper, kein Bewusstsein…. wurde das bekannte physikalische Universum existieren, ohne dass ‚wir‘ es ‚wissen‘ würden.
-
Wir Menschen als Mitglieder der Gattung homo sapiens (Der Begriff ‚Homo sapiens‘ wurde 1758 durch Carl von Linné in vollständig in Latein verfassten zehnten Auflage seines Werks ‚Systema Naturae‘ geprägt (eine digitale öffentliche Version ist über die Bayerische Staatsbibliothek in München zugänglich (http://www.bsb-muenchen-digital.de))) (Hinweise über Wikipedia.de) sind zwar ein genuiner Teil des alles umfassenden Lebens, fallen aber doch durch unsere spezielle ‚Geistigkeit‘ aus dem Gesamtbild heraus. Es sieht im Jahr 2010 nicht so aus, als ob wir Menschen bislang auch nur annähernd verstanden haben, was genau diese unsere ‚Geistigkeit‘ als erfahrbare Eigenschaft in diesem unseren fantastischen Körper genau ist, wie sie genau ‚funktioniert‘. Ein Verständnis dieser Geistigkeit führt vermutlich nicht nur zu einem besseren Verständnis dieser selbst sondern auch zu einem besseren Verständnis des Phänomen Lebens überhaupt und damit zu einem vertieften Verständnis der atomaren Materie bzw. der allem zugrunde liegenden Energie. Was letztlich diese ‚Energie‘ ist zeigt sich bislang nur durch das, was Energie bewirken kann, z.B. Leben hervorbringen.
-
Drittens scheint mir die Frage nach Gott – und dem ‚letzten Sinn von allem‘ – auch in diesen Kontext zu gehören. Wenig Hilfe ist von den fanatisch-dogmatischen Anschauungsformen zu diesem Thema zu erwarten, weder von radikalen ‚Bekennern‘ noch von radikalen ‚Leugnern‘. Grundsätzlich ist aktuell nicht einmal klar, von welchem Standpunkt aus man überhaupt zur Frage Gottes sinnvoll Stellung nehmen kann. Die empirischen Wissenschaften scheitern bislang ja schon am Phänomen des Lebens selbst, erst recht an der subjektiven Form der erlebten Geistigkeit. Für die subjektive Seite des ‚Welterlebens‘ und der ‚Welterkenntnis‘ gibt es aber keine allgemein Wissenschaftsform noch eine allgemein anerkannte Institution, die hier Verbindliches sagen kann. In gewisser Weise sind wir hier alle auf uns selbst als Individuen zurückgeworfen, obgleich es genau diese subjektive Erfahrung ist, die uns charakterisiert, die uns zu dem macht, was wir als Menschen sind, in der wir letztlich eine tiefere Gemeinsamkeit besitzen.
-
Und da sich all diese Themen innerhalb des uns bekannten physikalischen Universums bewegen wird man nicht umhin können, diesen speziellen Ort hinreichend zu untersuchen. Das neuerliche Reden der Physiker von ‚Multiversen‘, dass wir mit unserem Universum möglicherweise nur ein Universum unter zahllos vielen sind, erklärt nicht allzuviel. Denn, selbst wenn es viele Universen gäbe, die Grundsatzfragen nach dem rätselvollen Phänomen des Lebens schlechthin, nach der Besonderheit des Menschen, nach einem möglichen Gott werden dadurch in keiner Weise berührt und in keiner Weise beantwortet. Allerdings, aus einer Einsicht in diese Erkenntnisgrenzen folgt auch keine automatische Antwort auf die gestellten Fragen.
Archiv der Kategorie: Empirische Theorie
MENSCHENBILD IM WANDEL
Vortrag am 24.Nov.2010 im Rahmen des gesellschaftspolitischen Forums ‚Bad Nauheimer Gespräche e.V‘ in Fankfurt am Main
Kurzfassung
-
Das Thema führt weit über die üblichen Fachgrenzen hinaus. Dies setzt den Vortragenden allerlei Risiken aus, die ihn zum ‚Narren‘ machen können (Zitat E.Schrödinger, 1944). Aber die Sache verlangt dies. Ohne Risiko gibt es keine neuen Erkenntnisse.
-
Vor seiner Zeit als Informatiker hatte der Vortragende eine intensive Zeit von mehr al 20 Jahren als engagierter Theologe, Jugendsozialarbeiter und Philosoph. In dieser Zeit lernte er die jüdisch-christliche Position von den schriftlichen und praktischen Grundlagen her sehr intensiv kennen. Dies umschloss eine grundsätzliche Gegenüberstellung zwischen dem impliziten Weltbild der Naturwissenschaften und der Technologie gegenüber den theologisch geisteswissenschaftlich orientierten Weltbildern.
-
Im Versuch , die Grenzen des naturwissenschaftlich-technologischen Weltbildes aufzudecken – und bei gleichzeitig anhaltender intensiver Auseinandersetzung mit der jüdisch-christlichen Tradition – lernte er aber langsam, dass die Grenzen sehr wohl auch auf Seiten des jüdisch-christlichen Weltbildes liegen und die naturwissenschaftlichen Erkenntnisse demgegenüber eine neue Perspektive öffnen, die alte Grenzen sprengen und neue zukunftsweisende Dimensionen öffnen können, wenn man sie entsprechend nutzt.
-
In einer kurzen Skizze des Alltagsdenkens machte der Vortragende darauf aufmerksam, dass all unser Wissen von der Welt um uns herum nicht ‚direkt‘ diese Welt widerspiegelt, sondern eine Leistung unseres Gehirns ist, das beständig die vielen Millionen sensorischen Signale von der Umgebung des Körpers wie auch aus dem Innern des Körpers in ein räumliches Gesamtbild transformiert, das für das Verhalten in der Umgebung in den meisten Fällen ‚ganz gut funktioniert‘. In vielen Alltagssituationen, durch zahllose psychologische Experimente wie auch –siehe später – durch die neuen Erkenntnisse der Physik kann man zeigen, dass dieses vom Gehirn erzeugte ‚Bild‘ von der Welt vielfach ungenau oder gar falsch ist. Nichtsdestotrotz ist diese Leistung des Gehirns unglaublich und nur verständlich vor der sehr, sehr langen Genese des heutigen Gehirns in den heutigen Körpern.
-
Es folgte dann ein kursorischer Überblick über die Entwicklung des Lebens seit dem Beginn des messbaren Universums vor ca. -13.6 Milliarden Jahren. Anhand von vier Schaubildern konnte man wie im Zeitraffer sehen, welche ungeheuren ‚Vorleistungen‘ erbracht werden mussten, bis dann bei ca. -3.6 Milliarden Jahren die ersten Zellen auftraten, die dann in den letzten ca. 600 Millionen Jahren zur Besiedelung des Landes mit Pflanzen, Tieren und dann vor ca. 3 – 0,2 Mio Jahren auch mit menschenähnlichen Lebewesen und dann mit dem heute bekannten homo sapiens sapiens führten. Diese Geschichte ist randvoll mit Dramatik und zeigt, welcher Preis gezahlt werden mußte, damit es uns Menschen so, wie wir uns heute kennen, überhaupt geben konnte. Nach den Prognosen der Physik wird in ca. 1 Milliarde Jahre die Sonne die Erde verglühen lassen. Gemessen an der zurückliegenden Zeit bleibt also nur noch eine verhältnismäßig kurze Zeit, bis das Leben auf der Erde für diese neue totale Herausforderung eine Lösung gefunden hat (falls es sie gibt; grundsätzlich natürlich ja).
-
Eine tiefreichende Einsicht der modernen Physik ist die Einsicht, dass all das, was wir als ‚Materie‘, ‚Substanz‘, ‚Stoffe‘ kennen nichts anderes ist als eine Zustandsform von Energie. Mit Hilfe der modernen Teilchenbeschleuniger kann man zeigen, wie sich jede Substanz (Materie, Stoff) in jede andere Substanz verwandeln läßt, wenn man genügend viel Energie zuführt. Einsteins Formel ‚E=mc²‘ stellt den Zusammenhang zwischen Energie ‚E‘ und Masse ‚m‘ über die Lichtgeschwindigkeit ‚c‘ direkt dar. Von daher ist auch verständlich, dass das heute bekannte messbare Universum, das mit einem ‚Energieausbruch‘ unvorstellbaren Ausmaßes begann, dann durch Abkühlung quasi zu ‚Strukturen erstarrte‘ indem aus der Energie ‚heraus‘ atomare Strukturen sichtbar wurden, die sich zu Galaxien, Sterne und Planeten formten.
-
Eine weitere tiefreichende Einsicht ist die Erkenntnis der Thermodynamik, dass alle energetisch bedingten Bindungen dazu tendieren, sich abzubauen und damit die Freiheitsgrade der beteiligten Elemente (Atome) zu vergrößern. Die Physikern haben zur Bezeichnung des Grades an Freiheit den Parameter ‚Entropie‘ eingeführt und gehen davon aus, dass der Parameter Entropie tendenziell zunimmt, da der Prozess der Auflösung von energetisch bedingten Bindungen irreversibel erscheint.
-
Vor diesem Hintergrund nimmt sich das Phänomen des ‚Lebens‘ ‚fremdartig aus: alle heute bekannten Lebensformen basieren auf molekularen Strukturen, die als DNA (und weitere) bekannt sind (die genaue Entstehung solcher Moleküle ist bis heute noch nicht vollständig aufgeklärt!). Das Erstaunliche an diesen Molekülen ist, dass sie als Informationsträger funktionieren, die komplexe Kopier- und Produktionsprozesse steuern können, die dann zur Ausbildung von noch komplexeren Molekülstrukturen führen können, die als Zellen, Zellverbände, Organe, Pflanzen, Tieren und dann auch als Menschen prozeßhaft über einige Zeit existieren können. Abgesehen von der mittlerweile irrwitzigen Komplexität dieser Strukturen (allein das menschliche Gehirn hat schätzungsweise mehr als 100 Milliarden Zellen!) ist wichtig, dass diese Strukturen nur existieren können, weil sie kontinuierlich lokal Energie aus der Umgebung aufnehmen und zum Aufbauen lokaler energetischer Bindungen nutzen. Dieses Verhalten der Lebensformen steht dem entropischen Charakter des gesamten physikalisch bekannten restlichen Universums diametral entgegen. Sowohl Erwin Schrödinger in seinem Buch ‚What is Life‘ von 1944 sowie Werner Heisenberg in seinem Buch ‚Physics and Philosophy‘ von 1958 stellen dieses Paradox explizit heraus und geben zu, dass die moderne Physik zu diesem Paradox nicht einmal ansatzweise eine Antwort besitzt.
-
Nachdem sich also die scheinbare Vielfalt der Materie auf Energie zurückführen lässt, wird der Begriff der Energie zu neuen ‚Supermaterie‘, die – wie Heisenberg anmerkt – dem Potenzbegriff bei Aristoteles nahe kommt. Die Energie, so, wie sie heute von der Physik ‚enttarnt‘ wurde, enthält alle Eigenschaften und Strukturen, die bislang über unsere Welt bekannt geworden sind. Natürlich stellt sich damit die Frage, ob die jahrtausende lange Gegenübersetzung von ‚Geist‘ und ‚Materie‘ nicht auch obsolet geworden ist. Einerseits war diese Gegenübersetzung gespeist von der schieren Unkenntnis über die ‚wahre Natur‘ der Materie und auch durch eine weitreichende Unkenntnis über die Eigenschaften des menschlichen (bzw. auch des tierischen) ‚Geistes‘. Ob der erlebbare ‚Geist‘ dann letztlich auch nur eine der vielen Eigenschaften der Energie ist, folgt aus all den bekannten Tatsachen natürlich noch nicht unmittelbar.
-
Hier kann eventuell die Entwicklung der modernen Gehirnforschung in Verbindung mit der Computerwissenschaft (Informatik) weitere interessante Hinweise liefern.
-
Von der Gehirnforschung wissen wir, dass ein Neuron – bei aller Komplexität des molekularen und chemischen Aufbaus – letztlich an seinem Ausgang, dem Axonhügel, genau nur zwei Zustände kennt: Potential oder nicht Potential, Signal oder nicht Signal, An oder aus, 1 oder 0. Das Gleiche gilt für die Vielzahl der möglichen postsynaptischen Membranen als Gegenüber zu den Endstücken der anderen Neuronen, die ihre Axone zu den Neuronen senden: auch diese repräsentieren trotz all ihrer molekularen und chemischen Komplexität letztlich nur nur einen An- und Aus-Schalter, Signal an, Signal aus, 1 oder 0. Zudem ist ein Neuron auf molekularer Ebene eindeutig diskret.
-
Bedenkt man, dass der Grundbegriff der modernen Berechenbarkeit, der letztlich auf Goedel (1931) und Turing (1936/7) zurückgeht, mit dem mathematischen Konzept der Turingmaschine einen Referenzmaßstab für Berechenbarkeit schlechthin gefunden hat, und deine Turingmaschine jedes beliebige Gehirn, sofern es binär schaltet und sich bis zu einem gewissen Grade strukturell während seiner Lebenszeit ‚umorganisieren‘ kann (Wachstum, Plastizität), prinzipiell vollständig auf einer Turingmaschine simulieren lässt – vorausgesetzt, es gibt Menschen, die verstehen das Gehirn gut genug, um eine Beschreibung des Gehirns anfertigen zu können, die dann in eine Turingmaschine ‚gefüttert‘ wird –, dann kann man dies als einen weiteren ‚Hinweis‘ dahingehend deuten, dass sich die ‚geistigen‘ Eigenschaften eines Gehirns mit beliebigen materiellen Strukturen simulieren lassen (das mathematische Konzept einer Turingmaschine lässt sich sowohl mechanisch wie elektronisch wie auch chemisch realisieren – oder noch ganz anders).
-
Am Beispiel eines Experimentes mit einem selbst lernenden System, das aufgrund eigener Bedürfnisse ohne ‚Lehrer‘ lernen kann, illustrierte der Vortragende dann, wie man mit einfachen mathematischen Mitteln sehr komplexe Prozesse beschreiben und dann auch realisieren kann.
-
Es gab dann noch eine angeregte Diskussion, in der u.a. gefragt wurde, (i) was dies für die verbleiben de ‚Restzeit‘ der Erde bedeuten würde; (ii) welche Konsequenzen dieses Bild für die Ethik hat, (iii) worin denn nun die Hilfe der Informatik für die Menschen besteht, (iv) ob damit denn der ‚Geist‘ vollständig ‚wegreduziert‘ sei. Die verfügbare Zeit reichte nicht aus, diese komplexen Fragen angemessen zu Ende zu diskutieren.
Überleitungsmusik Vortrag zu Diskussion
EXPERIMENTELLE HÖRBUCHFASSUNG
Der Beginner einer experimentellen Hörbuchfassung zu dem Vortrag findet sich hier: Teil 1-3 (4ff kommt noch)
MENSCHENBILD IM WANDEL – Vortrag 24.Nov.2011
INTELLIGENZ (1)
(1) In der heutigen Welt erleben wir eine Inflation im Gebrauch der Wörter ‚Intelligenz‘, ‚intelligent‘ und ’smart‘. Im technischen Bereich sind immer mehr Produkte ’smart‘ ohne dass jemand sich auch nur ansatzweise die Mühe macht, diese Sprechweisen zu rechtfertigen; man tut einfach so, als ob dies so sei.
(2) Die Wurzel des Redens über ‚Intelligenz‘ ist aber das Erleben von Menschen, die Art und Weise wie wir als Menschen das Verhalten anderer Menschen im Vergleich zur umgebenden Natur erleben. In nicht wenigen Aspekten hebt sich das Verhalten des Menschen dadurch ab, dass wir einem Menschen ‚Absicht‘ unterstellen, ‚Erinnerungen‘, ‚Denken‘, usw. Bestimmte dieser beobachtbaren Eigenschaften zusammengenommen unterstellen wir, wenn wir von ‚Intelligenz‘ sprechen.
(3) In dem Masse, wie wir gelernt haben, das eigene menschliche Verhalten besser zu verstehen und in den Gesamtzusammenhang des biologischen Lebens einordnen zu können, haben wir auch begonnen, verschiedenen anderen Lebensformen (Insekten, Säugetiere, …) zumindest Ansätze solcher Eigenschaften wie ‚Wahrnehmung‘, ‚Erinnerung‘, ‚Absicht‘ usw. zu zusprechen.
(4) Abseits vom Verhalten von Menschen haben wir keine ‚Referenzmuster‘ für ‚intelligentes Verhalten‘. Wenn wir eine Maschine (Roboter) bauen und von ihr behaupten, sie sei ‚intelligent‘ dann gewinnt diese Aussage höchstens Bedeutung durch Bezug auf vergleichbares Verhalten von Menschen; aber ohne diesen Bezug macht es keinen Sinn, von ‚Intelligenz‘ zu sprechen. Der Begriff der Intelligenz‘ unabhängig vom Menschen hat zunächst keine Bedeutung.
(5) Es ist vor allem die Psychologie, die sich mit dem beobachtbaren Verhalten von Menschen wissenschaftlich auseinandersetzt (im weiteren Sinne auch die allgemeinere biologische Verhaltensforschung (Ethologie)). Die Psychologie hat seit mindestens Sir Francis Galton (1822 – 1911) und Alfred Binet (1857 – 1911) versucht, das als ’normal‘ anzusehende Verhalten der Mehrheit der Menschen (eines Jahrgangs) zum Massstab zu nehmen, um damit das Verhalten eines jeden einzelnen ‚Bezogen auf dieses allgemeine Verhalten‘ ‚einzuordnen‘ (zu ‚messen‘).
(6) Natürlich haftet jeder Auswahl von konkreten Verhaltensweisen etwas ‚Willkürliches‘ an, dennoch stellt eine ‚Zusammenstellung‘ der zu einer bestimmten Zeit in einer bestimmten Gesellschaft ‚üblichen Verhaltensweisen‘ aber auch mehr dar als nur eine ‚bloss zufällige‘ Anordnung.
(7) Seitdem die Psychologen begonnen haben, mit solchen (z.T. schon unterschiedlichen) Zusammenstellungen von Verhaltensweisen (‚Testbatterien‘) gezielt ‚Messungen‘ vorzunehmen hat sich gezeigt, dass die Messergebnisse erstaunliche Konsistenzen aufweisen; ja, es lassen sich Prognosen über ‚Verhaltensweisen und Erfolge in der Zukunft machen‘, die weit jenseits des ‚Zufälligen‘ sind.
(8) Daraus kann man nicht folgern, dass die gewählten Verhaltensweisen die einzig ‚richtigen‘ sind, die mit INTELLIGENZ korrelieren, aber man darf zurecht annehmen, dass die Strukturen, die mittels des beobachtbaren Verhaltens ‚indirekt‘ gemessen werden, offensichtlich eine gewisse ‚Konsistenz‘ aufweisen, die ‚hinter‘ all der beobachtbaren Vielheit ‚am Werke‘ ist.
(9) Wenn die Psychologie also von ‚Intelligenz‘ spricht, dann bezieht sie sich auf kulturell stark repräsentative Verhaltensweisen, die man ‚messen‘ kann und die in ihrer Gesamtheit einen Hinweis liefern, ob ein einzelner Menschen sich so verhält, wie der große ‚Durchschnitt‘ (IQ=100) oder aber davon ‚abweicht‘; entweder durch ‚geringere‘ Leistung (IQ < 100) oder durch ‚mehr‘ Leistung (IQ > 100).
(10) Wichtig ist, dass die verschiedenen benutzten Verhaltenskataloge (Testbatterien) kein direkt beobachtbares ‚Objekt‘ Intelligenz definieren, sondern eher eine Art ‚Umschreibung‘ von etwas darstellen, was man nicht direkt sehen, sondern nur indirekt ‚erschließen‘ kann. Der psychologische Begriff der Intelligenz ist ein ‚theoretisches Objekt‘, also ein ‚Begriff‘ (Term), der durch formalen Bezug zu unterschiedlichen Messvorgängen eine ‚operationale‘ Bedeutung besitzt. Was letztlich das beobachtbare (messbare) Verhalten erzeugt, ist damit in keiner Weise klar.
(11) In der Psychologie gab es eine Vielzahl von Deutungsansätzen, wie man das ‚hinter dem Verhalten‘ liegende ‚Etwas‘ denken sollte. Am meisten verbreitet ist jener Ansatz, der zwischen einer ANGEBORENEN und einer ERWORBENEN Struktur unterscheidet: die durch die Erbanlagen weitgehend bestimmte angeborene Struktur definiert eine MASCHINERIE der VERARBEITUNG, deren Qualität sich in der GESCHWINDIGKEIT und FEHLERFREIHEIT zeigt (man spricht hier oft von FLUIDER Intelligenz). Die erworbene Struktur ist jener WISSEN, jene ERFAHRUNG, die sich durch die Anwendung der Maschinerie ERGIBT, so zu sagen das ERGENIS VON VERARBEITUNG (man spricht hier oft von KRISTALLINER Intelligenz). Während die kristalline Intelligenz stark verhaltens- und umweltabhängig ist ist die fluide Intelligenz weitgehend genetisch determiniert.
(12) Ob und wieweit die theoretisch bedingten Spekulationen der Psychologen über die fluide und kristalline Intelligenz zutreffen muss letztlich die Neurowissenschaft, und hier insbesondere die Neuropsychologie, entscheiden. Diese untersuchen die ‚biologische Maschinerie‘ des Gehirns und die Wechselwirkung mit dem Beobachtbaren Verhalten. Allerdings sind die Neurowissenschaften auf die Verhaltenstheorien der Psychologen angewiesen. Ohne die fundierten Untersuchungen des Verhaltens hängen die neurologischen Befunde buchstäblich ‚in der Luft‘: was nützt die Prozessbeschreibung eines Neurons wenn man nicht weiss, auf welches Verhalten dies zu beziehen ist. Und da es beim Menschen auf komplexe Verhaltensweisen ankommt die das gesamte komplexe Gehirn voraussetzen, ist diese Aufgabe nicht ganz einfach zu lösen (aus theoretischen Überlegungen muss man davon ausgehen, dass wir diese Aufgabe mit den heute verfügbaren Gehirnen nicht vollständig werden lösen können).
(13) Intelligenz messen: der Beginn der empirischen Wissenschaften ging einher mit der Einsicht, dass man auf Dauer nur dann zu ‚objektiven‘ Daten kommen kann, wenn man die Messprozeduren auf REFERENZOBJEKTE beziehen kann, die von den subjektiven Zuständen des einzelnen Beobachters UNABHÄNGIG sind. So kam es zur Einführung von Referenzobjekten für die Länge (m), das Gewicht (kg), die Zeit (s) usw. (die im Laufe der Zeit immer wieder durch neue ‚Versionen‘ ersetzt wurden; z.B. die Definition der ‚Sekunde‘ (s) oder der Länge (m)).
(13.1) Die Psychologen hatten im Fall der ‚Intelligenz‘ ‚Referenztestverfahren‘ eingeführt, die zwar unabhängig von den Gefühlen der Beteiligten waren, aber es gab kein unabhängiges Referenzobjekt INTELLIGENZ. Man erklärte einfach die MEHRHEIT der gerade lebenden Menschen zum STANDARD und verglich die zu ‚messenden Menschen‘ so gesehen mit ’sich selbst‘. Es war dann nicht wirklich überraschend, dass man im Laufe der Jahrzehnte feststellen musste, dass sich das REFERENZOBJEKT (nämlich die Leistung der ‚Mehrheit‘) nachweisbar ‚verschob‘. Ein IQ=100 war vor 50 –oder noch mehr– Jahren etwas anderes als heute!
(13.2) Das, was das Referenzobjekt INTELLIGENZ ’stabil‘ macht, das ist seine genetische Determiniertheit. Das, was es flexibel/veränderlich macht, das ist die Modifizierbarkeit durch genetische Variabilität und individuelle Lernfähigkeit bzw. die kontinuierliche Veränderung der Umwelt durch den Menschen selbst, die als veränderte sekundäre Welt auf den Menschen zurückwirkt.
(13.3) Bei aller Kritik an den Unzulänglichkeiten der aktuellen Messmethoden sollte man aber festhalten, dass das bisherige Verfahren trotz allem ein Geniestreich war und die Psychologie geradezu revolutioniert hatte.
(13.4) Trotzdem stellt sich die Frage, ob man heute mit neueren Mitteln das Projekt der Erforschung der Intelligenz noch weiterführen könnte?
(14) Für die Psychologen ist es unmöglich, die dem beobachtbaren Verhalten zugrunde liegenden Strukturen ‚als solche‘ direkt zu erforschen. Die Neurowissenschaftler können dies ansatzweise, indem sie reale Gehirne untersuchen, aber nur sehr limitiert; sie können nicht mit einem lebenden Gehirn wirklich Experimente machen (nur mit den Gehirnen von Tieren, und dies ist mehr und mehr ethisch äußerst fragwürdig!)
(15) Mit dem Aufkommen der Informatik entwickelten sich nicht nur theoretische Konzepte der BERECHENBARKEIT, sondern mehr und mehr auch eine TECHNOLOGIE, die es erlaubt, Berechnungsprozesse technisch zu realisieren. Dies wiederum ermöglicht die MODELLIERUNG und SIMULATION von nahezu beliebigen Strukturen und Prozessen, auch solchen, die BIOLOGISCHE Systeme modellieren und simulieren, einschließlich des GEHIRNS. Damit ist es prinzipiell möglich, zu jeder VERHALTENSWEISE, die in sogenannten Intelligenztests im Rahmen von TESTAUFGABEN gemessen werden, KÜNSTLICHE INTELLIGENZ (-STRUKTUREN) (KI := Künstliche Intelligenz, AI := Artificial Intelligence, CI := Computational Intelligence) zu entwickeln, die in der Lage sind, genau diese Testaufgaben mit einem gewünschten IQ zu lösen. Auf diese Weise würde man eine ganze Kollektion von unterschiedlichen IQ-REFERENZOBJEKTEN erstellen können, die sich nicht mehr verändern und die –so wie das Kilogramm (kg), das Meter (m) oder die Sekunde (s)– dann als WIRKLICHE REFERENZOBJEKTE FÜR INTELLIGENZ dienen könnten. Es wäre dann möglich, FORMEN VON INTELLIGENZ OBJEKTIV definieren zu können, die VERSCHIEDEN sind von der AKTUELLEN MENSCHLICHEN INTELLIGENZ. Auch könnte man damit den verschiedenen Formen TIERISCHER INTELLIGENZ mehr Rechnung tragen.
DENKMASCHINERIE (4)
Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 15.März 2010
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de
Diesem Beitrag ging ein Teil 3 voraus.
(1) Es gibt unterschiedliche Perspektiven, wie man das, was wir als ‘Denken’ bezeichnen, betrachten kann. Je nachdem, welche dieser Perspektiven wir wählen, ergibt sich ein ganz unterschiedliches Bild von diesem ‘Denken’.
(2) Neben dem ALLTAGSDENKEN gibt es seit ein paar hundert Jahren auch das sogenannten WISSENSCHAFTLICHE DENKEN. Das wissenschaftliche Denken setzt das alltägliche Denken gewissermaßen als primären Bezugspunkt voraus, hebt sich aber dennoch von ihm ab und widerspricht ihm letztlich in vielen Punkten. Dies liegt daran, dass das ALLTAGSDENKEN eine Reihe von ANNAHMEN macht, die FALSCH sind, aber im Alltag meistens sehr NÜTZLICH. So atemberaubend die Leistungen des wissenschaftlichen Denkens auch sind, es ist eine limitierte, eingeschränkte Form des Denkens, die nicht nur das ALLTAGSDENKEN voraussetzt sondern –aus philosophischer, erkenntnistheoretischer Sicht– auch das PHÄNOMENOLOGISCHE DENKEN. Letzteres kann man nur angenähert beschreiben als eine Struktur, die die INNENSICHT des subjektiven Erlebens mit Hilfe von alltagssprachlich und wissenschaflich eingeführten sprachlichen Konstrukten näherungsweise beschreibt.
(3) Allen drei Formen ALLTAGSDENKEN, WISSENSCHAFTSDENKEN sowie PHÄNOMENOLOGISCHEM DENKEN ist gemeinsam, dass sie das Denken zeigen, wie es sich AUSWIRKT. Wie erscheinen Menschen, wenn sie denken im Alltag? Wie sieht es aus, wenn DENKENDE Menschen Experimnte machen, Modelle konstruieren und überprüfen? Welche Erlebnisse hat jemand, der DENKT? In all diesen Perspektiven ist DAS, WAS DAS DENKEN ERMÖGLICHT, NICHT im Blick. Wir können zwar ERLEBEN, dass wir uns ERINNERN können, die einzelnen Vorgänge beim Erinnern selbst können wir aber nicht ’sehen‘. Wir erleben, dass wir VERALLGEMEINERN können, wir können ABSTRAHIEREN, es passiert ‚AUTOMATISCH‘, aber wir können nicht ’sehen‘, wie dies im einzelnen funktioniert. usw. Diejenige MASCHINERIE, die unser Erleben, Wahrnehmen, Denken ERMÖGLICHT, ist uns innerhalb des BEWUSSTEN DENKENS VERBORGEN.
(4) Die PHILOSOPHEN haben sich darüber immer wieder Gedanken gemacht; sie nannten das dann manchmal ERKENNTNISTHEORIE. Einer der beeindruckendste und bis heute noch immer aktuelle Beitrag ist sicher die ‚Kritik der reinen Vernunft‘ von Immanuel Kant (2.Aufl. 1787) (ohne damit andere schmälern zu wollen). Wie kaum ein anderer hat er die Frage nach den BEDINGUNGEN des eigenen Erkennens gestellt und mit seiner TRANSZENDENTALEN ANALYTIK u.a. herausgearbeitet, dass in der ART UND WEISE, wie wir WAHRNEHMEN die Struktur von RAUM UND ZEIT von vornherein (a priori) ‚eingebaut‘ ist. Bücher wie die von Konrad Lorenz 1977 ‚Die Rückseite des Spiegels‘ oder 1982 das Buch ‚Erkennen: Die Organisation und Verkörperung von Wirklichkeit‘ (zuvor schon 1972 (mit Varela) das Buch ‚De máquinas y seres vivos‘) von Maturana sind zwar nicht die ersten, die die biologischen Grundlagen unseres Denkens thematisieren, aber diese Publikationen markieren eine Wende im Denken über das Denken. Die rasante Entwicklung der Neurowissenschaften hat dann ihr Übriges dazu beigetragen, die Frage nach der MASCHINERIE ‚in unserem Kopf‘, die unser Denken ermöglicht, weiter zu beleuchten.
(5) Heute erscheint es jedenfalls gesichert, dass alles, was wir WAHRNEHMEN, ERINNERN, FÜHLEN, DENKEN usw. darauf basiert, dass wir ein NERVENSYSTEM (GEHIRN) besitzen, das innerhalb unseres Körpers in der Lage ist, SPEZIFISCHE SPANNUNGSZUSTÄNDE (ERREGUNGSZUSTÄNDE) zu repräsentieren, zu modulieren, und weiter zu leiten, und dies in einer Massivität, Parallelität und letztlich Komplexität, die alles übersteigt, was wir sonst so in der Natur kennen.
(6) Die Kenntnisse über Details dieser Maschinerie und über den einen oder anderen ‚funktionalen‘ Zusammenhang sind recht weit fortgeschritten. Allerdings liegen mehr als die Hälfte der biologischen Substanz des Gehirns (z.B. die genaue Funktion der Astrozyten) noch bis heute im tiefsten Dunkel. Ferner ist es bislang fast unmöglich, die PARALLELITÄT zwischen BEWUSSTEM ERKENNEN und UNTERSTELLTER MASCHINERIE klar und ausführlich zu erforschen (Neuropsychologie), da gerade das BEWUSSTE DENKEN sich einer direkten eindeutigen Beschreibung bislang entzieht. Es gibt eine Fülle von Einzelhypothesen, aber keinerlei Struktur, die den Namen MODELL oder gar THEORIE wirklich verdient. Neurobiologen wissen meist sehr viel über biochemische Details von Nervenzellen oder deren Komponenten, aber kaum etwas über größere Zusammenhänge, geschweige denn etwas darüber, was eine THEORIE DES GEHIRNS sein könnte.
(7) Es ist schwer abschätzbar, wie lange die Wissenschaft (und die Philosophie?) brauchen wird, eine (empirische) THEORIE DES GEHIRNS als Teil des Körpers auszuarbeiten. Zum VERSTEHEN unserer spezifisch MENSCHLICHEN BEWUSSTHEIT, unserer MENSCHLICHEN GEISTIGKEIT, unseres MENSCHLICHEN DENKENS wird diese Theorie allerdings nur dann etwas beitragen können, wenn es neben der Theorie des biologischen Gehirns TH_NN eine entsprechend ausgearbeitete Theorie des bewussten menschlichen Denkens Th_Consc gibt, so dass sich die ERLEBBAREN Eigenschaften des Denkens mit den MESSBAREN Eigenschaften des neuronalen Systems KORRELIEREN bzw. AUFEINANDER ABBILDEN lassen. D.h. wir brauchen letztlich eine METATHEORIE des Denkens Th_NNCons in der ÜBER die beiden anderen Theorien Th_NN und Th-Consc GESPROCHEN werden kann und in der die WECHSELWIRKUNG zwischen dem BEWUSSTEN und dem NEURONALEN explizit herausgearbeitet wird. Dabei vermute ich, dass die Theorie des BEWUSSTEN DENKENS Th_Consc eine PHÄNOMENOLOGISCHE Theorie sein muss.
(8) Aktuell besitzen wir nach meiner Einschätzung nur FRAGMENTE einer möglichen biologischen Theorie der neuronalen Strukturen Th_NN und ebenfalls bestenfalls nur FRAGMENTE einer phänomenologischen Theorie. Ich sehe nicht, dass zur Zeit irgendjemand die NOTWENDIGKEIT einer wirklichen THEORIE weder für Th_NN noch für Th_Consc sieht, geschweige denn für eine INTEGRIERENDE METATHEORIE der beiden.
(9) Für die Beschreibung der neuronalen Maschinerie sehe ich grundsätzlich zwei Strategien: (i) Eine möglichst ‚getreue‘ Abbildung der biologischen Strukturen oder (ii) eine Modellierung, die versucht, die ‚Prinzipien‘ herauszuarbeiten. Strategie (i) entspricht einer EMPIRISCH BIOLOGISCHEN Theoriebildung im ‚vollen Sinne‘. Strategie (ii) verkörpert eher den INGENIEURMÄSSIGEN Zugang. Zwischen einer ‚radikalen‘ Form von Strategie (i) und (ii) gibt es ein Kontinuum von Varianten, die letztlich ineinander übergehen. Wo genau der Bezug zum ‚Biologischen‘ aufhört und das ‚rein technische‘ Konstrukt anfängt ist kaum klar definierbar. Wie auch immer man den ‚Einstieg‘ in eine der beiden Strategien wählt, jede Strategie, die funktioniert, wird uns wertvolle Erkenntnisse liefern und auf unterschiedliche Weise helfen, praktische Probleme zu lösen. Für konkrete ‚Therapien‘ wird eine stärker nach (i) gerichtete Strategie Unterstützung bieten können; für ingenieurmässige Lösungen, in denen ‚künstliche Gehirne‘ dem Menschen helfen sollen, wird eine Strategie (ii) erfolgversprechender sein. Eine klare Antwort wird momentan wohl niemand geben können.
Fortsetzung: In gewisser Weise sind die Teile 2-4 in einem späteren Vortrag bei der Philosophischen Gesellschaft Bremerhaven wieder aufgegriffen und weiter entwickelt worden.
Wissenschaftliches Denken (2)
Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.März 2010
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de
Folgender früherer Beitrag könnte als Vorbereitung dienen: HIER.
(1) Es gibt unterschiedliche Perspektiven, wie man das, was wir als ‚Denken‘ bezeichnen, betrachten kann. Je nachdem, welche dieser Perspektiven wir wählen, ergibt sich ein ganz unterschiedliches Bild von diesem ‚Denken‘.
(2) Neben dem ALLTAGSDENKEN gibt es seit ein paar hundert Jahren auch das sogenannten WISSENSCHAFTLICHE DENKEN. Das wissenschaftliche Denken setzt das alltägliche Denken gewissermassen als primären Bezugspunkt voraus, hebt sich aber dennoch von ihm ab und widerspricht ihm letztlich in vielen Punkten. Dies liegt daran, dass das ALLTAGSDENKEN eine Reihe von ANNAHMEN macht, die FALSCH sind, aber im Alltag meistens sehr NÜTZLICH.
(3) Wie das Alltagsdenken nimmt auch das wissenschaftliche Denken an, dass es eine gemeinsam geteilte EXTERNE WELT gibt, in der vielfältigste EREIGNISSE VORKOMMEN. Im Unterschied zum ALLTAGSDENKEN akzeptiert das WISSENCHAFTLICHE DENKEN aber nur jene DATEN von der externen Welt, die nach klar vereinbarten MESSMETHODEN REPRODUZIERBAR von JEDEM MENSCHEN GEMESSEN werden können.
(4) Zum MESSEN gehört die Einführung einer geeigneten NORM (STANDARD), die für alle, die Messen wollen, an allen Orten und zu jedem Zeitpunkt innerhalb einer bestimmten GENAUIGKEIT GLEICH sein muss (z.B. ‚kg‘, ‚m‘, ’s’…). Diese Stanbdards werden von einer internationalen Behörde verwaltet.
(5) MESSUNGEN sind immer PUNKTUELL an einem BESTIMMTEN ORT zu einer BESTIMMTEN ZEIT, durchgeführt mit einem BESTIMMTEN MESSGERÄT von bestimmten Personen nach einem BESTIMMTEN VERFAHREN unter BESTIMMTEN BEDINGUNGEN. Das ERGEBNIS von MESSUNGEN sind MESSWERTE, nämlich die Angabe der gemessenen NORM (EINHEIT) sowie eine Zahl bezogen auf die Norm (z.B. (3.5, m) oder (4.333, s) usw.).
(6) Messwerte werden in einer geeigneten DATENSPRACHE L_data aufgeschrieben in Form von MESSPROTOKOLLEN. Ein Messwert wird hier auch DATUM genannt und eine Menge von Messerten DATEN.
(7) Nur das, was als reproduzierbarer Messwert vorliegt gilt als eine Eigenschaft der EXTERNEN (=EMPIRISCHEN) WELT. Alles andere existiert für die Wissenschaft NICHT.
(8) Bevor FORSCHER Messen können müssen Sie natürlich ein VORVERSTÄNDNIS darüber besitzen, was sie überhaupt messen wollen. Sofern es ihnen gelingt, sich solch ein Vorverständnis zu erarbeiten verfügen sie über einen MÖGLICHEN BLICK (VIEW) auf die externe Welt. Unter Voraussetzung eines solchen VORVERSTÄNDNISSES können sie dann überlegen und planen, was sie wie MESSEN wollen. Unter Umständen müssen sie auch erst neue Messverfahren ERFINDEN, um das messen zu können, was sie als WICHTIG VERMUTEN.
(9) Das, WAS MAN MESSEN KANN und das, WAS MAN AUFGRUND EINES VORVERSTÄNDNISSES INS AUGE FASSEN KANN muss NICHT DECKUNGSGLEICH sein. In der Regel kann man immer nur einen Teil von dem messen, was man im Vorverständnis ‚vor Augen hat‘.
(10) DATEN als solche sagen nahezu nichts aus über die externe Welt. Interessant werden Daten erst dann, wenn man sie in ZUSAMMENHÄNGE einordnen kann. Beispiele für solche Zusammenhänge sind ZEITLICHE (TEMPORAL) oder RÄUMLICHE (SPATIAL) MUSTER (PATTERN). Wenn also z.B. bestimmte Farben immer nur in bestimmten gleichen räumlichen Anordnungen auftreten, dann spricht dies für einen OBJEKTZUSAMMENHANG; gehen andererseits bestimmte Ereignisse zeitlich immer bestimmten anderen Ereignissen voraus, spricht dies für einen KAUSALZUSAMMENHANG. Usw.
(11) Solche ZUSAMMENHÄNGE kann man NICHT DIREKT WAHRNEHMEN, sondern diese müssen SEKUNDÄR KONSTRUIERT werden, um dann AKTIV ZU SCHAUEN, WELCHE DATEN sich in welche ZUSAMMENHÄNGE EINORDNEN lassen. Dies ist eine EXPLORATIVE Tätigkeit.
(12) Um über diese explorative Tätigkeit des Konstruierens von Zusamenhängen und über das tentative Einordnen der Daten in Zusammenhänge SPRECHEN zu können, benötigt man eine geeignete THEORIESPRACHE L_theory. In der Regel benutzt man dafür heute FORMALE SPRACHEN (MATHEMATIK, LOGIK, MENGENLEHRE). Mit solch einer THEORIESPRACHE kann man dann beliebige KÜNSTLICHE MENGEN, BEZIEHUNGEN ZWISCHEN MENGEN sowie PROZESSE mit OBJEKTEN dieser Mengen definieren und mit Hilfe von geeigneten LOGISCHEN FOLGERUNGSBEGRIFFEN BEWEISE (ABLEITUNGEN, PROOFs) konstruieren, die dann zeigen, ob aus einer GEGEBENEN KONSTELLATION sich eine bestimmte FOLGEKONSTELLATION ABLEITEN (BEWEISEN) lässt oder nicht. Im Zeitalter des Computers kann vieles davon auch COMPUTERGESTÜTZT (COMPUTERAIDED) getan werden, z.B. das MODELLIEREN bzw. THORIE FROMULIEREN wie auch das SIMULIEREN (automatisierte Beweise) wie auch das automatische VERIFIZIEREN (Überprüfen bestimmter Eigenschaften im Raum ALLER theoretischen Möglichkeiten mittels z.B. MODEL-CHECKING).
(13) Sofern Messverfahren verfügbar sind und erste theoretische Modelle samt all den formalen Hilfswerkzeugen (Beweisbegriff usw.) kann man mögliche ABLEITUNGEN von möglichen ZUKÜNFTIGEN ZUSTÄNDEN auch dazu benutzen, um gezielt EXPERIMENTE zu machen. Wenn ein theoretisches Modell die PROGNOSE erlaubt, dass bei Vorliegen einer bestimmten KONSTELLATION K ein ganz bestimmter FOLGEZUSTAND F mit einer gewissen Wahrscheinlichkeit P eintritt, dann kann man versuchen, in der realen Welt eine VERSUCHSANORDNUNG aufzubauen, in der man die Konstellation K bewusst HERSTELLT und man dann BEOBACHTET (MISST), welche Daten auftreten. Liegen Daten vor, kann gefragt werden, ob diese im Sinne des theoretisch prognostizierten FOLGEZUSTANDES F interpretiert werden können. Ist dies der Fall, wird dies als BESTÄTIGUNG der Theorie gewertet. Im anderen Fall ist unklar, wie dies zu interpretieren ist: War der Versuchsaufbau falsch? Gelingt es wiederholt nicht, die Prognose zu bestätigen wird das theoretische Modell auf jeden Fall an GLAUBWÜRDIGKEIT verlieren.
(14) Das KONSTRUIEREN VON MODELLEN mittels formaler THEORIESPRACHERN sowie die UNTERSUCHUNG DER EIGENSCHAFTEN dieser formalen Strukturen findet sich so im alltäglichen Denken NICHT; es wäre auch garnicht möglich, da im Alltagsdenken normalerweise nicht immer ganz klar ist, was denn genau die Daten sind. Ferner ist die Alltagssprache in ihrer GRAMMATIK und BEDEUTUNGSSTRUKTUR so unscharf, dass FORMALE LOGISCHE BEWEISE damit nicht geführt werden können. Während der unscharfe Charakter der Alltagssprache und das alltägliche –grundlegend intuitive– Denken für die Zwecke des Alltags sehr gut geeignet ist, ist sie für die Konstruktion wissenschaftlicher Theorien vollständig unzulänglich. Nichtsdestotrotz bildet das alltägliche Denken mit der Alltagssprache die unumgängliche Basis für jedes wissenschaftliches Denken.
(15) WISSENSCHAFTLICHE THEORIEN stellen von daher einerseits einen grossen FORTSCHRITT im Denken dar, zugleich sind sie aber bislang reduziert auf geringe Ausschnitte der insgesamt zur Erklärung anstehenden erfahrbaren Welt. Der menschliche Körper kann in manchen Bereichen partiell sicher mehr von der Welt erfahren als es das wissenschaftliche Messen bislang gestattet (umgekehrt aber auch: in der Wissenschaft kann man sehr viele Eigenschaften messen, die der menschlichen Wahrnehmung völlig unzugänglich sind), aber die Unschärfe der körpereigenen Wahrnehmung sowie die Unschärfe des intuitiven Alltagsdenkens laufen beständig Gefahr, Strukturen zu sehen, die es so garnicht gibt (das subjektive ‚Wohlfühlen‘ im Rahmen bestimmter Denkvorstellungen ist kein Garant dafür, dass diese Vorstellungen ‚wahr‘ sind).
(16) Es sollte auch darauf hingewiesen werden dass es nunmehr zwar schon seit einigen hundert Jahren eine EXPERIMENTELLE (EMPIRISCHE) WISSENSCHAFT gibt, dass es aber bis heute nicht gelungen ist, einen einheitlichen THEORIEBEGRIFF in den verschiedenen wissenschaftlichen Disziplinen zu verankern. Während es bzgl. des MESSENS eine einigermassen Übereinstimmung zu geben scheint findet sich dies im Bereich Modell- bzw. THEORIEBILDUNG eher nicht. Zwar gab es im 20.Jh. interessante Ansätze zu einer einheitlichen WISSENSCHAFTSTHEORIE, doch nach Aufdeckung grundlegender Probleme im Aufbau von Theorien sind diese Ansätze wieder zerfallen. Man begnügt sich jetzt mit vielen HISTORISCHEN Untersuchungen zur Wissenschaftsgeschichte oder mit der Untersuchung SPEZIELLEER FORMALISMEN, aber ein einheitliches THEORIEKONZEPT kann man in den Disziplinen nicht finden. Vielmals kann man sogar den Eindruck haben, dass ausser einer Unmenge von Messwerten keinerlei ernsthafte theoretische Ansätze vorliegen (statistische Modelle sind keine vollen Theorien).
Eine Fortsetzung findet sich HIER.