Archiv der Kategorie: Lernen

KÜNSTLICHE INTELLIGENZ – Newell und Simon 1976

PDF

IDEE

Im Jahr 2017 nimmt die Erwähnung von sogenannter Künstlicher Intelligenz außerhalb der Wissenschaften, im öffentlichen Bereich, fast inflatorisch zu. Zugleich muss man feststellen, dass Erklärungen des Begriffs ‚Künstliche Intelligenz‘ wie auch anderer Begriffe in seinem Umfeld Mangelware sind. Es wird daher ab jetzt mehr Blogeinträge geben, die auf diese Thematik gezielter eingehen werden. Hier ein erster Beitrag mit Erinnerung an einen wichtigen Artikel von Newell and Simon 1976.

I. INFORMATIK ALS EMPIRISCHE WISSENSCHAFT

Informatik als empirische Disziplin (nach Newell und Simon, 1976)
Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Im Jahr 1975 empfingen Allen Newell und Herbert A.Simon den angesehenen ACM Turing Preis von der ACM aufgrund ihrer vielen wichtigen Beiträge zur Künstlichen Intelligenzforschung in den vorausgehenden Jahren. Die Preisrede beider Autoren wurde in den Communications of the ACM 1976 abgedruckt (siehe: NewellSimon:1976).

In dieser Rede wagen die Autoren eine generelle Sicht auf die Informatik (‚computer science‘), die Akzente erkennen lässt, die von heutigen Auffassungen von Informatik — zumindest wie sie in Deutschland üblich sind — doch deutlich abweicht.

Für die beiden Autoren ist die Informatik eine empirische Wissenschaft, deren Interesse darin besteht, das Verhalten von Menschen, dort, wo es Intelligenz erkennen lässt, in ein theoretisches Modell zu übersetzen, das sich dann als eine konkrete Maschine (ein Computer, ein Roboter) physikalisch realisieren lässt. Man kann dann diese konkrete Maschine dazu benutzen, Tests durchzuführen, durch die man überprüfen kann, ob sich die gebaute Maschine hinreichend ähnlich wie ein Mensch verhält oder aber davon deutlich abweicht. Liegen Abweichungen vor, dann muss man den Sachverhalt weiter ergründen und versuchen, ob man das theoretische Modell verbessern kann.

Für sie erscheint der Mensch als eine Art Standardmodell für Intelligenz, allerdings nicht so, dass man den Begriff ‚Intelligenz‘ mit einer einzigen Verhaltensweise oder mit einem einzigen Prinzip identifizieren könnte. Das vielfältige menschliche Verhalten verweist nach den Autoren vielmehr auf eine Vielzahl von Komponenten, deren Zusammenwirken zu einem als ‚intelligent‘ wirkenden Verhalten führt. Für das Erkennen einer möglichen ‚Intelligenz‘ ist es ferner wichtig, dass man den ganzen Kontext berücksichtigt, in dem spezifische Aufgaben vorliegen, die gelöst werden sollten.

Durch ihre Forschungsarbeiten zu symbolischen Systemen und zur heuristischen Suche haben Newell und Simon herausgefunden, dass die Klärung eines Problemraumes nur dann besser als zufällig sein kann, wenn der Problemraum minimale Regelhaftigkeiten, eine minimale Ordnung aufweist, die — sofern sie erkannt wurde — dann in Form spezieller Informationen angesammelt werden kann und dann, nach Bedarf, bei der Klärung des Problemraumes genutzt werden kann. Und es ist genau diese spezifische angesammelte Information die die Autoren mit Intelligenz gleichsetzen! Ein Mensch kann nur dann gezielter, schneller eine Aufgabe lösen, wenn er über spezielle Informationen (Wissen) verfügt, die ihn in die Lage versetzen, genau jene Verhaltensweisen zu zeigen, die schnell und effizient zum Ziel führen.

Überträgt man dies auf die theoretischen Modelle der Informatik, dann muss man Wege finden, spezifisches Bereichswissen (engl.: ‚domain knowledge‘) für ein intelligentes Verhalten in geeignete Datenstrukturen und Prozesse zu übersetzen. Auf die vielen Beispiele und Details zu diesen Überlegungen wird hier verzichtet [diese kann jeder in dem Artikel nachlesen ….].

II. DISKURS

Hier einige Überlegungen im Anschluss an den Artikel von Newell und Simon.

A. Intelligenz

Zunächst ist interessant, dass die Verwendung des Begriffs ‚Intelligenz‘ gebunden wird an das Verhalten von Menschen, wodurch der Mensch als undiskutierter Maßstab für mögliche Intelligenz gesetzt wird.

Daraus folgt nicht notwendigerweise, dass es jenseits des Menschen keine andere Formen von Intelligenz gibt, sondern nur, dass man den Typ von Intelligenz, der beim Menschen vorliegt und sichtbar wird, vorläufig als Standard benutzen möchte. Also eine Intelligenz mit Index: Intelligenz_human.

Das macht auch verständlich, dass man als wichtige empirische Wissenschaft in Begleitung der Informatik die kognitive Psychologie sieht, die sich u.a. auch mit der sogenannten ‚Informationsverarbeitung im Menschen‘ beschäftigt.

Es wundert dann allerdings, dass die Autoren den im Rahmen der Psychologie eingeführten Begriff des Intelligenz-Quotienten (IQ) samt den dazugehörigen erprobten Messverfahren nicht benutzen, nicht einmal erwähnen. Dies würde die Möglichkeit eröffnen, die Verhaltensleistung von technischen Systemen entsprechend zu messen und direkt mit Menschen zu vergleichen. Der oft zitierte Turing-Test (nicht von den beiden Autoren) ist verglichen mit den Testbatterien des IQ-Quotienten mehr als dürftig und nahezu unbrauchbar.

Durch den Verzicht auf die sehr detailliert ausgearbeiteten Testbatterien der Psychologie bleibt die Charakterisierung des Begriffs ‚Intelligenz‘ in der Informatik weitgehend vage, fast beliebig.

An dieser Stelle könnte man einwenden, dass in der Informatik andere Aufgabenstellungen untersucht werden als in der Psychologie üblich bzw. andere Aufgabenstellung, die Menschen in dieser Weise nicht angehen, dadurch wir die Verwendung des Begriffs ‚Intelligenz‘ aber noch undurchsichtiger, geradezu ominös.

Obgleich Newell und Simon betonen, dass sie die Informatik als eine empirische Theorie sehen, bleibt der ganze Komplex des tatsächlichen objektiven Messens etwas vage. Zum objektiven Messen gehören zuvor vereinbarte Standards, die beim Messen als Referenzen benutzt werden, um ein Zielobjekt zu ‚vermessen‘. Wenn das zu messende Zielobjekt ein Verhalten sein soll (nämlich das Verhalten von Maschinen), dann muss zuvor sehr klar definiert sein, was denn das Referenz-Verhalten von Menschen ist, das in einem (welchen?) Sinn als ‚intelligent‘ angesehen wird und das dazu benutzt wird, um das Maschinenverhalten damit zu vergleichen. Es ist weder bei Newell und Simon klar zu sehen, wie sie ihr Referenzverhalten von Menschen zuvor klar definiert haben, noch sind die Messprozeduren klar.

Der grundsätzliche Ansatz von Newell und Simon mit der Informatik als empirischer Disziplin (zumindest für den Bereich ‚Intelligenz) erscheint auch heute noch interessant. Allerdings ist das begriffliche Chaos im Kontext der Verwendung des Begriffs ‚Intelligenz‘ heute zu einem notorischen Dauerzustand geworden, der es in der Regel unmöglich macht, den Begriff von ‚künstlicher Intelligenz‘ in einem wissenschaftlichen Sinne zu benutzen. Jeder benutzt ihn heute gerade mal, wie es ihm passt, ohne dass man sich noch die Mühe macht, diese Verwendung irgendwie transparent zu machen.

B. Lernen

Während Newell und Simon im Fall des Begriffs ‚Intelligenz‘ zumindest ansatzweise versuchen, zu erklären, was sie damit meinen, steht es um den Begriff ‚Lernen‘ ganz schlecht.

Explizit kommt der Begriff ‚Lernen‘ bei den Autoren nicht vor, nur indirekt. Dort wo heuristische Suchprozesse beschrieben werden, die mit Hilfe von symbolischen Systemen geleistet werden, stellen sie fest, dass man aufgrund ihrer empirischen Experimente wohl (in dem theoretischen Modell) annehmen muss, dass man Informationen speichern und verändern können muss, um zu jenem Wissen kommen zu können, das dann ein optimiertes = intelligentes Verhalten ermöglicht.

Aus psychologischen Lerntheorien wissen wir, dass ‚Intelligenz‘ und ‚Lernen‘ zwei unterschiedliche Eigenschaften eines Systems sind. Ein System kann wenig intelligent sein und doch lernfähig, und es kann sehr intelligent sein und doch nicht lernfähig.

Nimmt man die Charakterisierung von Newell und Simon für ‚Intelligenz‘ dann handelt es sich um ein ’spezielles Wissen‘ zum Aufgabenraum, der das System in die Lage versetzt, durch ein ‚gezieltes Verhalten‘ schneller ans Ziel zu kommen als durch rein zufälliges Verhalten. Eine solche Intelligenz kann einem System zur Verfügung stehen, auch ohne Lernen, z.B. (i) bei biologischen Systemen als eine genetisch vererbte Verhaltensstruktur; (ii) bei technischen Systemen durch eine volle Konfiguration durch Ingenieure. Bei biologischen Systeme tritt allerdings ‚Intelligenz‘ nie isoliert auf sondern immer in Nachbarschaft zu einer Lernfähigkeit, weil die dynamische Umwelt biologischer Systeme beständig neue Anpassungen verlangt, die nicht alle vorher gesehen werden können. Im Fall technischer Systeme mit begrenzter Lebensdauer und definiertem Einsatz war dies (und ist dies) weitgehend möglich.

Wenn man von ‚Künstlicher Intelligenz‘ spricht sollte man daher die beiden Strukturen ‚Intelligenz‘ und ‚Lernen‘ sehr klar auseinander halten. Die Fähigkeit, etwas zu lernen, erfordert völlig andere Eigenschaften als die Struktur eines Wissens, durch das ein System sich ‚intelligent‘ statt ‚zufällig‘ verhalten kann.

C. Theorie

Die Forderung von Newell und Simon, die Informatik als eine ‚empirische Wissenschaft‘ zu betrachten, die richtige theoretische Modelle (= Theorien) konstruiert und diese über realisierte Modelle dann empirisch überprüft, hat im Rahmen des allgemeinen Systems Engineerings auch heute noch einen möglichen Prozess-Rahmen, der alle diese Forderungen einlösen kann. Allerdings hat es sich in der Informatik eingebürgert, dass die Informatik einen Sonderweg kreiert hat, der unter der Überschrift Softwareengineering zwar Teilaspekte des generellen Systemsengineerings abbildet, aber eben nur Teilaspekte; außerdem ist durch die Beschränkung auf die Software ohne die Hardware ein wesentlicher Aspekt des Gesamtkonzepts Computer ausgeklammert. Ferner ist der harte Aspekt einer vollen empirischen Theorie durch die Phasenbildungen ‚logisches Design‘ nur unvollständig abgebildet. Designmodelle sind kein Ersatz für eine richtige Theorie. Für das sogenannte ‚modellgetriebene Entwickeln‘ gilt das Gleiche.

D. Mensch als Maßstab

War es noch für Newell und Simon offensichtlich klar, dass man für den Begriff ‚Intelligenz‘ den Menschen als Referenzmodell benutzt, so ist dies in der heutigen Informatik weitgehend abhanden gekommen. Dies hat einmal damit zu tun, dass der Wissenschaftsbegriff der Informatik samt der meisten Methoden bislang nicht in den allgemeinen, üblichen Wissenschaftsbegriff integriert ist, zum anderen dadurch, dass die Aufgaben, die die intelligenten Maschinen lösen sollen, aus allen möglichen ad-hoc Situationen ausgewählt werden, diese keinen systematischen Zusammenhang bilden, und man in den meisten Fällen gar nicht weiß, wie man den Bezug zum Menschen herstellen könnte. Dadurch entsteht der vage Eindruck, dass die ‚Intelligenz‘ der künstlichen Intelligenzforschung irgendwie etwas anderes ist als die menschliche Intelligenz, von der menschlichen Intelligenz möglicherweise sogar ganz unabhängig ist. Man macht sich allerdings nicht die Mühe, systematisch und zusammenhängend die Verwendung des Begriffs der ‚Intelligenz‘ in der Informatik zu klären. Aktuell hat man den Eindruck, dass jeder gerade mal das behauptet, was ihm gerade gefällt. Auch eine Art von Fake News. Die Marketingabteilungen der großen Konzerne freut es, weil sie nach Belieben alles Versprechen können, was sie wollen, ohne dass irgendjemand sinnvoll nachprüfen kann, was das genau ist, ob das überhaupt geht.

Doch sollte man sich durch diese terminologische Unklarheiten, die auf eine fehlende wissenschaftliche Methodik der Informatik zurück zu führen sind, nicht davon ablenken lassen, zu konstatieren, dass trotz chaotischer Begrifflichkeit im Konkreten und Im Detail seit Newell und Simon 1976 extreme Fortschritte gemacht wurden in speziellen Algorithmen und spezieller Hardware, mit der man heute viel mehr realisieren kann, als sich Newell und Simon damals hätten träumen lassen. Die Vorteile, die man sich durch diese Fortschritte im Konkreten erarbeitet hat, werden aber weitgehend verspielt durch große Theoriedefizite, die zu gerade kuriosen Anschauungen und kuriosen Forschungsprojekten führen. In der KI ist dies aber nichts Neues: es gab sehr unterschiedliche Phasen; alle Fehler führten irgendwann dann doch zu verbesserten Einsichten.

QUELLE

Allen Newell and Herbert A. Simon. Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3):113–126, 1976.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

PHILOSOPHISCHES DENKEN HEUTE – Zurück auf Start?

TREND ZU INSTITUTIONALISIEREN

  1. Es scheint eine allgemeine Tendenz menschlichen Handelns zu sein, aufregende Ideen und erfolgreiche Konzepte – allerdings nicht immer – zu institutionalisieren: aus einzelnen Menschen die überzeugen, aus einzelnen kleinen Unternehmungen, die Erfolg haben, werden Institutionen, große Firmen, Staatsgebilde.
  2. Wenn sie denn da sind, die Institutionen (Kirchen, Parteien, Gewerkschaften, Universitäten, politische Formen, Rechtssysteme, …), dann verselbständigen sich viele Mechanismen. Die treibende Idee kann verblassen, die Selbsterhaltungskräfte einer Institution gewinnen die Oberhand (im Falle von Geheimdiensten wenig Demokratie förderlich …).

WAS BEWEGT?

  1. Bei der Frage, was das Handeln von Menschen leitet, kann man angesichts der Realität von Institutionen verleitet sein, auf die soziale Realität dieser Institutionen zu starren und zu glauben, gegen diese sei nicht anzukommen, als einzelner.
  2. Die Geschichte – und die unruhige Gegenwart – kann uns aber darüber belehren, dass alle Institutionen nur so lange funktionieren, als die sie tragenden Menschen mit ihren subjektiven-inneren Leitbildern diese Institutionen stützen. Wenn sich die subjektiven-inneren Anschauungen ändern, zerfallen Institutionen.
  3. Dafür gibt es zahllose Beispiele. Der immer stärker werdende Lobbyismus unter Politikern, die fast schon dreiste Voranstellung persönlicher kurzfristiger Erfolgskriterien vor jeder gesellschaftlich tragenden Perspektive, die zunehmende Propaganda und Zensur in vielen Ländern dieser Erde, vereinfachende schwarz-weiß Modelle von Gesellschaft und Zukunft, sind einige der wirksamen Mittel, eine friedliche, kooperierende, zukunftsfähige Gesellschaft zu zerstören.

GEMEINSAMES WISSEN

  1. In solch einer Situation – die es in den letzten Jahrtausenden immer gab, immer wieder – stellt sich die Frage, wie kann das Wissen eines Menschen so mit anderen geteilt werden, dass aus diesem gemeinsamen Wissen auch ein gemeinsames Handeln erwachsen kann?

GRÜNDUNGSIDEEN

  1. Demokratische Parteien, die noch jung sind, die noch ein wenig das Gründungsfieber, die neue Vision in sich tragen, sind gute Lehrbeispiele dafür, wie Ideen sich im Alltag mühsam ihren Weg in die Köpfe möglicher Anhänger suchen müssen und dann, im Laufe der Jahre, sich behaupten müssen. Am Gründungstag weiß niemand, wer in der Zukunft dazukommen wird und was die nachfolgenden Generationen daraus machen werden.
  2. Ähnliches kann man bei Religionsgründern und bei Ordensgründungen beobachten: eine elektrisierende Anfangsidee bringt Menschen dazu, ihr Leben nachhaltig zu ändern und damit jeweils auch ein Stück Welt.
  3. Auch Firmengründungen laufen ähnlich ab: zu einem bestimmten Zeitpunkt hatte eine Idee einen wirtschaftliche Erfolg, und dieser führt zu einem Wachstum, der vorher nicht absehbar und nicht planbar war. Irgendwann gibt es ein Konglomerat aus Kapital und Macht, wo die Gründungsidee sich verdunstet hat, wo die Firma sich selbst fremd geworden ist. Manager sind angeheuerte Mietkräfte, die im System ihren persönlichen Vorteil suchen oder es gibt Anteilseigner, die wie kleine Monarchen ihrem Absolutismus zu frönen scheinen.
  4. Und so weiter, und so weiter…

ZEITLICHKEIT

  1. Die übergreifende Wahrheit ist, dass alle diese Gebilde Zeit behaftet sind: mit der Sterblichkeit ihrer Leitfiguren, mit der Veränderung der Gesellschaft und Technik und der Welt drum herum verändern sich Systeme und ihre Kontexte unaufhaltsam. Die Versuchung der totalen Kontrolle durch kleine Machtzirkel ist immer gegeben und ist immer auf Scheitern programmiert, ein Scheitern, dass vieles zerstört, viele in den Tod reist, … Jahrzehnte spielen keine Rolle; Jahrhunderte sind das minimale Zeitmaß für grundlegende Ideen und Änderungen. Die Geschichte ist hier ein unerbittliches Protokoll der Wahrheiten (was solche kurzfristigen Machtinszenierungen gerne verschweigen und fälschen).

WAHRE VISIONEN

  1. Parallel gab es immer auch die Vision einer Menschheit die lernt, die es schafft, gemeinsam Egoismus und Wahnsinn zu verhindern, Humanität allgegenwärtig zu machen, eine Vision der Zukunft zu entwickeln, in der alle vorkommen.
  2. Die historische Realität erzählt uns aber, dass bislang alle Visionen zu schwach waren. Reich – Arm, Gebildet – Ungebildet, Mächtig – machtlos sind Koordinaten eines Raumes, in dem die Wirklichkeit bis heute ungleich verteilt ist.
  3. Wahr ist aber auch, dass der Prozess des Lebens auf der Erde, wie immer er laufen wird, nur dann eine Richtung in eine gemeinsame, nachhaltige, friedliche Zukunft für alle nehmen kann, wenn es genügend Menschen gibt, die über eine Vision, über den Ansatz eines Bildes von solch einer gemeinsamen lebensfähigen Zukunft besitzen, die ihr Handeln gemeinsam leitet, eine Vision die ‚wahr‘ ist im Sinne, dass sie eine Welt beschreibt und schafft, die tatsächlich für alle das gibt, was sie suchen und brauchen.

GENEINSAME LERNPROZESSE

  1. Die Geschichte Europas vom antiken Griechenland bis in die Gegenwart ist ein Beispiel, an dem man studieren kann, wie eine ganze Epoche (das lateinische Mittelalter) durch ein gemeinsames Nachbuchstabieren vorausgehender Gedanken zu sich selbst und dann zu etwas ganz Neuem gefunden hat. In der Gegenwart kann man das Gefühl haben, dass das Neue wieder zu zerfallen droht, weil man immer mehr nur auf einzelne Teile schaut und nicht auf das Ganze.
  2. Ein Beispiel ist das wundersame Werk Wikipedia: eine solche Enzyklopädie (bei allen realen Schwächen) gab es noch nie zuvor in der Geschichte der Menschheit. Aber diese Enzyklopädie liefert nur unverbundene Einzelteile. Wo sind die Modelle, die die Zusammenhänge sichtbar machen? Wo sind die gemeinsam geteilten Modelle, die alle nachvollziehen können? Welche transparenten Mechanismen der Bewertung bräuchte man?
  3. Die Physiker, Chemiker, Biologen liefern ansatzweise Modelle für Teilbereiche. Das ist gut. Aber es sind nur sehr partielle Modelle und solche, die nur die Forscher selbst verstehen. Der Rest der Welt versteht nichts, ist außen vor, und trotz hochentwickelten Teilmodellen blühen Aberglauben, vereinfachende religiöse Überzeugungen, Esoterik und Ähnliches in einem Ausmaß, was (erschreckend) staunen lässt. … Und die Politik schafft wichtige Wissenschaften sogar wieder ab, weil die Politiker gar nicht verstehen, was die Forscher da machen (im Bereich Cyber- und Drohnenkrieg leider genau umgekehrt…).
  4. Die geistige Welt scheint also zu zerfallen, weil wir immer höhere Datengebirge erzeugen, und immer weniger interpretierende Modelle, die alle verstehen. (BigData liefert ‚Oberflächenmodelle‘ unter Voraussetzung, dessen, was ist, aber geht nicht tiefer, erklärt nichts, und vor allem, ist blind, wenn die Daten schon Schrott sind).
  5. Die Frage ist also, wie kann eine ganze Epoche aus der Zersplitterung in alte, schlechte, unverständliche Modelle der Welt zu etwas mehr gemeinsamer nachhaltiger Modellbildung kommen?

DAS GUTE UND WAHRE SIND EIN SELBSTZWECK

  1. Der einzige Grund für das ‚Gute‘ und ‚Wahre‘ ist das ‚Gute‘ und ‚Wahre‘ selbst. Die Alternativen erkennt man an ihren zerstörerischen Wirkungen (allerdings nicht immer sofort; Jahrzehnte sind die Sekunden von Kulturgeschichte, Generationen ihre Minuten, Jahrhunderte ihre Stunden ….).
  2. Der je größere Zusammenhang ist bei empirischer Betrachtung objektiv gegeben. Wieweit sind wir aber in der Lage, diese übergreifenden objektiven Zusammenhänge subjektiv zu fassen, so zu verinnerlichen, dass wir damit ‚im Einklang mit allem‘ positiv leben können?
  3. Die Geschichte sagt ganz klar, dass es nur gemeinsam geht. Wie wird aus vielen einzelnen eine geistige (rational begründete) und emotionale Gemeinschaft, die heute das tut, was auch morgen Sinn macht?
  4. Man kann ja mal die Frage stellen, warum (um einen winzigen Aspekt zu nennen), Schulen und Hochschulen es nicht als eine ihrer Hauptaufgaben ansehen, die Wikipedia der Fakten (Wikipedia Level 0) mit zu pflegen, um gleichzeitig damit zu beginnen, eine Wikipedia der Modelle (Wikipedia Level 1) aufzubauen?
  5. Philosophische Überlegungen, die ernsthaft anlässlich der realen Welt über diese reale Welt und ihre impliziten kognitiven Räume nachdenken wollen, könnten dann Level 0 + 1 als natürliche Referenzpunkte benutzen, um die kritische Reflexion über das Weltwissen weiter voran zu treiben.
  6. Ja gewiss, dies alles ist nur ein Fragment. Aber als einzelne sind wir alle fragmentiert. Leben ist die Kunst der Überwindung der Fragmente in höheren, lebensfähigen Einheiten ….

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS GANZE IN EINER NUSSSCHALE – In gewisser Weise ‚Ja‘

ANREGUNG VON PLATO & ARISTOTELES

  1. Im Kontext der Relektüre von Platon und Aristoteles, zunächst angeregt durch das Buch von Decher, dann vertiefend mit anderen Büchern, entstand immer mehr der Eindruck, dass das Ringen von Aristoteles um eine realistischere Sicht der Ganzheit des Lebens im Vergleich zu dem stark dualistisch-apriorisierenden Denken Platons, in seinem Kern, in den erkennbaren Strukturen, nicht so weit weg ist vom heutigen Denken. Natürlich muss man einige Begriffe neu übersetzen, natürlich muss man viele Details aktualisieren, aber die gesamte Ausrichtung gibt eine Fülle von Anregungen, die auch Lücken in unseren heutigen Ansätzen sichtbar machen. Die Meinungen gehen auseinander, ob Aristoteles auf der Zielgeraden letztlich dann doch Platons Sicht übernommen hat (Priorität und Andersartigkeit des Geistes über und vor allem anderen), oder ob man seine ähnlich klingenden Begriffe nicht doch von seinem Gesamtansatz her doch anders denken müsste.
  2. Bevor es aber dazu kam, dass ich mich in diese Begriffswelt von Platon, ganz besonders aber von Aristoteles, neu versenken konnte, setzte sich ein ganz anderes Karussell von Analogien in Bewegung.
Die fünf Paradoxien - Vorstufe: Geist und Materie
DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Vorstufe: Geist und Materie

BIOLOGISCH VERSUS TECHNOLOGISCH

  1. Das vorausgehende Diagramm zeigt eine Gegenüberstellung von biologischen Systemen, wie z.B. dem homo sapiens, und von technischen Systemen wie z.B. intelligente Maschinen.
  2. Das Faszinierende bei biologischen Maschinen ist das Phänomen, dass rein materielle Bestandteile – wie man salopp im Alltag sagen würde – in der Lage sind, hochkomplexe Verhaltensweisen zu ermöglichen, die wir umschreiben mit Worten wie nett, liebenswürdig, gemein, aggressiv, dumm, intelligent, einfühlsam, vorausschauend, usw. Einem Menschen schreiben wir gewöhnlich geistige-emotionale Eigenschaften zu (ganz im Stile von Platon und Aristoteles; wobei beide nicht nur vom Geist sprechen, sondern auch von der Seele als dem eigentlichen Lebensprinzip mit dem Geist als Huckpackeigenschaft).
  3. Da wir heute die materiellen Bestandteile immer mehr auf ihre Zusammensetzung hin analysieren können (anders als Platon und Aristoteles), können wir wissen, dass der Körper ein Verband von vielen Billionen (10^12) Zellen darstellt, die wiederum aus einer unfassbar großen Zahl von Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus subatomaren Teilchen, die sich dann im Raum quantenphysikalischer Modelle von Wahrscheinlichkeitsverteilungen verlieren.
  4. Und dieses ganze Ensemble benötigt in jedem Moment Energie, die über Nahrung zugeführt wird; zusätzlich auch Flüssigkeit. Wird diese Zufuhr lang genug unterbrochen, bricht das System in sich zusammen. Wir sagen, es stirbt, und damit verschwindet auch sein Verhalten; die Aktivitäten, aufgrund deren wir einem Organismus Gefühle und Geist zugeschrieben haben, sind nicht mehr da. Ist damit der Geist (oder wie Platon und Aristoteles sagen würden: die Seele) auch vollständig weg (bei Aristoteles ja, bei Plato nein), oder existieren diese Nicht-Dinge Seele und Geist getrennt von den biologischen Körpern irgendwie weiter? Falls dem so wäre, müsste die Existenzform von Seele (Psyché) und Geist (Nous) im Sinne von Platon (und z.T. Aristoteles) anders sein als die Existenzform, die wir von biologischen Körpern kennen.
  5. Eher spontan hatte ich neben diese Struktur von biologischen Systemen jene von sogenannten intelligenten Maschinen aufgezeichnet. Strukturell kann man eine starke Analogie beobachten. Auch hier kann man materielle Bestandteile unterscheiden (Chips, Gatter, Verbände von Atomen), die ihre Zustände ändern können, und ein Verhalten, das man – je nach Ausführung und Kontext – auch als nett, intelligent, vorausschauend usw. beschreiben könnte.
  6. Solange Menschen wissen, dass es ja nur eine Maschine ist, sagen sie immer, das ist natürlich nicht wirklich wie beim Menschen. Ist es nicht so offensichtlich (z.B. bei Hausrobotern, die äußerlich wie echte Tiere aussehen), dann verschwindet dieser Vorbehalt und Menschen entwickeln zu den Maschinen eine – zumindest äußerlich ähnlich erscheinende – Beziehung wie zu biologischen Systemen.
  7. Auch Maschinen benötigen beständig Energie, um funktionieren zu können. In dem Fall elektrische Energie, die mittels Transformationsprozessen aus natürlichen Energiequellen gewonnen werden (Fossile Energien, biologische, Wasser- und Windenergie, Sonnenenergie, atomar, …).
  8. Im Wissen um die unterschiedlichen materiellen Substanzen, die den Verhaltensmanifestationen zugrunde liegen, stellt sich die Frage, wie kann es sein, dass so unterschiedliche Strukturen ein so ähnliches Verhalten hervorbringen können? Wie groß ist die Ähnlichkeit? Welche Rückschlüsse kann man auf den bei biologischen Systemen unterstellten Geist (bzw. auch auf das Lebensprinzip der Psychè von Platon und Aristoteles) ziehen nur aufgrund der unterschiedlichen materiellen Strukturen, die sie hervorbringen? Hätte ein Aristoteles seine Überlegungen geändert, wenn er von diesen neuen Details gewusst hätte? Platon möglicherweise ja, Aristoteles – nach meiner Einschätzung – eher nicht. Das Modell von Aristoteles könnte theoretisch mit diesen neuen Erkenntnissen umgehen.
  9. Die ganze Frage besitzt noch eine pikante Note, da die sogenannten intelligenten Maschinen ja nicht an Bäumen wachsen oder als Teil von Korallenriffen entstehen, sondern sie sind vollständig ein Produkt des homo sapiens, seines Denkens und seines Produzierens. Es ist der Mensch, der im Laufe der Jahrtausende gelernt hat, seine Wahrnehmung der Welt zu strukturieren, sie mittels Sprachen mit anderen zu teilen, sie in Handlungen zu überführen, und nach und nach es geschafft hat, die Funktionsprinzipien der Natur – einschließlich der biologischen Phänomene, also auch von sich selbst – soweit zu rekonstruieren, dass er Gebäude errichten konnte, ganze Städte baut, Flugkörper, Kommunikationsmittel, Computer, die ihm helfen können, sein eigenes Denken mehr und mehr zu imitieren und partiell sogar zu übertreffen. Anders gewendet, es ist der Mensch, der seine Art zu denken sowohl in ein gedachtes Modell übersetzt hat (Turing, von Neumann), als auch in eine reale Maschine (viele Personen), die man anschauen, mit der man konkret arbeiten kann.
  10. So betrachtet liegt eigentlich keine Parallelität vor, sondern eher so etwas wie eine Aufschichtung: die materiellen Strukturen des Menschen (sein Körper) sind in der Lage, intern Wolken von Ladungszuständen zu erzeugen und zu modifizieren, mittels denen sie die erfahrbare Welt wahrnehmen, vorstellen und denken können. Mittels diesen Bildern von der aktuellen Welt wie von denkbaren = möglichen Welten hat der Mensch ein mögliches Modell eines künstlichen Geistes gedacht und realisiert, der erkennbare Prinzipien der biologischen Natur sichtbar macht und dem Handlungs- und Denkraum des Menschen hinzufügt.
  11. Der Mensch selbst ist direkt und unmittelbar ein Produkt des evolutionären Naturprozesses. Die intelligenten Maschinen sind – vermittelt durch den biologischen Geist des Menschen – ebenfalls ein Produkt der Evolution. Allerdings finden wir hier eine dramatische Weiterentwicklung im Mechanismus der biologischen Evolution! Verfügte die Evolution bis zum Auftreten des homo sapiens nur über die Möglichkeit, anhand von (blinden! Rein zufälligen!) Änderungen im DNA-Molekül Veränderungen im Bereich des biologischen Lebens herbei zu führen, so stellte die Struktur des homo sapiens selbst schon eine Revolution dar: die biologische Möglichkeit innerer geistiger Zustände in einem biologischen System, die Fähigkeit von Selbstbewusstsein, das sich selbst als in der Welt seiend wahr zu nehmen, alternativ zu denken und zu kommunizieren, dies ermöglicht eine völlig neue Weise, Veränderungen im Kontext der biologischen Evolution einzuführen! Statt viele hundert oder tausend oder noch mehr Generationen abwarten zu müssen, bis irgendwelche zufälligen Änderungen eine brauchbare Veränderung entstehen ließen, kann jetzt jeder einzelne homo sapiens im Verbund mit allen anderen sehr schnell beliebige und komplexe Änderungen erfinden und umsetzen. Ergänzt und verstärkt durch intelligenten Maschinen kann dieser Prozess noch komplexer, noch schneller ablaufen. Einbettet in Netzwerke und verbunden mit Datenbanken ist prinzipiell noch mehr möglich.
  12. Nur der Mensch selbst, seine aktuelle körperliche und – wie wir noch immer salopp sagen – seine psychologische Struktur erweisen sich immer mehr als Hemmschuh: unsere Informationsverarbeitungskapazität ist sehr beschränkt und unser emotionales und triebhaftes Korsett erweist sich als sehr eng, schwerfällig und schlecht angepasst. Möglicherweise der größte Anteil aller Zukunftsmöglichkeiten des einzelnen und der ganzen Populationen wird aktuelle vergeudet, weil die Menschen nicht in der Lage sind, mit ihren Emotionen und Trieben nachhaltig umzugehen.
Die fünf Paradoxien der Menschheit heute - Version 2
DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Version 2

ENTSTEHUNG VON KOMPLEXITÄT

  1. Damit kommen wir zur zweiten Skizze. Sie ist aus der ersten hervorgegangen.
  2. Ausgangspunkt waren die biologischen Strukturen, und hier das Phänomen der Entstehung der Komplexität im Laufe der Zeit.
  3. Zwar haben wir bislang eigentlich nur winzige Fragmente der vorausgehenden Zeit, aber mit den heutigen Methoden der Genetik und Molekularbiologie (ergänzt um viele Methoden aus vielen anderen Wissenschaften) ermöglichen diese Fragmente Blicke zurück in die Zeit, die bis noch vor 10 – 20 Jahren unvorstellbar waren. Immer noch verstehen wir nicht alles; immer noch bleiben viele Fragen offen; aber das Gesamtbild gewinnt immer mehr Konturen.
  4. Es gibt viele Ansätze, wie man diese Zeit des biologischen Lebens auf der Erde (ca. 4 Mrd.Jahre von heute rückwärts) strukturieren und deuten kann. Einer von vielen ist z.B. der von Nick Lane (2009), der versucht hat, die zehn wichtigsten Ereignisse der biologischen Evolution zu identifizieren und zu beschreiben. Er bezieht zwar das Phänomen des Bewusstseins (consciousness) mit ein, nicht mehr aber das, was sich auf der Basis von Bewusstsein dann getan hat. Für ihn als biologischer Chemiker ist dies nachvollziehbar, aber dem Phänomen der Evolution wird es möglicherweise nicht gerecht, weil Evolution mehr ist als das, was die Biochemie erfassen und behandeln kann.

NATUR UND GEIST

  1. Die Aufspaltung der Wissenschaft in Natur- und Geisteswissenschaften hat zwar in Europa eine lange (unglückliche?) Tradition, aber aus historischen Zufälligkeiten und Gewohnheiten folgt nicht ohne weiteres, dass dies auch dem Phänomen des Lebens als Teil der Natur gerecht wird. Der Mensch selbst erscheint aktuell als jene Revolution der Evolution, durch die sich die sogenannte materielle Natur in eine sogenannte geistige Natur transformiert hat. Die Revolte von Aristoteles gegen Plato wurzelt genau hier: Aristoteles wollte das Geistige als Teil des Natürlichen verstehen. Mit dem heutigen Wissen sind wir soweit, dass wir von dem heute Wissbaren ausgehend eigentlich nur sagen können, dass das bekannte Geistige eine Eigenschaft der bekannten materiellen Natur ist. Wer diese Aussage vorschnell als mögliche Abwertung des Geistigen versteht, sollte einen Moment innehalten: er/ sie sollte sich fragen, was er/sie denn vom sogenannten materiell Natürlichen weiß?
  2. Wenn es so ist, dass das bekannte Geistige als Eigenschaft des Natürlichen auftritt, sich zeigt, manifestiert, dann wäre die normale logische Fragerichtung jene, eben dieses materiell Natürliche einer neuen Analyse (und Interpretation) zu unterziehen. Wenn sogar intelligente Maschinen Phänomene hervorbringen können, die wir geistig zu nennen gewohnt sind, dann muss man die Frage stellen, welche inhärenten/ impliziten Eigenschaften des Materiellen sind es, die Geistiges real werden lassen?
  3. Bislang wissen wir, dass die komplexen Zellansammlungen von biologischen Lebewesen sich nur sehr langsam entwickelt haben. Allein schon der Übergang von einzelnen Zellen zu größerem Zellverbänden, die kooperieren, hat Milliarden Jahre gedauert. Und der Übergang von Molekülen zu Strukturen wie es eine Zelle ist hat mindestens einige hundert Millionen Jahre gedauert. Vollständige Erklärungsmodelle, wie man sich diesen Bildungsprozess auf der Basis der bekannten Naturgesetze vorstellen sollte, liegen noch nicht vor.
  4. Die bisherigen Denkmodelle der Physik zur Entstehung des bekannten Universums bieten nicht all zu viel: ein singuläres Energieereignis, in dessen Gefolge sich bei Abkühlung immer mehr Strukturen zeigten (subatomar, atomar, …), die zur Entstehung von Sternen führte, deren Fusionsprozesse weitere schwere Atome hervorbrachten, die wiederum zu Bausteinen jener Moleküle wurden, die im Verlauf von ca. 9 Mrd. Jahr dann bei der Entstehung biologischer Zellen beteiligt waren. Dann noch ein Entropiegesetz, das nicht wirklich ein Gesetz ist und vielfältige Interpretationen zulässt. Schließlich ein großes Schweigen angesichts des Phänomens einer nach 9 Mrd Jahren einsetzenden (biologischen) Komplexitätsbildung, für dies es bis heute keinerlei Ansatzpunkte in den bisherigen physikalischen Modellen gibt. Diejenigen Eigenschaften von Molekülen, die sich physikalisch erklären lassen, reichen nicht aus,um das Gesamtverhalten befriedigend erklären zu können.
  5. Die berühmte Formel von Einstein e=mc2 , durch die eine Beziehung zwischen dem Term Energie e und dem Term Masse m mal Quadrat der Lichtgeschwindigkeit c2 erhält ihre Bedeutung natürlich nur innerhalb des mathematischen Modells, in dem diese Terme definiert sind. In einer saloppen Interpretation kann man aber vielleicht sagen, dass die beobachtbaren (messbaren) Massen und Geschwindigkeiten mit jener Energie korrespondieren, die notwendig ist, dass sich dies beobachten lässt. Masse kombiniert mit Raumzeit ist die Manifestation von jener Energie, die die Physik bislang in ihre Modelle abgebildet hat. Dass diese Massen innerhalb der Raumzeit zu einem Prozess fähig sind, den wir als Ansteigen von funktionaler Komplexität im Bereich biologischer Systeme identifizieren, ist in den bisherigen physikalischen Modellen schlicht nicht vorgesehen. Warum auch; ein normaler Physiker interessiert sich nicht für Phänomene des Lebens (außerdem hat er ja auch ohne die biologischen Phänomene noch genügend Baustellen (dunkle Materie, dunkle Energie, Gravitation,…). Und jene Physiker, die es dann doch manchmal versucht haben (Schroedinger, Davis, ..) sind dann in den Modus des Staunens verfallen und haben immerhin dahingehend Größe gezeigt, dass sie ihr Nocht-Nicht-Verstehen zugegeben haben.
  6. Schliesslich gibt es auch noch die offene Frage, wie man den von den Möglichkeits- und Wahrscheinlichkeitsräumen der Quantenphysik zur jeweilig konkreten Welt (Universum) kommt. Zu sagen, dass unendlich viele Welten rein theoretisch möglich sind, war eine revolutionäre Einsicht. Wie kommt man aber von der Möglichkeit zur Singularität eines konkreten Universums? Und auch hier: wie verhält sich die immer mehr erkennbare evolutionäre biologische Komplexität zum physikalischen Modell einer Energie, die mit Masse und Raumzeit korrespondiert?
Die fünf Paradoxien - Bild 4
DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Version 4
  1. Die vorausgehenden Überlegungen führten zwanglos zu einer dritten Skizze, die sich durch ein langes Telefonat mit Si.Sch. in eine Skizze mit vielen Anmerkungen verwandelte (Diagramm 4).
  2. Ich merke schon, dass eine vollständige Beschreibung dieser Version den Rahmen dieser Blogeintrags völlig sprengen würde. Daher hier nur ein paar erste Gedanken, die dann in weiteren Blogeinträgen (und Gesprächen in der Philosophiewerkstatt und im Emerging Mind Projekt) zu vertiefen sind.

SELBSTABSCHALTUNG – VERWEIGERUNG VON ZUKUNFT

  1. Der Themenkomplex 4 wird inspiriert von dem alltäglichen Phänomen der Selbstabschaltung des Menschen. Zwar ist unser kognitiver Apparat so gebaut, dass die Wahrnehmung schon vorab, ohne Zutun des Bewusstseins, den Strom der sensorischen Reize stark reduziert, abstrahiert und selektiert, aber darüber hinaus gibt es das Phänomen, dass Menschen sich in ihrem Bewusstsein, in ihrem Denken von innen heraus abschalten! Abschalten heißt hier, sich auf ein bestimmtes (meist – aber nicht notwendigerweise – vereinfachendes) Bild der Wirklichkeit festzulegen und dann alles zu tun, um es nicht mehr ändern zu müssen. Von diesem Zeitpunkt an hat in diesem Bild alles irgendwie seinen Platz. Dies ist sehr bequem. Man muss sich nicht mehr mühsam damit beschäftigen, was wirklich wahr ist, ob es wirklich so wahr, ob es wirklich nicht anders geht, ob der Andere vielleicht ganz anders ist als gedacht, usw.
  2. Im Falle von intelligenten Maschinen spricht man salopp von falsch programmiert, wenn das Programm nicht das tut, was es tun soll. Letztlich haben falsche Bilder im Kopf die gleichen Wirkungen wie falsch programmierte Maschinen: sie liefern falsche Bilder von der Welt, verstellen richtige Einsichten, begünstigen falsches Verhalten. Menschen, die nicht merken, dass sie falsche Bilder im Kopf haben (bzw. falsch programmiert sind), können Zukunft gefährden oder ganz unmöglich machen, ihre eigene wie die ganzer Gruppen oder Populationen.
  3. Da die Welt sich permanent ändert, heute womöglich schnelle denn je, ist es eine Herausforderung an das biologische Leben, dafür zu sorgen, dass die Bilder im Kopf aktuelle sind, differenziert, wahr, empathisch, also zukunftsfähig.
  4. Hier sind alle Formen des Lernens einschlägig, kulturelle Muster die vorleben, wie man mit sich selbst, den anderen, der Wirklichkeit umgeht. Die Wirklichkeit, die Wahrheit lässt sich weder verordnen noch einsperren. Wohl aber kann man Menschen einsperren, abrichten, mit Ängsten der Hass vollpumpen, um sie an eigenen, anderen Erkenntnissen zu hindern.

GESELLSCHAFTLICHE RAHMENBEDINGUNGEN FÜR EVOLUTION

  1. Dies führt zum Fragenkomplex Nr.5. Die Geschichte hat verschiedene Gesellschaftssysteme hervorgebracht, u.a. auch solche, die sich demokratisch nennen. Diese Gesellschaftssysteme haben als Grundeinsicht, dass die Chance für eine mögliche nachhaltige Zukunft durch Öffnung und Beteiligung von jedem einzelnen wächst. Analog der blinden biologischen Evolution, die nur Erfolg hatte durch umfassendes radikales Experimentieren, so können auch die Menschen mit der Masse ihres falschen Wissens nur weiter kommen, wenn sie sich allen sich bietenden Möglichkeiten gegenüber öffnen, sie ausprobieren. Freiheit, Offenheit, Kreativität, Meinungsaustausch, funktionierenden Öffentlichkeit, Menschenrechte sind kein überflüssiger Luxus, sondern die biologisch motivierten und sachlich notwendigen Voraussetzungen für eine mögliche Begegnung mit einer nachhaltigen Zukunft. Schon heute kennen wir zahllose Beispiele von umfassenden Zerstörungen, die entstehen, wenn Menschen glauben, dass dies alles nicht notwendig sei.
  2. Der Slogan vom ‚Überleben der Tüchtigsten‘ wird gerne benutzt, um allerlei Arten von Egoismen und Grausamkeiten zu rechtfertigen, gepaart mit riesengroßen Dummheiten in der Zerstörung vielfältigster Ressourcen. Der Slogan beschreibt aber nur einen Teilaspekt der Evolution! Natürlich überleben nur die, die sich für die jeweilig Weltsituation fit gemacht haben, aber dies ist keine Eigenschaft eines Individuums, sondern einer ganzen Population, die nur durch vielfältige Kooperationen mit zahllosen Faktoren Leben gelingen lässt. In der aktuellen Phase der Evolution gilt mehr denn je, dass nur das Zusammenwirken aller Beteiligen eine Chance hat, und hier spielt das gemeinsam geteilte Wissen eine zentrale Rolle, das nicht von einzelnen Playern egoistisch für partielle Zwecke missbraucht wird, sondern von allen für eine gemeinsame nachhaltige Zukunft genutzt werden kann. Ohne Vertrauen und umfassende Transparenz wir die Komplexität an sich selbst scheitern. Es reicht nicht, dass einzelne mächtig und reich sind, alle müssen optimal leben, um die Aufgabe der kommenden Zeit meistern zu können. Die aktuellen Wertesysteme sind weitgehend veraltet und tödlich. Nur gemeinsam kann Neues entstehen.

Anmerkung: Diese Perspektive, die sich jetzt im Verlaufe dieser Überlegungen herausgeschält hat, ist stark verwoben mit den Überlegungen von Manfred Fassler im Blog Emergent Life Academy. Ich verdanke den intensiven Gesprächen mit Manfred sehr viele wichtige und tiefe Einsichten. Möglicherweise hilft es uns beiden, dass wir von unterschiedlichen Blickwinkeln aus auf das Geschehen schauen: er als Soziologe und Kulturanthropologe, ich als Philosoph  und Infomatiker (mit starken Einflüssen aus den Kognitionswissenschaften).

 

QUELLEN

  • Nick Lane, Life Ascending. The Ten Great Inventions of Evolution, London: Profile Books Ltd, 2009

Eine Übersicht über alle Blogbeiräge von cagent nach Titeln findet sich HIER

EMERGING MIND PROJEKT – OFFIZIELLE VORSTELLUNG – EIN PLÄDOYER FÜR EINE GEMEINSAME ZUKUNFT

Mi 20.Januar 2016 um 19:30h

Am Mi 20.Januar 2016 um 19:30h wird das Emerging Mind Projekt als ein Projekt im Institut für Neue Medien (INM), Frankfurt, Schmickstrasse 18, vorgestellt werden. Wie man aus der Ankündigung des INM entnehmen kann, handelt es sich nicht um eine Gala- Veranstaltung, sondern um ein Werkstattgespräch mit den ‚Machern‘; also Emerging Mind Projekt unplugged.

Werkstattgespräch mit den Machern

Das ‚Emerging-Mind Projekt‚ versteht sich als ein öffentliches Wissenschaftsprojekt, das Hochschulen, Schulen, Firmen und interessierten Bürgern die Möglichkeit bieten soll, sich über einige zentrale Fragen der heutigen gesellschaftlichen Entwicklung aus eigener Anschauung eine qualifizierte Meinung zu bilden.

Datenräume und eigenständige Algorithmen

Wir leben in einer Zeit, in der die Evolution, vermittelt durch die Menschen, neuartige Technologien hervorgebracht hat, die sich wie ein zweiter Körper um den ersten Körper schmiegen, versehen mit einer Aura von Datenräumen und eigenständigen Algorithmen, die ein globales Eigenleben führen, die sich unserer direkten Wahrnehmung und Kontrolle entziehen. Wir sind einzelne, erleben uns als einzelne, aber als Teil der globalen algorithmisierten Datenräume sind wir nur noch Aktivitätspunkte in einem großen Netzwerk, einem neuen Datensuperorganismus, der den individuellen Willen nur noch als statistisches Momentum betrachtet. Tatsächlich herrschen die Algorithmen nach eigenen Regeln.

 

Manager als neue Sklaven iher Algorithmen?

Offiziell gibt es Firmen und Manager dieser Firmen, die diese globalen algorithmisierten Datenräume eingerichtet haben, betreiben und kontrollieren. Offiziell, aber inoffiziell entziehen sich diese global arbeitenden Algorithmen schon heute jeder ernsthaften Kontrolle. Kein einzelner Mensch kann mehr verstehen, was die Algorithmen wirklich tun, warum sie etwas tun, ob das gut oder schlecht ist, was sie tun. Die Manager als Herrscher über die Datenräume sind schon jetzt immer mehr die Getriebenen: ihre Firmen hängen von den globalen algorithmisierten Datenräumen ab. Sie können sie nicht mehr abschalten; dann bricht ihre Firma zusammen. Wenn sie sie nicht abschalten, verselbständigt sich das systembedingte Chaos. Da diese Algorithmen als solche nichts über die Welt oder über wahre Sachverhalte wissen, verrechnen sie Daten gegen Daten. Wenn aber die Referenzdaten falsch sind, werden diese Berechnungen falsch. Nahezu jeder hat schon mehrfach erlebt, wie er aus Versehen falsche Eingaben produziert hat, diese aber nicht korrigieren kann; das System lässt Korrekturen nicht zu. Schon jetzt existieren im System viele falsche Daten. Es ist nur eine Frage der Zeit, bis die falschen Daten die richtigen überwiegen. Schöne neue Welt der Superalgorithmen.

Einen wirklichen Wahrheitsfindungsalgorithmus gibt es noch nicht.

Einen wirklichen Wahrheitsfindungsalgorithmus gibt es noch nicht. Woher auch? Die Entwickler dieser Algorithmen, die Menschen, haben diese Hausaufgabe bislang nicht gelöst. Die bisherige Philosophie, die aktuell Wissenschaften, sie alle bilden aktuell das Bild eines riesigen Daten- und Meinungschaos ohne erkennbares Prinzip der Konsolidierung.

Eine neue Weltreligion?

Der Glaube an die Maschine, die alles irgendwie richten wird, obwohl die Erzeuger selbst es bislang nicht schaffen, ist offensichtlich sehr groß, geradezu mystisch. Ist das die neue Weltreligion, die alle besoffen macht und das Denken verabschiedet? Der nächste Super-Börsencrash scheint damit vorprogrammiert.

Keine billige Polemik

Im Emerging Mind Projekt geht es aber nicht um billige Polemik. Diese nützt niemandem. Das Emerging Mind Projekt lebt sogar von der Vision, dass neue, algorithmisierte, intelligente und lernfähige Netzstrukturen als Moment an der evolutionären Entwicklung tatsächlich zur Logik der Evolution gehören. Diese nächste Stufe der Evolution – wir sind mitten drin – muss sich möglicherweise vollziehen. Die Frage ist nur: wie?

Notwendigkeit einer neuen umfassenden Entwicklungswissenschaft

Historisch ist dieser Zustand radikal neu. Er bildet als solcher eine gewisse Singularität (neben den vielen anderen Singularitäten, die wir schon kennen und von denen wir beeinflusst sind). Was wir hier brauchen, wäre ein neues, vertieftes philosophisch-wissenschaftliches Verständnis. Alle bekannten Disziplinen greifen hier aber zu kurz; sie betrachten immer nur Ausschnitte des Problems. An dieser Stelle hat sich das Emerging Mind Projekt verstärkt, erweitert durch ein kooperierendes Parallelprojekt genannt Emergent Life Academy (ELA), in der die Vision einer neuen, umfassenden Entwicklungswisseschaft soweit konkretisiert werden soll, dass sie arbeitsfähig wird und uns allen helfen kann, das umfassende globale Phänomen einer Entwicklung auf allen Ebenen denken zu können.

Entstehung einer Anti-Wissenschaft?

Neben den umfassenden Aspekten des Phänomens einer globalen Entwicklung, die wie ein Sturm über die menschlichen Gesellschaftssysteme hereinbricht (letztlich ein Merkmal von Evolution seit Anbeginn), gibt es aber auch schon Einsichten in die innere Logik, in die innere Maschinerie von Entwicklung, von Intelligenz, Lernen, Bewusstsein, Psyche und Geist. Die Algorithmen in den Computern und Netzwerken sind erfahrbare konkrete Beispiele. Für die Mehrheit der Menschen sind diese Algorithmen aber fremd, unverständlich; ihre Macher lieben das Kryptische, Verborgene. Und da Algorithmen mittlerweile ein Rohstoff für industrielle Produktion und militärische Macht darstellen, werden sie zusätzlich geschützt, abgeschottet, unter ‚Top Secret‘ gestellt, so dass man noch weniger versteht, was unsere Welt im innersten zusammenhält. Galt es lange Zeit als Credo moderner Wissenschaft, die Welt zu erklären, sie transparent zu machen, sie einer verantwortungsvollen Gestaltung zuzuführen, hat die Erfindung der Berechenbarkeit, der Computer und der Netzwerke dazu geführt, dass es eine neue Anti-Wissenschaft gibt: Wissen dient nicht mehr zum Verstehen und nicht mehr für ein besseres Leben für alle, sondern wird abgeschottet, um die Herrschaft weniger über den Rest der Menschheit zu begründen. Das ist eine Umkehrung bisheriger Werte. Die Moderne, das Demokratische, die Menschenrecht zerbröseln im algorithmischen Alltag zu Lapalien, die immer weniger Wertschätzung besitzen.

Algorithmen auf dem Prüfstand

Damit erklärt sich die zweite Dimension des Emerging Mind Projektes; neben Emergent Life Academy für die globalen Entwicklungszusammenhänge sollen die konkreten Algorithmen vorgestellt, untersucht, reflektiert und bewertet werden; nicht isoliert, sondern im Kontext möglicher Wirkzusammenhänge, speziell im Kontext des menschlichen Lebens, der menschlichen Gesellschaft: Was ist künstliche Intelligenz? Was kann sie wirklich? Ist eine Symbiose zwischen Menschen und künstlicher Intelligenz möglich? Könnten die intelligenten Maschinen sich verselbständigen? Dies sind einige der Leitfragen.

Öffentliche Lernräume für das eigene Lernen

Um diese Fragen zu beantworten werden in einem öffentlichen kollaborativen virtuellem Raum virtuelle Bereiche eingerichtet, in denen man solche Algorithmen und ihre Wirkungsweise studieren kann, mitdiskutieren, mit entwickeln, mit experimentieren. Dies geschieht schrittweise eingebunden in echte Lernprozesse von Schulen, Hochschulen und Betrieben. Wir wollen selber lernen, unser Lernen reflektieren und dabei weiter entwickeln. Zukunft als Alltag.

Auch ein eigenes Kunstprojekt: PHILOSOPHY-IN-CONCERT

Und wer denkt, das war es jetzt, dem sei gesagt, dass wir nicht nur Philosophie und Wissenschaft zusammenbringen wollen, nicht nur Theorie und Lernpraxis, sondern auch all das zusätzlich verbunden mit einem Kunstprojekt genannt PHILOSOPHY-IN-CONCERT. Aktuell weiß vielleicht noch niemand, wie das genau funktionieren soll; klar ist nur, dass wir uns die Freiheit nehmen, philosophisch-wissenschaftliche Gedanken und Algorithmen als Material zu benutzen, um eine neue Art von Kunst-Performance zu leben: Menschen und intelligente Maschinen zusammen in einem hybriden Team, im Spiel mit sich selbst, der Welt, der Geschichte, um mögliche Zipfel der Zukunft zu erhaschen. Schon immer war der schwierigste Part im Leben das Kreative, die Innovation, der Beginn des Neuen. Für wirklich Neues nützen die alten Rezepte nur bedingt. Die DNA einer Zelle kann Anhaltspunkt für eine neue Zelle sein, ihre unveränderte konservative Übernahme für eine Zukunft wäre aber ein sicheres Todesrezept. Machthaber lieben solche kritiklosen konservativen Reproduktionen; das ist auch das sicherste Mittel der Selbstzerstörung.

Spuren der Vergangenheit, Medienreflexe

In diesem Blog gab es viele Beiträge, die mehr oder weniger in die Richtung des aktuellen Emerging Mind Projektes deuten. Ein Beitrag vom 10.Oktober 2012 lautete

NACHTGESPRÄCH im INM (Frankfurt) oder REENGINEERING VON GOETHES FAUST

und deutet an, dass die Gedanken dazu herumspukten. In einem Beitrag vom 18.November 2012, der auf einen Vortrag zurückging, wurde die Frage nach der Möglichkeit eines künstlichen geistes explizit gestellt:

KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?

Am 31.Dez.2012 gab es einen Textversuch mit vielen technischen Begriffen mit dem Titel:

GEIST-SICHTBARMACHUNGS-EXPERIMENT, Teil 1, Begriffe und theoretischer Rahmen

Am 28.April 2013 folgten dann Reflexionen im Kontext des Phänomens Komplexität in der Evolution mit dem Ttel:

Randbemerkung: Komplexitätsentwicklung (Singularität(en))

Wegen der zahlreichen kontroversen Diskussionen zur Idee der Komplexitätssteigerung im Kontext von Evolution gab es am 23.Mai 2013 dazu einen weiteren Beitrag mit dem Titel

Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2

Es folgten dann weitere Stellungnahmen wie die am 14.Juni 2014:

EMERGING MIND PROJECT – SICHTBARMACHUNG DES GEISTES PROJEKT – Erste Lebenszeichen

Dicht gefolgt vom nächsten Beitrag am 15.Juni 2014 mit dem Titel:

EMERGING MIND – Mögliche Konsequenzen

Mittlerweile war das Thema auch außerhalb des INM angekommen. Am 25.April 2015 erschien ein Beitrag in telepolis:

Der Traum vom künstlichen Geist

Es folgte am 20.Mai 2015 ein Vortrag im Rahmen einer dpa-Veranstaltung mit dem Titel:

Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?

in dem Phänomene des Alltags reflektiert wurden mit Blick auf die treibenden Strukturen. Es folgten dann immer wieder Presseartikel im Umfeld des Themas.

 

Einen Überblick über alle Beiträge des Autors cagent in diesem Blog nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

AVICENNAS LOGIK – UND DAS LEIDEN DER AKTUELLEN WELT … MACHT DAS SINN?

1. Kein Mensch auf dieser Welt lebt isoliert, losgelöst von dem täglichen Geschehen.

2. Und schaut man sich um, dann gibt es im September 2014 überall, wo man hinschaut Baustellen, Notlagen, Herausforderungen, Elend, Unglücke, Leid in einem Ausmaß, das jedes normale Begreifen und Helfen können übersteigen kann und übersteigt.

3. Angefangen bei persönlichen Befindlichkeiten der einzelnen Menschen (Gesundheit, Beziehung, Arbeitsplatz oder nicht, tägliche Fahrwege, Ernährung, Kommune, Politik, Flüchtlinge, Alte, Kinder, Demente, ….) über kommunale und regionale Besonderheiten, Absurditäten der Bundespolitik, Fragmentarische Berichterstattungen, Abbau von Qualitätsjournalismus, Großlobbyismus der EU, Krieg in Ukraine, Syrien, Israel-Palästina, Raubzüge islamistischer Gruppen in Afrika, Militarisierung der US-Polizei und Kommunen, Zerstörung von demokratischen Strukturen in westlichen Ländern durch Politik, Sicherheitssysteme, global operierende Firmen, Korruption auf allen Ebenen, organisierte Kriminalität länderübergreifend, Menschenhandel, … kann man eine Liste von Problemen aufstellen, benennen, die so umfassend, groß, schrecklich, erschreckend ist, dass der ‚Keim zu Hoffnung, Leben, Glauben, Lieben‘ auf der Stelle zu ersticken droht.

4. Für die Menschen, die direkt betroffen sind durch Mord, Tod, Krankheit, Naturkatastrophen zählt sowieso nur noch der Augenblick, der Moment, das irgendwie den Schrecken überleben. Und dann braucht es Hilfe.

5. Hilfe benötigt Menschen, die Kraft haben, Zeit, nötige Mittel, das Wissen, Ressourcen, die richtige Einstellungen, die notwendige Sprache, die Kultur zum Verstehen ….

6. Vor allem, wenn man sich fragt, warum gibt es all dieses Leid? Warum bringen Menschen einander um? Warum werden andere Menschen zu Feinden? Warum können wirtschaftliche Prozesse aus Menschen gesichtslose ‚Figuren‘ machen, die man beliebig hin- und herschieben kann? Die man anstellt und feuert nach Belieben? Warum können die Reichen immer schneller immer reicher werdne und alle anderen immer schneller immer ärmer? Warum können kleine Gruppen von Menschen das Leben anderer in einer Region, in einem Land, gewaltsam, diktatorisch regieren? Warum können Russen sich das recht nehmen, andere Nationen zu beherrschen? Warum kann eine kommunistische Partei in China alle anderen beherrschen und umliegende Nationen und Völkern bedrohen? Warum kann ein amerikanisches Sicherheits-Militär-Wirtschaftssystem den Rest des Landes beherrschen? Warum Sind so viele Regierungen korrupt, verraten ihre eigene Bevölkerung? Warum gibt es so wenig Arbeit? Warum verteufeln Menschen andere nur wegen ihres Glaubens, ihrer Herkunft, ihres Aussehens?

6b. Wie ich schon in vorausgehenden Beiträgen (zuletzt im Beitrag Wie überwinden wir Menschen das Böse geschrieben habe, kommt das Böse über uns nicht als ein Unglück von außen, sondern das Böse wohnt in uns Menschen als ein Potential vergangener Zeiten. Die erste und größte Ursache des Bösen sind wir selbst als Menschen: unsere Ängste, unser mangelndes Wissen, unsere Triebe, Bedürfnisse, Leidenschaften, unsere Gier treibt uns an, Dinge zu tun, die andere schwächen, die anderen schaden, verletzen, quälen und töten.

7. Wenn wir die Umwelt zerstören, pflanzen und Tierarten ausrotten, Menschen daran hindern, zu wissen, zu verstehen, wir andere aufstacheln zu hassen, zu töten …. dann halten wir uns selbst davon ab, anderes zu sehen, anders zu verstehen, anders zu handeln. Das Böse kann man nicht dadurch heilen, dass man auch das Böse tut, dass man es kopiert, es wiederholt, wie ein Kaninchen auf die Schlange starrt, nein, das Böse kann man nur heilen, indem irgendwo auf dieser Welt einzelne Menschen anders fühlen, anders handeln, anders glauben, anders wissen und mit dieser ihrer Andersartigkeit die Dunkelheiten dieser Welt mit dem Licht des Lebens infizieren.

8. Die Revolution findet nicht ‚oben‘ statt, nicht ‚irgendwo‘, nicht an dem ‚anderen heilen‘ Ort, nein, die Revolution findet dort statt, wo jeder einzelne gerade ist, oder sie findet nirgends statt.

9. Entweder kann jeder mehr Wahrheit erkennen, kann jeder mehr lieben, mehr hoffen, kann jeder ehrlich sein, macht jeder seinen ‚Job‘ richtig, oder es findet nicht statt.

10. Deswegen ist der ‚Alltag‘, das Medium unseres täglichen Aufstehens, Fühlens, Redens, Arbeitens, Ausruhens usw., ist dieser Alltag, der unscheinbare, der erste und wichtigste Ort, wo Leben beginnt, entsteht, sichtbar wird. Das Unrecht, das Böse, der Krieg beginnt genau dort, wo wir an unserem Alltag scheitern, oder, anders, er findet nicht statt.

11. Wenn unsere Kinder nicht das lernen können, was sie für das Leben brauchen, wenn wir nicht die Informationen und Kommunikationen haben, die uns befähigen, die Welt zu sehen, wie sie tatsächlich ist oder werden sollte; wenn die Rechtssysteme uns keinen persönlichen Raum garantieren können, in dem wir verlässlich Leben gestalten können; wenn die ‚Dinge des Lebens‘ uns fehlen oder abhanden kommen….hier fängt das Leben an.

12. Und wenn es passiert, dass Menschen z.B. mit Berufung auf die Thora oder die Bibel oder den Koran anderen Menschen das Leben als Menschen absprechen, dann hat das Leben im Ansatz verloren, da die Quelle von Wissen, Wahrheit, Liebe in den Menschen selbst zerstört ist. Wenn Im Namen der Sicherheit alle Freiheiten aufgehoben werden, dann gibt es keinen Alltag mehr, der wahres Leben zulässt; wenn im Namen von reinem Gewinn und Profit der Wert von Menschen grundsätzlich aufgehoben wird, dann ist das Leben im Ansatz ausgelöscht.

13. Aber, wo soll es herkommen das Wissen um das ‚richtige‘, um das ‚bessere‘ Leben?

14. Wenn wir in die Geschichte schauen, dann kamen all die Dinge, die unser Leben ’schön‘ und ‚besser‘ gemacht haben, von Menschen, die ihre Leben, ihre Kraft, ihre Fantasie, ihr Wissen dem Verstehen und dem Verändern von Welt gewidmet hatten. Die untersucht, geforscht, probiert, erfunden, gestaltet usw. haben, meist unter schwierigsten Bedingungen.

15. Ein Avicenna war – soweit wir heute wissen – aufgrund der Stellung seines Vaters sicher für seine Zeit sehr ‚privilegiert‘, aber er hat seine Privilegien dazu benutzt, zu lesen, zu lernen, nachzudenken, zu forschen und wurde zu einem der größten Ärzte vieler Jahrhunderte; er konnte mit dazu beitragen, dass unzählig viele Menschen aufgrund dieses erarbeiteten Wissens weniger leiden mussten, nicht zu früh sterben mussten. Und, obwohl er mit seinem medizinischen ‚Job‘ mehr als ausgefüllt war (und sich im Alltag beständig neu nach entsprechenden Förderern und Gönnern umsehen musste, um überhaupt forschen zu können), studierte er in höchster Intensität viele hundert philosophisch-theologische Texte, redete mit vielen anderen Forschern, um zu verstehen (!), was denn unser Wissen, unser Denken überhaupt ist. Woher kommt unser Wissen, wie entsteht es, wie funktioniert es, dass wir die Welt interpretieren, dass wir sie so interpretieren, dass wir Recht erlassen, andere Völker bekriegen usw.? Was ist dieses Wissen, das uns zum Bösen wie zum Guten leiten kann?

16. Er war einer der klügsten Menschen seiner Zeit, und doch wusste er nicht alles, verstand manches nicht richtig (so sieht es für uns aus auf der Basis dessen, was wir unser Wissen nennen).

17. Dennoch, zum Ringen um das richtige Wissen, zum Ringen um das richtige Fühlen, zum Ringen um den ‚richtigen Lebenswandel‘ gibt es keine Alternative. Wenn wir nicht dort, wo wir gerade sind, das Leben ‚besser‘ leben, indem wir dort, wo wir sind, das Richtige erkennen, glauben, fühlen, wollen, entscheiden, dann wird das ‚richtige‘, das ‚bessere‘ Leben einfach nicht stattfinden. Wir selbst, jeder, wir alle, wir sind das Leben, das stattfinden kann (und vermutlich auch stattfinden soll), und die Grenzen unseres Körpers, unseres Alltags sind die Grenzen des Lebens. Es kann keine Ausreden geben.

18. Natürlich sind die Rahmenbedingungen bei den Menschen verschieden, das war schon immer so; aber diese Verschiedenheit kann keine Ausrede sein, das Leben dort und so nicht zu beginnen, wie wir es können. Wir können uns austauschen, können uns helfen, aber wir leben unter Rahmenbedingungen, die z.T.real objektiv sind. Darüber zu lamentieren bringt nichts, ändert nichts. Stattdessen müssen wir das Leben, wie es ist und sein kann, befördern. Jeder hat etwas eigenes einzubringen. In der Gemeinsamkeit heben sich Unterschiede auf, werden Unterschiede zu Vielfalt, zum Reichtum, entstehen neue großartige Dinge, die vorher niemand gesehen hat.

19. Deswegen lese ich Avicennas Text, denke darüber nach, versuche ich das Bild des Wissens, das er hatte, mit den Fragmenten, die wir heute haben, zusammen zu bringen; versuche zu verstehen, was unser Wissen ist, was es zusammen hält, prägt, steuert, so dass wir damit die Welt sehen, wie wir – im Lichte unseres aktuellen Wissens – glauben, dass sie ist. Für jeden von uns – Deutsche, Europäer, Chinesen, Russen, US-Amerikaner, Brasilianer, Afrikaner … — gelten hier die gleichen Bedingungen und Gesetze. Wir alle sind zum Leben berufen. Wir alle müssen uns jeden Tag neu entscheiden, wo wir stehen, was wir wollen. Das Leben ist keinesfalls beliebig, Wahrheit gibt es wirklich. Freude ist natürlich.

20. Wenn ich keinen Krieg will, dann muss ich lernen, richtig zu leben und dies allen zu zeigen, alle teilnehmen lassen. Lesen, Nachdenken, Schreiben, Reden, Miteinander, Malen, Musik machen, …. dies alles macht Sinn, sind die Grundbausteine. Die Liebe zu leben wird nicht schlecht, weil andere diese Liebe verlernt haben oder – schlimmer – niemals Gelegenheit hatten, sie zu erleben.

21. Wenn der ‚weiße Ritter‘ USA vor lauter Angst um sich selbst alle seine demokratischen Wert ausverkauft, im Alltag zu Billigstpreisen verschleudert, dann ist dies kein Grund, dies nachzuahmen. Das Leben muss man lieben, nicht verachten. Es fängt bei jedem einzelnen an, bei Dir und bei mir. Willst du leben, dann schaffe Licht.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DAS NEUE MENSCHENBILD – ERSTE SKIZZE

MUSIK ZUR EINSTIMMUNG

Das Stück „Wenn die Worte aus der Dunkelheit aufsteigen wie Sterne“ entstand zunächst als ein reines Instrumentalstück (die erste Hälfte des aktuellen Stücks; diesen Teil hatte ich auch schon mal am 4.April im Blog benutzt). Doch inspirierte die Musik zum ‚Weitermachen‘, zunächst entstand eine Fortsetzung rein instrumental; dann habe ich ab der Mitte spontan einen Text dazu gesprochen. Im Nachhinein betrachtet passt dieser Text sehr gut zum heutigen Blogeintrag (ist kein Dogma … :-))

UNSCHULDIGER ANFANG

1. Als ich am 20.Januar 2007 – also vor 7 Jahren und 3 Monaten – meinen ersten Blogeintrag geschrieben habe, da wusste ich weder genau, was ich mit dem Blog wollte noch konnte ich ahnen, was durch das Niederschreiben von Gedanken alles an ‚kognitiven Bildern‘ von der Welt und dem Menschen entstehen konnte. Langsam schälte sich als Thema – wenngleich nicht messerscharf – ‚Neues Weltbild‘ heraus. Das konnte alles und nichts sein. Aber im gedanklichen Scheinwerferkegel von Theologie, Philosophie, Wissenschaftstheorie, Psychologie, Biologie, Linguistik, Informatik, Neurowissenschaften, Physik gab es Anhaltspunkte, Eckwerte, die den aktuellen Gedanken wie eine Billardkugel von einer Bande zur anderen schickten. Dazu die heutige, aktuelle Lebenserfahrung und die vielen Begegnungen und Gespräche mit anderen Menschen.

2. Die letzten beiden Blogeinträge zum Thema Bewusstsein – Nichtbewusstsein markieren einen Punkt in dieser Entwicklung, ab dem ‚wie von Zauberhand‘ viele einzelnen Gedanken von vorher sich zu einem Gesamtbild ‚zusammen schieben‘, ergänzen.

AUSGANGSPUNKT INDIVIDUELLES BEWUSSTSEIN

3. Akzeptieren wir den Ausgangspunkt des individuellen Bewusstseins B_i als primären Erkenntnisstandpunkt für jeden Menschen, dann besteht die Welt für jeden einzelnen zunächst mal aus dem, was er/ sie im Raume seines eigenen individuellen Bewusstseins erleben/ wahrnehmen kann.

4. Da es aber zur Natur des individuellen Bewusstseins gehört, dass es als solches für ‚andere‘ ‚unsichtbar‘ ist, kann man auch nicht so ohne weiteres über die Inhalte des eigenen Bewusstseins mit anderen reden. Was immer man mit Hilfe eines Ausdrucks A einer Sprache L einem anderen mitteilen möchte, wenn der Ausdruck A als Schallwelle den anderen erreicht, hat er zwar einen Schalleindruck (falls erhören kann), aber er/ sie weiß in dem Moment normalerweise nicht, welcher Inhalt des Bewusstseins des Sprechers damit ‚gemeint‘ sein könnte.

5. Dass wir uns trotzdem ‚unterhalten‘ können liegt daran, dass es offensichtlich einen ‚Trick‘ geben muss, mit dem wir diese unüberwindliche Kluft zwischen unseren verschiedenen Bewusstseinsräumen überwinden können.

KLUFT ZWISCHEN INDIVIDUELLEN BEWUSSTSEINSRÄUMEN ÜBERWINDEN

6. Der ‚Trick‘ beruht darauf, dass der individuelle Bewusstseinsraum einem ‚individuellen Körper‘ zugeordnet ist, dass es in diesen Körper Gehirne gibt, und dass das individuelle Bewusstsein eines Körpers k_i als Ereignis im Gehirn g_i des Körpers k_i zu verorten ist. Das Bewusstsein B_i partizipiert an den Gehirnzuständen des Gehirns, und dieses partizipiert an den Körperzuständen. Wie die Wissenschaft mühsam erarbeitet hat, können bestimmte Außenweltereignisse w über ‚Sinnesorgane‘ in ‚Körperereignisse‘ ‚übersetzt‘ werden‘, die über das Gehirn partiell auch das Bewusstsein erreichen können. Sofern es jetzt Außenweltereignisse w‘ gibt, die verschiedene Körper in ähnlicher Weise ‚erreichen‘ und in diesen Körpern via Gehirn bis zu dem jeweiligen individuellen Bewusstsein gelangen, haben diese verschiedenen individuellen Bewusstseinsräume zwar ‚rein private‘ Bewusstseinszustände, aber ‚gekoppelt‘ über Außenweltzustände w‘ haben die verschiedenen Bewusstseinszustände B_1, …, B_n alle Bewusstseinsereignisse b_i, die als solche ‚privat‘ sind, aber ‚zeitlich gekoppelt‘ sind und sich mit Änderung der Außenweltzustände w‘ auch ’synchron‘ ändern. Die gemeinsam geteilte Außenwelt wird damit zur ‚Brücke‘ zwischen den körperlich getrennten individuellen Bewusstseinsräumen. Diese ‚ gemeinsam geteilte Außenwelt‘ nennt man oft den ‚intersubjektiven‘ Bereich der Welt bzw. dies stellt den Raum der ‚empirischen Welt‘ [Wemp] dar. Aus Sicht des individuellen Bewusstseins ist die empirische Welt eine Arbeitshypothese, die dem individuellen Bewusstsein zugänglich ist über eine spezifische Teilmenge [PHemp] der Bewusstseinszustände [PH].

EMPIRISCHE WELT ALS SONDE INS NICHTBEWUSSTSEIN

7. In der Geschichte des menschlichen Wissens spielt die Entdeckung der empirischen Welt und ihre systematische Untersuchung im Rahmen der modernen empirischen Wissenschaften bislang – nach meiner Meinung – die größte geistige Entdeckung und Revolution dar, die der menschliche Geist vollbracht hat. Auf den ersten Blick wirkt die Beschränkung der empirischen Wissenschaften auf die empirischen Phänomene PHemp wie eine unnötige ‚Einschränkung‘ und ‚Verarmung‘ des Denkens, da ja die Menge der bewussten Ereignisse PH erheblich größer ist als die Menge der empirischen Ereignisse PHemp. Wie der Gang der Geschichte aber gezeigt hat, war es gerade diese bewusste methodische Beschränkung, die uns den Bereich ‚außerhalb des Bewusstseins‘, den Bereich des ‚Nichtbewusstseins‘, Schritt für Schritt ‚erforscht‘ und ‚erklärt‘ hat. Trotz individuell stark eingeschränktem Bewusstsein konnte wir auf diese Weise so viel über die ‚Rahmenbedingungen‘ unseres individuellen Bewusstseins lernen, dass wir nicht mehr wie die früheren Philosophen ‚wie die Fliegen am Licht‘ an den Phänomenen des Bewusstseins kleben müssen, sondern wir können zunehmend Hypothesen darüber entwickeln, wie die verschiedenen Bewusstseinsphänomene (inklusive ihrer Dynamik) durch die Strukturen des Gehirns und des Körpers bestimmt sind. M.a.W. wir stehen vor dem Paradox, dass das individuelle Bewusstsein den Bereich des Nichtbewusstseins dadurch ‚verkleinern‘ kann, dass es durch Ausnutzung der empirischen Phänomene mittels gezielter Experimente und Modellbildung immer mehr Eigenschaften des Nichtbewusstseins innerhalb des individuellen Bewusstseins ’nachkonstruiert‘ und damit ‚bewusst‘ macht. Bedenkt man wie eng und schwierig die Rahmenbedingungen des menschlichen Bewusstseins bis heute sind, gleicht es einem kleinen Wunder, was dieses primitive menschliche Bewusstsein bislang nachkonstruierend erkennen konnte.

8. Von diesem Punkt aus ergeben sich viele Perspektiven.

BIOLOGISCHE EVOLUTION

9. Eine Perspektive ist jene der ‚evolutionären Entwicklungsgeschichte‘: seit gut hundert Jahren sind wir mehr und mehr in der Lage, unsere aktuellen Körper und Gehirne – zusammen mit allen anderen Lebensformen – als einen Gesamtprozess zu begreifen, der mit den ersten Zellen vor ca. 3.8 Milliarden Jahren als biologische Evolution begonnen hat, ein Prozess, der bis heute noch viele Fragen bereit hält, die noch nicht befriedigend beantwortet sind. Und der vor allem auch klar macht, dass wir heute keinen ‚Endpunkt‘ darstellen, sondern ein ‚Durchgangsstadium‘, dessen potentieller Endzustand ebenfalls nicht ganz klar ist.

10. Ein wichtiger Teilaspekt der biologischen Evolution ist, dass der Vererbungsmechanismus im Wechselspiel von Genotyp (ein Molekül als ‚Informationsträger‘ (Chromosom mit Genen)) und Phänotyp (Körper) im Rahmen einer Population eine ‚Strukturentwicklung‘ beinhaltet: die Informationen eines Informationsmoleküls (Chromosom) werden innerhalb des Wachstumsprozesses (Ontogenese) als ‚Bauplan‘ interpretiert, wie man welche Körper konstruiert. Sowohl bei der Erstellung des Informationsmoleküls wie auch bei seiner Übersetzung in einen Wachstumsprozess und dem Wachstumsprozess selbst kann und kommt es zu partiellen ‚Änderungen‘, die dazu führen, dass die resultierenden Phänotypen Änderungen aufweisen können (verschiedene Arten von Sehsystemen, Verdauungssystemen, Knochengerüsten, usw.).

11. Im Gesamtkontext der biologischen Evolution sind diese kontinuierlich stattfindenden partiellen Änderungen lebensentscheidend! Da sich die Erde seit ihrer Entstehung permanent geologisch, klimatisch und im Verbund mit dem Sonnensystem verändert, würden Lebensformen, die sich von sich aus nicht auch ändern würden, schon nach kürzester Zeit aussterben. Dies bedeutet, dass diese Fähigkeit zur permanenten strukturellen Änderung ein wesentliches Merkmal des Lebens auf dieser Erde darstellt. In einer groben Einteilung könnte man sagen, von den jeweils ’neuen‘ Phänotypen einer ‚Generation‘ wird die ‚große Masse‘ mehr oder weniger ‚unverändert‘ erscheinen; ein kleiner Teil wir Veränderungen aufweisen, die es diesen individuellen Systemen ’schwerer‘ macht als anderen, ihre Lebensprozesse zu unterstützen; ein anderer kleiner Teil wird Veränderungen aufweisen, die es ‚leichter‘ machen, die Lebensprozesse zu unterstützen. Letztere werden sich vermutlich proportional ‚mehr vermehren‘ als die beiden anderen Gruppen.

12. Wichtig an dieser Stelle ist, dass zum Zeitpunkt der Änderungen ’niemand‘ weiß bzw. wissen kann, wie sich die ‚Änderung‘ – bzw. auch die Nicht-Änderung! – im weiteren Verlauf auswirken wird. Erst der weitergehende Gesamtprozess wird enthüllen, wie sich die verschiedenen Strukturen von Leben bewähren werden.

LEBENSNOTWENDIGE KREATIVITÄT: WOLLEN WIR SIE EINSPERREN?

13. Übertragen auf unsere heutige Zeit und unser Weltbild bedeutet dies, dass wir dieser Veränderlichkeit der Lebensformen immer Rechnung tragen sollten, um unsere Überlebensfähigkeit zu sichern. Zum Zeitpunkt einer Änderung – also jetzt und hier und heute – weiß niemand, welche dieser Änderungen morgen vielleicht wichtig sein werden, zumal Änderungen sich erst nach vielen Generationen auszuwirken beginnen.

14. Es wäre eine eigene große Untersuchung wert, zu schauen, wie wir heute in der Breite des Lebens mit den stattfindenden Änderungen umgehen. In der Agrarindustrie gibt es starke Tendenzen, die Vielzahl einzugrenzen und wenige Arten so zu monopolisieren, dass einzelne (ein einziger!) Konzern die Kontrolle weltweit über die genetischen Informationen bekommt (was in den USA z.T. schon zur Verödung ganzer Landstriche geführt hat, da das Unkraut sich schneller und effektiver geändert hat als die Laborprodukte dieser Firma).

STRUKTURELLES UND FUNKTIONALES LERNEN

15. Die ‚Struktur‘ des Phänotyps ist aber nur die eine Seite; genauso wenig wie die Hardware alleine einen funktionierenden Computer definiert, so reicht die Anordnung der Zellen als solche nicht aus, um eine funktionierende biologische Lebensform zu definieren. Im Computer ist es die Fähigkeit, die elektrischen Zustände der Hardware kontinuierlich zu verändern, dazu verknüpft mit einer impliziten ‚Schaltlogik‘. Die Menge dieser Veränderungen zeigt sich als ‚funktionaler Zusammenhang‘ phi_c:I —> O, der ‚Inputereignisse‘ [I] mit Outputereignissen [O] verknüpft. Ganz analog verhält es sich mit den Zellen in einem biologischen System. Auch hier gibt es eine implizite ‚Logik‘ nach der sich die Zellen verändern und Zustände ‚kommunizieren‘ können, so dass Zellgruppen, Zellverbände eine Vielzahl von funktionellen Zusammenhängen realisieren. Einige dieser funktionellen Zusammenhänge bezeichnen wir als ‚Lernen‘. Dies bedeutet, es gibt nicht nur die über Generationen laufenden Strukturveränderung, die eine Form von ’strukturellem Lernen‘ im Bereich der ganzen Population darstellen, sondern es gibt dann dieses ‚funktionelle Lernen‘, das sich im Bereich des individuellen Verhaltens innerhalb einer individuellen Lebenszeit ereignet.

WISSEN GARANTIERT KEINE WAHRHEIT

16. Dieses individuelle Lernen führt zum Aufbau ‚individueller Wissensstrukturen‘ mit unterschiedlichen Ausprägungsformen: Erlernen von motorischen Abläufen, von Objektkonzepten, Beziehungen, Sprachen, Verhaltensregeln usw. Wichtig ist dabei, dass diese individuellen Wissensstrukturen im individuellen Bewusstsein und individuellem Unterbewusstsein (ein Teil des Nichtbewusstseins, der im individuellen Körper verortet ist) verankert sind. Hier wirken sie als kontinuierliche ‚Kommentare‘ aus dem Unterbewusstsein in das Bewusstsein bei der ‚Interpretation der Bewusstseinsinhalte‘. Solange diese Kommentare ‚richtig‘ / ‚passend‘ / ‚wahr‘ … sind, solange helfen sie, sich in der unterstellten Außenwelt zurecht zu finden. Sind diese Wissensstrukturen ‚falsch‘ / ‚verzerrt‘ / ‚unangemessen‘ … bewirken sie in ihrer Dauerkommentierung, dass es zu Fehleinschätzungen und zu unangemessenen Entscheidungen kommt. Sofern man als einziger eine ‚unpassende Einschätzung‘ vertritt, fällt dies schnell auf und man hat eine Chance, diese zu ‚korrigieren‘; wird aber eine ‚Fehleinschätzung‘ von einer Mehrheit geteilt, ist es schwer bis unmöglich, diese Fehleinschätzung als einzelner zu bemerken. In einer solchen Situation, wo die Mehrheit eine Fehleinschätzung vertritt, kann ein einzelner, der die ‚richtige‘ Meinung hat (z.B. Galilei und Co. mit der neuen Ansicht zur Bewegung der Sonne; die moderne Wissenschaft und die alten Religionen; das damalige südafrikanische Apartheidsregime und der damalige ANC, der Sowjetkommunismus und die östlichen Friedensbewegungen vor dem Auseinanderfallen der Sowjetunion; die US-Geheimdienste und Snowden; …) als der ‚Fremdartige‘ erscheinen, der die bisherige ‚Ordnung‘ stört und den man deshalb ‚gesellschaftlich neutralisieren‘ muss).

17. Viele Menschen kennen das Phänomen von ‚Phobien‘ (vor Schlangen, vor Spinnen, vor …). Obwohl klar ist, dass eine einzelne Spinne keinerlei Gefahr darstellt, kann diese einen Menschen mit einer Phobie (= Kommentar des individuellen Unterbewusstseins an das Bewusstsein) zu einem Verhalten bewegen, was die meisten anderen als ‚unangemessen‘ bezeichnen würden.

18. Im Falle von psychischen Störungen (die heute statistisch stark zunehmen) kann dies eine Vielzahl von Phänomenen sein, die aus dem Raum des individuellen Unterbewusstseins in das individuelle Bewusstsein ‚hinein reden‘. Für den betroffenen Menschen ist dieses ‚Hineinreden‘ meistens nicht direkt ‚verstehbar‘; es findet einfach statt und kann vielfach kognitiv verwirren und emotional belasten. Diese Art von ‚Fehlkommentierung‘ aus dem individuellen Unterbewusstsein ist – so scheint es – für die meisten Menschen vielfach nur ‚behebbar‘ (therapierbar) mit Hilfe eines Experten und einer geeigneten Umgebung. Während Menschen mit körperlichen Einschränkungen in der Regel trotzdem ein einigermaßen ’normales‘ Leben führen können, können Menschen mit ‚psychischen Störungen‘ dies oft nicht mehr. Das geringe Verständnis einer Gesellschaft für Menschen mit psychischen Störungen ist auffällig.

SPRACHE ALS MEDIUM VON GEDANKEN

19. Seit der Entwicklung der ‚Sprache‘ kann ein individuelles Bewusstsein unter Voraussetzung einer einigermaßen ähnlichen Wahrnehmungs- und Gedächtnisstruktur in den einzelnen Mitgliedern einer Population Bewusstseinsinhalte aufgrund von Gedächtnisstrukturen mit Ausdrücken einer Sprache korrelieren. Sofern diese Korrelierung in hinreichender Abstimmung mit den anderen Sprachteilnehmern geschieht, lassen sich mittels sprachlicher Ausdrücke diese ‚Inhalte‘ (‚Bedeutungen‘) ‚indirekt‘ kommunizieren; nicht der Inhalt selbst wird kommuniziert, sondern der sprachliche Ausdruck als eine Art ‚Kode‘, der im Empfänger über die ‚gelernte Bedeutungszuordnung‘ entsprechende ‚Inhalte des Gedächtnisses‘ ‚aktiviert‘. Dass diese Kodierung überhaupt funktioniert liegt daran, dass die Bedeutungsstrukturen nicht ‚1-zu-1‘ kodiert werden, sondern immer nur über ‚verallgemeinerte Strukturen‘ (Kategorien), die eine gewisse ‚Invarianz‘ gegenüber den Variationen der konstituierenden Bedeutungselemente aufweisen. Dennoch sind die Grenzen sprachlicher Kommunikation immer dann erreicht, wenn Sprecher-Hörer über Bewusstseinstatsachen kommunizieren, die nur einen geringen oder gar keinen Bezug zur empirischen Welt aufweisen. Die Benutzung von Analogien,Metaphern, Bildern, Beispielen usw. lässt noch ‚irgendwie erahnen‘, was jemand ‚meinen könnte‘, aber eine letzte Klärung muss oft ausbleiben. Nichtsdestotrotz kann eine solche ‚andeutende‘ Kommunikation sehr hilfreich, schön, anregend usw. sein; sie ersetzt aber keine Wissenschaft.

20. Während das individuelle Wissen mit dem Tod des Individuums bislang ‚verschwindet‘, können ‚Texte‘ (und vergleichbare Darstellungen) ein individuelles Wissen bis zu einem gewissen Grade überdauern. Moderne Kommunikations- und Speichermittel haben die Sammlung und Verwertung von Wissen in bislang ungeahnte Dimensionen voran getrieben. Während allerdings die Menge dieses sprachbasierten Wissens exponentiell wächst, bleiben die individuellen Wissensverarbeitungskapazitäten annähernd konstant. Damit wächst die Kluft zwischen dem individuell verfügbaren Wissen und dem in Datennetzen verfügbaren Wissen ebenfalls exponentiell an. Es stellt sich die Frage, welchen Beitrag ein Wissen leisten kann, das sich faktisch nicht mehr verarbeiten lässt. Wenn man sieht, dass heute selbst Menschen mit einem abgeschlossenen Studium Ansichten vertreten, die im Lichte des verfügbaren Wissens gravierend falsch sein können, ja, dass das Wesen von Wissenschaft, wissenschaftlichem Wissen selbst bei Studierten (und nicht zuletzt auch bei sogenannten ‚Kulturschaffenden‘) starke Defizite aufweist, dann kann man ins Grübeln kommen, ob unsere heutige Kultur im Umgang mit wissenschaftlichem Wissen die richtigen Formen gefunden hat.

21. Hier wäre jetzt auch noch der ganze Komplex der Bedürfnisse/ Emotionen/ Gefühle/ Stimmungen anzusprechen. Doch das soll weiteren Einträgen vorbehalten bleiben.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIEWERKSTATT AM Sa 8.Februar 2014, 19:00h

im Bistro Confetti 2.0,
Frankfurterstrasse 16,
61137 Schöneck,
Parken im Umfeld.
Unkostenbetrag: 5 €

Einen ausführlichen Bericht zur letzten Philosophiewerkstatt vom 11.Januar 2014 findet sich HIER.

In diesem Zusammenhang gab es auch Überlegungen zur Gestaltung des Treffens. Hier nochmals zur Erinnerung die wichtigsten Aspekte:

– Das aktive philosophische Reflektieren und Diskutieren soll im Zentrum stehen
– Den ‘roten Faden’ sollten die Blogbeiträge liefern, bei denen idealerweise mehrere Autoren mitwirken
– Es kommen immer auch wieder neue TeilnehmerInnen dazu; diese sollten Gelegenheit haben, sich vorzustellen und im Gespräch die anderen kennen zu lernen
– Die aktiven Teilnehmer sollten bei der Auswahl der Themen mitwirken oder sogar selber den einen oder anderen Beitrag bestreiten
– Es kann auch immer ein ‘Arbeitsthema’ geben, das sich über mehrere Sitzungen erstreckt
– Die — philosophisch motivierte und begründete — Kunst sollte einen festen Platz bekommen.
Aus diesen Aspekten wäre folgende Struktur für ein Treffen interessant:

Teil 1: AKTUELLER STATUS

In kleinen Gruppen, gemischt mit einem Plenum, sprechen alle Teilnehmer darüber, wie sie den aktuellen Diskussionsstand sehen und sie klären, welche Themen ihrer Meinung nach als Hauptthema mal behandelt werden sollten. Dieses Meinungsbild wird in einem Meinungsbild/ Ideendiagramm (Mind Map) festgehalten. Vorschläge für neue Themen können beim nächsten Treffen wirksam werden (inklusive Vorschlag, wer das Thema bestreitet).

Teil 2: AKTUELLES THEMA

Präsentation von Ideen, Materialien zu einem ausgewählten Thema mit Aussprache.

Teil 3: PHILOSOPHIE UND KUNST

Überlegungen zu möglichen Kunstprojekten, Vorstellungen, Aktuelle Experimente.

PAUSEN

Sehr wichtig sind das Ankommen, die beiden Pausen, und der Abspann. Hier finden viele intensive Gespräche statt, Klärungen, Persönliches, Brainstorming; Essen und Trinken….

VERSCHIEDENES

– Die Philosophie-Werkstatt lebt von ihren Teilnehmern…
– Eine Philosophie-Werkstatt kann überall stattfinden…
– Rückblicke, Kommentare zu einer Philosophie-Werkstatt im Blog sind natürlich auch möglich und erwünscht…

PROGRAMMVORSCHLAG FÜR DEN 8.Febr.2014

19:00h Begrüßung; Klärung der aktuellen Diskussionslage und Einbeziehung neuer Aspekte durch alle anwesenden Teilnehmer.
20:00h Fortsetzung des Themas: Lernen braucht Emotionen/ Wertedebatte
22:00h (optional) Künstlerischer Beitrag mit philosophischer Perspektive (theoretische Einführung und praktisches Experiment zu experimenteller Musik)

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften
Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.