Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.
Dies ist die Fertigstellung des vorausgehenden Beitrags zur Position von Deacon 2010.
VORIGER BEITRAG VON MAYNARD SMITH
1. Im vorigen Beitrag war die Kritik von John Maynard Smith an der Informationstheorie von Shannon vorgestellt worden. Diese fokussierte im wesentlichen auf der direkten Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden.
NOCHMALS ZU SHANNON (1948)
2. Nochmals kurz zurück zu Shannon selbst. Claude Elwood Shannon (1916-2001) macht gleich zu Beginn seiner Schrift klar, dass er sich nicht um bedeutungsrelevante Eigenschaften kümmern will, sondern, als Ingenieur und Mathematiker interessieren ihn vor allem jene allgemeinen Eigenschaften bei der Übermittlung von Nachrichten, durch die eine abgesendete Nachricht (‚message‘) möglichst eindeutig auch wieder bei einem Empfänger ankommt. Dabei wird davon ausgegangen, dass die aktuell zu übermittelnde Nachricht von einer bekannten Menge von möglichen Nachrichten ausgewählt wurde (Anmerkung: diese Menge muss sowohl dem Sender wie auch dem Empfänger bekannt sein). Der Sender muss in der Lage sein, die Nachricht in eine Ereignisform zu übersetzen (kodieren, encode), die innerhalb eines Kommunikationskanals übermittelt werden kann. Dazu werden in der Regel Sequenzen konkreter ‚Symbole‘ aus unterschiedlichen endlichen ‚Alphabeten‘ benutzt, die dann u.U. weiter übersetzt werden in konkrete physikalische Ereignisse in einem Kommunikationskanal. Das empfangende System wiederum muss diese Ereignisse so rückübersetzen können (dekodieren, decode), dass das System entscheiden kann, ob die ‚empfangenen Symbole‘ eine Nachricht im Sinne der vorausgesetzten Menge darstellen oder nicht.
3. Wichtig ist, dass Shannon im Allgemeinen zwar von Kommunikation spricht, die untersucht werden soll, und dass Kommunikation sich innerhalb der kommunizierenden Systeme über Nachrichten vermittelt, dass aber diese Nachrichten im realen physikalischen Austausch zwischen den Systemen als ephysikalische Ereigniss in einem Kommunikationskanal auftreten. Diese physikalischen Ereignisse (nicht die Nachrichten als solche!) müssen sich durch ihre Häufigkeit und durch ihren Unterscheidungsaufwand charakterisieren lassen.
4. Der ‚Unterscheidungsaufwand‘ resultiert daraus, dass ein physikalisches Ereignis in minimale Schaltereignisse aufgelöst werden muss, durch die es realisiert wird. So besteht zwischen den physikalischen Eigenschaften eines Signals, mittels dessen sich Nachrichten realisieren lassen, und den erzeugenden Schaltereignissen, ein transparenter Zusammenhang. Es hat sich eingebürgert, elementare Schaltvorgänge mit ‚1‘ und ‚0‘ zu charakterisieren und die Anzahl von benötigten Schaltvorgängen mittels des binären Zahlensystems zu ‚kodieren‘. In Anlehnung an John Wilder Tukey (1915-2000) übernahm Shannon die Sprechweise, dass ein physikalischer Zustand mit zwei möglichen Werten als binärer Zustand bezeichnet wird; er soll die Menge von 1 bit Information repräsentieren. Nur auf diesen Aspekt bezieht Shannon den Begriff der Information! Es geht um ein Maß für den Aufwand an unterscheidbaren technischen binären Schaltzuständen, die zur Realisierung von Signalen notwendig ist, mittels deren Nachrichten kodiert werden. Die Nachrichten selbst, die möglicherweise (und im Normalfall) noch zusätzlich komplexe Bedeutungen kodieren, bleiben in dieser Betrachtung völlig außen vor.
5. Man muss also davon ausgehen, dass es zwischen der Menge der möglichen Nachrichten in einem Sender und der Übersetzung dieser Nachrichten in geeignete Symbolketten, die dann weiter für physikalische Ereignisse im Kanal kodiert werden, eine hinreichende Korrespondenzbeziehung gibt, die im Übersetzungsvorgang (in der Enkodierung) festgelegt ist. In seinem theoretischen Modell geht Shannon dann davon aus, dass jedem unterscheidbaren Symbol im Übermittlungsprozess ein unterscheidbarer Zustand in seinem Modell einer Quelle entspricht, und dass es von jedem solchen Zustand zum nächsten möglichen Zustand eine Übergangswahrscheinlichkeit gibt, die man im realen Prozess über Häufigkeiten messen kann. Das Modell einer solchen Quelle nennt er ein ’stochastisches‘ Modell, hier genauer ein ‚Markov Modell‘, das zudem noch ‚ergodisch‚ sein soll.
DIE POSITION VON DEACON
ALLTAGSERFAHRUNG
6. Terrence W.Deacon (Geb.1950) beginnt seine Überlegungen mit der Alltagserfahrung, dass die physikalischen Ereignisse (Schallwellen, Schriftzeichen, …) als solche keinerlei Hinweise auf irgendetwas anderes Zusätzliches enthalten. Erst in der Interpretation durch einen Empfänger werden diese physikalischen (= extrinsischen) Ereignisse zu möglichen Hinweisen, Zeichen für etwas Anderes (Anmerkung: Deacon benutzt hier ‚about‘); dieses Andere können irgendwelche intrinsische abstrakte Sachverhalte sein, die als ’nicht existente‘ Objekte dennoch eine Wirkung auf einen Kommunikationsteilnehmer entfalten können. Wie diese Abbildung von erkannten empirischen extrinsischen Kommunikationsereignisse auf nicht empirische mentale intrinsische Sachverhalte genau vonstatten geht, dazu fehlt nach Deacon noch eine angemessene wissenschaftliche Erklärung. Der ontologische Status dieser intrinsischen abstrakten mentalen Sachverhalte ist unklar.
COMPUTER PARADIGMA
7. An dieser Stelle bringt Deacon das Computer-Paradigma ins Spiel. Er charakterisiert es so, dass man in einem Computer, der ein physikalisches Objekt mit vielen möglichen physikalischen Prozessen darstellt, sehr wohl Beziehungen zwischen unterschiedlichen physikalischen Prozessen und Zuständen herstellen kann, die man abstrakt als Abbildungs- und Bedeutungsbeziehungen interpretieren könnte. Anders als bei einem natürlichen physikalischen Prozess kann man in einem Computer das Verhalten eines physikalischen Prozesses von anderen physikalischen Eigenschaften abhängig machen; diese anderen ‚willkürlich zugeordneten‘ physikalischen Eigenschaften funktionieren in einer abstrakten Sehweise als ‚Referenz‚, als mögliche ‚Bedeutung‘. Insofern wäre der Computer prinzipiell ein theoretisches Modell für Interpretations- und Bedeutungsprozesse. Dennoch meint Deacon hier auf die Bremse treten zu müssen, da für ihn das Computerparadigma nur ‚syntaktisch‚ definiert sei und die möglichen Bedeutungen nur ‚implizit‘ besitzt. Auch jene Ansätze, die die syntaktische Maschinerie des Computers über ‚Verkörperung‘ (Englisch: ‚embodiment‘) und ‚Fundierung in der Realwelt‘ (Englisch: ‚grounding‘) mit Bedeutung aufladen wollen, akzeptiert er nicht als ‚Lösung‘ des Geist-Körper (‚mind-body‘) Problems.
8. Es wird nicht ganz klar, warum Deacon dieses offensichtlich über Shannon hinausgehende Computer-Paradigma nicht akzeptiert; man spürt nur einen starken Vorbehalt, der von einem inneren Widerstand gespeist wird, dessen innere Logik sich dem Leser verschließt. Er spricht an späterer Stelle nochmals von einem ‚mechanistischem Determinismus‚, wobei aber nicht klar ist, ob das Computer-Paradigma wirklich ‚deterministisch‘ ist; viele unterstellen dies spontan. Deswegen muss es aber nicht zutreffen. Deacon legt sich jedenfalls darin fest, dass im klassischen Computer-Paradigma nur das syntaktische Konzept von Information berücksichtigt sei. (vgl. S.157) Wenn er dann emphatisch behauptet, dass berechenbare Prozesse in einem Computer nichts haben, was sie von normalen physikalischen Prozessen unterscheidet (vgl. S.157), widerspricht er sich selbst, da er zuvor bei der Charakterisierung des Computer-Paradigmas geschrieben hat, dass sich Prozesse in einem Computer von anderen bloß physikalischen Prozessen gerade dadurch unterscheiden, dass sie Abbildungsbeziehungen (‚maping relationship‘) realisieren können. (vgl. S.155) Was gilt nun? Als Leser hat man den Eindruck, dass Deacon einerseits zwar gewisse Besonderheiten bei Berechnungsprozessen im Computer sehr wohl erkennt, dass er aber offensichtlich ‚innerlich‘ ein Problem damit hat, diesen Erkenntnissen weiter zu folgen.
QUANTENMECHANIK
9. Deacon diskutiert auch den möglichen Beitrag der Quantenmechanik für die Frage der potentiellen abstrakten Objekte. Die Quantenmechanik beobachtet und misst Eigenschaften am Verhalten der Materieteilchen, die sowohl dem alltäglichen Kausalverständnis wie auch einem platten Determinismus zu widersprechen scheinen. Dennoch konstatiert Deacon, dass dieses scheinbar nichtdeterministische Verhalten die Frage nach potentiellen Beziehungen zu anderen Tatbeständen nicht beantwortet. Die beobachtbaren sonderbaren Korrelationen zwischen bestimmten Teilchen sind nicht vergleichbar mit den intentionalen Sachverhalten, bei denen ein etwas ‚für‘ (‚about‘) ein ‚anderes‘ ’steht‘. (vgl. S.157)
INFORMATION
10. In der Begegnung mit der Schrift A mathematical theory of communication erkennt Deacon sehr wohl den spezifischen Beitrag von Shannon an, kritisiert aber, dass durch die Ausklammerung möglicher Bedeutungsanteile bei Shannon in der nachfolgenden Rezeption des Informationsbegriffs der Begriff der Information unzulässig vereinfacht und eingeengt wurde. Dies behinderte später eine angemessene Behandlung jener ausgelassenen Eigenschaften.
11. An dieser Stelle muss man fragen, ob die – in dieser Weise auch von vielen anderen – erhobene Kritik an einer Engführung des Begriffs Information am allerwenigsten Shannon selbst trifft, da dieser sehr klar und unmissverständlich schon auf der ersten Seite feststellt, dass er hier aufgrund des Interesses des Engineerings alle diese bedeutungsrelevanten Aspekte ausgeklammert hat. Man muss sich eher wundern, warum nicht andere nach Shannon, nachdem er solch eine exzellente Analyse einiger logischer Eigenschaften von Zeichenträgern in einem Kommunikationskanal vorgelegt hat, aufbauend auf diesen Analysen dann nicht weiterführende mathematische Modelle vorgelegt haben, die sich gerade um die von Shannon ausgeklammerte Bedeutungsproblematik kümmern. Ständig nur darüber zu klagen, dass Shannon nicht die ganze Breit des Problems behandelt hat, ist wenig hilfreich und wird seiner innovativen Leistung nicht gerecht.
12. Wenn Deacon behauptet, dass der Begriff ‚Information‘ ’nach Definition‘ die Beziehung von etwas zu etwas anderem bezeichnet, dann muss man hier viele Fragezeichen setzen. In der Zeit vor der sogenannten Informationstheorie (begründet u.a. durch Shannon und Norbert Wiener (1894-1964)) wurde der Begriff der ‚Information‘– wenn überhaupt – damals nicht so benutzt, wie wir ihn heute gerne benutzen. Im Vordergrund standen allgemeine philosophische Aspekt wie die ‚Formung der Materie‘, später die ‚Formung des Menschen‘ durch Erziehung, noch später die ‚Fixierung von Wissen‘. (vgl. Sandkühler 2010:1105f) Die explizite Frage nach der Bedeutung war eher gebunden an Reflexionen über Zeichen und ihren Bedeutungen, die erst in der Semiotik (vgl. Noeth 2000) und dann durch Wittgensteins Philosophische Untersuchungen (1953) explizit thematisch wurden. Allerdings stellte sich das Bedeutungsproblem in der Neuzeit mehr und mehr in einer Weise dar, die die Frage nach der Bedeutung als ’schwierig‘ oder gar ‚unbeantwortbar‘ erscheinen lässt. Und es ist sicher kein Zufall, dass auch im Gebiet der Logik, spätestens mit dem Aufkommen der modernen formalen Logik, alle möglichen Bedeutungsanteile genauso ‚entfernt‘ wurden wie in der modernen Informationstheorie. Dies wird gerne großzügig übersehen. Dass die moderne Logik weniger über das alltägliche Denken sagen kann als noch die antike Logik, ist bizarr.
ENTROPIE
13. Wäre der Artikel von Deacon ein Schachspiel, dann könnte man sagen, dass er an dieser Stelle der Argumentation mit einem ungewöhnlichen Zug überrascht. Anstatt, dass er jetzt den beklagten Mangel an Theorie für eine befriedigende Erklärung der möglichen Bedeutungsanteile im Rahmen von Kommunikation mit der Einführung eines entsprechenden Modells behebt, verharrt er bei dem Problem der ‚Abwesenheit der Bedeutung‘ bzw. ‚des Inhalts‘.
ENTROPIE IM KONTEXT VON SHANNON
14. Nachdem Shannon für seine technischen Zwecke mit dem ‚Bit‘ einen technischen Informationsbegriff eingeführt hatte, der auf dem Konzept des Entscheidungsaufwandes zur Erkennung eines Symbols aus dem verwendeten Alphabet aufbaute, führte er das Konzept der ‚Informationskapazität eines Kanals‘ (gemessen in Bits pro Sekunde) ein, sowie das Konzept einer ‚Informationsquelle‘. Diese Informationsquelle ist nicht vollständig zufällig und erzeugt Sequenzen von Informationselementen, die einer bestimmten statistischen Struktur gehorchen. Letztlich ist es ein diskretes Markov Modell (Anmerkung: für weitere Typen von Markov Modellen siehe HIER) mit der zusätzlichen Eigenschaft der Ergodizität. Und er führt dann ein Funktion H ein, die ‚messen‘ soll, wie viel (technische) Information von solch einer Quelle erzeugt wird. Er gibt keine Begründung für diese Formel im Detail sondern meint nur, dass die tatsächlich Begründung für diese Formel in ihren Implikationen liege. (vgl. S.393) Auch stellt Shannon einen direkten Bezug zur Entropieformel von Boltzmann her.
15. Auffällig an dieser Stelle ist, dass der zuvor eingeführte technische Informationsbegriff bezogen auf die Anzahl der technischen Entscheidungen, die notwendig sind, um ein Symbol von einem anderen zu entscheiden (die Anzahl der Bits), in diesem Informationsmaß H überhaupt keine Rolle mehr spielen! Stattdessen arbeitet Shannon hier nur noch mit Wahrscheinlichkeiten: (i) Wahrscheinlichkeiten dafür, dass ein bestimmter Zustand eintritt und (ii) Wahrscheinlichkeit dafür, dass in einem bestimmten Zustand ein bestimmtes Element ausgewählt wird. Die technische Beschaffenheit der Elemente spielt eigentlich keine Rolle mehr.
BOLTZMANN ENTROPIE
16. Daraus ergibt sich, dass Shannon im gleichen Text zwei ganz verschiedene Informationsbegriffe benutzt: (i) Information1 im Sinne des Aufwands an binärer Kodierung; (ii) Information2 als die Wahrscheinlichkeit für das Auftreten bestimmter Elemente bzw. Sequenzen von Elementen. Der zweite Begriff hat strukturell Ähnlichkeiten mit dem Entropiebegriff von Boltzmann (1844 – 1906.
17. Mit Bedeutungsanteilen hat keiner der beiden Informationsbegriffe etwas zu tun.
UNKLARHEITEN IM ENTROPIEBEGRIFF
18. Ferner muss man hier einblenden, dass der Begriff der Entropie, den Shannon einführt, keinesfalls so eindeutig ist, wie man im ersten Moment glauben möchte. Shannon zitiert Boltzmann mit seiner Entropieformel. Letzterer gehört zu den Mitbegründern dessen, was man heute Statistische Mechanik nennt, die im Rahmen der allgemeinen Thermodynamik nur einen Teilbereich abbildet. Wie der Philosoph Lawrence Sklar (Geb.1938) herausgearbeitet hat (siehe Lawrence Sklar (2015), Philosophy of Statistical Mechanics), sind die Begrifflichkeiten der verschiedenen Teiltheorien alles andere als klar (und hängen, sobald sie auf reale Bereiche angewendet werden, von sehr vielen speziellen Begriffen ab). Zudem ist nicht gesichert, ob und wie die vorausgesetzten Statistiken die unterstellten empirischen Strukturen tatsächlich so abbilden, wie diese sich in der empirischen Welt verhalten. Einen ‚Entropiebegriff‘ einzuführen erklärt damit nicht automatisch die Frage, die man beantworten möchte.
ABWESENHEIT DES MÖGLICHEN
19. Dass Deacon von der ‚Abwesenheit‘ des Inhalts, der Bedeutungsanteile, sprechen kann, liegt nur daran, dass er relativ zu einem Kommunikationsmedium mit seinen Symbolen einen Empfänger voraussetzt, der ‚in sich‘ (mental) relativ zu den wahrnehmbaren (und unmittelbar präsenten) Symbolen (mental) annimmt (!), dass diese wahrnehmbaren Symbole einen Bezug (‚about‘) zu etwas Anderem haben, das nicht ‚unmittelbar präsent‘ (in der empirischen Situation) ist. Natürlich ist der Bezug (about) zu dem Anderen in (!) den mentalen Zuständen des Interpreten gleichzeitig unmittelbar präsent. Ohne diese fundamentale Annahme gebe es keinerlei Grund, das Vorkommen von Symbolen so zu charakterisieren, dass ihnen Bedeutungsanteile fehlen würden. Diese fundamentale Annahme macht Deacon aber nicht explizit. Stattdessen analysiert er die Eigenschaften des Kommunikationsmediums weiter, das als solches keinerlei Bezug zu einer Bedeutung (about) hat.
SHANNON-BOLTZMANN ENTROPIE
20. Deacon benutzt dann die Bezugnahme von Shannon auf den Entropiebegriff von Boltzmann in dem Sinne, dass Boltzmann in seinem Entropiebegriff annimmt, dass die Veränderung eines wahrscheinlicheren Zustandes durch Ausführung von Arbeit in Richtung eines weniger wahrscheinlicheren Zustandes die Entropie bei Boltzmann verringert (da dieser Entropiebegriff am größten ist, je mehr Freiheitsgrade die Mikroteilchen des unterstellten Systems haben. Dies setzt die Annahme voraus, dass die Einschränkung der Freiheitsgrade durch ‚Bindungen‘ auftreten, die nur durch Energiezufuhr (Arbeit, Wärme, …) aufgelöst werden können). Arbeit impliziert eine extrinsische Einwirkung auf das System.
21. Mit dem Shannonschen Entropiebegriff ist die Entropie auch am größten, wenn alle Kommunikationselemente gleich wahrscheinlich sind. Im Shannonschen Entropiebegriff wird aber keinerlei Annahme darüber gemacht, wie eine Ungleichverteilung zustande kommt. Während die Physiker unterschiedliche Modellvorstellungen darüber entwickelt haben, wie sich Elemente eines System ‚binden‘ können und wie man diese Bindungen wieder auflöst, verzichtet Shannon darauf völlig, da er ja nur die Auswirkungen von den verschiedenen Verteilungen auf den Kommunikationskanal beschreiben wollte. Der Shannonschen Entropiebegriff leistet insofern formal annähernd das Gleiche wie der Entropiebegriff von Boltzmann, aber er bietet keinerlei Ansatzpunkte, etwas darüber zu sagen, was zu den unterschiedlichen Verteilungen führt. Würde man (was Shannon explizit nicht getan hat und wofür er keinerlei Grund hatte) das Modell der Informationsquelle dahingehend erweitern, dass man das formale Modell eines Sprecher-Hörers konzipieren würde, in dem man die Entstehung von Verteilungen mit modellieren würde, dann könnte man ein Äquivalent zum Begriff der ‚Arbeit‘ im Boltzmann Modell (und dann in allen thermodynamischen Modellen) bekommen, welches den ‚mentalen/ kognitiven‘ Aufwand modellieren würde, der notwendig ist, um die Elemente eines Kommunikationsereignisses mit unterschiedlichen Wahrscheinlichkeiten zu konfigurieren. So wie es aus technischer Sicht einen unterschiedlichen Schaltungsaufwand – gemessen in Bits – bedeutet, unterschiedliche große Symbolmengen zu realisieren, so kann man unterstellen, dass es aus technischer Sicht einen höheren Aufwand bedeutet, eine Menge von N Elementen mit unterschiedlichen Wahrscheinlichkeiten zu konfigurieren und zu verwalten. Möglicherweise kann man diesen technischen Aufwand auch in Bits messen; möglicherweise aber besser in der Anzahl notwendiger Elementaroperationen eines definierten idealen Rechners. Würde man zusätzlich eine Abbildung herstellen zwischen der technischen Maschinerie zur Konstruktion und Verwaltung von Elementen mit unterschiedlichen Wahrscheinlichkeiten zu dem formalen Modell eines ‚mentalen Raumes‘, dann könnte man die technisch-digitale Arbeit übersetzen in eine ‚mentale-kognitive‘ Arbeit.
22. Deacon spricht zwar von einer ‚intimen Beziehung‘ zwischen dem Entropiebegriff von Shannon und Boltzmann, beschränkt sich aber auf den sehr äußerlichen Aspekt, dass der physikalischen Kommunikationskanal die ‚Basis einer Signalreferenz‘ ist. Er verfolgt dann aber den Aspekt der ‚Referenz‘ (zu möglichen Umständen einer Bedeutung) nicht direkt, sondern reflektiert eher den Unterschied zwischen jenen Kommunikationsereignissen, die im Kanal zu einem bestimmten Zeitpunkt auftreten und jenen, die auch noch auftreten könnten, aber aufgrund bestimmter Beschränkungen (‚constraints‘) nicht jetzt aufgetreten sind. Auch hier stellt er fest, dass diese Beschränkungen zusammen mit der Differenz zwischen jetzt präsent und was sein könnte keine inhärenten Eigenschaften der physikalischen Beschaffenheit des Kanals oder der Kommunikationselemente als solcher ist, sondern eine ‚Beziehungseigenschaft‘ (‚relational property‘), die auf eine ‚extrinsische Intervention‘ (‚extrinsic intervention‘) verweisen. An anderer Stelle formuliert Deacon es so, dass die Abweichung von einem erwarteten Zustand genommen wird als Referenz zu einer ansonsten unbeobachteten Ursache. (vgl. Deacon 2010:162)
REFERENZ IN DER ABWESENHEIT
23. Es ist schon auffällig, dass Deacon einerseits sehr beharrlich den unvollständigen (reduktiven) Charakter des Sprechens über Kommunikationselemente ohne Bedeutungsbezug anspricht, dass er aber die dazu notwendigen Annahmen über spezielle Eigenschaften des Hörer oder Senders, zur ‚In-Beziehung-Setzung‘ von Kommunikationselementen mit möglichen Bedeutungen vollständig außen vor lässt. Wenn schon das Kommunikationselement als solches (und auch nicht der Kommunikationskanal) keinerlei Hinweis auf mögliche Bedeutungen liefert, er aber dennoch von ‚Bezug‘, ‚Erwartung‘, ‚Differenz‘ usw. spricht, wundert es, warum er nicht direkt die beteiligten Hörer-Specher in seine Modellierungen einbezieht. Stattdessen versucht er über die formale Ähnlichkeit zwischen der Entropie bei Shannon und Boltzmann eine Brücke zu ‚äußeren Einflüssen‘ zu bauen, die zwar der Entropiebegriff von Boltzmann dank seiner Einbettung in ein weiterführendes physikalisches Modell bietet, nicht (!!!) aber der Entropiebegriff von Shannon. Shannon hat dies nicht interessiert und er benötigt es auch nicht.
24. Dieses Beharren auf das Postulat von äußeren Einflüssen bei Änderung von Zuständen wird umso unverständlicher, als Deacon selbst feststellt, dass weder die Unterschied im Symbol selbst noch mögliche externe Arbeit aus sich heraus irgendeinen Bezug zu möglicher Bedeutung haben müssen. (vgl. Deacon 2010:162f)
NOTWENDIGKEIT DER INTERPRETATION
25. An einer Stelle stellt Deacon dann fest, dass die Einbettung eines Kommunikationselementes in eine Beziehung mit referentiellem Anteil einen ‚Prozess‘ voraussetzt, einen ‚Interpretationsprozess‘, für dessen Beschreibung jedoch eine geeignete Theorie fehle. Er greift dann Gregory Bateson (1904-1980) auf, der die Formel bietet „Eine Differenz die eine Differenz macht“. So kryptisch diese Formulierung ist, Deacon greift sie auf und verbindet diese Idee mit dem vorausgehenden Postulat, dass das Überschreiten eines Kommunikationselementes in Richtung einer möglichen Referenz einen Interpretationsprozess voraussetzt. Dieser Interpretationsprozess muss empfänglich (’susceptible‘, ’sensitiv‘) sein für Einwirkungen von außen, muss modifizierbar sein, und muss differenziert fähig sein, aufgrund dieser Änderungen Arbeit ausführen zu können. (vgl. Deacon 2010:164)
INTERPRETATIONSPROZESS ALS PHYSIKALISCH-BIOLOGISCHER PROZESS
26. Insofern dieser Interpretationsprozess ein biologischer Prozess sein soll, muss man nach Deacon verlangen, dass dieser Prozess sich nicht in einem thermodynamischen Gleichgewicht befindet. Dies ist aber nur möglich, wenn es eine Umgebung gibt, die hinreichende Unterstützung (z.B. freie Energie) zur Erhaltung des Nichtgleichgewichts bietet. Zugleich impliziert dies nach Deacon die Annahme, dass solch ein interpretatives System sich von der Umgebung abgrenzen muss, was eine gewisse körperliche Identität mit sich bringt. Auch sieht Deacon hier eine implizite Normativität gegeben, insofern die Vorgaben der Umgebung für das agierende Systeme eine Quasi-Norm darstellen, die das System erfüllen muss, sollen seine Nachkommen überleben (die Nachkommen erwähnt Deacon nicht).
27. An dieser Stelle behauptet Deacon dann, dass diese physikalische Beziehungen zwischen System und Umgebung dann in eine Informationsbeziehung verwandelt wird. Dies ist eine überraschende Formulierung. Bislang gibt es ja nur zwei Informationsbegriffe: Information1 bezogen auf den Entscheidungsaufwand zur Darstellung eines Kommunikationselementes in einer Menge (Alphabet); Information2 als gewichteter Logarithmus der Wahrscheinlichkeiten aller aktuell verfügbaren Elemente. Wie diese Begriffe sich jetzt in den postulierten Prozess im thermodynamischen Ungleichgewicht einfügen sollen, ist nicht klar. Wenn er dann noch die Begriffe ‚Evolutionär‘ und ‚emergent‘ einwirft, wird es nicht klarer, was er eigentlich meint. Man kann nur ahnen, dass er in der dynamischen Wechselbeziehung zwischen ‚inneren‘ Zuständen des Interpretationsprozesses in Abhängigkeit von Gegebenheiten der externen Umgebung Differenzen im Innern des Systems sieht, die als ‚Ursache‘ des beobachtbaren Verhaltens (= Arbeit?) dienen und in diesem Sinne jene möglichen Referenzen repräsentieren, die dann zur Produktion nicht nur von Verhalten allgemein sondern auch von speziellem Kommunikationsverhalten führen können, die sich in der Produktion von Kommunikationselementen manifestieren. Dies motiviert ein wenig seine begriffliche Hierarchie von (i) syntaktischer Information (Shannon), (ii) semantischer Information (Shannon-Boltzmann) sowie (iii) pragmatischer Information (Shannon-Boltzmann-Darwin). (vgl. Deacon 2010:166)
SEMIOTIK
28. So schön dies klingt, hier bleibt Deacon viele wichtigen Erklärungen schuldig. Aus dem, was er zuvor erläutert hatte, lassen sich diese Begriffe nicht motivieren. Die Begriffe ’syntaktisch‘, ’semantisch‘ und pragmatisch‘ gehören in das Begriffsnetzwerk der Semiotik (ausführlich bei Noeth 2000), von der Deacon zuvor nichts erklärt hatte. Außerdem bietet die Semiotik keine einheitliche Theorie. Den Ansatz von Shannon ’syntaktisch‘ zu beschreiben könnte partiell funktionieren. Die Kombination aus Shannon und Boltzmann als ’semantisch‘ zu bezeichnen, ist nicht nachvollziehbar; das Dreigestirn Shannon-Boltzmann-Darwin mit der Pragmatik in Beziehung zu setzen, könnte irgendwo funktionieren, würde aber voraussetzen, dass man entsprechend die syntaktische und semantische Dimension herausgearbeitet hat. Das ist in diesem Text nicht zu sehen. (Anmerkung: Deacon verweist hier auf zwei Artikel von ihm selbst, in denen dieses Thema behandelt worden sein soll: Deacon 2007, Deacon 2008. Grob erscheint der Beitrag im Buch 2010 als eine verkürzte Fassung dieser beiden Artikel. Es wird sich lohnen, diese zusätzlich zu lesen).
MENTALES ALS PRODUKT DER INTERAKTION MIT UMWELT
29. In den abschließenden Überlegungen Deacons (Deacon 2010: 168ff) blitzt ein wenig das Motiv auf, warum Deacon nach dem Konstatieren der Bedeutungsanteile im Modell von Shannon nicht einfach ein erweitertes Modell vorgestellt hat. Er will nicht das Mentale/ Kognitive einfach so separat vom gesamten Systemdarstellen, sondern als ein ein Moment des dynamischen Entwicklungsprozesses (Phylogenese, Ontogenese), innerhalb dessen ein System seine Unterschiede und Beschränkungen in der Interaktion mit der Umgebung ausbildet. Deacon will die Referenz nicht nur formal fundieren (wie z.B. im Paradigma des ‚Embodyments‘ oder ‚Groundings‘), sondern physikalisch-biologisch. Dies kann man nur begrüßen. Allerdings gibt es schon sehr viele Ansätze, die dieses versucht haben oder versuchen. Allerdings nicht so explizit hart orientiert an den Entropiebegriffen von Shannon und Boltzmann. Und mehr als eine erste grobe Idee hat Deacon hier nicht geliefert. Es ist noch nicht einmal klar, ob die Konzepte von Shannon, Boltzmann und Darwin tatsächlich all das hergeben, was Deacon innovativ ihnen einfach mal so unterstellt hat.
Eine weitere Zwischenreflexion war notwendig. Zum Mitlesen klicke HIER
QUELLEN
- Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
- Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2,, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
- Lawrence Sklar (2015), Philosophy of Statistical Mechanics in Stanford Encyclopedia of Philosophy
- Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
- Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
- Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
- Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
- Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
- Bateson, G. (2000 reprint. First published 1972). Steps to an Ecology of Mind: Collected Essays in Anthropology, Psychiatry, Evolution, and Epistemology. Chicago, Illinois: University of Chicago Press
- John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
- Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
- Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
- Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)