Kognitivismus 25 Jahre nach Varela

Vor über 25 Jahren erschien Francisco Varelas Studie über die Kognitionswissenschaften „Invitation aux sciences cognitives“ (1988). Die deutsche Übersetzung „Kognitionswissenschaft – Kognitionstechnik“ erschien 1990 und ist mir dank Empfehlung von Moritz in die Hände gefallen.

In dem schmalen Band unternimmt Varela eine Tour de Force durch die Paradigmen der Kybernetik bis in die späten 80iger Jahre und seziert dabei mit dem Blick des radikalen Konstruktivismus die blinden Flecken der davon ausgehenden Programme. Ich habe viele meiner Probleme in der Beobachtung des Feldes der Sozialrobotik und HCI dort wieder gefunden, weswegen ich den Inhalt kurz vorstellen, und mich und euch fragen will: Wo stehen wir 25 Jahre nach Varelas Analyse? Hat dort jemand angeknüpft? Was sagt die Kognitionswissenschaft selbst zu Varelas Vorschlägen, sich mit anderen philosophischen Zugängen zum Bewusstsein auseinanderszusetzen?

1.) Varela zum kognitivistischen Programm

Varela hält das Paradigma des kognitivistischen Programms für eine in der Wissenschaftsgeschichte einmalige Entwicklung. Nämlich die, dass erstmals Naturwissenschaften den Anspruch erheben, das Denken und das Bewusstsein vollständig zu erklären. Die Entwicklung dieses Paradigmas ist eng mit der Entwicklung der Computertechnik verbunden, die nicht nur eingesetzt wird, um Wissen zu erfassen und bearbeiten, sondern auch auf die Handlungspraxis der Hervorbringung dieses Wissens zurückwirkt (Varela 1990: 15-17). Gleichzeitig wertet er das Programm als theoretisch nicht gesättigt genug: „Fortschritt und Erfolg der Disziplin hängen allerdings ab von der Verwirklichung außerordentlich wagemutiger theoretischer Projektionen, – vergleichbar mit dem Versuch, einen Menschen auf den Mond zu bringen, ohne zu wissen, wo der Mond ist.“ (ebd.: 26) Ich werde im zweiten Teil des Posts versuchen zu zeigen, wo Varela den blinden Fleck sieht.

Varela rekapituliert die Entwicklung des kognitivistischen Programms bis zum Zeitpunkt der Veröffentlichung in vier Phasen. Die Beschreibung dieser Phasen deckt sich auch mit aus der KI-Forschung selbst stammenden Einschätzungen. Weiterführendes zu den sich etablierenden Alternativparadigmen und Forschungsrichtungen der Paradigmen symbolische Repräsentation und der subsymbolischen Ansätze im englischsprachigen Wikipedia-Artikel.

Die Gründerjahre (1940 bis 1956)
Bemühungen um eine naturwissenschaftliche Epistemologie in Princeton und am MIT; das Gehirn als deduktive Maschine auffassen; Von-Neumann-Architektur als Schlüssel zur technischen Modellierung von Bewusstsein als Zustandsmaschine

Etablierung d. Kognitivsimus (1956 bis späte 70er Jahre)
Kognition als regelgeleitete Symbolverarbeitung; Welt = Repräsentationen, die physikalisch in Form eines symbolischen Codes im Gehirn oder in einer Maschine verwirklicht sind; Loslösung semantischer Inhalte von ihrer Form; durch Künstliche Intelligenz-Forschung werden Annahmen der Kognitionswissenschaft technisch operationalisier- und prüfbar

Emergenz und Selbstorganisation (späte 70er Jahre)
nach der „Orthodoxie“ des Computermodells mit sequentieller Symbolverarbeitung Wende zur Idee der Selbstorganisation; von Objektivierung der Intelligenz (Experte) zu biologischer Erfahrungswelt (Kleinkind), neuronaler Ansatz; Lösung von Alltagsaufgaben funktioniert anders als typischen Rechenstrategien; Emergenz als Phänomen in Netzwerken

2.) Blinder Fleck

Ende der 1980iger kamen alternative Paradigmen zur „klassischen“ KI-Forschung auf, die sich in Reaktion darauf selbst als „Good Old-Fashioned Artificial Intelligence“ bezeichnete (Haugland 1985). Die Kraft der symbolischen Repräsentation zur Simulation oder Erzeugung von Intelligenz bzw. Kognition in Computersystemen wurde stark angezweifelt, und es kamen auf subsymbolischer Ebene sowohl ein „verkörperte Intelligenz“-Strang als auch ein „verteilte Intelligenz“-Strang auf.

Obwohl Vertreterinnen dieser Positionen sich sehr stark voneinander abgrenzen, sieht Varela auch in den subsymbolischen Ansätzen die Kontinuität einer – problematischen – Basistheorie. Dabei geht er eine Zuspitzung ein, die nicht allen Aspekten der KI-Forschung gerecht wird, aber verdeutlicht, worin das Problem liegt:

Wir haben sodann eine voll entwickelte Theorie, die feststellt: 1. Die Welt ist vorgegeben, 2. Unsere Kognition bezieht sich auf diese Welt – wenn auch oft nur einen Teil derselben -. 3. Die Art, auf die wir diese vorgebenen Welt erkennen, besteht darin, ihre Merkmale abzubilden und sodann auf der Grundlage dieser Abbildungen zu handeln. […] Auch wenn also jedermann der Meinung ist – von einigen übrig gebliebenen Behavioristen vielleicht abgesehen -, daß Repräsentation ein aktiver Prozeß ist, so wird dieser Prozess dennoch so verstanden, als ob er außerhalb des kognitiven Systems liegende und davon unabhängige Merkmale der Umwelt „entdecke“ oder „rekonstruiere“.

(Varela 1990: 100-101, Hervorhebung AB)

So eine Kritik an der (zugespitzten) Vorstellung, dass die Welt „Außen“ ist und Wissen darin besteht, sie korrekt abzubilden, ist schmerzhaft für beide Seiten. Zum einen müssen sich viele Prozesse und Ziele der Kognitionswissenschaft und angewandter Felder der Informatik eingestehen, für diese Zuspitzung immer noch Angriffsfläche zu bieten. Was sich auch daran zeigt, das Kritiker dieses „Weltabbildungszugangs“ zu hören bekommen, sie seien Solipsisten.

Dabei muss man keine radikalen Positionen heranziehen, um Varelas Kritik zu verstehen: Beinahe jede Strömung des Konstruktivismus und erst Recht des Pragmatismus, jeder Poststrukturalismus und alles, was sich Cultural Studies nennt, geht davon aus, dass Welt durch Wahrnehmung und Handlung immer auch hervorgebracht wird. Als Vertreter der „Santiago School“ [Maturana & Varela 1986: „Tree of Knowledge“] begründet Varela seine Kritk aus einer Position der „Kybernetik zweiter Ordnung“: Kognition ist demnach die Geschichte der strukturellen Kopplungen, die eine Welt hervorbringt bzw. erzeugt.

3. Anschlussfragen

[Nach @karafillidis Hinweis noch einmal geschärft.]

Ich beobachte, dass solche Diskussionen in den vermeintlich technischen Disziplinen sehr randständig sind. Für die Robotik und die Sozialrobotik im Speziellen gilt sogar, dass Sie gar nicht über eine institutionalisierte Metatheoriediskussion oder gar eigene Geschichtsschreibung ihrer Paradigmen verfügt. Und das obwohl sich insbesondere social robotics ganz explizit mit sozialen Welten befasst.

Meine an Varelas Befund anschließenden Fragen lauten deshalb:

  • Hat jemand in ähnlicher Qualität und vielleicht auch empirisch an KI-Paradigmen gearbeitet?
  • Ist in den letzten 25 Jahren KI etwas passiert, das Varelas Befund widerlegt?
  • Wie sieht eine über den Vorworf des Solipsismus hinausgehende Kritik von Varelas BEfund aus einer KI-Position heraus aus?

 

3 Kommentare

hey andi,
ich bin ja nicht so sattelfest im thema, habe aber dennoch ein paar anmerkungen (auch wenn mein studium gefühlt jahrzehnte zurückliegt 😉

ich würde vermuten, dass du mit deduktiver maschine zur modellierung des menschlichen gehirns eher sowas wie die turing-maschine meinst. die von-neumann-architektur ist ja nur eine mögliche rechnerarchitektur (in modernen systemen ist sie nicht mehr so ursprünglich anzutreffen – parallelisierung der cpu befehle, trotz gemeinsamen speichers; grafikspeicher im ram etc)

außerdem muss ich grad an ein seminar denken, in dem wir ähnlich verkopfte ansätze hörten, die natur deterministisch abzubilden. ich kann mich aber leider nicht mehr genau erinnern, welches es war. aber vielleicht ist ja was für dich dabei:
http://users.minet.uni-jena.de/~beckstei/lehre/node2.html
und vielleicht fällt es mir bis freitag wieder ein …

l.o.v.e.
cle.

Mit deduktiver Maschine ist sicherlich der klassische KI Ansatz gemeint mittels Logik das Wissen über die Welt zu modellieren und aus diesem wissen neues Abzuleiten -> Deduktion.
http://de.wikipedia.org/wiki/Deduktion
Nach der anfänglichen Begeisterung ist allerdings klar geworden das diese Methode eine zu hohe Komplexität hat, folglich unpraktisch ist.

Die Implementation dieser Methode ist auch unabhängig von der Von-Neumann-Architektur, welche nur ein technisches Verfahren darstellt um Algorithmen abzuarbeiten.
Dieses Verfahren ist in der Lage alle von einer Turingmaschine berechenbaren Funktionen zu berechnen.
http://de.wikipedia.org/wiki/Von-Neumann-Architektur
Die Turingmschine wiederum ist in der Lage alle vom Menschen berechnenbaren Funktionen zu berechnen. (Nicht Beweisbar, somit Gegenteil auch nicht Beweisbar; jede Gegenargumentation müsste außerdem Beweisen das es nicht berechenbare Funktionen gibt welche der Mensch lösen kann)
http://de.wikipedia.org/wiki/Church-Turing-These

nun gut, ob eine nicht berechenbare mathematische funktion nicht doch auch von einem menschen pragmatisch entschieden werden könnte, würd ich mal anzweifeln. die ackermannfunktion oder auch das halteproblem sind ja zwei vertreter von einem menschen recht einfach „berechenbar“ sind. nur aber eben nicht für _alle_ möglichen eingaben! das ist ja oftmals auch das problem von software in der praxis. 😉
mir ging es vor allem darum, das deduktion nichts mit von-neumann zu tun hat.
c

Schreibe einen Kommentar