Was Computer nicht können
Die
Frage, ob Computer denken können, natürliche Sprache verstehen
können
und andere Anzeichen von menschlicher Intelligenz besitzen (oder in absehbarer
Zukunft besitzen werden), löst eine eigentümliche Spannung
in unserem Bewußtsein aus. Einerseits sind wir geneigt, an so etwas
wie den Turing-Test für intelligentes Verhalten
zu glauben und wir bezweifeln dann nicht, daß es irgendwann gelingt,
eine Maschine zu bauen, die menschliches Verhalten beliebig genau
simulieren kann. Andererseits widerstrebt uns die Vorstellung, einer kalten
Maschine menschliche Qualitäten wie Intelligenz, Bewußtsein,
Selbstkontrolle nicht nur metaphorisch zuzusprechen.
Der Turing-Test
für maschinelle Intelligenz
1950 schlug Alan Turing(1912-1953),
einer der geistigen Vater der Künstlichen Intelligenz, ein Gedankenexperiment
vor, das später als "Turing-Test" der maschinellen Intelligenz
bekannt wurde. Am Test sind zwei Menschen und eine Maschine (der zu testende
Computer) beteiligt. In einem Raum befindet sich ein Computer-Terminal
und eine Person kommuniziert damit entweder mit einem anderen Menschen
oder mit einer Maschine. Die Person weiß aber nicht, wenn oder was
sie jeweils vor sich hat. Genau das soll sie nämlich herausfinden.
Zuerst "unterhält" sich unsere Person über das Terminal beispielsweise mit "A" und dann mit "B". Nach jeder derartigen "Unterhaltung" soll herausgefunden werden, ob A der Computer ist oder B. Dieses Verfahren wird vielmals wiederholt (mit zahlreichen Versuchspersonen). Aufgezeichnet wird, wie häufig die Versuchsperson ihren "Partner" korrekt identifiziert. Wenn die Wahrscheinlichkeit der korrekten Identifikation 50% ist, dann wissen wir, daß die Versuchspersonen raten mußten. Ihnen ist es also nicht gelungen, durch geschicktes Fragen herauszufinden, ob der Partner Mensch oder Maschine ist. Turings Vorschlag ist nun, genau dann einen Computer als intelligent zu betrachten, wenn er in entsprechenden "Unterhaltungen" (5 Minuten Dauer? 10? 20?) die Versuchspersonen ausreichend täuschen kann (im Idealfall 50% Wahrscheinlichkeit zur korrekten Identifikation).
Es gibt eine anhaltende Diskussion um die Rolle des Turing-Tests. Befürworter argumentiere, daß der Test ein wertvoller Test für menschliche Intelligenz darstellt, weil er (1) eine Vielzahl von Wissensbereichen einbezieht (nicht nur Wissen über die Welt, sondern auch über soziales Verhalten, emotionale Beziehungen, religiöse Einstellungen etc.) und weil er (2) eine beträchtliche Flexibilität und Anpassungsfähigkeit verlangt (Wechsel zwischen Situationen, z.B. Wechsel der Unterhaltung übers Wetter zu neuen Witzen oder der Einschätzung lyrischer Verse).
Ein erklärter Gegner der Auffassung, daß der Turing-Test eine gute Möglichkeit zur Prüfung eines Systems auf "echte" Intelligenz beinhaltet, ist John Searle (siehe z.B. Searle 1980). Darüber hinaus bezweifelt Searle, daß Computer je dazu gebracht werden können, natürliche Sprache zu verstehen oder gar zu denken.
Searles Position
1. Denken besteht nicht allein aus dem syntaktischen
Hantieren von Symbolen, sondern auch und vor allem aus den semantischen
Inhalten, die mit diesen Symbolen verknüpft sind. Da Computeralgorithmen
auf einer rein syntaktischen Ebene arbeiten, d.h. nur Symbole miteinander
verknüpfen, können sie ergo nicht denken. Searle macht dies an
einem Gedankenexperiment klar (das Chinesisches
Zimmer). Dabei wird ein System konstruiert, das den Turing-Test
für das Verstehen von Sprache (Chinesisch) besteht. Dennoch, so Searle,
kommen wir, wenn wir die Konstruktion des Systems verstehen, zu dem Schluß,
daß dieses System tatsächlich kein Chinesisch verstehen kann,
jedenfalls nicht in unserem intuitiven Vorverständnis von "Sprachverstehen".
Damit wird die Rolle des Turing-Tests grundsätzlich in Frage gestellt.
2. Searle bezweifelt nicht, daß Computerprogramme die Ergebnisse von Denkvorgängen simulieren können. Das ist aber keineswegs gleichzusetzen mit einer Duplikation dieser Vorgänge. Searle führt die Begriff "starke" und "schwache" KI (Künstliche Intelligenz) zur Markierung dieses Unterschieds ein. Während in der schwachen KI der Computer bloß als Instrument zur Untersuchung geistiger Fähigkeiten (wie Sprachverstehen, Sprachproduktion, Bilder-Erkennen, Denken) benutzt wird, nehmen Vertreter der starken KI an, daß dabei tatsächlich "mentale Zustände" realisiert werden und daß ein geeignetes Programm tatsächlich Sprache versteht. In Searles eigenen Worten: ". . . according to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitve states. In strong AI, because the programmed computer has cognitive states, the programs are not mere tools that enable us to test psychological explanations; rather, the programs are themselves the explanations."
Das ist also die Grundidee des "Computer-Modell
des Geistes" (so wie es von Anhängern der starken KI vertreten
wird): der Geist ist das Programm und das Hirn ist die Hardware eines
computationalen Systems. Oder als Analogie formuliert: "Der
Geist verhält sich zum Computer wie das Programm zur Hardware."
Searle bezweifelt beide Seiten dieser Idee.
(A) Der Geist ist kein Computerprogramm. Am Geist ist jedenfalls mehr dran, als ein Computerprogramm jemals erfassen könnte. Starke KI ist im derzeitig vorherrschenden Paradigma der Symbolmanipulation ist also nicht möglich. Searles entscheidendes Argument ist das Chinesisches Zimmer. Denn da wird ein Programm vorgeführt, daß geistige Leistung bloß vortäuscht. Searle suggeriert nun, daß alle Programme geistige Leistungen bestenfalls vortäuschen. Und zwar deshalb, weil Programme im Paradigma der Symbolmanipulation rein syntaktischen Charakter besitzen und damit niemals zur Inhaltsebene vorstoßen können.
(B) Das Hirn ist kein digitaler Computer. Die Gegenthese nennt Searle Kognitivismus. Sie beruht darauf, das Hirn als eine universelle Turing-Maschine aufzufassen. Denken ist dann nichts weiter als Informationsverarbeitung. Wir werden auf den entsprechenden Teil der Searleschen Kritik, die vor allem in Searle (1996) niedergelegt ist, in der letzten Vorlesung zurückkommen, die sich mit dem Leib-Seele-Problem befaßt.
3. Prinzipiell sieht Searle jedoch die Möglichkeit gegeben, eines Tages Systeme (jedoch keine Computer im herkömmlichen Sinne) zu konstruieren, die denken können. Er wendet sich aber gegen die These, dass dieses durch hardwareunabhängige, rein syntaktisch arbeitende Algorithmen geschehen könne, da diese nur strukturierte Symbole manipulieren würden, während im menschlichen Gehirn eine semantische Ebene dazukommt, die möglicherweise durch die Selbstorganisation von neuronalen Aktivitätsmustern und deren Bezogenheit auf Sinneswahrnehmungen und Motorik (und damit die Außenwelt) gegeben ist.
Das
chinesische Zimmer
Man stelle sich vor, in einem Raum zu sitzen,
worin sich dicke Büchern mit Regeln, leere Blätter sowie genügend
Schreibutensilien befinden. Der Kontakt zur Außenwelt geschieht durch
zwei Wandschlitze, die Input und Output heißen. Gelegentlich
schiebt jemand Papierstücke mit chinesischen Schriftzeichen durch
den Input-Schlitz. Meine Aufgabe als Insasse im chinesischen Zimmer
ist nun, den Abschnitt in einem der Regelbücher zu finden, der mit
der Sequenz von Schriftzeichen auf dem eingesteckten Papierstück übereinstimmt.
Das Regelbuch sagt dann, welche Schriftzeichen auf ein leeres Blatt Papier
zu schreiben sind. (Man kann sich die Regelbücher auch gerne etwas
komplizierter denken, sodaß Zwischenergebnisse anfallen und Verweise
zu anderen Regelbüchern zulässig sind). Wenn alles aufgeschrieben
ist, muß das Papierstück durch den Output-Schlitz gesteckt
werden.
Der Insasse des chinesischen Zimmers versteht
natürlich kein Wort Chinesisch. Er braucht nicht einmal zu wissen,
daß die Symbole, die er manipuliert, überhaupt chinesische Schriftzeichen
sind.
Nun nehmen wir an, daß die empfangenen
Inputs
echte
auf Chinesisch gestellte Fragen über einen bestimmten Gegenstandsbereich
sind und die produzierten Outputs die angemessenen, ja als einsichtsvoll
zu charakterisierenden Antworten darauf darstellen. Für
den draußen vor dem Zimmer stehenden Betrachter, der die Fragen gestellt
hat, sollen die Antworten so gut ausfallen, daß er den Eindruck gewinnt,
daß sie nur von einem Sprecher des Chinesischen stammen können.
Dieses Gedankenexperiment, so Searle, beinhaltet eine wirkungsvolle Widerlegung der Rolle des Turing-Tests. Darüber hinaus glaubt Searle, daß sein chinesisches Zimmer eine wirkungsvolle Widerlegung der starken KI beinhaltet. Beiden Einstellungen wurde widersprochen. Ich gebe zwei Gegenargumente und verhehle nicht, daß sie mir wenig überzeugend erscheinen.
Die Systemantwort
"Es
ist offensichtlich wahr, daß die Person, die im chinesischen Zimmer
eingeschlossen ist, kein Chinesisch versteht. Tatsache ist jedoch, daß
sie bloß ein Teil des Systems ist. Das ganze System versteht Chinesisch.
Und dazu gehören die Regelbücher, Schmierzettel für Zwischenresultate,
evt. Datenbanken etc. Sprachverstehen wird nicht dem Individum zugeschrieben,
sondern dem ganzen System, von dem das Individuum nur ein Teil ist." (aus
Searle 1980)
Searles Erwiderung
"...Wir nehmen an, daß
das Individuum alle Elemente des Systems verinnerlicht. Es hat die entsprechenden
Anweisungen gelernt und kennt die Datenbanken mit den chinesischen Symbolen
auswendig. Und es ist fähig, alle Berechnungen im Kopf auszuführen.
Auf diese Weise sind die ursprünglich externen Komponenten vollständig
"verinnerlicht" worden. Dennoch würde keiner sagen, daß die
Person jetzt Chinesisch versteht, obwohl sie zu den richtigen Resultaten
gelangt." (aus Searle 1980)
Searles Erwiderung (gekürzt)
". . . the addition of such
"perceptual" and "motor" capacities adds nothing by way of understanding,
in particular, or intentionality, in general . . . the robot has no intentional
states at all; it is simply moving about as a result of its electrical
wiring and its program . . ." (aus Searle 1980)
Literatur: