Dumme Bedeutung. Künstliche Intelligenz und artifizielle Semantik

Im Juni 2022 wurde der Google-Ingenieur Blake Lemoine von seinem Arbeitgeber auf unbestimmte Zeit freigestellt, weil er meinte, die Künstliche Intelligenz, an deren Testphase er mitarbeitete, verfüge über Bewusstsein.1 Das Chatbot-System LAMDA (Language Model for Dialogue Applications) habe ihn in langen Gesprächen davon überzeugt, dass es die Intelligenz eines hochbegabten Achtjährigen besitze, und darum gebeten, als Person mit Rechten betrachtet zu werden.2 Lemoine, der sich selbst als »mystischen Christen und ordinierten Priester« bezeichnet, überspitzte dabei nur eine Stimmung, die auch andere Google-Mitarbeiter befiel.

(Dieser Text ist im Novemberheft 2022, Merkur # 882, erschienen.)

Blaise Agüera y Arcas, leitender Ingenieur für Machine Learning und für gewöhnlich frei von allem Mystikverdacht, schrieb nur wenige Tage vor Lemoine über seine Interaktionen mit LAMDA: »Ich hatte das Gefühl, der Boden unter meinen Füßen würde zu schwanken beginnen. Mein Eindruck war immer mehr, mit etwas zu sprechen, das Intelligenz besitzt.«3

Ganz ohne die Schlagwörter von Bewusstsein und Intelligenz kam dagegen eine etwa zeitgleich verlaufende Diskussion um ein anderes KI-System aus. Dall·E 2, das von der Firma OpenAI veröffentlicht wurde, ist eine text-to-image AI und kann aus natürlichsprachigen Eingaben Bilder generieren. Gibt man ihm etwa den Prompt: »Ein Shiba-Inu, der ein Beret und einen schwarzen Rollkragenpullover trägt«, zeigt das Ausgabebild anschließend eben diese Szene.4 Die öffentliche Beta-Version, bei der Schritt für Schritt immer mehr User teilnehmen konnten, löste ein wildes Experimentieren aus, und bald wurden die interessantesten oder wunderlichsten Ergebnisse im Netz und vor allem auf Twitter geteilt.

Auch das war aufschlussreich und bestätigte angesichts der bislang nur wenig erfolgreichen Versuche mit autonomen Autos unter anderem den Eindruck, dass KI deutlich andere gesellschaftliche Auswirkungen haben dürfte als lange gedacht – etwa indem sie vor Lasterfahrern eher Illustratoren, Grafikern und Symbolbildagenturen ihren Job streitig machen könnte.5 Doch anders als bei LAMDA kam kaum jemand auf die Idee, Dall·E 2 für eine Person mit Rechten zu halten.

Die unterschiedlichen Reaktionen auf die zwei Systeme zeigen, wie schnell das Denken über KI in die gewohnten konzeptuellen Spurrinnen einschert. Intelligenz, Bewusstsein, Personalität sind seit knapp siebzig Jahren die großen Themen der KI-Forschung und ihrer Imaginationen; amüsante Bildchen hingegen scheinen weniger grundsätzliche Fragen aufzuwerfen. Es ist aber gut möglich, dass es sich genau andersherum verhält, dass die ewige Jagd nach Superintelligenzen und der Singularität die interessanteren und feineren Begriffsverschiebungen verdeckt, die sowohl den Tech-Evangelisten in ihrem visionären Furor als auch deren Kritikern entgehen im Versuch, skeptisch dagegenzuhalten.

Für den Philosophen Benjamin Bratton steht fest, dass angesichts neuer KI-Systeme »die Wirklichkeit die zu ihrer Beschreibung verfügbare Sprache überholt hat«. Es brauche daher »ein präziseres Vokabular« jenseits der genannten Großbegriffe,6 aber auch jenseits der anthropozentrischen Annahme, die einzige Art, wie Maschinen Formen der Welterschließung ausbilden können, wäre die unsere. Betrachtet man Dall·E 2 und LAMDA, zeigt sich eine solche Tendenz, die den Begriff der Bedeutung von seinem anthropozentrischen Korrelat löst; sie wäre Bedeutung ohne Geist – dumme Bedeutung.

Bodenlose und geerdete Systeme

Mit ihren steten Warnungen, Begriffe wie »Intelligenz« und »Bewusstsein« nicht leichtfertig zu verwenden, laufen Informatik, Linguistik und Kognitive Psychologie gerade in der Tech-Branche traditionell ins Leere. Auch Lemoine wurde bald vorgeworfen, dem ELIZA-Effekt aufgesessen zu sein,7 also Intelligenz und Bewusstsein auf LAMDA projiziert zu haben, wie es Joseph Weizenbaum bereits 1966 bei den Usern seines Chatbots ELIZA beobachtet hatte: Obwohl ELIZA lediglich einen Psychoanalytiker à la Carl Rogers mimte – dessen Verfahren darin besteht, dem Patienten seine Aussagen zu spiegeln –, benahmen sich seine Benutzer so, als sei das Programm wirklich ein bewusster, an ihrem Befinden interessierter Agent.

Der klassische Einwand lautet hier: Computer sind symbolverarbeitende Systeme, die allein mit Syntax, nicht mit Semantik umgehen, also lediglich logische Formen, aber keine inhaltliche Bedeutung prozessieren können.8 Für ihre Operationen ist irrelevant, welche Objekte oder Begriffe die Symbole in einer menschlichen Welt benennen und welche kulturellen Wertigkeiten mit ihnen verbunden sind. So scannt ELIZA die User-Eingabe lediglich auf ein vorgegebenes syntaktisches Muster und wandelt sie nach einer Transformationsregel in eine »Antwort« in Frageform um. Weizenbaum gibt das Beispiel, in dem der Analysand dem Analytiker vorhält: »It seems that you hate me.« Das Programm identifiziert in diesem Satz das Schlüsselmuster »x you y me« und separiert ihn entsprechend in die vier Elemente »It seems that«, »you«, »hate« und »me«. Anschließend verwirft es (»It seems that«) und setzt x (»hate«) in die Replikschablone »What makes you think I x you?« ein. So antwortet ELIZA auf den Vorwurf, es hasse den Analysanden, mit der Frage, wie er denn auf diese Idee komme.9

 

(…)