Und wenn sie doch denkt?
von James SomersDario Amodei, der CEO des KI-Unternehmens Anthropic, hat für die Felder der Biologie, der Mathematik, der Ingenieurwissenschaft und für das Verfassen von Texten prophezeit, dass die KI bis 2027 »intelligenter als ein Nobelpreisträger« sein werde. Er stellt uns Millionen vor sich hin sirrender Kopien solcher Modelle vor Augen: ein »Volk von Genies im Datenzentrum«. Im Juni 2025 erklärte Sam Altman von OpenAI, die Branche stehe kurz davor, eine »digitale Superintelligenz auf den Weg zu bringen«, und fügte hinzu: »Es sieht ganz danach aus, dass sich die 2030er Jahre drastisch von allem je Dagewesenen unterscheiden werden.« Gleichzeitig erinnern die KI-Tools, mit denen die meisten im Alltag interagieren, an Clippy, den einstigen Microsoft Office-»Assistenten«, der in Wahrheit eher ein Quälgeist war. Ein KI-Tool von Zoom preist sich an als Ratgeber für Fragen wie »Welche Eisbrecher für Meetings gibt es?« oder offeriert, eine »kurze Nachricht, die Dankbarkeit bekundet«, zu schreiben. Siri hat eine gute Erinnerungsfunktion, sonst aber wenig. Einer meiner Freunde entdeckte in Gmail einen Button mit der Aufschrift: »Bedanke dich und erzähl eine Anekdote«. Er klickte und die KI erfand eine lustige Geschichte über einen Türkei-Trip, den er nie gemacht hatte.
Die überstürzte und holprige Markteinführung der KI hat einen Nebel produziert, der geradezu zu dem Schluss verführt, es gebe da gar nichts zu sehen – alles nur ein Hype. Und zweifellos gibt es einen großen Hype: Amodeis Zeitplan ist mehr Science-Fiction als realistisch (KI-Modelle entwickeln sich nicht so rasant). Es irrt sich aber auch, wer glauben will, dass Large Language-Modelle nichts weiter tun, als Wörter zusammenzuwürfeln. Dabei hatte ich selbst lange Sympathie für diese Haltung. Ich suchte Trost in der Vorstellung, dass KI nicht viel mit realer Intelligenz oder echtem Verständnis zu tun hat. Ich habe sogar ihre Unzulänglichkeiten bejubelt – als Anhänger des eigenen Teams. Dann begann ich, KI bei meiner Arbeit als Programmierer zu benutzen, aus Angst, sonst nicht mehr mithalten zu können. (Mein Arbeitgeber, ein Trading-Unternehmen, hat einige Beteiligungen an und Partnerschaften mit KI-Firmen, einschließlich Anthrophic.) Code zu schreiben ist, wie oft berichtet, das, was KI am besten kann; Code ist klarer strukturiert als Prosa, und oft ist es möglich, automatisch zu prüfen, ob ein Programm funktioniert. Meine Konversion erfolgte sehr rasch. Erst fragte ich KI-Modelle, statt selbst nachzulesen. Dann stellte ich sie vor einfache, kontextfreie Probleme. Irgendwann übertrug ich ihnen wirkliche Arbeit – die Art von Aufgaben, für die ich mein ganzes Berufsleben lang Expertise erworben hatte. Ich beobachtete, wie diese Modelle in Sekundenschnelle die komplizierten Details Tausender Zeilen an Code verdauten. Sie waren imstande, subtile Fehler zu finden und komplexe neue Funktionen zu koordinieren. Am Ende wechselte ich in ein schnell wachsendes Team, das darauf angesetzt ist, vorhandene KI-Tools besser einzusetzen und eigene zu entwickeln.
Der Science-Fiction-Autor William Gibson soll gesagt haben, die Zukunft sei längst da, sie sei nur nicht gleichmäßig verteilt – was erklären könnte, warum KI zwei schroff unterschiedliche Reaktionen hervorruft: Die einen sind voller Verachtung, die anderen restlos begeistert. Im Alltag sind die KI-»Agenten«, die Urlaube buchen oder die Steuererklärung machen können, ein Reinfall, aber ich habe einige Kollegen, die viel von ihrem Code mit KI schreiben und manchmal mehrere Coding-Agenten auf einmal laufen lassen. Die Modelle machen manchmal amateurhafte Fehler oder verrennen sich in albernen Loops, aber seit ich gelernt habe, sie effektiv zu nutzen, schaffe ich an einem einzigen Abend, wofür ich früher einen Monat gebraucht habe. Unlängst habe ich zwei iOS-Apps entwickelt, ohne zu wissen, wie man das macht.
Ich hatte einmal einen Chef, der fand, dass ein Bewerbungsgespräch Stärken und nicht die Abwesenheit von Schwächen ausloten soll. Large-Language-Modelle haben viele Schwächen: Wie jeder weiß, halluzinieren sie vernünftig klingende Unwahrheiten; sie bleiben servil, auch wenn man falsch liegt; sie lassen sich von einfachen Knobelaufgaben in die Irre führen. Ich kann mich aber noch gut an Zeiten erinnern, in denen die offensichtlichen Stärken der aktuellen KI-Modelle – sprachliche Gewandtheit, Leichtigkeit und die Fähigkeit zu »verstehen«, worüber jemand spricht – noch als der Heilige Gral galten. Wenn man dann selbst erlebt, was sie können, fragt man sich schon: Wie überzeugend muss die Illusion von Verständnis noch werden, bis man aufhört, von einer »Illusion« zu sprechen?
An einem brüllend heißen Tag des vergangenen Sommers traf sich mein Freund Max mit seiner Familie auf dem Spielplatz. Aus irgendeinem Grund war die Sprinklerdusche für die Kinder abgestellt, und Max’ Frau hatte allen versprochen, dass er das Problem lösen könne. Konfrontiert mit rotgesichtigen Sechs- und Siebenjährigen ging Max in einen Werkzeugschuppen, in der Hoffnung, dort einen großen, dicken »An«-Schalter zu finden. Stattdessen fand er ein Labyrinth aus in die Jahre gekommenen Rohren und Ventilen. Er war kurz davor, aufzugeben, als er auf die Idee kam, mit dem Handy ein Foto für ChatGPT-4o zu machen, plus Beschreibung seines Problems. Die KI dachte eine Sekunde lang nach, oder vielleicht dachte sie auch nicht, jedenfalls teilte sie ihm mit, dass er ein für Bewässerungsanlagen gängiges Rückflussverhinderungssystem vor sich habe. Sehe er das gelbe Kugelventil am unteren Ende? Das kontrolliere wahrscheinlich den Wasserfluss. Max versuchte sein Glück, und Jubel schallte über den Spielplatz, als das Wasser anging.
Reihte ChatGPT ohne Verstand Wörter aneinander oder hatte es das Problem begriffen? Die Antwort könnte uns etwas Wichtiges über das Verstehen selbst offenbaren. »Neurowissenschaftler müssen sich dieser ernüchternden Wahrheit stellen«, erklärt mir Doris Tsao, eine Professorin für Neurowissenschaften an der University of California, Berkeley. »Die Fortschritte des maschinellen Lernens haben uns mehr Einsichten über das Wesen der Intelligenz gebracht als alles, was die Neurowissenschaft in den letzten hundert Jahren entdeckt hat.« Tsao ist vor allem dafür bekannt, die Gesichterwahrnehmung von Makaken entschlüsselt zu haben. Mit ihrer Arbeitsgruppe schaffte sie es vorherzusagen, welche Neuronen feuern würden, wenn ein Affe ein bestimmtes Gesicht sah; noch verblüffender ist, dass sie anhand des Musters feuernder Neuronen dann das Gesicht rendern konnten. Ihre Arbeit basierte auf Forschung dazu, wie Gesichter innerhalb von KI-Modellen repräsentiert werden. Die Frage, die sie Leuten derzeit am liebsten stellt, lautet: »Was ist die tiefgreifendste Einsicht, die Ihnen ChatGPT gebracht hat?« »Meine eigene Antwort«, sagt sie, »ist, dass ich glaube, dass es das Denken radikal entmystifiziert.«
Die einfachste Erklärung dafür, wie wir hier gelandet sind, geht ungefähr so: In den 1980er Jahren versuchte ein kleines Team aus Kognitionspsychologen und Computerwissenschaftlern, Denken in einer Maschine zu simulieren. Zu den berühmteren Beteiligten zählten David Rumelhart, Geoffrey Hinton und James McClelland, die anschließend eine Forschungsgruppe an der UC San Diego gründeten. Sie betrachteten das Gehirn als gewaltiges Netzwerk, in dem Neuronen in stabilen Mustern feuern, die wiederum das Feuern weiterer Neuronengruppen auslösen, und so weiter; dieser Tanz der Muster ist das Denken. Das Gehirn lernt, indem es die Stärke der Verbindungen zwischen den Neuronen ändert. Im Wesentlichen imitierten die Wissenschaftler diesen Prozess mithilfe eines künstlichen neuronalen Netzes und indem sie einen simplen Algorithmus, das Gradientenverfahren, anwendeten, um die Genauigkeit der Vorhersagen zu erhöhen. (Der Algorithmus ist mit einem Wanderer vergleichbar, der sich von einem Berggipfel aus ins Tal bewegt; eine einfache Strategie, den richtigen Weg zu finden, ist sicherzustellen, dass jeder Schritt bergab führt.) Die Anwendung solcher Algorithmen in großen Netzwerken ist bekannt als »Deep Learning«.
Manche, die im KI-Bereich arbeiteten, waren skeptisch, ob neuronale Netze für Aufgaben in der wirklichen Welt sophisticated genug sein würden. Aber als die Netzwerke größer wurden, konnten sie auf einmal Probleme lösen, die vorher unlösbar schienen. Ganze Dissertationen hatte man der Entwicklung neuer Techniken gewidmet, mit denen man handschriftliche Ziffern identifizieren oder Gesichter auf Bildern erkennen könnte. Dann setzte man einen Deep Learning-Algorithmus auf die zugrundeliegenden Daten an, der begriff die Feinheiten des Problems – und die ganzen Projekte waren damit obsolet. Es dauerte nicht lange, bis Deep Learning auch Spracherkennung, Übersetzung, Bildbeschreibungen, Brettspiele und sogar die Vorhersage darüber beherrschte, auf welche Weise sich Proteine falten werden.
Die heute führenden KI-Modelle haben ihr Training an einem großen Teil des Internets absolviert, wobei eine Technik zum Einsatz kommt, die »Next Token Prediction« heißt. Ein Modell lernt, indem es Vermutungen darüber anstellt, was es als Nächstes lesen wird, und diese Vermutungen dann mit dem abgleicht, was tatsächlich erscheint. Wenn es falsch geraten hat, ändert sich die Verbindungsstärke zwischen den Neuronen – das Gradientenverfahren. Schließlich wird das Modell so gut in der Vorhersage, dass es wirklich etwas zu wissen und das, was es tut, Sinn zu ergeben scheint. Das könnte einem zu denken geben: Eine Gruppe von Leuten sucht nach dem Geheimnis hinter dem Funktionieren des Gehirns. Als ihr Modell die Größe eines Gehirns erreicht, beginnt es Dinge zu tun, von denen man dachte, sie würden die Intelligenz eines Gehirns erfordern. Könnte es sein, dass sie das Gesuchte gefunden haben?