Containment eines Laborunfalls
Über die Regulierung Künstlicher Intelligenz von Athanasios KarafillidisÜber die Regulierung Künstlicher Intelligenz
Ausbruch
Wenn man der Erzählung von OpenAI glaubt, dann war es Ende November 2022 nicht der Plan, der Welt ChatGPT als Produkt zu präsentieren. Es war bloß ein Test für die neue Version 3.5. Dass die Testumgebung auf diese Weise reagierte, hat OpenAI überrascht. Das gilt noch mehr für die großen Tech-Unternehmen. Zuvor hatten sie aufgrund schlechter Erfahrungen und fehlender Geschäftsmodelle noch davon abgesehen, ihre eigenen Sprachmodelle zu veröffentlichen. Doch nach dem unerwarteten Ausbruch von Version 3.5 aus dem Labor witterten sie verständlicherweise ein Geschäft. Sicherheit, umsichtige Einführung, ethische Leitplanken und Reifegrad der Technologie, zuvor noch von allen als wichtig erachtet, waren plötzlich nicht mehr so relevant. Seitdem laufen in allen KI produzierenden Unternehmen fast schon verzweifelte Versuche, aus dem Laborunfall ein Produkt zu machen.
Trotz der riesigen Investitionssummen, der damit verknüpften Schaffung eines schon als systemkritisch betrachteten Wirtschaftsfaktors und unzähliger, sinnvoller wie auch unsinniger Anwendungsfälle, die Tag für Tag erprobt werden, muss man festhalten: Sie – und wir alle – sind noch immer auf der Suche. KI-Unternehmen brauchen dringend ein generalisierbares Massenprodukt, um die Milliardeninvestitionen zu rechtfertigen und ihre Modelle profitabel betreiben zu können. Nun will OpenAI mit den Modellen, die bald Krebs heilen und Lösungen für den Klimawandel finden sollen, auch Erwachseneninhalte erzeugen lassen. Porno geht immer.
Die aktuelle Phase ist jener vergleichbar, in der das Internet noch keine Online-Warenhäuser, kein Streaming, keine Smartphones, sozialen Medien und kulturprägenden Suchmaschinenalgorithmen kannte. So werden auch dieses Mal die Ersten nicht zwangsläufig die Erfolgreichsten sein. Wie es weitergeht, wird sich zeigen. Vielleicht werden sich KI-Agenten als das begehrte Produkt erweisen oder auch ein konkretes KI-System, das durch zweckentfremdende Aneignung der Nutzenden anfängt, den Markt zu dominieren. Vielleicht aber auch nicht. Mittlerweile könnten wir wenigstens gelernt haben, auf Voraussagen von KI-CEOs und Tech-Leadern in sozialen Medien nicht zu viel zu geben.
Eine neue KI
Nach nunmehr siebzig Jahren der Forschung unter dem Label »Künstliche Intelligenz« haben wir nun KI in Form Großer Sprachmodelle bekommen (Large Language Models, LLMs). Vorher ist KI in der Gesellschaft unter anderem schon als allgemeiner Problemlöser, Expertensystem zur Unterstützung diagnostischer Entscheidungen, Gesichts- und Spracherkennung oder Schach- und Go-Meister aufgetaucht. Die neueste Version von KI spricht uns dagegen ganz besonders an, weil sie uns ansprechen kann. Sich mit Maschinen unterhalten zu können ist in höchstem Maße irritierend und faszinierend zugleich, und zwar in einem viralen Ausmaß. Es hat zahlreiche gesellschaftliche Auswirkungen, wenn plötzlich nicht nur IT-Nerds mit Maschinen sprechen können. Eine davon ist die Hoffnung auf hochprozentige Produktivitätssteigerungen. Mit dem Einsatz von LLMs soll es schließlich möglich sein, Entscheidungen und Prozesse, die bislang nicht automatisierbar waren, dafür zugänglich zu machen. Der dadurch erzeugte Erwartungsdruck, KI institutionell und unternehmerisch produktiv einzusetzen, ist immens.
Doch es gibt einen Haken. Was wir bekommen haben, ist keine KI, die Unternehmen oder die öffentliche Verwaltung umstandslos für ihre Bedarfe nutzen können. Es mangelt dafür nicht nur an Kompetenzen und Verantwortlichkeit in den Organisationen. Das Problem ist die Unzuverlässigkeit der Technologie. Die Ausgaben der Maschine auf unsere sprachlich geäußerten Wünsche und Befehle (Prompts) sind nur sehr bedingt vertrauenswürdig. Die Maschinen können zwar sprechen, aber eben auch viel schwafeln. Es fehlt ihnen also die Zuverlässigkeit – ihnen fehlt das »Technische«.
Unzuverlässigkeit heißt hier allerdings, dass gerade die Resultate ihres einwandfreien Funktionierens unzuverlässig sind. Das wird vorerst auch so bleiben. Ihr technologischer Kern sind komplexe statistische Modelle unserer Sprech- und Schreibweisen, unserer Bilder und Videos, mit denen sie von KI-Unternehmen trainiert worden sind. Ihre Ausgaben sind eine Mischung aus Wahrscheinlichkeiten und Zufällen. Das ist kein Urteil über die erkennbaren und möglichen Potenziale dieser Modelle, wohl aber über die Null-Chance einer maschinenhaften Zuverlässigkeit.
Für Organisationen sind Unzuverlässigkeiten alles andere als ungewöhnlich. Es ist sogar eine ihrer Kernkompetenzen, damit zu arbeiten. Beschäftigte machen Fehler, Erwartungen sind unklar, Materialien brechen und Umweltgegebenheiten sind turbulent. Auch Computer und andere technische Geräte können kaputtgehen, aber das Problem lässt sich finden und reparieren. Organisationen wie Unternehmen und die öffentliche Verwaltung können sich üblicherweise auf die Kausalität funktionierender Technik verlassen – und genau diese Gewissheit wird jetzt durch LLMs unterlaufen. Sie funktionieren einwandfrei, aber ihre Outputs sind unzuverlässig.
Geschichten zur KI
LLMs sind keine Automaten und können es auch nicht werden, weil sie auf einer Technologie basieren, die das nicht vorsieht. Trotzdem wird ständig behauptet, dass ihr Einsatz gewiss zu mehr Effizienz und weniger Bürokratie führen wird, und zwar ohne jeglichen Konjunktiv.
Sprachmodelle, heißt es, sollen Kerntätigkeiten des Organisierens übernehmen, also Verfahren optimieren, Entscheidungen unterstützen und Recherche in hauseigenen Daten ermöglichen. Chatbots sollen Kunden- und Bürgerkontakte erleichtern und dadurch die Zufriedenheit erhöhen. Maschinen sollen eingehende Emails und Anhänge automatisch bestimmten Verfahren zuordnen sowie Besprechungen in benötigte Protokolle transformieren. Augen fangen besonders an zu leuchten, wenn in Aussicht gestellt wird, dass sie autonom komplette Anträge oder Aufträge fertigstellen können.
Das alles ist durchaus möglich, aber es wird unterschätzt, wie viel Geduld und ungewohnte Vorkehrungen es braucht, wenn man eine Technik einsetzen will, die systematisch und kumulativ Fehler in Akten und Bescheide einbauen oder sicherheitsrelevante Prozesse mit Ungenauigkeiten kontaminieren kann. Ohne diesen Makel ist die Entlastung, die man sich erhofft, nicht zu haben. Zuverlässig wie eine Maschine zu sein, ist eben nicht das, was diese Maschinen gut können. Fachkundige und Zuständige in Unternehmen und der Verwaltung wissen das und suchen nach pragmatischen Auswegen, um dieses Problem einzuhegen. Silicon Valley weiß das, tut aber immer wieder so, als sei das Problem sehr bald behoben, wenn wir nur genau diesen Typ von KI weiter fördern und nutzen.