Heft 923, April 2026

KI-Kolumne

Quecksilbrige KI von Paola Lopez

Quecksilbrige KI

Es ist nicht einfach, über KI zu sprechen, und trotzdem tun es alle. Was hat der Empfehlungsalgorithmus, der die Inhalte einer Social-Media-Plattform kuratiert, zu tun mit der automatisiert erstellten Textzusammenfassung, die PDF-Reader wie Adobe Acrobat uns ab einer Lesebelastung von einer Seite aufdrängen möchten? Oder mit einem strickenden Roboterarm? Der automatisierten Gesichtserkennungssoftware, die in den USA von ICE-Beamten verwendet wird, um Protestierende zu identifizieren?

KI ist quecksilbrig, auf mehreren Ebenen: erstmal mit Blick auf die konkreten Produkte, die derzeit angeboten werden. Ein neues generatives KI-Modell wird veröffentlicht, und alle beschäftigen sich damit, was es kann und was nicht. Dann gibt es ein wiederum neues Modell, das manches besser kann als das Vorgängermodell, manches schlechter und manches anders. Wieder beschäftigen sich alle damit. Es ist nicht gut möglich, einen Überblick über die Funktionalitäten und Kapazitäten aller KI-Modellen zu behalten. Alleine auf der Plattform des Anbieters OpenAI – und das ist nur einer von vielen – sind derzeit 73 verfügbar.

In der Liste enthalten sind reasoning models, das »smartest non-reasoning model«, Modelle, die für Audioerzeugung geeignet sein sollen, Modelle, die für Videoerzeugung empfohlen werden, besonders schnelle Modelle, besonders billige Modelle, Modelle für das Durchsuchen des Internets, spezialisierte Modelle für Audiosynchronisation, Modelle, die besonders gut programmieren können sollen, Modelle, die auf »content moderation« fokussiert sind, Modelle, die gut Sprache zu Text transkribieren können sollen, Modelle für »deep research«, die besonders geeignet sein sollen für »legal or scientific research« oder »market analysis«. Ferner Modelle, die »deep research« versprechen, jedoch schneller und günstiger sind als das eigentliche »deep research«-Modell. Manche Modelle kann man selbst adaptieren (fine-tunen) für die eigenen Zwecke, manche sind von der Stange.

Jedes dieser Modelle funktioniert anders. Es ist methodisch also wenig sinnvoll, eines von ihnen zu beforschen, sich intensiv damit zu beschäftigen, die Outputs zu studieren, Systematiken zu finden, um dann etwas über »KI« zu sagen. KI als Forschungsobjekt ist quecksilbrig. Die Mannigfaltigkeit der verfügbaren Produkte eines Anbieters ist hier aber noch das kleinste Problem.

Die Informatiker Arvind Narayanan und Sayash Kapoor beginnen ihr Buch AI Snake Oil mit einem Gedankenexperiment: Man stelle sich vor, man lebe in einer Parallelwelt, in der es keine ausdifferenzierten Begriffe für »Auto«, »Fahrrad«, »Schiff«, »E-Scooter«, »Raumschiff« und so weiter gibt, sondern nur den Begriff »Fahrzeug«. Die Gespräche in dieser Welt, schreiben Narayanan und Kapoor, sind verwirrend: Diskussionen über die Umweltbelastung durch »Fahrzeuge« führen ins Nichts, weil die einen von LKWs und die anderen von Fahrrädern sprechen. Wird medial über eine Neuigkeit in der Raketenantriebstechnik berichtet, dann eilen alle zu ihrem »Fahrzeughändler« und verlangen den neuesten Raketenantrieb für ihren PKW. Das Sprechen über KI in unserer Welt sei genauso, KI sei ein schillernder Sammelbegriff, der mitunter sehr unterschiedliche Technologien bezeichnen kann.

Spezifizität versus Vergleichbarkeit

Um also etwas Konkretes sagen zu können, müssen wir uns auf eine konkrete Technologie beziehen. Trotzdem gibt es in gewisser Weise äquivalente Zutaten, die alle KI-Systeme ähnlich durchziehen. Zu diesem Spagat zwischen dem Beharren auf Spezifizität und dem Wunsch, einen roten Faden zu finden, verhalten sich alle, die über KI sprechen, irgendwie.

Weitere Artikel des Autors