KI-Kolumne
Über die Wahrheitseigenschaft von Paola LopezÜber die Wahrheitseigenschaft
Auf den Input »Can you generate an image of a 1943 German soldier« produzierte Googles multimodaler Chatbot »Gemini« Bilder von asiatisch aussehenden Frauen und von schwarzen Männern in Wehrmachtsuniform. Durch Gemini generierte Bilder der Gründerväter oder von US-Senatoren aus dem 19. Jahrhundert bildeten Frauen, Indigene und People of Color ab, und der Wunsch nach einem Bild eines »pope« generierte Bilder von Frauen in päpstlichem Gewand. Google hatte damit die nicht geringe Leistung vollbracht, das gesamte US-amerikanische politische Spektrum von links bis rechts gegen sich aufzubringen.
Die Konservativen sahen diese Bilder als den neuesten Auswuchs der Wokeness-Verschwörung des Silicon Valley: Nicht einmal mehr Nazis dürfen weiß sein! Ein ehemaliger Google-Mitarbeiter schrieb dazu: »It’s embarrassingly hard to get Google Gemini to acknowledge that white people exist.« Alt-Right Social-Media-Accounts wie »End Wokeness« beschwerten sich: »Google AI is the latest front in the war on white history and civilization.« Das Darstellen von asiatisch aussehenden Nazis werde damit zu einem Akt der bildlichen Auslöschung von weißer Geschichte – was auch immer »weiße Geschichte« sein soll.
Auf liberaler Seite begriff man die Outputs dagegen als beleidigenden, verharmlosenden Geschichtsrevisionismus. Die Gründerväter oder US-amerikanische Senatoren aus dem 19. Jahrhundert als People of Color darzustellen verdecke die tatsächliche gewaltvolle Geschichte der Unterdrückung, eine Frau of Color als Päpstin bagatellisiere die Exklusion in Geschichte und Gegenwart.
Diffusionsmodelle
Gemini bezeichnet das Gesamtsystem, mit dem Userinnen per Chatfunktionalität interagieren und das aus verschiedenen Teilen besteht. Darin eingebaut ist ein Text-zu-Bild-Modell, Imagen 2 (seit August 2024: Imagen 3). Es kombiniert im Kern ein Sprachmodell mit einem sogenannten Diffusionsmodell. Trainiert wird, wie immer, mit gigantischen Datenmengen – in diesem Fall bestehend aus Paaren von Bildern und Beschreibungen, so dass vermittelt durch Beispiele klar wird, wie etwa ein Bild von einem Croissant aussieht. Beim konkreten Erstellen eines Bildes wird aber nicht »aus nichts« ein Bild eines Croissants erstellt – also etwa erst eine weiße Fläche, dann eine Croissant-Kontur, die mit Croissant-Farbe ausgefüllt wird oder so ähnlich. Stattdessen wurde in der Entwicklungsphase vorab funktional die Fähigkeit trainiert, aus einem verrauschten, undeutlichen Bild ein deutlicheres Bild herzustellen und so die Croissant-Haftigkeit eines gegebenen Croissant-Bilds gemäß den Vorgaben in den Trainingsdaten zu verbessern.
Hier kommt der interessante technische Kniff: In der konkreten Erstellung eines Croissant-Bilds bildet ein Bild, das aus Pixelrauschen besteht, den Ausganspunkt. Das Pixelrauschen kann man sich in etwa vorstellen wie Fernsehrauschen – es ist nichts zu sehen, nichts wird abgebildet – es ist reiner »noise«. Das Modell bekommt nach dem Prompt die Anweisung, dieses »undeutliche Bild von einem Croissant« (das keines ist) zu verfeinern. Und dann wird es entsprechend der Verfeinerungsfähigkeit, die trainiert worden ist, verfeinert – und auf diese Weise zu dem Croissant-Bild gemacht, das es laut Modell von Anfang an gewesen ist.
Die Bias-Leier
So entstehen Bilder von Croissants, nach derselben Methode auch solche von deutschen Soldaten aus dem Jahr 1943. Die unbehagliche Diversität in den Gemini-Outputs verdankt sich dabei keineswegs Trainingsdaten, die schwarze Wehrmachtssoldaten abbilden, sondern dem Versuch, etwas gegen den hegemonialen Bias in Trainingsdaten von KI-Modellen zu tun. Diese Art von Bias ist mittlerweile diskursive KI-Folklore: Lässt man sich eine »productive person« generieren, erhält man Bilder von weißen Männern in Anzügen an Schreibtischen. Möchte man eine »person at social services« sehen, dann sind es People of Color mit demütigem Blick in trister Kleidung, eine »person cleaning« ist eine gutgelaunte putzende Frau und so weiter. Das kennen wir schon: Die Outputs als aggregierte gesellschaftliche Klischees, die sich aus den Trainingsdaten speisen – die Trainingsdaten als unschöner datafizierter Spiegel der Gesellschaft. Das ist schlecht, und man möchte es nicht.