ChatGPT und der Unterschied zwischen Form und Inhalt
von Paola LopezSeit seiner Präsentation bekommt ChatGPT viel Aufmerksamkeit. Einige argumentieren, das Erstellen von Text werde positiv revolutioniert – andere fürchten eine Erosion verschiedenster textbasierter Institutionen wie etwa Zeitungen oder Beurteilungsmodi von Bildungsinstitutionen. Die meisten sind sich jedenfalls einig: ChatGPT und ähnliche Sprachmodelle sind, weil besonders gut, etwas Großes. Gleichzeitig schwirren Beispiele durch das Internet, die zeigen, wie schlecht, falsch und unsinnig ein von ChatGPT produzierter Text sein kann. Diese Beurteilungsskala ist jedoch eindimensional – die Frage, »wie gut« ChatGPT funktioniert, geht an wesentlichen Punkten vorbei. Wie etwa: Was bedeutet »gut« in diesem Kontext? Was folgt daraus, dass ChatGPT »gut« ist? Und die wichtigste Frage: Was wollen wir eigentlich von Texten?
Übersehen wird dabei gerne, dass die technischen Fähigkeiten von ChatGPT in ganz wesentlicher Weise beschränkt sind. Beschränkt meint hier eine systematische Einschränkung: Manche Dinge kann ChatGPT und manche nicht. Und welche es kann und welche nicht, hängt mit seinen mathematischen Eigenschaften zusammen. Auch ein Material wie etwa Holz eröffnet für seinen Gebrauch bestimmte Möglichkeitsräume. Aus Holz kann man eine Menge herstellen: Stühle, Zahnbürsten, Papier, aber der Möglichkeitsraum, der durch die Materialität von Holz abgesteckt wird, ist natürlich beschränkt. Wenn wir einen hölzernen Tisch bauen und von diesem Tisch erwarten, dass er Elektrizität leitet, dann werden wir enttäuscht werden. Holz hat bestimmte Charakteristika, die es uns ermöglichen, abzuschätzen, für welche Zwecke wir es sinnvollerweise verwenden können und für welche nicht.
Ähnlich ist es mit mathematischen Werkzeugen: Sie haben in ihnen angelegte mathematische Charakteristika. Manche Dinge werden durch diese Charakteristika, sozusagen durch die »mathematische Materialität«, ermöglicht und manche nicht. In diesem Sinn sind die folgenden Ausführungen zu verstehen: Was macht die Mathematik unter, hinter und in ChatGPT möglich und was nicht?
Reinforcement Learning from Human Feedback
Sprachmodelle werden auf riesigen Textdatensätzen trainiert. Das funktioniert umso besser, je mehr und je vielfältigere Texte sich in den zugrundeliegenden Trainingsdaten befinden. Im Jahr 2020 wurde von OpenAI das Sprachmodell GPT-3 vorgestellt, das viel mediale Aufmerksamkeit erregte, unter anderem durch Artikel wie A robot wrote this entire article. Are you scared yet, human? im Guardian.
Während des Trainingsprozesses wird ein Modell von Sprache erstellt. Dieses Modell wird verwendet, um Texte automatisiert zu simulieren – diese simulierten Texte sind der Output von ChatGPT. An dieser Stelle ist es wichtig, zu klären, was ein Modell ist. Ein Beispiel sind mathematische Gleichungen, die die Fortbewegung einer Welle in Wasser simulieren sollen (übrigens ein sehr schwieriges Unterfangen): Es werden mögliche Parameter eingebaut, die den Prozess determinieren und beschreiben, und schließlich drückt man mit gewissen Startbedingungen sozusagen auf »Play«, lässt das Modell laufen, und das Modell simuliert die Fortbewegung der Welle bei verschiedenen Gegebenheiten wie Tiefenänderung, variierender Bodenreibung und so weiter. Am Ende kann man vielleicht abschätzen, wann eine Welle die Küste erreicht, ob und wie sie bricht oder wie sie sich weiter verhält: Wenn eine Welle mit gegebenen Parametern zu einem bestimmten Zeitpunkt an einer Stelle ist, wo ist sie dann zwei Sekunden später, und wie sieht sie aus? Diese Prognosen werden durch Modelle ermöglicht. Das Modell ist die Abstraktion einer idealtypischen Welle. Es funktioniert unabhängig von einer konkreten Welle und kann bestenfalls in weiterer Folge in verschiedensten Kontexten eingesetzt werden.
Ein Modell soll also eine vereinfachte Version des Echten sein. ChatGPT beinhaltet ein Modell von Sprache an sich, genauer: Text an sich. Die Frage, was Text-an-sich sein soll, kann unendlich diskutiert werden – wurde bei der Entwicklung von ChatGPT aber bereits implizit festgelegt: Text ist laut den Entwicklerinnen und Entwicklern von ChatGPT das, was sich in den Trainingsdaten befindet: dem Common-Crawl-Datensatz sowie in vielen Büchern und großen Teilen von Wikipedia. Das ist immer so bei Methoden der Künstlichen Intelligenz: Alles ist, wie es ist, weil es in den zugrundeliegenden Daten so aufscheint – in diesem Fall Text.
Dabei ist es nicht so, dass ChatGPT bei jeder Erstellung eines Outputs den gesamten Trainingsdatensatz neu »durchschaut«. Es ist auch nicht so, dass bei jeder ChatGPT-Eingabe etwa das Internet nach passenden Informationen durchsucht wird. Das ist, wie bei der Modellierung von Wasserwellen, alles bereits geschehen. Die statistisch für relevant befundene Information über Sprache aus dem Trainingsdatensatz ist schon in destillierter Form im Sprachmodell enthalten – sie ist in gewisser Weise das Sprachmodell. Das Modell, sobald fertig trainiert, existiert unabhängig vom Trainingsdatensatz, so wie ein Modell einer Welle unabhängig von konkreten Wellen existiert. Nur dann, wenn die Entwickler bei OpenAI beschließen, dass weiter- oder neu trainiert wird und neue Daten inkludiert werden – dann verändern sich die Parameter des Modells und die erzeugten Texte in weiterer Folge. Das ist auch der Grund, warum man bei der Anwendung von ChatGPT darauf hingewiesen wird, das Programm habe »limited knowledge of world and events after 2021« – die Daten kennen die Welt nach 2021 nicht.
Das zugrundeliegende Sprachmodell produziert jedes Wort (genauer: jeden Wortteil) einzeln und iterativ, es tritt nach jedem Wort einen Schritt zurück, blickt auf den bisher produzierten Satz und eruiert dann aufs Neue, welches ein passendes nächstes Wort sein könnte. Ein solches Sprachmodell enthält also eine iterative Wortteilprognose. Alle bisherigen Ausführungen treffen auch auf die Vorgängermodelle GPT (2018), GPT-2 (2019) und GPT-3 (2020) zu. Wie genau die Prognose funktioniert und wie es möglich ist, semantisch sinnvoll wirkende Sätze zu produzieren, werde ich hier auslassen. Ich beschränke mich auf die Neuerungen, die ChatGPT von seinen Vorgängermodellen unterscheiden. Der Sprung zwischen GPT-3 und ChatGPT besteht in der Kopplung eines Sprachmodells mit einem zusätzlichen Feedbackmodell: Mit einem bestimmten Verfahren wurde ein Modell gebaut, das menschliches Feedback automatisieren soll. Das Verfahren heißt »Reinforcement Learning from Human Feedback« (RLHF).
Ein gewisser Feedbackmechanismus ist im Machine Learning zwar immer eingebaut, da das Training Iterationsschleifen enthält, die menschliches Feedback einarbeiten. Hier ist es aber so, dass ein ganzes Modell entwickelt wurde, dessen Aufgabe es ist, zu einem gegebenen vom Sprachmodell produzierten Text ein Gut /Schlecht-Feedback zu geben. Das Training dazu funktionierte wie folgt: Das Feedbackmodell soll erkennen können, ob ein gegebener Text gut ist. Ein Team von vierzig eigens dafür beschäftigten Mitarbeitern hat, unter anderem, verschiedene Textausgaben des Sprachmodells für eine bestimmte Anfrage von gut nach schlecht geordnet. Dieses Ordnen wurde durch das Feedbackmodell automatisiert: Es »lernte« im Training, zu einem gegebenen Input verschiedene zufällig generierte Outputs von gut nach schlecht zu ordnen.