Heft 886, März 2023

Das Gespenst der Maschine, die mich schreibt

Gegenwart Gartenweg von Monika Rinck

Gegenwart Gartenweg

Die Gegenwart ist die offene Zeit, in der ich mich nicht auskenne, aber gleichzeitig einer der wenigen Orte, an dem ich Entscheidungen treffen kann. Gleich, übermorgen, sofort, nächste Woche, am besten nie. Aber ist die Gegenwart überhaupt ein Ort? Wenn sie kein Ort wäre, wo würde ich mich dann befinden? Gleichviel. Dringender ist eine andere Frage: Was ist jetzt zu schreiben, in dieser Gegenwart? Was ist jetzt zu tun? Und wie, auf welche Weise ist jetzt zu schreiben? Was muss jetzt übersetzt werden? Was möchte ich lesen können, in dieser Gegenwart?

Selten hab ich weniger gewusst, was jetzt zu schreiben wäre, als nun, da ich es unterrichte und die Veränderungen (nicht nur des Literaturbetriebs) sich schneller vollziehen, als ich mir über deren Bedeutung und Folgen klar werden kann. Aber das ist vielleicht auch ganz normal. Ich habe leider keine Vergleichsgröße zu meiner Gegenwart. Hierzu taugt die Vergangenheit nur bedingt.

Viele Leute (zum Beispiel an Kunsthochschulen) sagen, man müsse sich jetzt mit den Vorteilen und Nachteilen Künstlicher Intelligenz und Maschinellen Lernens auseinandersetzen, mit Fragen der ästhetischen und gesellschaftlichen Anwendung dieser Techniken. Weil sie neu sind, oder, wie Kathrin Passig Anfang 2022 in ihrem Vortrag Heute ist das Gestern von morgen im Rahmen der Dresdener Ringvorlesung »(Un)Creative Digital Writing« gezeigt hat, so neu gar nicht sind, und damit der Neuheit vielmehr eine Distinktions- oder Marketingfunktion zukommt, wobei sie womöglich ihrerseits gar nicht unbedingt die interessanteste Eigenschaft der aufkommenden Technologie darstellt.

Eine Sache, die ich mir, seit ich veröffentliche, vorgenommen habe: nicht more of the same. Kein Selbstimitat produzieren, auch nicht unter Druck. Nicht in Serie gehen. Nun ist aber vor kurzer Zeit ein Buch erschienen, das mir gutes Anschauungs- und Untersuchungsmaterial an die Hand geben könnte, denn das umfangreiche Selbstimitat, was darin zu lesen ist, ist gar nicht von mir, sondern von einem Künstlichen Neuronalen Netzwerk (KNN) anhand meines poetischen Werks, wie soll ich sagen: rekombiniert? Kompiliert? Verfasst? Neu erfunden? Nachgeahmt? Entworfen? Und das Ergebnis hat fraglos genuine Züge, die mich erstaunen. Dabei muss ich darauf hinweisen, dass ich diese Texte in erster Linie inhaltlich betrachte, ich schaue, was gesagt wird – von den technischen Voraussetzungen hab ich nur eine etwas nebulöse Vorstellung, die hoffentlich bald schon an Klarheit gewinnt. Es sind Texte, die eine interessante Zwischenstellung einnehmen, insofern sie von mir und gleichzeitig nicht von mir sind. Sie finden sich in einem Buch, das meinen Namen als Titel trägt: Monika Rinck, Untertitel ist: Poetisch denken I. Es handelt sich um neue Gedichte, auf der Basis meines poetischen Gesamtwerks bis 2018. Obwohl also das Textkorpus, anhand dessen diese Gedichte gemacht sind, auf mich zurückgeht, hab ich eigentlich nichts damit zu tun, da das Ergebnis von dem künstlichen neuronalen Netz GPT-2 generiert worden ist – unter der Leitung von 0x0a, einem Textkollektiv für konzeptuelle digitale Literatur, bestehend aus Gregor Weichbrodt und Hannes Bajohr. Hier ein erstes eher kurzes Beispiel, das auch auf das Rückcover des puristisch aufgemachten Bandes gedruckt ist.

des bodenuren herausendbands

hört ihr das, so höhnen honigprotokolle, semantisize

schwere primatover. es ist sicher bald ein gramsfürbter praktz tun?

so keine großem einisisters, es ist die verkraft, ein maschine.

kaum als einists ein kommando, es ist verkraft.

nur ich schnell oder ein schlimmer

nichts mehr übrig.

Haben Sie das verstanden? Semantisch? Grammatisch? Mehrsprachig? In dem unverständlichen Titel des bodenuren herausendbands ist ein gewisses Brausen zu hören. Herausendbands! Der Band ist am Ende, er ist heraussen! Die bodenuren haben 12 geschlagen. Warum eigentlich bodenuren? Weil es keine wanduren sind? Unklar. Die Eröffnung ist natürlich bekannt. Mit dieser Formel: »Hört ihr das, so höhnen Honigprotokolle« beginnt die Mehrzahl der Gedichte in meinem im Jahr 2012 erschienenen Band Honigprotokolle. Dann folgt die Aufforderung: semantisize – übersetzt also: versehe (dies) mit Bedeutung, allerdings nicht in korrekter Schreibweise, mit einem s wo ein c hingehört. »Schwere Primat over« könnte, wenn ich es auseinanderschreibe, eine Aufforderung zur Leichtigkeit sein: Es möge doch bald das Primat, also der Vorrang oder die Vormacht, der Schwere zu Ende sein. Aber was bitte ist ein gramsfürbter pratktz? Vielleicht die rare Abkürzung für: gramzerfürchbeter Praktiker in Teilzeit? Und die Einisisters? Ist das eine Schweizer Jazz-Kombo? Wobei: Klingt das nicht ein bisschen mittelhochdeutsch? Nein, tut es nicht.

GPT-2, ein generativer vortrainierter Transformer, lese ich, basiere auf einem künstlichen neuronalen Netzwerk, das grobgesagt der Logik des Gehirns mit seinen Neuronen und Synapsen entspreche. Man weiß nicht genau, was zwischen Input und Output passiert. Das kennt man ja von sich selbst. Neuronale Netzwerke funktionieren stochastisch, sie basieren auf wahrscheinlichen Zuständen. Diesen Vorgang möchte ich mit einem Zitat aus dem Buch Schreibenlassen von Hannes Bajohr verdeutlichen: »Der zentrale Punkt ist jedoch, dass ein neuronales Netz nicht explizit programmiert werden kann; neuronale Netze lernen implizit durch einen wiederholten Prozess des Vergleichs von Eingabe und Ausgabe und der Anpassung der Funktion anhand der in jeder Iteration auftretenden Fehler. Es gibt dabei keinen Code, der zu inspizieren wäre, sondern nur eine Liste von Zahlen, die die Struktur des Netzes und ihre gewichteten Verbindungen darstellen; eine solche Liste ist jedoch ausgesprochen schwer zu interpretieren. Dies ist das berühmte ›Black-Box‹-Problem neuronaler Netze.«

Die Maschine versucht sozusagen ihren Input nachzuahmen, sie lernt durch Beispiele, ich stelle mir vor, sie vergleicht und wird darin immer besser, wobei einer der Herausgeber, wieder Hannes Bajohr, in einem Radio-Interview anmerkte, sie hätten im Fall des »Poetischen Denkens I bis IV« das Training der GPT-2 abgebrochen, bevor die Ergebnisse zu perfekt geworden seien, um die Mechanismen des Vorgangs offenzulegen. Ja, das leuchtet ein. Wie etwas funktioniert, zeigt sich immer sehr gut dort, wo es eben nicht funktioniert. Das gilt auch für das Gedicht. Das Gedicht, als prototypisches Modell für eine verwickelte, voraussetzungsvolle Lage, in der nicht alle Informationen gegeben sind und das dennoch sogleich mithilfe meines Kopfes zu rechnen beginnt. Das kann ich deuten wie Daten! Das Gedicht deutet mich. Es fragt mich, was ich weiß: »semantisize || schwere primatover.« Und ich wäre dann in gewisser Weise der ausgesourcte Ort, an dem dieser Vergleich sich fortsetzt.

Das Buch Monika Rinck – Poetisch denken I war nicht meine erste Begegnung mit den Fertigkeiten jener Generativen Vortrainierten Transformatoren. Zuvor hatte ich mithilfe eines Wiener Sprachkunst-Studierenden, Muhammet Ali Bas, der damals versuchte, GPT-3 als Co-Autorin für ein Theaterprojekt einzubinden, beeindruckende Erfahrungen mit dem Programm gemacht. GPT-3 ist, wie unschwer zu erkennen, die Weiterentwicklung von GPT-2. Der Hersteller von GPT-3 (OpenAI) legt übrigens nicht offen, auf welchen Trainingsdaten das Sprachmodell beruht, was neue Fragen nach der Verwendbarkeit und auch Verwertbarkeit des allgemeinen kollektiven Sprachganzen aufwirft, »weil hier ein Privatunternehmen die Allmende des kollektiven Sprachschatzes extrahiert und zu einem Produkt verarbeitet, für dessen Nutzung die Produzent:innen dieses Schatzes selbst zur Kasse gebeten werden«.

Wir nutzten als Eingabe einige Einträge (genau genommen 29) aus dem Begriffsstudio, das ich seit dem Jahr 1996 pflege. Ich sammle darin Begriffe, die häufig von einer ungewöhnlichen Sprachbildlichkeit sind, Begriffe, die mir markant erscheinen, die teils überdreht, teils albern, teils etwas umfangreicher, also fast schon Relativsätze sind, teils knappe Sprachmodule, einzelne Worte, halsbrecherische Komposita. Manche sind prägnant, andere lapidar, manche flapsig, andere wieder voller Pathos, auf der Kippe ins Bathos, altsprachlich, mehrsprachig, oft gemischt und transkategoriell wie Schnabeltiere, hinkende Vergleiche, erhellende Fehlleistungen aus dem Zwischenreich der Übersetzung. Begriffe, die mir markant erscheinen, in denen kontrastierende Formen des Duktus aufeinandertreffen und sich in der Kollision verschiedener Sprechweisen die ganze Vielfalt der sprachlichen Möglichkeiten auftut. Manche dieser Einträge kommentiere ich, viele stehen allein.

Inzwischen bin ich bei Nummer 5269 angekommen. Bei Begriff Nummer 4846 findet sich in den Kommentaren folgende Erläuterung: »4825 bis 4836 sowie 4839 bis 4844 und 4846 wurden von GPT-3 generiert, nachdem wir der KI nicht mehr als 29 Begriffe vorgegeben hatten. Das Ergebnis hat mich erstaunt und auch etwas beunruhigt.« Nun kennen Sie womöglich die Sprachatmosphäre des Begriffsstudios nicht, ich will Ihnen daher einen kleinen Einblick geben.

4817 die komplexeste Klebefrisur der Literaturgeschichte

4819 zu Besuch in der Wespenrest-Negation

4820 mit seiner privaten Wesensgleichheit im Wasser liegen

4821 ein Fall von zukunftsgewisser Vorausdeutung

4822 in der Kapsel der eigenen Gesundheit

4823 mit dem Vorschlag, Nervenzellen zu löffeln

4824 ein total verhatschter Vergleich

4825 die matte Kälte eines Kneipendachs

4830 japonyrgleichherziger Ullageprozess

4831 das lebende Exemplar der Mauerblume

4832 als man noch im Zettelstempel stand

4833 das Freiluftgebilde des Gebens

4834 die Trotzigkeit, die sich in die kleinen Löcher legt

4835 der Erwartete erscheint und beschließt

4836 Ersatzkonzenter mit 7er-Stichwunde

4837 Phone Numbers Give out candy!

4838 the Sound, the Anyhow of Finitude

Möchten Sie weiterlesen?

Mit dem Digital-Abo erhalten Sie freien Zugang zum gesamten MERKUR, mit allen Texten von 1947 bis heute. Testen Sie 3 Monate Digital-Abo zum Sonderpreis von nur 9,90 Euro.

Jetzt Probelesen

Weitere Artikel des Autors