Halluzinierende Systeme
Generierte Literatur als Textverarbeitung von Simon RoloffGenerierte Literatur als Textverarbeitung
Die Auswirkungen des jüngst entdeckten Kreativitätspotentials Künstlicher Intelligenz sind für die Literatur bisher nur wenig und wenn, dann oft eher kenntnisarm diskutiert worden. Ein Grund dafür ist sicherlich technischer Natur: Mit deep learning hat in den letzten Jahren ein Zweig der KI-Forschung Fortschritte gemacht, der bessere Ergebnisse in der Bilderkennung und -bearbeitung als in der Erzeugung zusammenhängender, gar narrativer Texte nachweisen kann. Zuverlässig befüllen Künstliche Intelligenzen deshalb derzeit nur standardisierte Textformate wie Wettervorhersagen und Sportberichte. Die Anwendung in der Königsdisziplin des erzählenden Romans aber – und selbst noch beim Verfassen einer Kurzgeschichte – gestaltet sich problematisch. So konnte auch avancierte Sprachgenerierungssoftware wie das GPT-3 des kalifornischen OpenAI-Labors bisher keinen großen Verlagsvertrag landen. Erst das würde wohl einem jener spektakulären Momente aus den anderen Künsten nahekommen, etwa wenn bekannte Auktionshäuser künstlich generierte Porträts versteigern oder unvollendete Symphonien der Musikgeschichte vollendet werden.
Und doch findet KI, genauso wie das klassische Computerprogramm, in der Literatur der Gegenwart bereits Verwendung. Dies allerdings experimentell und vor allem im US-amerikanischen Raum, was beides die Entstehung hitziger Feuilletondebatten auf dieser Seite des Atlantiks eher nicht begünstigt hat. Auf der Braunschweiger Tagung »Automation and Creativity« im Herbst 2020 wurde aber nun dankenswerterweise eine Diskussion über das Potential der »generierten Literatur« begonnen.
Zwei Extrempunkte der Bewertung bildeten dabei einerseits das pragmatische Machertum des Autors und Programmierers Nick Montfort, der klassische Computerprogramme und autonomere Systeme als literarische Experimentaltechniken begreift, deren Erprobung und Erweiterung schon in sich selbst genug Sinn und Zweck besitzen, und andererseits die Erneuerung von John Barths Abgesang auf Fluxus und Oulipo in den 1970er Jahren durch den Literaturwissenschaftler Florian Cramer. Letzterer hegt den Verdacht, die Verfahren der Produktion digital generierter Texte wären immer »interessanter«, also innovativer und für Leser anregender, als diese Texte selbst.
Für die Masse der Beiträge zum jährlich stattfindenden National Novel Generation Month, einer Art literarischem hackathon und die gegenwärtig größte Plattform für generierte Literatur, ist Cramers These nicht ganz von der Hand zu weisen. Dort finden sich etwa alle Sätze aus Moby Dick rückwärts zu einem neuen Roman angeordnet, Versatzstücke von Träumen aus viktorianischen Tagebüchern zu neuen Träumen zusammengefügt und Reiseführer zu fiktiven Orten aus Fantasy-Romanen extrapoliert. Das provoziert häufig eher die Frage, wie es gemacht wurde, als lustvolle Leseerlebnisse. Es könnte aber auch sein, dass im insistierenden Verweis auf ihre Machart die entscheidende Qualität dieser Texte liegt. Denn spätestens seit Nietzsches »Schreibzeug, das mitschreibt an unseren Gedanken«, ist die Reflexivität der Literatur auf das Schreiben, seine Instrumente und seine Praktiken wesentlich für ihre »Interessantheit«.
Man muss darin sogar eine wesentliche Eigenschaft der Moderne sehen: Literatur war und ist hier immer auch Artikulation ihrer Medien. Und im Rahmen einer Analyse der Motive, Techniken und Praktiken generierter Literatur der Gegenwart fällt in dieser Hinsicht eine wesentliche Eigenschaft ins Auge: Text wird aus Störungen in der digitalen Verarbeitung von bestehendem Text generiert. Der Prozess der Entstehung von Literatur verbindet sich dabei, ebenso wie ihre Motive, mit den sich im Moment ausdifferenzierenden Techniken digitaler Speicherung, Distribution und Decodierung von Information.
Auf diese Weise entstehen bisher keine quasimenschlichen Autorschaften Künstlicher Intelligenzen, aber in den besten Momenten mithilfe dieser Intelligenzen neue literarische Ausdrucksformen, die auf interessante Art und Weise definieren, wie ein Text auf seine Gegenwart reagieren kann.
Präskriptive vs. postskriptive Generierung
Ganz gleich ob man mit einem stochastischen Wortgenerator der sechziger Jahre oder der gegenwärtigen cutting-edge-Technologie für natürliche Sprachausgabe arbeitet – immer entstehen dabei Texte im technisch vermittelten Rekurs auf Vorgängertexte. Das bedeutet zum einen, dass im Moment die maschinelle creatio ex nihilo nicht nur irgendwie neuer, sondern auch als Literatur interessanter Wortfolgen, selbst wenn sie mit der avanciertesten KI geschieht, technisch ausgeschlossen ist. Zum anderen bedeutet es, dass man in der Gattung Subgenres auf Basis der jeweiligen Textverarbeitungsverfahren unterscheiden kann. Im Umgang mit ihren Vorgängertexten setzen sich etwa die literarischen Produktionen klassischer Computerprogramme von deep-learning-Systemen deutlich voneinander ab.
Für ein aktuelles Beispiel klassischer computergenerierter Literatur lässt sich Nick Montforts Megawatt heranziehen. Der Text basiert auf Sprachmaterial, das Samuel Becketts Watt von 1953 entnommen wurde. Montforts Vorwort zufolge wurde dabei die »verständlichere Sprache« des Romans beiseitegelassen, um die eher »systematischen und unverständlichen« Passagen zu rekonstruieren und zwar in »intensivierter« Art und Weise, so dass »wesentlich mehr Text als in dem bereits exzessiven Watt generiert wird«. Die digitale Rekonstruktion eines Romans also, dabei aber zugleich, der Doppelsinn von Megawatt deutet es an, ein quantitatives Übertreffen von Becketts Projekt durch Extrapolation und Erweiterung der bereits hier verwendeten protoformalen Regeln der Textgenerierung.
Wo in Watt etwa die gleichnamige Hauptfigur durch das Singen, Heulen, Behaupten, Murmeln verschiedener halluzinierter Stimmen bedrängt wird, stehen diesen Stimmen in Megawatt auch die Artikulationsformen Plappern, Schwatzen, Schimpfen und Flüstern zur Verfügung. In der entsprechenden Passage von Megawatt wird dann wie auch bei Beckett, nur in entsprechend exponentiell gesteigerter Form, jede Kombination der modi dicendi der Stimmen aufgelistet: »Watt heard voices. Now these voices, sometimes they sang only, and sometimes they cried only, and sometimes they stated only, and sometimes they murmured only, and sometimes they babbled only, and sometimes they chattered only, and sometimes they ranted only, and sometimes they whispered only, and sometimes they sang and cried, and sometimes they sang and stated, and sometimes they sang and murmured […].«
Das erste Kapitel von Megawatt besteht im Wesentlichen aus dieser am Ende mehrere Seiten umfassenden Permutationsreihe. Dabei tragen zur Multiplikation der Möglichkeiten auch noch die Verständnisschwierigkeiten Watts bei: Er ist nämlich nur in der Lage, das meiste, die Hälfte, weniges oder Teile des Behaupteten oder Geflüsterten oder Geschwatzten und Gemurmelten usw. zu verstehen, was die möglichen konkreten Manifestationen seiner akustischen Halluzinationen noch einmal vervielfacht. Deren vollständige Auflistung wäre für humane Akteure wohl nur an der Psychiatriegrenze möglich, in Megawatt wird sie im Wesentlichen durch folgende statements im Python-Programmcode ausgegeben:
## In Watt the voices = ['sang', 'cried', 'stated', 'murmured']
## And Watt understood = ['all', 'much', 'little', 'nothing']
## Here the voices did eight things and there are eight levels:
voices = ['sang', 'cried', 'stated', 'murmured', 'babbled', 'chattered', 'ranted', 'whispered']
understood = ['all', 'most', 'much', 'half', 'little', 'less', 'bits', 'nothing']