Wer die Sprachmodelle beherrscht, beherrscht auch die Politik
von Hannes BajohrDie Welt Künstlicher Intelligenz denkt groß und zugleich simpel, und zwar von Anfang an. Als im Sommer 1956 am Dartmouth College jener Workshop stattfand, der den Begriff und das Feld der Artificial Intelligence ins Leben rief, lautete die selbstgesetzte Aufgabe, herauszufinden, »wie man Maschinen dazu bringen kann, Sprache zu verwenden, Abstraktionen und Begriffe zu formen, Probleme zu lösen, die bisher Menschen vorbehalten sind, und sich selbst zu verbessern«. Angesetzte Arbeitszeit: zwei Monate.
Fast siebzig Jahre später – am 22. März 2023 – erschien auf der Website des Future of Life Institute ein Offener Brief, der zum Zeitpunkt der Niederschrift dieses Artikels um die dreißigtausend Unterschriften zählte. Darunter befinden sich Persönlichkeiten wie Elon Musk und viele renommierte KI-Forscher, die ein Moratorium für die Entwicklung großer Sprachmodelle (Large Language Models, LLMs) für mindestens sechs Monate fordern. Systeme wie ChatGPT seien inzwischen zu mächtig und zu gefährlich geworden, und es bestünden »fundamentale Risiken für die Gesellschaft und die Menschheit«, die von »auf Menschenniveau agierender KI« ausgingen. Bis man sich nicht darauf geeinigt habe, wie das zu regulieren sei, sollten alle KI-Labore auf weitere Forschung verzichten.
Unterschätzte man in Dartmouth noch spektakulär, als wie schwierig sich die Automatisierung von Intelligenz herausstellen würde, zieht der Offene Brief mit ähnlich viel Bombast die falschen Konsequenzen aus den Möglichkeiten gegenwärtiger Sprachtechnologie.
Denn erstens ist auch heute das Ziel von Dartmouth nicht erreicht – allen Erfolgen zum Trotz agieren ChatGPT und Co. nicht »auf Menschenniveau«. Solche Fantasien sind Teil des Hype um KI – eine Tendenz, die die Branche seit ihren Anfängen plagt und die am Ende vor allem den Firmen dient, die sie entwickeln. Was beweist die Macht eines Entwicklers mehr als seine Fähigkeit, ein Produkt zu vertreiben, das potentiell die Welt zerstören könnte? Insider spekulierten ohnehin bald, hier gehe es darum, die in der Branche lange geltende Regel offener Forschung zu unterlaufen und in den sechs Monaten im Geheimen weiterzuarbeiten. Und tatsächlich kündigte Musk am 14. April 2023 die Gründung seines eigenen KI-Unternehmens mit dem Namen X.AI an; seine Unterschrift schien schon bald nicht mehr viel zu gelten.
Zweitens, und viel wichtiger, spricht aus dem Brief auch ein katastrophales Verständnis vom Zusammenwirken von Technik und Politik, und zwar sowohl was ihre Gefahren wie was deren Bekämpfung betrifft. Während die Befürchtung, KI-generierter Text könnte Informationskanäle mit Unwahrheiten und »propaganda-as-a-service« überschwemmen, durchaus berechtigt ist, ist der Brief ansonsten von apokalyptischen Fantasien über die völlige Ersetzung des Menschen durch Maschinen und den »Kontrollverlust über unsere Zivilisation« getragen.
Das sind die Sorgen sogenannter Longtermists – einer libertären, transhumanistischen und ultra-utilitaristischen Denkschule, die möglichen zukünftigen Menschen ein ungleich größeres moralisches Gewicht einräumt als realen gegenwärtigen. Ihre Vertreter, denen auch Musk nahesteht, denken in Jahrtausenden und in Begriffen einer reinen Nutzenmaximierung. Aus diesem Grund beunruhigt sie die Bedrohung durch hyperintelligente Maschinen – »Wir werden alle sterben«, heißt es in einem besonders alarmistischen Meinungsartikel – viel mehr als beispielsweise die unmittelbaren Schäden des Klimawandels, der sozialen Ungerechtigkeit oder der globalen Armut – Probleme, die für sie entweder überhaupt keine sind oder durch eben jene KI gelöst werden, die sie als existentielle Bedrohung wahrnehmen.
Was aber mit großen Sprachmodellen wie ChatGPT tatsächlich auf uns zukommt, ist keine technische Katastrophe bösartiger Computer. Viel konkreter drohen Sprachmodelle ein demokratisches Desaster zu werden – durch die Privatisierung von Sprachtechnologien als zukünftigem Ort politischer Öffentlichkeit und den rein technokratischen Ansatz zur Lösung dieser Probleme. Genau an dieser Stelle kommen Politik und Zivilgesellschaft ins Spiel, und auch die Demokratietheorie ist hier gefragt.
Die technische Entwicklung der letzten Jahre hat gezeigt, dass ein KI-System umso leistungsfähiger wird, mit je mehr Daten man es füttert – aber umso teurer ist es auch in der Entwicklung. Es ist zwar schwierig, künftige Trends vorherzusagen, es ist aber nicht ausgeschlossen, dass der Wettbewerb um immer größere Modelle dazu führen könnte, dass nur noch eine Handvoll Unternehmen im Rennen bleibt, wie OpenAI /Microsoft, Googles Deepmind oder Anthropic. Und obwohl es Open-Source-Bestrebungen gibt, Sprachmodelle zu demokratisieren, müssen sie sich im Vergleich zu Big Tech erst noch als erfolgreich erweisen (schließlich werden die meisten Menschen nicht ihre eigenen LLMs auf ihren Heimcomputern trainieren, sondern sich auf das fertig verpackte und gewartete Produkt eines großen Unternehmens verlassen). Und zumindest im Moment spielen kleinere nichtkommerzielle Unternehmungen und Universitäten beim Erreichen immer neuer Größenrekorde so gut wie keine Rolle mehr.
Der Newsletter der Kulturzeitschrift MERKUR erscheint einmal im Monat mit Informationen rund um das Heft, Gratis-Texten und Veranstaltungshinweisen.