Heft 892, September 2023

Wer die Sprachmodelle beherrscht, beherrscht auch die Politik

von Hannes Bajohr

Die Welt Künstlicher Intelligenz denkt groß und zugleich simpel, und zwar von Anfang an. Als im Sommer 1956 am Dartmouth College jener Workshop stattfand, der den Begriff und das Feld der Artificial Intelligence ins Leben rief, lautete die selbstgesetzte Aufgabe, herauszufinden, »wie man Maschinen dazu bringen kann, Sprache zu verwenden, Abstraktionen und Begriffe zu formen, Probleme zu lösen, die bisher Menschen vorbehalten sind, und sich selbst zu verbessern«.1 Angesetzte Arbeitszeit: zwei Monate.

Fast siebzig Jahre später – am 22. März 2023 – erschien auf der Website des Future of Life Institute ein Offener Brief, der zum Zeitpunkt der Niederschrift dieses Artikels um die dreißigtausend Unterschriften zählte.2 Darunter befinden sich Persönlichkeiten wie Elon Musk und viele renommierte KI-Forscher, die ein Moratorium für die Entwicklung großer Sprachmodelle (Large Language Models, LLMs) für mindestens sechs Monate fordern. Systeme wie ChatGPT seien inzwischen zu mächtig und zu gefährlich geworden, und es bestünden »fundamentale Risiken für die Gesellschaft und die Menschheit«, die von »auf Menschenniveau agierender KI« ausgingen. Bis man sich nicht darauf geeinigt habe, wie das zu regulieren sei, sollten alle KI-Labore auf weitere Forschung verzichten.

Unterschätzte man in Dartmouth noch spektakulär, als wie schwierig sich die Automatisierung von Intelligenz herausstellen würde, zieht der Offene Brief mit ähnlich viel Bombast die falschen Konsequenzen aus den Möglichkeiten gegenwärtiger Sprachtechnologie.

Möchten Sie weiterlesen?

Mit dem Digital-Abo erhalten Sie freien Zugang zum gesamten MERKUR, mit allen Texten von 1947 bis heute. Testen Sie 3 Monate Digital-Abo zum Sonderpreis von nur 9,90 Euro.

Jetzt Probelesen

Weitere Artikel des Autors