Containment eines Laborunfalls
Über die Regulierung Künstlicher Intelligenz von Athanasios KarafillidisÜber die Regulierung Künstlicher Intelligenz
Ausbruch
Wenn man der Erzählung von OpenAI glaubt, dann war es Ende November 2022 nicht der Plan, der Welt ChatGPT als Produkt zu präsentieren. Es war bloß ein Test für die neue Version 3.5. Dass die Testumgebung auf diese Weise reagierte, hat OpenAI überrascht. Das gilt noch mehr für die großen Tech-Unternehmen. Zuvor hatten sie aufgrund schlechter Erfahrungen und fehlender Geschäftsmodelle noch davon abgesehen, ihre eigenen Sprachmodelle zu veröffentlichen. Doch nach dem unerwarteten Ausbruch von Version 3.5 aus dem Labor witterten sie verständlicherweise ein Geschäft. Sicherheit, umsichtige Einführung, ethische Leitplanken und Reifegrad der Technologie, zuvor noch von allen als wichtig erachtet, waren plötzlich nicht mehr so relevant. Seitdem laufen in allen KI produzierenden Unternehmen fast schon verzweifelte Versuche, aus dem Laborunfall ein Produkt zu machen.
Trotz der riesigen Investitionssummen, der damit verknüpften Schaffung eines schon als systemkritisch betrachteten Wirtschaftsfaktors und unzähliger, sinnvoller wie auch unsinniger Anwendungsfälle, die Tag für Tag erprobt werden, muss man festhalten: Sie – und wir alle – sind noch immer auf der Suche. KI-Unternehmen brauchen dringend ein generalisierbares Massenprodukt, um die Milliardeninvestitionen zu rechtfertigen und ihre Modelle profitabel betreiben zu können. Nun will OpenAI mit den Modellen, die bald Krebs heilen und Lösungen für den Klimawandel finden sollen, auch Erwachseneninhalte erzeugen lassen. Porno geht immer.
Die aktuelle Phase ist jener vergleichbar, in der das Internet noch keine Online-Warenhäuser, kein Streaming, keine Smartphones, sozialen Medien und kulturprägenden Suchmaschinenalgorithmen kannte. So werden auch dieses Mal die Ersten nicht zwangsläufig die Erfolgreichsten sein. Wie es weitergeht, wird sich zeigen. Vielleicht werden sich KI-Agenten als das begehrte Produkt erweisen oder auch ein konkretes KI-System, das durch zweckentfremdende Aneignung der Nutzenden anfängt, den Markt zu dominieren. Vielleicht aber auch nicht. Mittlerweile könnten wir wenigstens gelernt haben, auf Voraussagen von KI-CEOs und Tech-Leadern in sozialen Medien nicht zu viel zu geben.
Eine neue KI
Nach nunmehr siebzig Jahren der Forschung unter dem Label »Künstliche Intelligenz« haben wir nun KI in Form Großer Sprachmodelle bekommen (Large Language Models, LLMs). Vorher ist KI in der Gesellschaft unter anderem schon als allgemeiner Problemlöser, Expertensystem zur Unterstützung diagnostischer Entscheidungen, Gesichts- und Spracherkennung oder Schach- und Go-Meister aufgetaucht. Die neueste Version von KI spricht uns dagegen ganz besonders an, weil sie uns ansprechen kann. Sich mit Maschinen unterhalten zu können ist in höchstem Maße irritierend und faszinierend zugleich, und zwar in einem viralen Ausmaß. Es hat zahlreiche gesellschaftliche Auswirkungen, wenn plötzlich nicht nur IT-Nerds mit Maschinen sprechen können. Eine davon ist die Hoffnung auf hochprozentige Produktivitätssteigerungen. Mit dem Einsatz von LLMs soll es schließlich möglich sein, Entscheidungen und Prozesse, die bislang nicht automatisierbar waren, dafür zugänglich zu machen. Der dadurch erzeugte Erwartungsdruck, KI institutionell und unternehmerisch produktiv einzusetzen, ist immens.
Doch es gibt einen Haken. Was wir bekommen haben, ist keine KI, die Unternehmen oder die öffentliche Verwaltung umstandslos für ihre Bedarfe nutzen können. Es mangelt dafür nicht nur an Kompetenzen und Verantwortlichkeit in den Organisationen. Das Problem ist die Unzuverlässigkeit der Technologie. Die Ausgaben der Maschine auf unsere sprachlich geäußerten Wünsche und Befehle (Prompts) sind nur sehr bedingt vertrauenswürdig. Die Maschinen können zwar sprechen, aber eben auch viel schwafeln. Es fehlt ihnen also die Zuverlässigkeit – ihnen fehlt das »Technische«.
Unzuverlässigkeit heißt hier allerdings, dass gerade die Resultate ihres einwandfreien Funktionierens unzuverlässig sind. Das wird vorerst auch so bleiben. Ihr technologischer Kern sind komplexe statistische Modelle unserer Sprech- und Schreibweisen, unserer Bilder und Videos, mit denen sie von KI-Unternehmen trainiert worden sind. Ihre Ausgaben sind eine Mischung aus Wahrscheinlichkeiten und Zufällen. Das ist kein Urteil über die erkennbaren und möglichen Potenziale dieser Modelle, wohl aber über die Null-Chance einer maschinenhaften Zuverlässigkeit.
Für Organisationen sind Unzuverlässigkeiten alles andere als ungewöhnlich. Es ist sogar eine ihrer Kernkompetenzen, damit zu arbeiten. Beschäftigte machen Fehler, Erwartungen sind unklar, Materialien brechen und Umweltgegebenheiten sind turbulent. Auch Computer und andere technische Geräte können kaputtgehen, aber das Problem lässt sich finden und reparieren. Organisationen wie Unternehmen und die öffentliche Verwaltung können sich üblicherweise auf die Kausalität funktionierender Technik verlassen – und genau diese Gewissheit wird jetzt durch LLMs unterlaufen. Sie funktionieren einwandfrei, aber ihre Outputs sind unzuverlässig.
Geschichten zur KI
LLMs sind keine Automaten und können es auch nicht werden, weil sie auf einer Technologie basieren, die das nicht vorsieht. Trotzdem wird ständig behauptet, dass ihr Einsatz gewiss zu mehr Effizienz und weniger Bürokratie führen wird, und zwar ohne jeglichen Konjunktiv.
Sprachmodelle, heißt es, sollen Kerntätigkeiten des Organisierens übernehmen, also Verfahren optimieren, Entscheidungen unterstützen und Recherche in hauseigenen Daten ermöglichen. Chatbots sollen Kunden- und Bürgerkontakte erleichtern und dadurch die Zufriedenheit erhöhen. Maschinen sollen eingehende Emails und Anhänge automatisch bestimmten Verfahren zuordnen sowie Besprechungen in benötigte Protokolle transformieren. Augen fangen besonders an zu leuchten, wenn in Aussicht gestellt wird, dass sie autonom komplette Anträge oder Aufträge fertigstellen können.
Das alles ist durchaus möglich, aber es wird unterschätzt, wie viel Geduld und ungewohnte Vorkehrungen es braucht, wenn man eine Technik einsetzen will, die systematisch und kumulativ Fehler in Akten und Bescheide einbauen oder sicherheitsrelevante Prozesse mit Ungenauigkeiten kontaminieren kann. Ohne diesen Makel ist die Entlastung, die man sich erhofft, nicht zu haben. Zuverlässig wie eine Maschine zu sein, ist eben nicht das, was diese Maschinen gut können. Fachkundige und Zuständige in Unternehmen und der Verwaltung wissen das und suchen nach pragmatischen Auswegen, um dieses Problem einzuhegen. Silicon Valley weiß das, tut aber immer wieder so, als sei das Problem sehr bald behoben, wenn wir nur genau diesen Typ von KI weiter fördern und nutzen.
KI in einer zuverlässigen Version gibt es übrigens auch. »Good Old-Fashioned AI« (GOFAI) bekam im Laufe der Jahre immer wieder Aufmerksamkeit, auch medial (zum Beispiel als Schachcomputer Deep Blue), konnte aber keinen massenhaften Wow-Effekt auslösen, wie es generative KI nun geschafft hat. Befeuert durch diesen Hype gehen viele in der Softwareentwicklung davon aus, dass wir mit künstlichen neuronalen Netzen und Transformer-Architekturen nun den Schlussstein der KI-Entwicklung gefunden hätten. Schaut man sich die Historie der KI-Forschung an, gibt es hingegen gute Gründe, daran zu zweifeln.1 Wir sind immer wieder kurz vor dem Durchbruch – seit siebzig Jahren.
Diesmal lautet die Erzählung, dass dieser Schlussstein die Entwicklung einer allgemeinen KI ermöglicht, also einer Maschine, die kognitiv alles kann, was ein Mensch kann (AGI – Artificial General Intelligence). Es braucht jetzt nur noch eine Skalierung des aktuellen Verfahrens, so glaubt man. Der Plot: Skalieren kostet zwar unglaublich viel Geld und Energie, aber die jetzigen Limitierungen und Probleme des Einsatzes von generativer und prädiktiver KI werden aufgrund exponentieller Verbesserungen dann von allein verschwinden.
Zuverlässigkeitsversprechen und Halluzinationsraten
Diesseits der angekündigten AGI-Revolution sieht es anders aus. Alle rein induktiv gebauten KI-Systeme, also alle Systeme, die auf dem Training tiefer neuronaler Netze mit einer Unmenge an Daten beruhen – was für generative KI genauso gilt wie für prädiktive KI – werden trotz kontinuierlicher Verbesserungen notorisch unzuverlässig bleiben. Schneller sind sie, aber im Gegensatz zu Menschen können sie ihre manchmal eklatanten, manchmal äußerst subtilen, kaum erkennbaren systematischen Fehler immerhin massenhaft in verschiedensten Varianten produzieren, sie global überzeugend und vielsprachig verbreiten und auf diese Weise dann verstetigen. Sind das die Maschinen, die wir wollen?
Die KI produzierenden Unternehmen denken das offensichtlich nicht, sonst würden sie ihre Anstrengungen nicht derart darauf konzentrieren, das Vertrauen in die Modelle durch Schutzmaßnahmen aller Art zu erhöhen. Die Reduktion von Halluzinationen gilt als hohes Ziel. Die Suche nach dem goldenen business case läuft über Zuverlässigkeitsversprechen. Dabei haben sie schon deutliche Fortschritte erzielt. Explainable AI, Benchmark-Orientierung, safety patches, alignment und Datenbankanbindung (RAG-Systeme) setzen genau hier an. Aber all das brauchen wir eben nur, weil KI-Systeme grundsätzlich unzuverlässig sind, auf verzerrten Datensätzen und schrägen Klassifizierungsverfahren basieren sowie in vielen Hinsichten auf grundlegend unethische und rechtsverletzende Weise zustande gekommen sind.2
Es besteht die Hoffnung, dass die generierten Fehler irgendwann so selten auftauchen oder so minimal sein werden, dass sie nicht mehr auffallen und auch ihre Effekte nicht ins Gewicht fallen können. Nur hat allein ChatGPT (laut OpenAI, Stand Mitte 2025) ungefähr 2,5 Milliarden Anfragen pro Tag. Selbst bei einer Halluzinationsrate von einem Prozent, die im Übrigen vollkommen unrealistisch ist, wären das 25 Millionen mit Fehlern generierte Texte, Analysen und Bilder – pro Tag, von einer Modellfamilie allein.
Nur ein Teil davon wird in Arbeitskontexten und Organisationen generiert, und natürlich steht dieser Teil wiederum nicht immer im Zusammenhang mit kritischen Tätigkeiten oder Entscheidungen. Aber das macht noch immer Hunderttausende potenzielle Fehlerquellen pro Tag, die wir uns zusätzlich einhandeln und die auch nicht einfach verschwinden. Schon die Masse an mangelhaften Daten wird zum Problem. In nächster Zukunft werden aktuelle KI-Technologien die Gesellschaft nicht durch mögliche Erkenntnisse in der naturwissenschaftlichen und mathematischen Spitzenforschung prägen, sondern durch die Myriaden von fehlerhaften Daten, die ohne irgendeine Sorgfalt, Fachkompetenz, Überprüfung und Verantwortung mit KI generiert und verbreitet werden.
Technologisch lässt sich das nicht einholen, denn Sprachmodelle können ihre Fehler nicht von allein erkennen und korrigieren. Sie lernen nicht automatisch, was sie falsch machen. Auch eine direkte Rückmeldung der Nutzenden, dass eine Ausgabe falsch ist, reicht dazu nicht aus. Die Fehler müssen entweder klassisch von Menschen wegprogrammiert (»gepatcht«) werden oder sie gehen, was aufgrund der Masse sehr wahrscheinlich ist, als neue Daten in die Modelle ein. Maschinen lernen dann aus Fehlern – aber ohne zu lernen, dass es welche sind.
Neue und alte Unzuverlässigkeit
Ein großes Problem liegt darin, dass die neue Technologie von zu vielen Menschen für zuverlässig und irgendwie überlegen gehalten wird. Die Folge ist ein unkontrollierbares Wachstum von inkorrekten Texten, Listen, Zahlen und Darstellungen, die entstehen, wenn man die neue Unzuverlässigkeit der Maschinen mit der alten Unzuverlässigkeit der Menschen kombiniert.
Auf diese noch immer unterschätzte Problemdimension verweisen Diskussionen um »AI slop«, also um KI-generierten, generischen, unbrauchbaren, wertlosen und energievergeudenden »Schrott«. In Arbeitskontexten äußert sich das zum Beispiel dadurch, dass eine Person durch Einsatz eines Sprachmodells Zeit spart, aber ein Arbeitsergebnis vorlegt, mit dem andere dann aufgrund der mangelnden Qualität mehr Arbeit haben als vorher (»work slop«). Das ist offensichtlich kein rein technisches, sondern ein sozial generiertes Problem – also weitaus hartnäckiger. Es reicht leider nicht aus, in einem Workshop einfach mal deutlich zu sagen, dass bitte alle in Zukunft auf dieses Problem achten sollen.
Fehlerhafte Outputs von Sprachmodellen rutschen in den meisten Fällen einfach unbemerkt durch. In der Regel sind es kleine Details. Das ist aber leider das Problem: dass diese Fehler oftmals subtil sind. Wir haben den Punkt erreicht, an dem KI-generierte Inhalte mehr als die Hälfte des Datenverkehrs im Internet ausmachen. Massenhaft erzeugte minimal fehlerhafte Daten sind auch Grundlage für das weitere Training der KI-Modelle. Auf diese Weise verstetigen sich Fehler. Sie fallen erst im Ernstfall auf, wenn sie schon längst Fakten geschaffen haben. Denn sie bleiben nicht lokal und sind auch nicht im Modell lokalisierbar. Sie tauchen bei ähnlichen Prompts unkontrolliert irgendwo auf der Welt wieder auf, nur um bei Verwendung erneut bestätigt und verstetigt zu werden.
Die Evolution unserer Ideen und unseres Wissens wird durch LLMs jedenfalls ziemlich sicher andere Wege einschlagen als bisher. Nach allem, was wir über die gesellschaftlichen Auswirkungen von Medienwandel wissen, sollte das nicht überraschen. Ob es am Ende gut oder schlecht für uns und unser Zusammenleben ist, darüber wird die Kulturkritik befinden. Ganz nüchtern betrachtet sind LLMs jedenfalls die perfekte Technologie für das, was einige das postfaktische Zeitalter nennen.
Selbst- und Fremdregulierung
Bisher läuft der Versuch, die Auswirkungen des Laborunfalls in den Griff zu bekommen, vorzugsweise über Regulierungsmaßnahmen. Organisationen sensibilisieren ihre Beschäftigten für Risiken, formulieren Richtlinien und etablieren Programme, um eklatante Informationsdefizite zu reduzieren. Die dezentrale Selbstregulierung der Unternehmen und Verwaltungseinheiten versucht die Unzuverlässigkeit der Sprachmodelle zu kanalisieren. Verantwortliche suchen nach angemessenen Rahmenbedingungen, weil sie zuverlässige Arbeitsergebnisse brauchen. Ob politische Versuche einer Regelung deswegen unnötig sind, bleibt diskutabel. Aber es ist auch kaum zu leugnen, dass der AI Act der Europäischen Union als Beschleuniger wirkt und die notwendige Auseinandersetzung mit der Technologie intensiviert hat.
Historisch betrachtet hat die politische Regulierung gesellschaftlich besonders folgenreicher Großtechnologien und ihrer Infrastrukturen Innovation nicht gehemmt, sondern im Gegenteil erst ermöglicht. Das zeigen Befunde aus einer Vielzahl von detaillierten Untersuchungen der Science and Technology Studies.3 Die Durchsetzung jeglicher Technologie hängt von nichttechnischen, regulatorischen und organisationalen Netzwerken ab, die sie stabilisieren, einbetten und dadurch erst zur Innovation machen. Automobil- und Flugverkehr, Telekommunikation, Container-Handel, Atomenergie, die Pharma- oder die Lebensmittelindustrie sind in der Form und Größe, wie wir sie heute kennen, überhaupt nur mit Regulierung möglich geworden.4
In diesen Bereichen gelten sehr strenge Sicherheitsvorgaben, umfassende Dokumentationspflichten und Zulassungsregeln. Die Einhaltung bestimmter Standards wird zudem von Behörden und anderen Organisationen laufend überwacht. Die Unternehmen sind rechenschaftspflichtig und haften für ihre Produkte. Was von ihnen erwartet wird, geht weit über das hinaus, was momentan für die Entwicklung und den Einsatz von KI-Systemen verlangt wird. Blöd nur, dass KI-Systeme jetzt schon unreguliert auch in diesen und vielen weiteren infrastrukturellen Arrangements genutzt werden und mindestens das Potenzial haben, das dafür erforderliche Vertrauen und die Sicherheit zu erschüttern oder komplett zu unterlaufen. Akzelerationisten und Disruptivisten mögen das.
In einer differenzierten Sozialwelt ist ein Regulierungsprozess für ein aufkommendes technologisches Feld die Chance, mit dem Netz der existierenden Infrastruktur zu verschmelzen – in ihr aufzugehen, zu einer Selbstverständlichkeit zu werden. Eine rein dezentrale Regulierung reicht dazu nicht aus. Externe Regulierung hat bei den oben genannten Großtechnologien nicht nur die Grundlage für gesellschaftliche Akzeptanz gelegt. Sie hat es Unternehmen ermöglicht, vorausschauend zu investieren und Produkte zu entwickeln. Wie wichtig dieser Punkt auch für die Innovationsfähigkeit in der KI-Entwicklung ist, wird man vermutlich erst bemerken, wenn die Unsummen an Risikokapital, die momentan in die Skalierung von Großen Sprachmodellen investiert werden, plötzlich nicht mehr da sein sollten.
Die Frage kann also nicht sein, ob, sondern wie KI reguliert wird. Und die Antwort darauf lautet jedenfalls nicht automatisch: so wenig wie möglich. Wie bei allen anderen Schlüsseltechnologien, die unser modernes Leben prägen, wird auch hier einiges zu regeln sein. Grund dafür sind keinesfalls existenzielle Risiken. Wir müssen uns momentan noch nicht davor fürchten, dass KI-Systeme der Deep-Learning-Klasse nun tatsächlich intelligent sind oder es bald werden und dann eine eigene Agenda verfolgen, die uns existenziell bedroht. Regulierung sollte sich also nicht in erster Linie an derartigen Szenarien orientieren, sondern an der Gegenwart der Technologie und was sie außerhalb von Laborbedingungen leistet und auslöst. Die Gefahr ist eben nicht, wie der Soziologe Harry Collins es auf den Punkt gebracht hat, dass uns superintelligente Maschinen unterwerfen könnten, sondern dass wir ohne Not vor dummen Maschinen kapitulieren – ihnen also das Feld überlassen, weil wir ihnen leichtfertig überlegene Intelligenz zuschreiben.5
Zu einer realistischen Einschätzung gehört auch die Einsicht, dass es im Kern vor allem darum geht, den nächsten Schritt der Automatisierung von Arbeit zu vollziehen.6 Die sozialhistorische Entwicklung Künstlicher Intelligenz kreist nur vordergründig um den Versuch einer Nachbildung biologischer Vorbilder (»Gehirn« oder »Nervensystem«). Der wesentliche Antrieb liegt im Versuch, die Algorithmen sozialer Produktionsprozesse abzubilden und sie zu kontrollieren. Das ist keine »Kritik«, sondern eine Einsicht, die uns hilft, dieses gesellschaftliche Phänomen sachlich einzuordnen und zu verstehen, wieso die Großen Sprachmodelle und Deep-Learning-KI auf die Art und Weise getrimmt, weiterentwickelt und beworben werden, wie wir es gegenwärtig beobachten können.
Zuverlässigkeit durch Situationsgestaltung
Wie bekommen nun die öffentliche Verwaltung und Unternehmen unzuverlässige Maschinen dazu, verlässliche, revisions- und rechtssichere Outputs zu produzieren – zum Beispiel in Form von Anschreiben, Verträgen, Bewilligungsbescheiden, Antragsvorprüfungen, Entscheidungsvorbereitung, Präsentationen oder Protokollen? Und wie viel Zeitgewinn bleibt, wenn wir diese Outputs immerzu akribisch auf mögliche Fehler überprüfen müssen?
Es ist unspektakulär, aber der Schlüssel zur ersehnten Zuverlässigkeit von KI-Systemen ist Organisation. Das ist für die vorhin erwähnten großen technischen Systeme und Infrastrukturen typisch: Organisationale Maßnahmen ermöglichen die Antizipation und das Containment technischer Unzuverlässigkeiten.7 In Bezug auf den Einsatz unzuverlässiger LLM-KI verschieben sich zwar die Verhältnisse, denn bei anderen Technologien kann man sich zumindest noch auf eine bestimmte Form von Kausalität verlassen. Das Prinzip bleibt aber das Gleiche.
Gegenstand der Regulierung sind zunächst die Prämissen des Einsatzes und der Nutzung von KI-Systemen. Das schließt das Verhalten der Beschäftigten mit ein, ist aber der weniger effektive Aspekt. Natürlich muss ich wissen, dass ich in solche Systeme keine personenbezogenen Daten eingeben darf oder dass ich die Ausgaben der Maschinen niemals ungeprüft übernehmen sollte. Das sind aber nur Grenzsteine für Zuverlässigkeit. Sie werden in Dienstanweisungen, Policys oder internen Richtlinien festgehalten. Spannend wird es erst, wenn ich anfange zu verstehen, wie der Einsatz von KI-Systemen von den Umständen einer konkreten Situation abhängt und entsprechend variiert. Das heißt, ich muss erkennen können, von welchen Zeitpunkten, Personen und Aufgaben es abhängt, ob eine Nutzung verantwortungsvoll und hilfreich ist. Die gleiche Aufgabe in einer anderen Situation ist eben nicht dieselbe Aufgabe. Es geht um die Neuausrichtung menschlicher Interaktionskompetenz: auf die Wahrnehmung und Interpretation von Situationen mit Maschinen. »Kompetenzaufbau« ist der Prozess, der die Bedingungen dafür schaffen kann, entsprechende Prämissen der Interaktion als Routine zu etablieren. Sofern das gelingt, ist genau darauf dann Verlass. Compliance wäre dann verkörperte soziale Praxis und nicht individuell kalkulierte Regelbefolgung.
Einigen Organisationen wird es gelingen, in diese Richtung zu gehen, anderen wiederum nicht. Einige stoßen entsprechende Prozesse von selbst an, andere wollen oder können keine Ressourcen dafür aufwenden. Deswegen läuft es immer wieder darauf hinaus, dass Selbstregulierung und politische Regulierung parallel laufen und aufeinander abgestimmt werden müssen. Vor allem gilt es, in Bezug auf die Klagen gegen Regulierung endlich einzusehen, dass alle Organisationen immer zugleich regulierend und reguliert unterwegs sind. Das betrifft Unternehmen und die Verwaltung in gleichem Maß wie Aufsichtsbehörden oder transnationale Einheiten wie die Europäische Union.
Die Pflicht zum Aufbau von Kompetenzen
Organisationen reagieren permanent auf ihre Umwelten. Mal gibt der Markt Anlass dazu, mal sind es wissenschaftliche Erkenntnisse, mal technologische Entwicklungen und manchmal eben auch politische Forderungen oder rechtliche Vorgaben, meistens fast alles auf einmal. Anlass für Ärger und Widerstand gibt es aber interessanterweise nur mit Blick auf die politische Umwelt. Das hat wohl etwas damit zu tun, ob die regelnde Hand als unsichtbar oder sichtbar erlebt wird.
Sowohl selbst- als auch fremdveranlasste Veränderungen erfordern ausnahmslos den Aufbau und die Verteilung von relevanten Kompetenzen. Das ist so selbstverständlich und derart gängige Praxis, dass es doch verwunderlich ist, für welchen Aufruhr die Pflicht zum Kompetenzaufbau aus dem AI Act gesorgt hat. Das ist keine Kopfgeburt von praxisfernen EU-Bürokraten, um Organisationen zu knechten und sie ewig zu binden, sondern eine der besten Wetten darauf, der Unzuverlässigkeit aktueller KI-Systeme etwas entgegenzusetzen, die Möglichkeiten von Deep Learning zu zähmen und von ihnen zu profitieren. Daher ist der kleine Artikel 4 eigentlich das Herz des AI Acts.8 Er formuliert die Voraussetzung dafür, dass KI in die Organisation und den Arbeitsalltag eingebettet werden kann und stellt dazu die »Menschen in den Mittelpunkt«, auch wenn man uns diese Floskel im Text erspart.
Der Grund für die aufgeregten Reaktionen liegt wohl darin, dass weder Verwaltungen noch Unternehmen gut damit zurechtkommen, dass Artikel 4 nur ein Ziel vorgibt, aber die Wahl der Mittel offenlässt. Dass Verwaltungen sich damit schwertun, verwundert nicht. Sie arbeiten fast ausschließlich inputorientiert: Sie warten meist darauf, dass bestimmte Bedingungen vorliegen, um dann etwas Bestimmtes zu tun. Unternehmen arbeiten dagegen laufend mit solchen Zweckprogrammen. Aber offenbar können sie nur mit solchen gut umgehen, die sie sich selbst geben und nicht mit solchen, durch die sie reguliert werden sollen.
Ohne irgendeine Form von Beschäftigung mit solchen Elementen einer KI-Governance und ein anderes Verständnis von Regulierung werden uns in der Arbeitswelt die Probleme der Produktion von KI-Schrott sowie das Feuerlöschen von Fehlern und Fehleinschätzungen mehr Arbeit machen, als der Einsatz von Generativen KI-Systemen uns jemals erspart.
Regulierung als Interface
Soziologisch betrachtet ist Regulierung eine Art Interface, in dem Organisation und Technologie aufeinander abgestimmt werden. Interfaces entstehen aus Prozessen der wechselseitigen Gestaltung, die über die Selektion, Festlegung und Vermittlung unterschiedlicher Positionen läuft.9 Verschiedene Organisationen sind dabei ebenso involviert wie vielfältige, widerstreitende Interessen, Regeln und Disziplinen. Das braucht Zeit. Es ist ein Prozess.
Die zeitliche Entfaltung von Regulierung als Interface läuft nicht reibungslos, und ihre Ergebnisse können unbefriedigend sein. Es fallen Widersprüche, Unklarheiten und offene Flanken auf, die in die Regulierung mit eingehen. Deshalb sollte das Verständnis von Regulierung über die Formulierung und Geltung rechtsverbindlicher Texte hinausgehen. Zwar muss die Möglichkeit der Rechtsdurchsetzung gegeben sein, sonst wäre es keine Regulierung. Jedoch führen rein juristische Versuche, Geschäftsbedingungen oder Dienstanweisungen eineindeutig zu formulieren, leider zu einer Art von Regulierung, die ohne Rechtsbeihilfe kaum verstehbar ist, in der Umsetzung lauter Probleme verursacht und deren Effekte am Ende – für alle Beteiligten – kaum kontrollierbar sind.
Mehrdeutigkeit, Unbestimmtheit und Widersprüchlichkeit werden durch Regulierung nicht erzeugt, sondern sichtbar. Juristisch wird versucht, dem durch Ermessen und unbestimmte Rechtsbegriffe Rechnung zu tragen. In der Praxis von Verwaltungen und Unternehmen entsteht dagegen »brauchbare Illegalität«. Das ist die Formel, mit der Niklas Luhmann dieses Problem bereits vor sechzig Jahren auf den Punkt gebracht hat.10 Ein nach und nach anwachsendes Geflecht aus formalen Regeln kann in einer Organisation nicht widerspruchsfrei gelebt werden. Aus diesem Grund entstehen informale Workarounds, die formale Vorgaben ignorieren oder unterlaufen, um dadurch einen zuverlässigen und flüssigen Betrieb zu sichern. Keine Organisation kann das verhindern. Sie würde sich beim Versuch, es doch zu tun, eher in arge Schwierigkeiten bringen.
Die entscheidende Lücke
Sprachmodelle haben gewaltige Potenziale. Vielleicht liegen sie nicht dort, wo wir sie unbedingt sehen wollen, aber es finden sich trotzdem hochkreative Umgangsformen mit LLM-KI und verantwortungsvoll nutzbare Lösungen. Erfolgsgeschichten sind zahlreich und sie verbreiten sich schnell, manchmal vorschnell. Vorschnell werden auch Erfolgsmeldungen aus den Forschungs- und Entwicklungslaboren der KI-Unternehmen als Innovation missverstanden – als ob Technologie in einem sterilen Raum existierte und das alte Problem des Technologietransfers hierbei direkt mitgelöst würde.11
Solche Meldungen verdecken leider, dass eine entscheidende Lücke klafft zwischen individuellen, oftmals privaten Erfahrungen mit LLMs und organisationaler Leistungsfähigkeit. Eine verantwortungsvolle, reflektierte und mit den besten Absichten eingesetzte KI kann von einzelnen Personen als Zeitersparnis erlebt werden und es ihnen erleichtern, mit bestimmten Aufgaben anzufangen oder sie abzuschließen. Individuelle Produktivität lässt sich aber nicht umstandslos in organisationale Produktivität übersetzen. Sie lässt sich nicht wie erwünscht skalieren.
Eine Einbettung dieser Form von KI in laufende und historisch jeweils unterschiedlich gewachsene Prozesse der organisierten Unsicherheitsabsorption erweist sich als anspruchsvoll und langwierig. Ängste vor verpassten Anschlüssen helfen nicht. Dieser Prozess wird länger dauern, und womöglich auch anders ablaufen, als erwartet.
Melanie Mitchell, Artificial Intelligence. A Guide for Thinking Humans. New York: Farrar, Strauss & Giroux 2019.
Kate Crawford, Atlas der KI. Die materielle Wahrheit hinter den neuen Datenimperien. Aus dem Englischen von Frank Lachmann. München: Beck 2024.
Wiebe E. Bijker /Thomas P. Hughes /Trevor Pinch (Hrsg.), The Social Construction of Technological Systems. New Directions in the Sociology and History of Technology. Cambridge /Mass.: MIT Press 1987.
Mark MacCarthy, Regulating Digital Industries. How Public Oversight Can Encourage Competition, Protect Privacy, and Ensure Free Speech. Washington /DC: Brookings Institution Press 2023.
Harry Collins, Artifictional Intelligence. Against Humanity’s Surrender to Computers. Cambridge: Polity 2018.
Matteo Pasquinelli, The Eye of the Master. A Social History of Artificial Intelligence. London: Verso 2023.
Karl E. Weick /Kathleen M. Sutcliffe, Managing the Unexpected. San Francisco: Jossey-Bass 2001.
»Die Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ausreichende KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.« (https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689#art_4)
Athanasios Karafillidis, Die Komplexität von Interfaces. In: Berliner Debatte Initial, Nr. 29/1, 2018.
Niklas Luhmann, Funktionen und Folgen formaler Organisation. Berlin: Duncker & Humblot 1999 [1964].
Arvind Narayanan /Sayash Kapoor, AI as Normal Technology. Knight First Amendment Institute at Columbia University vom 15. April 2025.