Heft 894, November 2023

KI ist harte Arbeit

von Josh Dzieza

Ein paar Monate nach seinem Uniabschluss in Nairobi bekam ein Dreißigjähriger, den ich Joe nennen möchte, einen Job als sogenannter Annotator. Seine Aufgabe bestand darin, mühsam die Rohdaten aufzubereiten, mit denen Künstliche Intelligenz trainiert wird. KI lernt, indem sie Muster in riesigen Datenmengen ausfindig macht, aber zuerst müssen diese Daten von Menschenhand kategorisiert und mit Tags versehen werden – von einer großen Zahl an Menschen, die meist unsichtbar bleiben. Joe bekam den Auftrag, Filmmaterial für selbstfahrende Autos zu annotieren. Er identifizierte jedes Fahrzeug, jeden Fußgänger, jeden Radfahrer, alles, worauf ein Autofahrer zu achten hat – Bild für Bild und aus jedem möglichen Kamerawinkel. Das ist eine so schwierige wie monotone Arbeit. Für einen Ausschnitt von wenigen Sekunden brauchte Joe acht Stunden, was ihm etwa zehn Dollar einbrachte.

2019 verbesserten sich seine Perspektiven: Als Leiter eines Bootcamps für ein neues Unternehmen, das dringend Arbeitskräfte suchte, verdiente Joe auf einen Schlag viermal so viel. Alle zwei Wochen strömten fünfzig neue Mitarbeiter in ein Bürogebäude in Nairobi, um sich bei ihm ausbilden zu lassen. Die Nachfrage nach Arbeitskräften schien unendlich zu sein. Sie sollten Kleidungsstücke kategorisieren, die auf Aufnahmen zu sehen waren, die Staubsaugerroboter gemacht hatten, um festzustellen, in welcher Art von Räumen sie sich gerade befanden, und Quadrate um 3D-Scans von Motorrädern zeichnen. In der Regel brach mehr als die Hälfte der Kandidaten das Bootcamp vorzeitig ab. »Manche Leute halten es einfach nicht lange am gleichen Ort aus«, lautete Joes gelassener Kommentar. Außerdem, so räumte er ein, »ist es sehr langweilig«.

Doch es war zumindest ein Job an einem Ort, an dem es sonst wenige Jobs gibt, und Joe bildete Hunderte von Leuten aus. Nach dem Bootcamp gingen sie nach Hause, um allein in ihren Schlafzimmern und Küchen zu arbeiten, wobei sie niemandem erzählen durften, woran. Kein großes Problem angesichts der Tatsache, dass sie es selbst kaum wussten. Die Beschriftung von Objekten für selbstfahrende Autos ist selbsterklärend, aber wie verhält es sich mit der Einordnung, ob die Schnipsel eines verzerrten Dialogs von einem Roboter oder von einem Menschen gesprochen wurden? Oder wie damit, Fotos von sich selbst hochzuladen, auf denen man erst ausdruckslos in eine Webcam starrt, dann in die Kamera grinst, und das Gleiche dann noch einmal mit Motorradhelm? Jede Aufgabe war ein so winziger Teil eines größeren Prozesses, dass es schwierig war, zu erahnen, wofür die KI eigentlich trainiert wurde. Auch die Projektbezeichnungen boten keinerlei Anhaltspunkte: Crab Generation, Whale Segment, Woodland Gyro und Pillbox Bratwurst – sinnfreie Codenamen für unsinnig wirkende Aufgaben.

Das Unternehmen, das sie anstellte, war den meisten nur als Remotasks bekannt: eine Plattform, die Arbeit für jedweden anbietet, der fließend Englisch kann. Wie die meisten Annotatoren, mit denen ich sprach, wusste auch Joe nicht, bis ich es ihm steckte, dass Remotasks die Tochtergesellschaft eines Unternehmens namens Scale AI ist, eines milliardenschweren Datenanbieters im Silicon Valley, der unter anderem OpenAI und das US-Militär zu seinen Kunden zählt. Weder auf der Website von Remotasks noch auf der von Scale findet das jeweils andere Unternehmen Erwähnung.

Die öffentliche Diskussion über Sprachverarbeitungsprogramme wie OpenAIs ChatGPT dreht sich bislang größtenteils um die Arbeitsplätze, die in Zukunft wohl durch Automatisierung wegfallen. Aber hinter jedem noch so beeindruckenden KI-System stehen Menschen – eine große Anzahl von Menschen, die die Trainingsdaten für die KI annotieren und die Daten weiter spezifizieren, wenn sie Murks macht. Nur die Unternehmen, die sich den Kauf dieser Daten leisten können, haben eine Chance im Wettbewerb, und wer an die Daten herankommt, hat ein großes Interesse daran, sie vertraulich zu behandeln. Das hat zur Folge, dass meist wenig darüber bekannt ist, welche Informationen das Verhalten dieser Systeme prägen, und noch weniger darüber, welche Menschen diese Informationen verarbeiten.

Wofür Joe die Leute ausbildete, hatte nichts mit normaler Arbeit gemein: Es gab weder Zeitplan oder Kollegen noch Wissen, woran sie arbeiteten oder für wen. In der Tat nannten sie es selten Arbeit – nur »tasking«, das Erledigen von Aufgaben. Sie waren Tasker.

David Graeber hat den Terminus »Bullshit-Job« geprägt. Er steht für eine Arbeit ohne Sinn und Zweck, eine Tätigkeit, die eigentlich längst automatisiert sein sollte, dies aber aufgrund von Bürokratie, Statusdenken oder Bequemlichkeit nicht ist. KI-Jobs sind bizarre Zwillinge von Bullshit-Jobs: eine Art von Arbeit, die Menschen gern automatisiert sähen und die von vielen oft für bereits automatisiert gehalten wird, die aber immer noch menschlichen Einsatz erfordert. Die Arbeit hat durchaus Sinn und Zweck, allerdings haben die, die sie verrichten, in aller Regel keine Ahnung, welchen.

Der KI-Boom unserer Tage – überzeugend menschlich klingende Chatbots, Kunstwerke, die aus einfachen Prompts generiert werden, die milliardenschweren Börsennotierungen der Unternehmen, die dahinterstehen – beruht auf mühsamer und repetitiver Arbeit von beispiellosem Umfang.

Im Jahr 2007 stellte die KI-Forscherin Fei-Fei Li, damals Professorin in Princeton, die Hypothese auf, dass sich in der Bilderkennung durch neuronale Netze – einer Methode des maschinellen Lernens, die seit Jahren vor sich hin dümpelte – ein Durchbruch erzielen ließe, wenn man die KI mit deutlich mehr Daten füttern könnte, sprich mit Millionen annotierter Bilder statt nur mit Zehntausenden. Allerdings hätte es Jahrzehnte und Millionen von Dollar gekostet, derartige Mengen von ihrem studentischen Team aufbereiten zu lassen.

Doch dann kam Li auf die Idee, Tausende von Arbeitskräften auf Mechanical Turk zu engagieren, der Crowdsourcing-Plattform von Amazon, auf der Menschen auf der ganzen Welt kleine Aufgaben für wenig Geld erledigen. Der daraus resultierende annotierte Datensatz, ImageNet genannt, erwies sich für das maschinelle Lernen als bahnbrechend. Er hauchte dem Forschungsfeld neues Leben ein und war der Auftakt für ein Jahrzehnt des Fortschritts.

Annotation ist nach wie vor ein grundlegender Bestandteil in der Entwicklung von KI. Deren Ingenieure sind zwar häufig der Ansicht, es handle sich dabei lediglich um einen ephemeren, wenn auch unumgänglichen Vorbereitungsschritt für die glamourösere Arbeit der Modellbildung. Man beschafft sich so viele annotierte Daten wie möglich, auf so kostengünstige Weise wie möglich, trainiert damit sein Modell, und wenn es zumindest theoretisch funktioniert, braucht man die Annotatoren nicht mehr. Die Annotation ist jedoch niemals wirklich abgeschlossen. Systeme für maschinelles Lernen sind, wie Forscher es nennen, »spröde« (brittle), sie sind fehleranfällig, wenn sie mit etwas konfrontiert sind, das in ihren Trainingsdaten nicht hinreichend oft enthalten ist. Diese Fehler, sogenannte Grenzfälle, können schwerwiegende Folgen haben. 2018 tötete ein selbstfahrendes Uber-Testauto eine Frau, weil es, obwohl darauf programmiert, Radfahrern und Fußgängern auszuweichen, nicht wusste, was es mit einem Menschen anfangen sollte, der sein Fahrrad über die Straße schiebt. Je mehr KI-Systeme in die Welt gesetzt werden, um Rechtsberatung und medizinische Hilfe zu ersetzen, desto mehr solcher Grenzfälle werden auftreten, und umso mehr Menschen braucht es, die sich ihrer annehmen. Es gibt sie längst, die globale Industrie, in der Menschen wie Joe arbeiten und ihre einzigartigen menschlichen Fähigkeiten einsetzen, um den Maschinen auf die Sprünge zu helfen.

In den letzten sechs Monaten habe ich mit mehr als zwei Dutzend Annotatoren aus der ganzen Welt gesprochen. Viele von ihnen trainieren hochmoderne Chatbots, doch ebenso viele verrichten die alltägliche manuelle Arbeit, die die KI am Laufen hält. Es gibt Leute, die den emotionalen Inhalt von TikTok-Videos, neue Varianten von E-Mail-Spam und den sexuellen Reiz von Online-Anzeigen klassifizieren. Andere sehen sich Kreditkartentransaktionen an und überlegen, welche Art von Kauf dahinter stecken könnte, oder sie überprüfen Kaufempfehlungen und entscheiden, ob dieses Hemd wirklich etwas ist, das Ihnen gefallen könnte, wenn Sie das andere Hemd gekauft haben. Menschen korrigieren Chatbots im Kundenservice, hören sich Alexa-Anfragen an und ordnen die Emotionen von Menschen bei Videoanrufen ein. Sie kennzeichnen Fotos von Lebensmitteln, damit intelligente Kühlschränke nicht durch neue Verpackungen in Verwirrung geraten, sie checken automatische Sicherheitskameras, wenn diese Alarm schlagen, und identifizieren Maiskolben für verunsicherte autonome Traktoren.

Die Anbieter, von denen bekannte Firmen wie OpenAI, Google und Microsoft ihre Daten beziehen, sind vielgestaltig. Es gibt private Outsourcing-Unternehmen mit Büros, die an Callcenter erinnern, wie zum Beispiel CloudFactory in Kenia und Nepal, wo Joe für 1,20 Dollar pro Stunde Material annotierte, bevor er zu Remotasks wechselte. Es gibt auch »Crowdworking«-Plattformen wie Mechanical Turk und Clickworker, bei denen sich jeder anmelden kann, um kleine Aufgaben auszuführen. Dazwischen liegen Dienste wie Scale AI. Jeder kann sich anmelden, muss aber Qualifikationsprüfungen und Schulungen absolvieren und sich einer Leistungskontrolle unterziehen. Annotation ist ein riesiges Geschäft. Scale, 2016 vom damals neunzehnjährigen Alexandr Wang gegründet, wurde 2021 mit 7,3 Milliarden Dollar bewertet, was Wang laut Forbes damals zum »jüngsten Selfmade-Milliardär der Welt« machte.

Dass es schwer ist, bei dem Wirrwarr an Lieferketten den Überblick zu behalten, ist durchaus beabsichtigt. Branchenkennern zufolge verlangen die Unternehmen, die die Daten kaufen, strikte Vertraulichkeit. (Dies ist auch die Begründung von Scale, weshalb Remotasks einen anderen Namen hat). Annotationen verraten zu viel über die Systeme, die damit entwickelt werden, und die große Zahl der benötigten Mitarbeiter macht es schwierig, das Durchsickern von Informationen zu verhindern. Die Annotatoren werden immer wieder dazu angehalten, niemandem etwas über ihre Arbeit zu erzählen, nicht einmal ihren Freunden und Kollegen. Dabei sorgen Firmenpseudonyme, Codenamen für Projekte und vor allem die extreme Arbeitsteilung ohnehin dafür, dass sie, selbst wenn sie es wollten, nicht genug Informationen hätten, um viel preisgeben zu können. (Aus Angst, von den Plattformen ausgeschlossen zu werden, haben die meisten Annotatoren, mit denen ich sprach, um Pseudonyme gebeten.) Das hat zur Folge, dass es keine genauen Schätzungen über die Anzahl der Menschen gibt, die in diesem Bereich arbeiten, aber es sind viele, und ihre Anzahl steigt ständig. In einer kürzlich erschienenen Studie von Google Research wurde eine Größenordnung von »Millionen« genannt, mit dem Potential, sich zu »Milliarden« auszuwachsen.

Die Wege der Automatisierung sind oft unergründlich. Erik Duhaime, CEO des Unternehmens Centaur Labs, das medizinische Daten annotiert, erinnert sich daran, wie vor einigen Jahren prominente Machine-Learning-Ingenieure vorhersagten, Künstliche Intelligenz würde den Beruf des Radiologen überflüssig machen. Als dies nicht eintrat, ging man davon aus, dass Radiologen KI zumindest als Werkzeug nutzen würden. Weder das eine noch das andere ist seiner Meinung nach eingetreten. KI ist sehr gut in bestimmten Aufgaben, so Duhaime, und das führt dazu, dass die Arbeit aufgeteilt und auf ein System aus spezialisierten Algorithmen und ebenso spezialisierten Menschen verteilt wird. Ein KI-System kann in der Lage sein, Krebs zu erkennen, so Duhaime in einem hypothetischen Beispiel, aber nur auf einer bestimmten Art von Bildern, die eine bestimmte Art von Maschine ausgegeben hat; also braucht man jetzt einen Menschen, der überprüft, ob die KI mit der richtigen Art von Daten gespeist wird, und vielleicht einen weiteren Menschen, der das Ergebnis überprüft, bevor er es an eine andere KI weitergibt, die einen Bericht schreibt, der an einen weiteren Menschen geht, und so weiter. »KI ersetzt die Arbeit nicht«, sagt er. »Aber sie verändert die Art und Weise, wie Arbeit organisiert ist.«

Das entgeht einem, wenn man Künstliche Intelligenz für eine brillante, denkende Maschine hält. Wirft man stattdessen einen kurzen Blick hinter die Kulissen, ergibt sich ein vertrauteres Bild: Wir haben es mit der neuesten Version einer für das Silicon Valley typischen Methode der Arbeitsteilung zu tun, bei der sich hinter dem futuristischen Glanz neuer Technologien ein weitläufiger Produktionsapparat und unzählige Menschen verbergen, die sie überhaupt erst ermöglichen. Duhaime sieht Parallelen zur Ära der Umstellung von handwerklicher auf industrielle Fertigung: Mehrstufige Herstellungsprozesse wurden damals auf einzelne Aufgaben heruntergebrochen und diese entlang von Fließbändern angeordnet, wobei einige Schritte von Maschinen und einige von Menschen ausgeführt wurden, aber nichts mehr an die Arbeitsabläufe erinnerte, die es vorher gab.

Den Befürchtungen über die durch KI verursachte Disruption wird oft mit dem Argument begegnet, KI automatisiere nur einzelne Aufgaben, nicht ganze Arbeitsplätze, und zwar nur die langweiligen, so dass der Mensch einer erfüllenderen und menschlicheren Arbeit nachgehen könne. Aber genauso wahrscheinlich ist es, dass der Aufstieg der KI ähnliche Folgen haben wird wie frühere arbeitssparende Technologien, vielleicht wie das Telefon oder die Schreibmaschine, durch die das mühselige Überbringen von Nachrichten und das Schreiben mit der Hand überwunden wurden, aber eine solche Flut von neuer Korrespondenz, Werbung und Papierkram entstand, dass neue Büros mit neuen Arten von Arbeitskräften – Sekretäre, Buchhalter, Stenotypistinnen – benötigt wurden, um sie zu bewältigen. Wenn sich die Künstliche Intelligenz an Ihren Job heranmacht, werden Sie ihn vielleicht nicht verlieren, aber er könnte Ihnen von da an entfremdeter, einsamer und mühseliger vorkommen.

Anfang 2023 meldete ich mich bei Scale AIs Remotasks an. Das ging ganz unkompliziert. Nachdem ich Angaben zu meinem Computer und meiner Internetgeschwindigkeit gemacht und grundlegende Kontaktinformationen hinterlassen hatte, befand ich mich im »Schulungszentrum«. Um Zugang zu einer bezahlten Aufgabe zu erhalten, musste ich zunächst einen entsprechenden (unbezahlten) Einführungskurs absolvieren. Eine Reihe von Kursen mit undurchschaubaren Namen wie Glue Swimsuit und Poster Macadamia wurden mir angezeigt. Ich klickte auf etwas namens GFD Chunking, das sich als Annotation von Kleidung auf Social-Media-Fotos entpuppte. Die Anweisungen waren jedoch merkwürdig. Zunächst einmal bestanden sie im Wesentlichen aus einer immer gleichen Aufforderung in einer eigenwillig farbigen Schrift in Großbuchstaben, die mich an selbstgebastelte Bombendrohungen denken ließ: »KENNZEICHNEN Sie Gegenstände, die echt sind und von Menschen getragen werden können oder dazu bestimmt sind, von echten Menschen getragen zu werden«, hieß es. »Alle unten dargestellten Artikel SOLLTEN gekennzeichnet werden, weil sie echt sind und von echten Menschen getragen werden können«, stand über Abbildungen einer Werbung für Air Jordans, einer Person mit einem Kylo-Ren-Helm und von Schaufensterpuppen in Kleidern, über denen sich wiederum ein lindgrüner Kasten befand, der noch einmal erklärte: »KENNZEICHNEN Sie echte Artikel, die von echten Menschen getragen werden können.«

Möchten Sie weiterlesen?

Mit dem Digital-Abo erhalten Sie freien Zugang zum gesamten MERKUR, mit allen Texten von 1947 bis heute. Testen Sie 3 Monate Digital-Abo zum Sonderpreis von nur 9,90 Euro.

Jetzt Probelesen