KI ist harte Arbeit
von Josh DziezaEin paar Monate nach seinem Uniabschluss in Nairobi bekam ein Dreißigjähriger, den ich Joe nennen möchte, einen Job als sogenannter Annotator. Seine Aufgabe bestand darin, mühsam die Rohdaten aufzubereiten, mit denen Künstliche Intelligenz trainiert wird. KI lernt, indem sie Muster in riesigen Datenmengen ausfindig macht, aber zuerst müssen diese Daten von Menschenhand kategorisiert und mit Tags versehen werden – von einer großen Zahl an Menschen, die meist unsichtbar bleiben. Joe bekam den Auftrag, Filmmaterial für selbstfahrende Autos zu annotieren. Er identifizierte jedes Fahrzeug, jeden Fußgänger, jeden Radfahrer, alles, worauf ein Autofahrer zu achten hat – Bild für Bild und aus jedem möglichen Kamerawinkel. Das ist eine so schwierige wie monotone Arbeit. Für einen Ausschnitt von wenigen Sekunden brauchte Joe acht Stunden, was ihm etwa zehn Dollar einbrachte.
2019 verbesserten sich seine Perspektiven: Als Leiter eines Bootcamps für ein neues Unternehmen, das dringend Arbeitskräfte suchte, verdiente Joe auf einen Schlag viermal so viel. Alle zwei Wochen strömten fünfzig neue Mitarbeiter in ein Bürogebäude in Nairobi, um sich bei ihm ausbilden zu lassen. Die Nachfrage nach Arbeitskräften schien unendlich zu sein. Sie sollten Kleidungsstücke kategorisieren, die auf Aufnahmen zu sehen waren, die Staubsaugerroboter gemacht hatten, um festzustellen, in welcher Art von Räumen sie sich gerade befanden, und Quadrate um 3D-Scans von Motorrädern zeichnen. In der Regel brach mehr als die Hälfte der Kandidaten das Bootcamp vorzeitig ab. »Manche Leute halten es einfach nicht lange am gleichen Ort aus«, lautete Joes gelassener Kommentar. Außerdem, so räumte er ein, »ist es sehr langweilig«.
Doch es war zumindest ein Job an einem Ort, an dem es sonst wenige Jobs gibt, und Joe bildete Hunderte von Leuten aus. Nach dem Bootcamp gingen sie nach Hause, um allein in ihren Schlafzimmern und Küchen zu arbeiten, wobei sie niemandem erzählen durften, woran. Kein großes Problem angesichts der Tatsache, dass sie es selbst kaum wussten. Die Beschriftung von Objekten für selbstfahrende Autos ist selbsterklärend, aber wie verhält es sich mit der Einordnung, ob die Schnipsel eines verzerrten Dialogs von einem Roboter oder von einem Menschen gesprochen wurden? Oder wie damit, Fotos von sich selbst hochzuladen, auf denen man erst ausdruckslos in eine Webcam starrt, dann in die Kamera grinst, und das Gleiche dann noch einmal mit Motorradhelm? Jede Aufgabe war ein so winziger Teil eines größeren Prozesses, dass es schwierig war, zu erahnen, wofür die KI eigentlich trainiert wurde. Auch die Projektbezeichnungen boten keinerlei Anhaltspunkte: Crab Generation, Whale Segment, Woodland Gyro und Pillbox Bratwurst – sinnfreie Codenamen für unsinnig wirkende Aufgaben.
Das Unternehmen, das sie anstellte, war den meisten nur als Remotasks bekannt: eine Plattform, die Arbeit für jedweden anbietet, der fließend Englisch kann. Wie die meisten Annotatoren, mit denen ich sprach, wusste auch Joe nicht, bis ich es ihm steckte, dass Remotasks die Tochtergesellschaft eines Unternehmens namens Scale AI ist, eines milliardenschweren Datenanbieters im Silicon Valley, der unter anderem OpenAI und das US-Militär zu seinen Kunden zählt. Weder auf der Website von Remotasks noch auf der von Scale findet das jeweils andere Unternehmen Erwähnung.
Die öffentliche Diskussion über Sprachverarbeitungsprogramme wie OpenAIs ChatGPT dreht sich bislang größtenteils um die Arbeitsplätze, die in Zukunft wohl durch Automatisierung wegfallen. Aber hinter jedem noch so beeindruckenden KI-System stehen Menschen – eine große Anzahl von Menschen, die die Trainingsdaten für die KI annotieren und die Daten weiter spezifizieren, wenn sie Murks macht. Nur die Unternehmen, die sich den Kauf dieser Daten leisten können, haben eine Chance im Wettbewerb, und wer an die Daten herankommt, hat ein großes Interesse daran, sie vertraulich zu behandeln. Das hat zur Folge, dass meist wenig darüber bekannt ist, welche Informationen das Verhalten dieser Systeme prägen, und noch weniger darüber, welche Menschen diese Informationen verarbeiten.
Wofür Joe die Leute ausbildete, hatte nichts mit normaler Arbeit gemein: Es gab weder Zeitplan oder Kollegen noch Wissen, woran sie arbeiteten oder für wen. In der Tat nannten sie es selten Arbeit – nur »tasking«, das Erledigen von Aufgaben. Sie waren Tasker.
David Graeber hat den Terminus »Bullshit-Job« geprägt. Er steht für eine Arbeit ohne Sinn und Zweck, eine Tätigkeit, die eigentlich längst automatisiert sein sollte, dies aber aufgrund von Bürokratie, Statusdenken oder Bequemlichkeit nicht ist. KI-Jobs sind bizarre Zwillinge von Bullshit-Jobs: eine Art von Arbeit, die Menschen gern automatisiert sähen und die von vielen oft für bereits automatisiert gehalten wird, die aber immer noch menschlichen Einsatz erfordert. Die Arbeit hat durchaus Sinn und Zweck, allerdings haben die, die sie verrichten, in aller Regel keine Ahnung, welchen.