Das Autonomieproblem digitaler Gesellschaften. Digitalkolumne

Die Frage nach der Autonomie ist brisant. Wer kann aus dem Einsatz von Rechnern, Software und Netzwerken Autonomiegewinne ziehen, wo werden Autonomieansprüche algorithmisch beschnitten? Datenschutz und Überwachung, die Diskussionen um Big Data und Algorithmen sowie die Auseinandersetzungen um soziale Medien, filter bubbles und politische Manipulation kehren immer wieder an den Punkt zurück, wo es um bedrohte Selbstbestimmung oder um erhoffte Autonomie geht. Autonomie ist ein Hochwertwort der Gegenwart. Neu ist nur, dass es in letzter Zeit gerne in den Zusammenhang mit Algorithmen gebracht wird. Tag für Tag scheiden sich die Geister an der im Google Car erfahrbar gewordenen algorithmischen Autonomie von Automobilen. Letztlich geht es dabei um die Frage nach dem Verhältnis von Freiheitsermöglichung und Freiheitsbeschränkung in der Konsumwelt, im Gesundheitswesen, ja selbst in der Demokratie und der Spielwelt.

Der Essay ist im Februarheft 2019, Merkur # 837, erschienen.

Soll man angesichts dieser Veränderungen zum Apologeten des Technischen werden und verharmlosen, wo Skepsis angebracht ist? Oder muss man zum Apokalyptiker werden und übertreiben, wo die Technik das Malaise schon antrifft? Ein technikhistorisch informierter Blick auf die Erscheinungsformen der Autonomie in der Epoche der digitalen Wirklichkeit löst das Dilemma, wenn Autonomie nicht normativ oder begriffsgeschichtlich umzingelt, sondern als Aushandlungszone für verständigungsorientiertes Handeln verstanden wird. Das Beispiel der rechnergestützten Verwaltung ist schon lange ein gutes Beispiel, um das Verhältnis von Computer und Gesellschaft besser beobachten und verstehen zu können und über Prozesse soziotechnischer Selbstvergewisserung und Verständigung nachzudenken.

Autonomie in der digitalen Wirklichkeit

Kommerziell einsetzbare elektronische Rechner, wie sie in der unmittelbaren Nachkriegszeit zum ersten Mal entstanden sind, zeichneten sich in den Augen ihrer Anwender durch eine hohe Sortierleistung bei maximaler Sturheit aus. Das eine war ein attraktives Versprechen, das andere eine Tatsache, mit der man gleich nach der Auslieferung einer Anlage auf unliebsame Weise konfrontiert wurde. Rechner taten einfach gar nichts, wenn man es ihnen nicht mühsam, Schritt für Schritt und immer schriftlich beibrachte. Danach wurden Rechner wie vor ihnen bereits Automaten vollkommen fremdgesteuert – von Programmen, die Programmierer aufgrund der Anweisungen der Maschinenbauer in Maschinensprache geschrieben hatten. Man musste sie bedienen und in den Gehorsam zwingen, und das ging nur, wenn der Disziplinierung des Rechners eine Disziplinierung seiner Mannschaft vorausging. 1

icon printMehr Merkur?
Jetzt drei Ausgaben im Probe-Abo lesen!

 

Wie wir aus zahlreichen Beispielen der frühen Computergeschichte wissen, begann fast jedes Computerprojekt mit der Rekrutierung von zusätzlichem Personal. Wir wissen auch, dass dieses Personal meistens von Grund auf zu lernen hatte, wie es »seinen« Computer lernfähig und gehorsam machen konnte. Von Autonomie war dabei natürlich nicht die Rede, weder beim Rechner noch beim Personal, das Befehle schrieb.

Um ihre professionelle Selbständigkeit sorgten sich jedoch die Manager und Mathematiker. Damit sie sich vor Autonomieeinbußen schützen konnten, delegierten sie die Produktion von Code an »Programmierer« genanntes Hilfspersonal und schränkten dessen Autonomie so stark wie möglich ein. Die Geschichte der Autonomie in der digitalen Gesellschaft beginnt also mit einer Rollendifferenzierung zwischen autonomen Managern und Mathematikern einerseits und hochdisziplinierten Programmierern und Locherinnen andererseits. Die Autonomie der Maschine aber wurde auf die kalkulierbare Zeit eines automatischen Stapellaufs oder batch run eingeschränkt.

Das änderte sich erst zu Beginn der 1960er Jahre, als Computerspezialisten das Problem der wechselseitig verursachten Wartezeiten von Maschinen und Anwendern behandeln wollten. Die Lösung für die beabsichtigte Autonomiesteigerung für Nutzer war eine Autonomiesteigerung für Computer. Mit unvorstellbar großem Aufwand wurde daran an ganz verschiedenen Orten gearbeitet. Die Losung lautete Time-Sharing und Betriebssystem: Nutzer sollten immer dann Zugriff auf die Maschine haben, wenn sie den Rechner brauchten. Gleichzeitig sollten die Rechner so lückenlos wie möglich mit den verschiedenen Aufträgen ihrer Nutzer beschäftigt sein. Weil sie so teuer waren, durften sie nie müßig, nie »idle« werden. Nutzer hingegen sollten das Privileg haben, über ihren Problemen so lange brüten zu können, wie sie wollten. Unter der einzigen Bedingung, dass sie die Maschine nicht blockierten.

Wenn sich also der kommunikative Verkehr aller Nutzer mit dem Rechner raffinierter steuern ließ, erweiterte sich ihre Autonomie gegenüber der Maschine. Kurioserweise setzte die erhöhte Nutzerautonomie eine autonome, nach eigenen Regeln arbeitende Instanz im Rechner voraus. Ein »Supervisor« – später sprach man von einem Betriebssystem – setzte die geltenden Regeln des Betriebs nach innen und nach außen durch und vermittelte zwischen den Ansprüchen auf Rechenkapazität aller Komponenten, vom Prozessor über den Drucker bis zum Personal, das Magnetspulen auswechselt, Druckerketten einsetzt und für Papier sorgt oder Karten einliest, vom Magnetband über den Programmierer und die Lochkarten bis zum Speicher und zum Nutzer und seiner Konsole.

Von Angst vor der Überwachung durch das System oder vor einem Kontrollverlust gegenüber der Maschine war damals noch nicht die Rede. Was in den 1960er Jahren dagegen vor allem diskutiert wurde, war der große Ressourcenbedarf für das Time-Sharing und das Betriebssystem. Daraus lernte man, dass Autonomiegewinne immer mit zusätzlichen Kosten verbunden sind und es nicht klar ist, ob und für wen sich der Aufwand als Effizienzgewinn auszahlt. Time-Sharing kostete etwas. Kernphysiker und Mathematiker dachten wohl, es koste viel zu viel.

Neue Nutzergruppen hielten es dagegen für eine sensationelle Einladung – selbst Historiker und Linguistinnen, politologische Thinktanks und geografische Institute konnten sich nun an den Einsatz von Rechnern wagen und ihre Wissensgebiete mit neuen Verfahren verunsichern. Dadurch dass sie, wie man sagte, jetzt auch am Computer arbeiteten, schränkten sie ihre Aufmerksamkeit auf programmierbare Auswertungen ein und gewannen dabei einen neuen Status in ihrer Disziplin sowie neue Perspektiven auf ihre Forschungsgebiete.

Während im Time-Sharing der 1960er Jahre die Autonomie des Nutzers mit Hilfe einer autonomen Steuerung des Rechners gesteigert wurde, versuchte man in den 1970er Jahren die Leistungsfähigkeit der Maschinen und das Kapazitätsangebot für Nutzer dadurch zu steigern, dass Rechner miteinander verbunden wurden. Ein Computer, der mit den Ressourcen eines anderen Computers arbeitete und andernorts fremde Programme verwendete, war zwar abhängig von den Regeln der kooperierenden Maschine. Er konnte damit aber auch den eigenen Möglichkeitsraum und die eigene Kapazität erweitern. Die Vernetzung von Rechnern ist – nach der Rollendifferenzierung und dem Time-Sharing – der dritte Fall in der Computergeschichte, bei dem eine neue Form bedingter Selbstbestimmung beziehungsweise erweiterter Autonomie sichtbar wird.

Mit Protokollen der Übermittlung wurde das diplomatische Problem der Interaktion zwischen zwei unabhängigen Machtbereichen gelöst. Hoheitsansprüche wurden zu bestimmten Zeiten und für spezifische Aufgaben eingeschränkt. Diese selektive Einschränkung der Selbstbestimmung von Rechnern und der an ihnen hängenden Nutzer ermöglichte eine kooperative Autonomie aller verbundenen Stellen.

Ende der 1970er Jahren versuchte sich eine gutsituierte Gemeinschaft von Hobbyelektronikern an Bausätzen, die Mikroprozessoren für einfachste Programmierungen zugänglich machten. Das war eine vierte computergeschichtliche Veränderung, die Autonomiegewinne versprach. Legendär geworden ist Steve Dompiers Programmierung seines Altair 8800 als Sinnbild für den spielerisch-autonomen Einsatz von Elektronik. Mit den rudimentären Sortierbefehlen des primitiven Computerbausatzes vermochte Dompier den Beatles-Song Fool on the Hill auf einem daneben stehenden Transistorradio hörbar zu machen. Dompiers tastatur-, laufwerk- und bildschirmfreier Altair 8800 simulierte einen höchst individuellen Minimalrechner ohne erkennbare Zweckbestimmung – außer derjenigen, den Song eines Verrückten wiederzugeben, der auf einem Hügel ganz allein und nur für sich Pirouetten drehte. 2

(…)

Möchten Sie weiterlesen?

Testen Sie jetzt den Merkur im digitalen Probe-Abo. Oder erwerben Sie den Artikel für 2 € als Download in unserem Volltextarchiv. Sie sind schon Digital-Abonnent? Hier einloggen, um weiterzulesen.

FUSSNOTEN & QUELLENANGABEN

  1. David Gugerli, Wie die Welt in den Computer kam. Zur Entstehung digitaler Wirklichkeit. Frankfurt: Fischer 2018.
  2. Steve Dompier, Music of a Sort (Reprint). In: Dr. Dobb’s Journal of Computer Calisthenics & Orthodontia, Nr. 2, Februar 1976 (www.classiccmp.org/cini/pdf/DrDobbs/DrDobbs-1976-02-v1n2.pdf).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Die Checkbox für die Zustimmung zur Speicherung ist nach DSGVO zwingend.

Ich akzeptiere