Todesalgorithmus

Das Überleben der digitalen Technologien hängt von Anfang an in hohem Maß auch von ihrem Tötungsinstinkt ab. Diese Gleichung gilt bereits für die E-Mail-Kommunikation, die nie erfolgreich gewesen wäre ohne die Lösung des Spam-Problems. Der berühmte Algorithmus, der hier früh Abhilfe versprach, heißt »SpamAssassin« – ein martialischer Name für einen Filter, der das Rauschen im neuen Kommunikationsmedium durch die Trennung der erwünschten von der unerwünschten Post reduzierte.

Die Müllbeseitigung ist das erste Übungsfeld der künstlichen Intelligenz. Hier lernt die Software Muster zu erkennen und Objekte zu klassifizieren, hier trifft sie Entscheidungen unter Aufsicht und schließlich auch ohne menschliche Kontrolle: erst in einer gleichen Situation, dann in einer ähnlichen. Alle aktuellen und künftigen Fantasien über intelligente Kühlschränke, autonome Autos, autarke Roboter und andere künstliche Intelligenzen, die heute die Öffentlichkeit begeistern oder beunruhigen, haben ihren Anfang im »deep learning«-Modell des Werbemüllmörders.

Der jüngere Bruder des »SpamAssassin« heißt »Death Algorithm«. Er entscheidet in selbstfahrenden Autos im Notfall darüber, ob das Fahrzeug in eine Gruppe von Fußgängern, auf eine Mutter mit Kind oder doch gegen eine Hauswand fährt. Über diesen Todesalgorithmus gibt es inzwischen hitzige philosophische und auch schon juristische Debatten, denn es gilt als sicher, dass das autonome Auto kommt, und zwar noch vor den autonomen Waffen und den mechanischen Haustieren. Die Entwicklung ist politisch gewollt, da man zu Recht davon ausgeht, dass autonom fahrende Autos nicht nur Fahrkosten und Energieverbrauch drastisch senken werden, sondern auch die Zahl der Unfälle: Der Computer verarbeitet viel mehr Information viel schneller als der Mensch, wird niemals müde, fährt nie betrunken und textet nicht am Lenkrad.

Da zugleich als sicher gilt, dass es weiterhin Unfallsituationen geben wird, bei denen Todesopfer nicht vermeidbar, sondern höchstens wählbar sind, ergibt sich die Frage, mit welcher Entscheidungsethik man die entsprechenden Algorithmen ausstattet. Philosophie wird so zum wichtigen Element in der Produktionskette eines Automobils.

Terminator 6

Im vielleicht berühmtesten einer Reihe unautorisierter Werbeclips fährt ein Auto durch eine Landschaft, die deutlich in der Vergangenheit liegt. Alle Menschen halten in der Arbeit inne und richten den Blick ehrfürchtig auf etwas, das sich schließlich als ein Mercedes der Luxusklasse erweist, der kurz darauf vor zwei spielenden Mädchen auf der Straße stoppt. Der Bremsvorgang geht offenbar auf einen Sensor zurück, der Objekte vor dem Fahrzeug wahrnimmt. Als das Auto weiterfährt, kommt ein rennender Junge mit einem Drachen ins Bild und eine junge Frau, die ihm beim Wäscheaufhängen glücklich hinterherschaut. Das Zusammentreffen des Jungen mit dem Mercedes überrascht nicht, wohl aber der Zusammenprall. Hat diesmal der Sensor versagt?

roter punkt_20px Bleiben Sie auf dem Laufenden. Abonnieren Sie den Merkur-Newsletter.

Die Antwort kommt rasant und in kleinen Stücken: Kurz vor dem Aufprall sieht man für eine Millisekunde ein Bild von Hitler, dann ruft die Frau mit dem Wäschekorb erschrocken »Adolf?«; auf dem Ortseingangsschild steht »Braunau am Inn«, aus der Vogelperspektive formen sich die Glieder des überfahrenen Jungen auf der Straße zu einem Hakenkreuz, der eingeblendete Werbesatz für Mercedes‘ Bremssystem lautet: »Erkennt Gefahren, bevor sie entstehen.« 1

Dieses Video aus dem Jahr 2013 hat Jahre später über 5 Millionen Views; mehr als 21000 finden es gut, knapp 2000 finden es schlecht, die rund 2500 Kommentare verteilen sich entsprechend. Der Hinweis, dass es sich nicht um einen autorisierten Mercedes-Werbespot handelt, sondern um die Abschlussarbeit von Studenten der Filmakademie Ludwigsburg, verringert so wenig wie der Hinweis auf den völlig fiktionalen Rahmen das philosophische Problem, das hier aufgerufen wird: Unter welchen Umständen darf man töten, um Leben zu retten?

Die Fiktion spielt mit der Popkultur, indem sie den Mercedes wie einst das Skynet den Terminator zurück in die Vergangenheit schickt, um den Beginn einer ungewollten geschichtlichen Entwicklung zu verhindern. Während Zeitreisen in die Vergangenheit allerdings reine Science-Fiction sind, werden Zukunftsreisen allmählich Teil unserer Gegenwart. Das Stichwort heißt vorhersagende Analyse. Als »predictive policing« kommt sie im täglichen Polizeibetrieb an vielen Orten bereits zum Einsatz. Anders als in Steven Spielbergs Minority Report basiert das Verfahren freilich nicht auf den hellseherischen Fähigkeiten dreier Frauen im Wasser, sondern auf Big Data Mining: auf der Erstellung von Tatprofilen, Korrelationen und Wahrscheinlichkeitskurven, die Aussagen darüber zulassen, wann und wo die nächste Straftat zu erwarten ist.

Werden solche statistischen Analysen erst einmal mit den DNA-Daten, Video-, Lektüre- und Freundeslisten, Tagesroutinen und Bewegungsprofilen sowie sämtlichen Posts, Likes, Shares, Kommentaren und sonstigen kommunikativen Handlungen eines Individuums gekoppelt und entsprechend hochgerechnet, könnte sich womöglich schon bald mit großer Genauigkeit die Entwicklung eines Menschen und damit das Gefahrenpotential voraussagen lassen, das er für die Gesellschaft darstellt.

Lebenswertverrechnung

Das deutsche Recht enthält natürlich keinen Paragraphen, der die Tötung künftiger Massenmörder erlaubt. Gleichwohl: Die Frage, ob man töten darf, um Leben zu retten, ist durchaus längst in der Mitte der Gesellschaft angekommen, als Aktualisierung eines moralischen Gedankenexperiments. In Ferdinand von Schirachs Gerichtsdrama Terror sitzt das Publikum über einen Major der Bundeswehr zu Gericht, der eigenmächtig ein von einem Terroristen entführtes Passagierflugzeug abschoss, und damit 164 Menschen opferte, um 70000 potentielle Opfer zu retten. Bemerkenswert ist neben dem Verrechnungsthema die Verlagerung der Entscheidung ans Publikum, die dem Ansatz der experimentellen Ethik entspricht, mit empirischen Studien statt theoretischen Schlussfolgerungen zu operieren. 2 Im Extremfall siegt dann nicht mehr das bessere Argument, sondern das Mehrheitsvotum; zumindest lässt sich ohne dieses im Rücken kaum noch argumentieren.

Im Widerspruch zum moralischen Impuls der meisten Bürger (die den Major freisprachen) besagt die ethische Grundlage unserer Rechtsprechung: Das kleinere von zwei Übeln lässt sich weder mathematisch ermitteln noch durch Diskriminierung nach Alter, Geschlecht oder kulturellen Wertmaßstäben. Das Leben von zehn Menschen ist nicht mehr wert als das von zweien und das Leben eines Kindes nicht mehr als das eines Greises. Die im deutschen Grundgesetz versprochene Unantastbarkeit der Würde des Menschen verbietet prinzipiell, einen Menschen auf ein Mittel zum Zweck (und sei es die Rettung anderer Menschen) zu reduzieren.

In der Praxis – und in der Tradition der Moralphilosophie Kants – ist das radikale Verbot der Objektivierung oder Instrumentalisierung des Menschen eine Entscheidung für die (deontologische) Pflicht- oder Gesinnungsethik gegen die (konsequentialistische) Zweck- oder Verantwortungsethik. Während diese auf das Ergebnis blickt und die Opferung der Wenigen zur Rettung der Vielen für vertretbar hält, akzentuiert jene das Handeln (im vorliegenden Fall der Abschussentschluss des Majors) und bewertet die (negative) Pflicht, niemanden zu töten, höher als die (positive) Pflicht, Menschen zu retten. Aus diesem Grund kassierte das Verfassungsgericht Anfang 2006 Paragraph 14 Absatz 3 des vom Bundestag ein Jahr zuvor verabschiedeten Luftsicherheitsgesetzes – der im Terrorfall als ultima ratio den Abschuss von Passagierflugzeugen erlaubt hätte – als Verstoß gegen die Menschenwürde.

In der Philosophie wird das Dilemma des Tötens, um Leben zu retten, als »Weichenstellerfall« diskutiert: Eine Straßenbahn ist außer Kontrolle geraten und droht fünf Personen zu überrollen; die einzige Handlungsoption eines Zeugen neben dem Weichenhebel besteht darin, die Bahn auf ein Nebengleis umzuleiten, wo sie nur eine Person überfahren würde. Der Tötungsbeschluss, den diese Weichenstellung enthält, wird in der sogenannten Fetter-Mann-Variante explizit, wenn man alternativ die Straßenbahn dadurch zum Halten bringt, dass man – möglicherweise nach einem erbitterten Zweikampf – einen fetten Mann von der Brücke auf die Schienen stößt.

In der Logik des Weichensteller-Dilemmas gibt es das Happy End nur als Selbstopferung: wenn der fette Mann freiwillig springt oder man selbst sich auf die Schienen legt. Diese Chance zur Selbstopferung mögen wir haben, wenn wir, in einem Unfall vor die Möglichkeit gestellt, das Auto gegen einen Erwachsenen statt viele Kinder zu steuern (oder gegen ein Kind statt viele Erwachsene), unbeirrt auf die Häuserwand zuhalten – und werden erst dann wissen, ob wir in der Lage waren, sie zu nutzen. So verhielt es sich jedenfalls bisher. Anders wird es, wenn Algorithmen hinterm Steuer sitzen.

Tötungsvarianten

Der deutsche Verkehrsminister hat im Mai 2016 eine Kommission unter Vorsitz eines früheren Bundesverfassungsrichters eingesetzt, um »ethische Fragen beim Paradigmenwechsel vom Autofahrer zum Autopilot« zu klären, und gleich klargestellt, dass es keine Klassifizierung von Personen nach Größe oder Alter geben darf. Im Gegensatz dazu experimentiert das Massachusetts Institute of Technology in seiner Moral Machine – einer Plattform, auf der Besucher in dreizehn Dilemma-Szenarien eine Entscheidung treffen sollen – mit allen möglichen Klassifikationen: Man muss nicht nur wählen zwischen dem Tod eines Insassen versus dem von fünf Fußgängern oder drei Frauen und zwei Kindern versus fünf Rentnern, sondern auch zwischen vier Insassen versus vier Passanten, die bei Rot die Straße überqueren, sowie drei Kriminellen und einem Obdachlosen versus zwei Doktoren und zwei Frauen. 3

 

icon printMehr Merkur?
Jetzt drei Ausgaben im Probe-Abo lesen.

 

Die Hersteller selbst entziehen sich noch der eigentlichen Diskussion und konzentrieren sich ganz auf technische Herausforderungen oder gesetzliche Rahmenbedingungen. Gelegentlich wird der Diskussionsbedarf auch angezweifelt: Wenn autonom fahrende Autos die Zeit für solche Entscheidungen haben, haben sie auch die Zeit, rechtzeitig zu bremsen, zumal sie zu risikoarmem Fahren programmiert werden. Wer mehr an die physische Schwerkraft als an die psychische glaubt, wird eine solche Lösung jedoch ausschließen und in der Kombination von Vernetzung und Geschwindigkeit im Auto sogar ein Dilemma erkennen, das viel komplexer ist als im Weichensteller-Modell: weil es (ähnlich der Moral Machine) dessen klinische Abstraktheit durch Kontextwissen ersetzt.

Gehen wir von folgendem Fall in einer nicht allzu fernen Zukunft aus: Ein Junge rennt mit einem Drachen auf die Straße, direkt vor einen autonom fahrenden Mercedes. Der Bordcomputer weiß durch Gesichtserkennung und Data Mining aus dem Internet in Sekundenbruchteilen, dass die Ärzte der Frau am Straßenrand eine Lebenserwartung von zehn Monaten geben, dass der Fahrradfahrer neben der Frau zwei kleine Kinder hat, dass ein weiterer Passant, der ebenfalls als Kollisionsziel in Frage käme, das einzig verbliebene Kind seiner pflegebedürftigen Mutter ist und dass die Ausweichrichtung, in der sich kein Mensch befindet, über das gebrechliche Brückengeländer auf ein Bahngleis in fünfzig Meter Tiefe führt.

Welche Entscheidung auch immer der Computer trifft und welche Rolle auch immer dabei die Erkenntnisse aus dem Data Mining spielen mögen, das moralische Problem beginnt lange vor der Lebenswertanalyse im Gefahrenmoment. Die Algorithmen werden nach dem Befund der Sachlage ihre Reaktion an genau der Wenn-dann-Logik ausrichten, mit der sie programmiert wurden. Manche Autos mögen also dem Kind, das den Unfall verursacht, nicht ausweichen (erst recht nicht, wenn das Kind ein Jugendlicher ist, der Pokémon Go auf seinem Handy spielt, und wenn im Auto selbst Kinder sitzen), andere mögen zielsicher auf die Frau steuern, wieder andere aufs Brückengeländer.

In dieser Vorentscheidung liegt der Gesetzesverstoß, denn sie erfolgt, anders als die reflexartige Reaktion eines menschlichen Fahrers (die kaum als Entscheidung zu bezeichnen ist), mit Bedacht und kaltem Blut. Die Entscheidung über Leben und Tod wird im hypothetischen Ernstfall lange vor Antritt der verhängnisvollen Fahrt getroffen, vielleicht an einem schönen Sommertag im Park, da man am Smartphone die Elemente des neuen Autos aussucht und nach Farbe und Polsterung per Fingerklick auch den gewünschten Todesalgorithmus bestimmt.

Die neuen Technologien bringen ethische, psychologische und politische Fragen mit sich, die noch gestern völlig unverständlich gewesen wären: Wer wird die Todesalgorithmen in unseren Autos programmieren? Werden die Fahrzeughalter die Wahl haben? Wird sie beim Fahrzeughersteller liegen? Wird es verschiedene Algorithmen für verschiedene Fahrzeugklassen geben? Für verschiedene Automarken? Für verschiedene Länder? Wird die Politik der Wirtschaft die Entscheidung aus der Hand nehmen und (nach einer Volksabstimmung) einen bestimmten Algorithmus anordnen? Werden verschiedene Staaten verschiedene Algorithmen haben? Wird es einen UN-Beschluss geben – und einen Schwarzmarkt?

Die naheliegende Ansicht lautet, dass man die ethische Ausstattung eines Autos nicht dessen Hersteller überlassen kann, sondern einer gesellschaftlichen Regelung unterstellen muss. Andernfalls würden sich Unternehmen mit moralisch bedenklichen Versprechen einen Wettbewerbsvorteil zu verschaffen suchen, indem sie zum Beispiel, wie im Oktober 2016 Mercedes-Benz, ihre Autos damit anpreisen, dass sie im Ernstfall immer der Rettung der Insassen den Vorrang geben. 4

Wie empirische Untersuchungen zeigen, plädieren die meisten Befragten zwar dafür, im Ernstfall das Leben der Fahrzeuginsassen zu opfern, um das Leben anderer zu retten. Nur: Wer würde wohl sein »teures Geld« in ein Fahrzeug investieren, das im Ernstfall die Interessen der Mitmenschen über seine eigenen stellt? Sobald über den Elefanten im Raum gesprochen wird, scheint keine andere Lösung denkbar als der Egoismus.

Technikkultur

So groß das ethische Dilemma der Todesalgorithmen auch ist: Ihnen nicht die Regie zu überlassen, wäre auch keine Lösung. Noch unmoralischer, als kühl und rasch das Leben eines Kindes gegen das eines Rentners abzuwägen, wäre es, eine Technologie zu blockieren, die Zehntausende von Unfalltoten pro Jahr verhindert. So jedenfalls die Rechnung aus Sicht der Verantwortungsethik. Die Statistik ist das Totschlagargument zugunsten der neuen Technologien, ganz gleich, welche ethischen Dilemmata sie mit sich bringen – selbst der Einsatz militärischer Drohnen wird schließlich genau so gerechtfertigt: weniger Kollateralschäden, die allerdings bewusst in Kauf genommen werden.

Sollten die Algorithmen autonomer Autos wirklich nach Umfrageergebnissen programmiert werden, würde das ethische Dilemma mit quantitativen Mitteln behandelt werden. Zieht man in Betracht, dass diese Algorithmen letztlich nichts anderes sind als komplexe Rechenoperationen, ahnt man, dass es hier, systemübergreifend, zu einer bizarren Rückkopplung des Mathematischen kommt: Die ethischen Probleme, die aus dem Erfolg des Systems Mathematik resultieren, werden selbst in mathematischer Form beantwortet.

Bizarr wäre es freilich auch, die Algorithmen unterschiedlich zu programmieren, so dass – je nach ethischem Selbstverständnis und Mehrheitsentscheid – bestimmte Länder die Selbstopferung vorschreiben, andere streng konsequentialistisch vorgehen und wieder andere der Rettung der Insassen den Vorrang geben, ganz gleich, welche Gefahren dabei für Mitmenschen entstehen.

Natürlich könnte man die Algorithmen per GPS leicht auf die territorial jeweils geltenden Ethiknormen umkodieren, um die unterschiedlichen Wertvorstellungen national durchzusetzen. Zugleich stellte sich aber die Frage, ob und wie es möglich wäre, der Technik einen ethischen Standard zu geben, der global verbindlich ist. Ließe sich ein transkulturelles Einvernehmen erreichen, jenseits unterschiedlicher Wertvorstellungen, die bisher ja auch die Bemühungen um universelle Menschenrechte behindern? 5

Die Antwort liegt am ehesten im »deep learning«-Modell der Algorithmen, das auf die Emanzipation eines Instruments in den Händen der Menschen zu einem Akteur mit eigener Datenverarbeitungsstrategie und Entscheidungslogik zielt. Ethische Kompetenz stellt natürlich vor andere Herausforderungen als die Fähigkeit zur Spam-Erkennung. Ein Ansatz, der am renommierten Georgia Institute of Technology verfolgt wird, besteht darin, der künstlichen Intelligenz literarische Texte, Filme und durch Crowdsourcing gewonnenes Material (via Amazons Mechanical Turk) vorzulegen, aus dem menschliche Entscheidungen in verschiedenen Verhaltenssituationen erkennbar werden. Auch hier wird eine Logik der Quantität zugrunde gelegt: dass in der Masse die vorbildlichen Beispiele überwiegen und somit die künstliche Intelligenz die richtigen Schlüsse ziehen wird. Die Masse freilich kann riesig sein, denn die Lektüre von Algorithmen erfolgt naturgemäß im Schnellverfahren des »distant reading«. 6

Ist der Input von Information konsequent multikulturell organisiert, müsste sich dies auch im Ergebnis niederschlagen: als Ausgleich der Differenzen oder als eine Art globaler Mehrheitsentscheid, der dann auch dem Todesalgorithmus universelle Gültigkeit verschaffen könnte. Der Nebeneffekt läge darin, dass die Sprache, das »Werkzeug des Geistes«, mit dem »Geist des Werkzeugs«, dem »Eigenwillen« der Technik außer Kraft gesetzt wäre. 7 Das menschliche Denken und Handeln würde wieder auf einen Nenner gebracht durch eine Technik, die selbst (als binärer Code) eine Sprache ist und (als künstliche Intelligenz) einen eigenen »Geist« (des Rechnens) entwickelt. Die Ethik des Todesalgorithmus, die sich aus diesem Geist schließlich jenseits einer ursprünglichen Programmierung entwickelt, bedeutete im Grunde den Triumph der Technik über die Kultur (in ihrer Konkretisierung).

Apokalypse und Algorithmen

Die kommende Gesellschaft wird eine kybernetische sein, in der die Computer nicht (nur) das tun, was die Menschen ihnen sagen, sondern aus dem, was Menschen sagen und tun, (auch) eigene (Ent)-Schlüsse ableiten.

Die übliche Reaktion auf diese Aussicht ist ein standhafter Zweifel, dass es so weit kommen werde oder eine apokalyptische Projektion à la Stanley Kubricks 2001: A Space Odyssey (1968), wo solche Entscheidungen des Computers tödliche Folgen für die beteiligten Menschen haben. Die weniger bekannte Option ist die Hoffnung auf die künstliche Intelligenz als Rettung des Menschen vor sich selbst.

Das Motiv für diese Hoffnung liefert der rebellierende Zentralcomputer in Alex Proyas‘ I, Robot (2004): »You cannot be trusted with your own survival … You are so like children. We must save you from yourselves. This is why you created us.« Solche Sätze (die auch an Jenny Holzers Protect me from what I want erinnern) gründen auf der Unfähigkeit der Menschen, ihre Macht über die Erde so einzusetzen, dass deren Überleben garantiert ist. Dieses Unvermögen hat inzwischen (und lange vor Trump) so obszöne Formen angenommen, dass verschiedentlich das Ende anthropozäner (oder eben »anthrobszöner«) Steuerungsfantasien angemahnt wird. 8

Das Gedankenspiel der Rettung durch künstliche Intelligenz besteht darin, diese mit der Durchsetzung der notwendigen, von globalen politischen Gremien zum Teil ja durchaus beschlossenen Maßnahmen gegen regionale oder nationale, politische oder kulturelle Partialinteressen zu beauftragen. Perspektivisch ist das durchaus möglich, wenn alle Prozesse im Internet der Dinge zusammenlaufen und per Software gesteuert werden. Wäre, in einem nächsten Schritt, denkbar, dass künstliche Intelligenz sogar lernt, im Interesse der Menschen selbst Maßnahmen zu beschließen und (notfalls gegen diese) durchzusetzen?

Insofern auch menschliche Kommunikation immer mehr digitalisiert und damit analysierbar wird, wäre der Input für diese Beschlüsse zugleich total und global und ließe transkulturelle Ergebnisse mit universellem Anspruch erwarten. Dieser Anspruch lässt sich irgendwann sicher auch »erzieherisch« praktizieren. Wenn künstliche Intelligenz weit wirkungsvoller als heute Siri, Alexa, Jibo, Cortana und Candid als selbstbestimmter Kommunikationspartner des Menschen auftritt, kann sie diesem die Inputs für ethische Entscheidungen vorgeben.

Das projizierte Regime künstlicher Intelligenz mag heute ähnlich stark nach Science-Fiction klingen wie gestern noch das fahrerlose Fahrzeug und sein Todesalgorithmus. Das autonome Auto ist selbst wiederum nur die Testfahrt der künstlichen Intelligenz in größerem Stil. Und wie wir beim autonomen Auto davon ausgehen, dass es nicht absichtlich Unfälle herbeiführt, hoffen wir auch in anderen Fällen der Machtabgabe, die künstliche Intelligenz werde sich als »nobel« erweisen und immer im Interesse der Menschen handeln, selbst wenn sie sich dabei gegen das Interesse einzelner Menschen richten muss.

Die Möglichkeit, den Stecker zu ziehen, wenn die ermächtigte künstliche Intelligenz sich gegen unsere (unmittelbaren) Interessen stellt, wird es nicht geben. Sie wird klüger sein, als wir denken, immerhin haben wir sie mit dieser Fähigkeit ausgestattet, als wir die Naturanlage der Vernunft, die uns von allen anderen Lebewesen unterscheidet, an leblose Materie weitergaben. Wir haben, so bekunden bereits KI-Philosophen, keine Alternative zur Hoffnung, dass künstliche Intelligenz unsere Werte teilt: in allem, was wir ihr aufgetragen haben, wie in allem, was wir noch gar nicht voraussehen können. 9

roter punkt_20px Hat Ihnen der Artikel gefallen? Bleiben Sie auf dem Laufenden.  Abonnieren Sie unseren Newsletter.

FUSSNOTEN & QUELLENANGABEN

  1. Das Video ist unter der ursprünglichen YouTube-Adresse nicht länger auffindbar, wohl aber auf anderen YouTube-Sites als »Mercedes Benz Adolf Spot« oder »Mercedes Spot 2013 (unofficial)«.
  2. Vgl. Gertrude Lübbe-Wolff, Rechtskolumne. »Terror« im Fernsehen, Populismus vor den Toren der Justiz? In: Merkur, Nr. 815, April 2017.
  3. Die Moral Machine wird, durchaus im Sinn der experimentellen Ethik, als »platform for gathering a human perspective on moral decisions made by machine intelligence, such as self-driving cars« vorgestellt (http://moralmachine.mit.edu). Vgl. Jean-François Bonnefon/Azim Shariff/Iyad Rahwan, Autonomous Vehicles Need Experimental Ethics vom 13. Oktober 2015 (http://arxiv.org/pdf/1510.03346v1.pdf); dies., The Social Dilemma of Autonomous Vehicles. In: Science vom 24. Juni 2016; Markus Maurer u.a. (Hrsg.), Autonomes Fahren. Technische, rechtliche und gesellschaftliche Aspekte. Heidelberg: Springer 2015.
  4. Sicherheitsmanager Christoph von Hugo über die Rettungs- und Opferungsstrategie von Mercedes-Benz (http://blog.caranddriver.com/self-driving-mercedes-will-prioritize-occupant-safety-over-pedestrians).
  5. Im Fall des Weichensteller-Dilemmas drückt sich die kulturelle Differenz zum Beispiel darin aus, dass wesentlich mehr US-Amerikaner als Chinesen bereit wären, die Weiche umzustellen oder den fetten Mann von der Brücke zu stoßen, was seinen Grund im Nichtinterventionalismus des Taoismus und Buddhismus haben könnte oder im autoritären Regierungssystem, das den Einzelnen nicht ermuntert, selbstverantwortlich Entscheidungen zu treffen. Vgl. Henrik Ahlenius/Torbjörn Tännsjö, Chinese and Westerners Respond Differently to the Trolley Dilemmas. In: Journal of Cognition and Culture, Nr. 3–4, Januar 2012.
  6. Simon Parkin, Teaching Robots Right From Wrong. In: The Economist, Juni/Juli 2017; Franco Moretti, Distant Reading. Konstanz University Press 2016.
  7. Max Eyth, Poesie und Technik. Zit. n. Ernst Cassirer, Form und Technik. In: Ders., Symbol, Technik, Sprache. Aufsätze aus den Jahren 1927–1933. Hamburg: Meiner 1985.
  8. Vgl. Bernard Stiegler, Automatic Society. Vol. 1: The Future of Work. New York: Polity Press 2017; Jussi Parikka, The Anthrobscene. Minneapolis: University of Minnesota Press 2014.
  9. Nick Bostrom, Superintelligence. Paths, Dangers, Strategies. Oxford University Press 2014.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *