Künstliche Intelligenz
Ethik für Maschinen

Was tun, wenn Maschinen entscheiden – zum Beispiel im Straßenverkehr?
Was tun, wenn Maschinen entscheiden – zum Beispiel im Straßenverkehr? | Foto (Ausschnitt): © RioPatuca Images – Fotolia.com

Im Zuge der Digitalisierung gibt der Mensch Verantwortung an technische Geräte ab. Welche Entscheidungen dürfen Maschinen treffen, und wie gehen wir mit den Folgen um? In Deutschland beschäftigt sich eine Ethik-Kommission mit dieser Frage.

Ein Autofahrer fährt zügig auf einer Landstraße, als ihm plötzlich ein überholendes Fahrzeug entgegenkommt. Er hat nur zwei Möglichkeiten, sich zu retten: Entweder reißt er das Steuer herum und rast über den Straßenrand hinaus ins Feld, mitten in eine Gruppe spielender Kinder. Oder er hält die Spur, in der Hoffnung, dass der andere Fahrer ausweichen wird. Was immer er tun wird: Schon aufgrund der Kürze der Zeit wird er keine bewusste, sondern eine instinktive Entscheidung treffen. Kein Gericht der Welt würde auf die Idee kommen, ihn dafür zu verurteilen.
 
Etwas anderes wäre es, wenn der Fahrer ein Roboter wäre. Wenn es sich also um eines jener autonomen Fahrzeuge handeln würde, wie sie schon seit Jahren für Google oder Audi im Testbetrieb unterwegs sind. Seine blitzschnell arbeitenden Prozessoren gäben dem Computer genügend Zeit für eine Entscheidung. Sie müsste aber bereits in seiner Programmierung, dem Algorithmus, angelegt sein. Aber wie soll in einer solchen Situation entschieden werden? Und wer trägt hierfür die Verantwortung?

Leitlinien für Algorithmen

Um solche Punkte zu klären, hat die deutsche Bundesregierung im Herbst 2016 die sogenannte Ethik-Kommission für das autonome Fahren eingesetzt. Unter der Leitung des ehemaligen Bundesverfassungsrichters Udo Di Fabio erörtern ein Dutzend Wissenschaftler, Informatiker, Ingenieure und Philosophen Fragen der Entscheidungsverantwortung bei autonomen Fahrzeugen und erarbeiten Standards, die es bislang noch nicht gibt. „Solange in diesem Bereich keine juristische Sicherheit besteht, wird kein Unternehmen in diese Technologie investieren“, sagt Armin Grunwald. Der Physiker und Philosoph ist Mitglied in der Ethik-Kommission und leitet außerdem das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. 
 
Mit dem autonomen Fahren betritt die Gesellschaft Neuland. Der Mensch tritt Verantwortung an den Computer ab, der das Fahrzeug steuert. „Der Mobilitätsrevolution werden wir nur gerecht, indem wir klare Leitlinien für Algorithmen entwickeln“, erklärt der deutsche Bundesverkehrsminister Alexander Dobrindt zur Auftaktsitzung der Ethik-Kommission im Oktober 2016. Auf Basis ihrer Empfehlungen soll ein Gesetz verabschiedet werden, mit dem der Betrieb autonomer Fahrzeuge auf öffentlichen Straßen zugelassen wird. Es soll die Verantwortlichkeiten zwischen Mensch und Computer klären und sowohl Kunden als auch Fahrern, Teilnehmern am Straßenverkehr und den Automobil-Herstellern Rechtssicherheit bieten. Diesem ersten Schritt zur Gleichstellung von Mensch und Maschine werden weitere folgen, davon ist Armin Grunwald überzeugt. „Es ist an der Zeit, eine Ethik für die Künstliche Intelligenz zu entwickeln.“

Science-Fiction leistet Vorarbeit

Die Vorarbeit dazu hat der russisch-amerikanische Biochemiker und Science-Fiction-Autor Isaac Asimov geleistet. Bereits 1942 publizierte er in der Kurzgeschichte Runaround seine berühmt gewordenen Roboter-Gesetze. Ein Roboter dürfe einem menschlichen Wesen keinen Schaden zufügen oder dies durch Untätigkeit zulassen, lautet das erste Gesetz. Gesetze Zwei und Drei besagen, dass Roboter den Befehlen von Menschen gehorchen und ihre Existenz schützen müssen. Solange sie dabei nicht gegen Gesetz Nummer eins verstoßen.
 
1983, parallel zur Entwicklung der ersten selbstständig agierenden Kriegswerkzeuge, entwickelte Asimov das übergeordnete, sogenannte nullte Robotergesetz: „Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird.“ Ein Gesetz mit Tücken, denn Maschinen könnten sich daraus weitreichende Freiheiten ableiten: etwa die Entscheidung, einzelne Menschen zu töten, wenn durch sie das Wohl der Menschheit bedroht sei.

Unauflösbares Dilemma

Derart weitgehende Überlegungen muss die deutsche Ethik-Kommission für das autonome Fahren noch nicht anstellen. Sie beschäftigt sich vor allem mit Haftungsrisiken. Nach heutigem Verständnis haftet stets der Besitzer für Schäden: der Halter für seinen Hund, die Eltern für ihre Kinder. Was aber, wenn ein Programmierfehler einen Schaden verursacht? Dann wäre der Hersteller in der Pflicht. Geplant ist deshalb, dass er eine sogenannte Blackbox im Auto installieren muss, die Fahrdaten aufzeichnet. So wird man im Fall eines Unfalls feststellen können, wer gefahren ist: Mensch oder Computer.
 
Einige Grundsätze hat die Kommission bereits formuliert: Der Algorithmus des Computers soll Sachschaden dem Personenschaden bevorzugen. Und er dürfe Personen nicht klassifizieren, etwa nach Größe oder Alter. Bei kleineren Unfällen mit Blechschäden sind solche Bedingungen noch relativ einfach umzusetzen. Anders bei einer zugespitzten Dilemma-Situation, wie sie eingangs beschrieben wurde. Darf das Leben vieler gegen das Leben einiger aufgerechnet werden?
 
Auch über diesen Fall hat die Ethik-Kommission schon ausführlich beraten, erzählt Armin Grunwald. Das Problem: Eine ethisch vertretbare Entscheidung ist hier nicht vorstellbar, Menschenleben dürften niemals gegeneinander abgewogen werden. Dagegen spricht schon der Gleichheitsgrundsatz in der Allgemeinen Erklärung der Menschenrechte und im deutschen Grundgesetz. Um das Dilemma technisch zu lösen, könnten die Hersteller einen Zufallsgenerator in das Fahrzeug einbauen. Er würde in solchen Situationen entscheiden. Doch wer wollte in einem solchen Auto dann noch mitfahren?