Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

KI und Recht
Was darf der Roboter?

Was, wenn er Fehler macht? Der humanoide Roboter „Pepper“ arbeitet in einem Pflegeheim in Erlenbach.
Was, wenn er Fehler macht? Der humanoide Roboter „Pepper“ arbeitet in einem Pflegeheim in Erlenbach. | Foto (Detail): © picture alliance / REUTERS / Kai Pfaffenbach

Künstliche Intelligenz macht unser Leben in vielerlei Hinsicht einfacher. Doch wer trägt die Verantwortung, wenn Algorithmen und Roboter Fehler machen?

Von Johannes Zeller

Künstliche Intelligenzen (KIs) finden überall in unserem alltäglichen Leben Anwendung. Dabei werden sie uns Menschen in ihren Fähigkeiten immer ähnlicher: Algorithmen können heute nicht nur logisch sein, sondern auch kreativ. Roboter bringen sich selbst Neues bei. Was bedeutet das für die Rechtslage? Kann ein Roboter Rechte und Pflichten haben, so wie ein Mensch? Wer trägt die Schuld, wenn das selbstfahrende Auto einen Fehler macht? Fragen wie diese zum Umgang mit Künstlicher Intelligenz treiben Jurist*innen und Regierungen um. Wer trägt die Schuld, wenn das selbstfahrende Auto einen Fehler macht? Fragen wie diese zum Umgang mit Künstlicher Intelligenz treiben Jurist*innen und Regierungen um. | Foto: © picture alliance/dieKLEINERT/Markus Grolik Fragen wie diese beschäftigen Ethiker*innen, Jurist*innen und Regierungen. Denn irren ist eben nicht nur menschlich: Autonome Programme fällen eigene Entscheidungen, und die können auch mal daneben gehen – davor schützt auch der beste Algorithmus nicht. Ein Beispiel dafür ist das selbstfahrende Auto. Wie alle Teilnehmenden im Straßenverkehr muss es sich an gewisse Regeln halten. Im Gegensatz zum Menschen kann es so programmiert werden, dass es gar nicht in Versuchung kommt, eine Geschwindigkeitsbegrenzung zu übertreten oder ein riskantes Überholmanöver durchzuführen. Doch was passiert, wenn andere Verkehrsteilnehmer falsch reagieren? Etwa dann, wenn auf der Fahrbahn plötzlich ein Fahrrad auftaucht. Man stelle sich vor, dass ein Ausweichmanöver einen Fußgänger am Gehsteig gefährden würde. Soll das Auto so programmiert werden, dass es das Manöver riskiert? Oder sollte es selbst entscheiden? Und falls es sich falsch entscheidet: Wer übernimmt die Verantwortung? 

Sollte KI eine Rechtspersönlichkeit haben?

Um für solch schwierige Fälle frühzeitig eine Rechtsgrundlage zu schaffen, machte das Europäische Parlament 2017 den Vorschlag, intelligenten Maschinen den Status einer „elektronischen Person“ zu verleihen, die – ähnlich wie Menschen und Unternehmen – als Rechtssubjekt anerkannt wird. Doch KI-Forscher*innen und Rechtswissenschaftler*innen reagierten nicht sonderlich begeistert auf diese Idee. In einem offenen Brief an die EU-Kommission sprachen sich 250 Expert*innen gegen den Vorstoß aus. Er beruhe auf der falschen Annahme, dass die Frage der Haftung nicht zu beantworten sei, wenn autonome Roboter Fehlentscheidungen treffen. Dieses Missverständnis sei durch die Darstellung von Robotern in Science-Fiction und durch sensationsgierige Pressemeldungen entstanden, heißt es in dem Schreiben. Auch das Bundesministerium für Wirtschaft und Energie (BMWi) sieht keine Notwendigkeit, den Rechtsstatus einer „e-Person“ zu schaffen. Die juristischen Fragen, die durch smarte Maschinen aufgeworfen werden, seien durch die bestehende Rechtsordnung lösbar, stellt das BMWi in einem Ergebnispapier zum Thema KI und Recht im Kontext von Industrie 4.0 fest: „KI-Systeme haben bislang nicht den Grad an Autonomie erreicht, dass eine Anknüpfung an ein menschliches Verhalten nicht mehr möglich wäre.“ Für die Folgen der KI-Nutzung müsse folglich weiterhin der Mensch haften. Schließlich könne man die Verantwortung nicht einfach auf eine leblose Maschine oder ein Computerprogramm abwälzen.

Der Roboter als Urheber? 

Dem gegenüber steht die Frage, wer davon profitieren sollte, wenn eine KI geistiges Eigentum produziert. Ganz neu ist das Thema nicht. Bereits in den 1960er-Jahren warfen malende Roboter ähnliche Fragen auf. Die von ihnen erschaffenen Werke beruhten jedoch zumeist noch auf Zufallsalgorithmen, die in keiner Weise mit menschlicher Intelligenz zu vergleichen sind. In den letzten zehn Jahren scheint KI hingegen „einen neuen Entwicklungsstand erreicht zu haben“, wie das BMWi in seinem Papier anerkennt. Heute schreiben Roboter ganze Drehbücher und komponieren Musikstücke. Mit den randomisierten Kritzeleien von damals ist das kaum noch zu vergleichen. Kann ein Roboter also zum Urheber werden? 
 
Jurist*innen verweisen dabei gerne auf einen Präzedenzfall aus der Tierwelt: 2008 gab der englische Fotograf David J. Slater dem Makaken Naruto seine Kamera in die Hand. Dieser knipste damit ein „Affen-Selfie“, das drei Jahres später viral ging und sich in der ganzen Welt verbreitete. Die Tierrechtsorganisation Peta versuchte, die mit dem Foto erzielten Einnahmen für Naturo einzuklagen. Es folgte ein mehrjähriger Rechtsstreit, der in den Vereinigten Staaten ausgetragen wurde. 2017 stimmte Slater einer außergerichtlichen Einigung zu und verpflichtete sich, ein Viertel der künftigen Einnahmen des Naturo-Selfies an Peta zu spenden. Doch das Berufungsgericht in San Francisco nahm die Einigung nicht an. Die Klage wurde abgewiesen, mit der Begründung, dass Naturo selbst am Vergleich nichts mitzureden hatte und man einen Präzedenzfall schaffen wolle. Zudem musste Peta die Anwaltskosten des Fotografen tragen. Slater wurde als Urheber des Fotos anerkannt. Später klagte er gegen die deutsche Punkband Terrorgruppe, weil diese die Aufnahme ohne seine Autorisierung auf einem Plattencover verwendet hatte. Das US Copyright Office stellte fest, dass Urheberrechte nur Menschen zugesprochen werden können und somit keinen Tieren – oder Robotern.
 
Aktuell sprechen Gerichte und Regierungen den Menschen also nicht von seiner Verantwortung für die von ihm entwickelte KI frei, sogar dann nicht, wenn seine Erfindungen selbst zu Erfindern werden. Die Rechte und Pflichten bleiben bei den Nutzer*innen der KI bzw. bei jenen, die sie einsetzen. Der britische Copyright Designs and Patent Act war bereits 1988 zu dieser Entscheidung gekommen, als erste Heimcomputer ähnliche Fragen aufwarfen, wie heute der „lernende Roboter“. Auch die EU-Kommission scheint sich mittlerweile mit dieser Idee anzufreunden. Technologie müsse stets im Dienste der Menschheit eingesetzt werden und ihren Rechten folgen, hielt sie im Februar 2020 in einer Mitteilung zur Gestaltung der digitalen Zukunft Europas fest.

Top