Roboterethik  „Wir brauchen ein ethisches Bewusstsein für den Umgang mit Technologien“

Roboterethik Foto: Andy Kelly via unsplash | CC0 1.0

Roboter werden nie müde und sind nie beleidigt – genau das macht ihren Einsatz in vielen Lebensbereichen so wertvoll. Doch wollen die smarten Arbeitsmaschinen das überhaupt und wie könnte eine Roboterethik aussehen?

Menschen sind seit jeher von künstlichen Lebewesen fasziniert: Sei es der Grusel von Frankensteins Monster, die Verführungskraft der Menschmaschine Maria aus Fritz Langs Film Metropolis oder der Humor von Apples Assistenz-System Siri. Noch immer aber stellen sich viele Menschen Roboter als klobige Industriemaschinen vor, die im Akkord irgendwelche Dinge zusammenschrauben. Dabei ist die Beziehung von Mensch, Roboter und Software-Systemen mittlerweile viel intimer – fast jeder westliche Haushalt nutzt heutzutage komplexe, intelligent angelegte Geräte, vom Smartphone bis hin zum sensorgesteuerten Heizsystem. Tendenziell wird ihre Zahl noch zunehmen, obwohl es weltweit keine einheitlichen Standards gibt, was genau ein Roboter ist. Diese Definition kann sich kulturabhängig in Europa, Asien und Nordamerika unterscheiden. Roboter und digitale Anwendungen verschmelzen so immer mehr mit unserem Alltag, vor allem in den Bereichen Unterhaltungs- und Heimelektronik, aber auch bei der Pflege älterer sowie kranker Menschen.
 
Wenn wir also immer enger mit Robotersystemen zusammenleben oder -arbeiten, drängt sich die Frage nach dem richtigen Umgang mit ihnen auf. Denn wie reagieren wir, wenn die mechanischen oder digitalen Hilfen etwas ganz anderes wollen oder machen, als für uns zu arbeiten? „Ich plädiere ja immer dafür, dass wir ein ethisches Bewusstsein brauchen für den Umgang mit den Technologien die wir erschaffen“, sagt Janina Loh, Universitätsassistentin im Bereich Technik- und Medienphilosophie an der Universität Wien. Sie setzt sich speziell mit moralischen Rechten von Robotern auseinander und hat 2019 ein Buch über Roboterethik veröffentlicht. „Wenn ein Roboter einen bestimmten Entwicklungsgrad erreicht, dann könnten ihm theoretisch bestimmte Rechte zugesprochen werden, die es ihm ermöglichen, sich selbstständiger in der menschlichen Gesellschaft zu bewegen“, so Technikphilosophin Loh. Gegenwärtig sind Roboter – und im weiteren Sinne auch schwach intelligente Software wie Siri oder Alexa – juristisch Gegenstand verschiedener Rechtsgebiete, wie unter anderem Strafrecht, Versicherungsrecht, Patentrecht. Ein spezielles Roboterrecht gibt es momentan noch nicht – allenfalls existiert mit den sogenannten „Robotergesetzen“ von Isaac Asimov eine unverbindliche, technisch-moralische Orientierung. Nur wenige Anwält*innen kennen sich tatsächlich mit der weitverzweigten Materie aus. Und: Was, wenn Roboter eines Tages doch ein Selbstbewusstsein und eigene Wünsche haben?

Die Technik- und Medienphilosophin Janina Loh setzt sich speziell mit moralischen Rechten von Robotern auseinander. Die Technik- und Medienphilosophin Janina Loh setzt sich speziell mit moralischen Rechten von Robotern auseinander. | Foto: © Andrea Vollmer

Gebaut, um zu dienen

Denn zu ihren zentralen Aufgaben gehören vor allem der pausenlose Einsatz für den Menschen: „Ein Roboter ist ursprünglich als ein Wesen geschaffen worden, das dem Menschen Arbeiten abnehmen kann“, so Loh. Das Wort selbst – Roboter – hat seine Wurzeln im slawischen „rabota“ – Arbeit und Frondienst. Etabliert hat es der tschechische Schriftsteller Karel Čapek in seinem Theaterstück R.U.R. aus dem Jahr 1920. Als emanzipiertes, freies Wesen mit sozialer Verantwortung war der Roboter bislang nicht konzipiert – genau das machte seinen Einsatz überhaupt erst attraktiv. Die Frage ist also, ob es überhaupt sinnvoll ist, „empathiefähige“ Technik zu entwickeln: „Zur Empathie brauchen wir ja, dass man dasselbe fühlen kann, was gerade das Gegenüber empfindet“, so die Rechtsexpertin Susanne Beck in einem Radio-Feature. „Das werden wir einer Maschine nie beibringen können. Auch die Moral einer Maschine wird nie dieselbe sein wie die eines Menschen.“ Zudem wäre fraglich, was genau Roboter „fühlen“ sollen – hätten sie dieselbe „Gefühlspalette“ wie ein Mensch oder gänzlich eigene emotionale Kategorien?
 
Laut Technikphilosophin Loh erledigen Roboter vor allem jene Arbeiten für Menschen, „die sich unter den drei ‚Ds‘ zusammenfassen lassen: dull, dangerous and dirty.“ Ob Fließbandarbeit, Sprengstoffsuche, Kloakenreinigung – Wert und Ansehen solcher Tätigkeiten entstammen der menschlichen Welt. Man dürfe deshalb nicht aus den Augen verlieren, so Loh weiter, dass sich mit dem Einsatz von Robotertechnik die Debatte um den Wert bestimmter Arbeiten nur auf smarte Maschinen verlagert – sie aber nicht auflöst. Erschwerend kommt hinzu, dass zahlreiche neue Roboter wie ein Mensch aussehen oder menschliche Züge tragen. Das ist auch in der Militär- und Sexrobotik der Fall. So seien Militärroboter „unglaublich faszinierend“, sagt Loh, und erhielten enorme finanzielle Förderung, doch wichtiger sei es, zu hinterfragen, wozu man diese Roboter tatsächlich brauche und warum sie wie ein „Terminator“ aussehen müssten. Roboter-Sextoys wiederum entfalteten in vielen Bereichen positive Effekte, aber verkörperten auch häufig problematische Geschlechterrollen, so die Wissenschaftlerin. Verbote derartiger Roboter würde aber wahrscheinlich nichts am Problem selbst ändern, vielmehr brauche es eine weiterführende Debatte.

Roboter bald als „elektronische Person“?

Auch das menschliche Verhalten gegenüber intelligenten Maschinen habe eine moralische Ebene, wie einige Expert*innen betonen: Es sei nicht richtig, Roboter mutwillig auszubeuten oder zu misshandeln – ganz ähnlich wie dies auch im Bereich der Tierethik für bestimmte Tierarten debattiert wird. Juristisch schließt Loh allerdings per Definition aus, dass Roboter jemals „Menschenrechte“ erhalten. Denkbar seien aber so etwas wie Bürger*innenrechte – beispielsweise das Wahlrecht – wie sie viele Menschen mit 18 oder 21 Jahren erhielten. Das Europäische Parlament hat 2017 wiederum vorgeschlagen, neben der natürlichen und juristischen Person den Status „elektronische Person“ einzuführen: „Das Europäische Parlament fordert die Kommission auf (...) langfristig einen speziellen rechtlichen Status für Roboter zu schaffen, damit zumindest für die ausgeklügeltsten autonomen Roboter ein Status als elektronische Person festgelegt werden könnte“, steht im Bericht des Rechtsausschuss. Vor allem hochentwickelte Roboter sollen so Verantwortung für mögliche von ihnen verursachte Schäden übernehmen. Expert*innen aus verschiedenen Disziplinen kritisieren die Idee jedoch: Zum einen existieren autonom denkende Maschinen noch nicht. Zum anderen würde der Status einer juristischen Person für Roboter ausreichen. Es brauche derzeit keine weitere Kategorie, zumal Hersteller und/oder Betreiber haften würden – in etwa vergleichbar wie bei Versicherungen für Autos oder bestimmte Haustiere. Alternativ könnte es spezielle Versicherungen für Roboter geben.
 
Ab wann ein Roboter „ausgeklügelt“ ist, lässt auch das EU-Parlament offen und das könnte zu einem Streitpunkt werden. So berichtet Loh von dem Roboter „Sophia“, der 2017 in Saudi-Arabien die Staatsbürgerschaft erhielt. „Sophia“ ist ein hoch entwickelter, weiblich erscheinender Roboter – doch selbstständig intelligent und autonom ist der Gynoid nicht. Loh und andere Expert*innen kritisieren daher, dass „Sophia“ nun über mehr Rechte verfüge als menschliche Frauen in Saudi-Arabien.
 

Von Menschen und nicht-menschlichen Entitäten

Künstliche Intelligenz und autonome Roboter befeuern unsere Fantasien und Wünsche, doch tatsächlich ist kaum eine Maschine bereits so weit, wie manche Science Fiction uns glauben lassen möchte. Autonome Roboter würden uns – falls sie je als Massenprodukt für den Alltag existieren –  vor weitaus mehr Herausforderungen stellen, als nur die Frage nach unserer moralischen Haltung ihnen gegenüber. Doch wie geht es weiter in der Debatte? Ein möglicher nächster Schritt könnte sein, sich von der menschlichen – also der anthropozentrischen – Sicht auf die Frage um Roboterethik zu lösen.
 
Besonders bekannt für seine Kritik am Anthropozentrismus ist der französische Philosoph und Soziologe Bruno Latour. Folgt man seinen Ideen, würden nicht nur Menschen über die Ordnung der Welt bestimmen, sondern auch die Welt- und Wertvorstellungen von „nicht-menschlichen Entitäten“, die Latour Aktanten nennt. Diese wirken gleichberechtigt neben den Menschen in das soziale Gewebe der Welt mit hinein, haben eine eigene Rolle und persönliche Agenda – ganz gleich ob es sich dabei um das Klima, einen Roboter oder einen Kugelschreiber handelt.
 
Das mag erst einmal seltsam anmuten, doch zeigt es auch, wie verengt die westliche Denktradition ist. Neuseeland geht hier bereits in eine andere Richtung: So erhielten dort 2017 der Fluss Whanganui River und der den Maori heilige Berg Taranaki den Status einer juristischen Person, die nur sich selbst gehört. Auch in anderen Ländern gibt es ähnliche Praxen. Faktisch sind jene Orte damit auch wieder unter Kontrolle der indigenen Bevölkerung und geschützt vor Hyper-Tourismus, der Regierung oder dem Zugriff Dritter. Für die Maori selbst ist dabei der Fokus auf den Rechtsstatus weniger wichtig als der Fokus auf Verantwortung. So können Flüsse und Berge nun auch mit Hilfe menschlicher Vertreter*innen vor Gericht Anklage gegen Verletzungen erheben. Bislang hat es noch keinen dieser Fälle gegeben, unklar ist auch, wie diese genau ablaufen sollen oder Strafmaßnahmen aussehen könnten. Derartige Möglichkeiten verkehren aber letztlich das Bild von der passiven Entität in das eines aktiven, nicht-menschlichen Akteurs, gegenüber dem der Mensch seine Verantwortungsbereitschaft beweisen muss.

Das könnte auch von Interesse sein

Failed to retrieve recommended articles. Please try again.

Empfehlungen der Redaktion

Failed to retrieve articles. Please try again.

Meistgelesen

Failed to retrieve articles. Please try again.