Selbstfahrende Autos
Eine Frage des Einzelfalls?

Ein kleiner, autonom fahrender Elektrobus am Stadtbahnhof. An der Haltestelle stehen einige wartende Personen.
Insgesamt zwei automatisierte Elektrobusse fahren auf einer 1,5 Kilometer langen Teststrecke zwischen dem Bahnhof Iserlohn und dem Campus der Fachhochschule Südwestfalen im Linienverkehr. | Foto (Detail): Rupert Oberhäuser © picture alliance / Rupert Oberhäuser

Wer ist verantwortlich, wenn ein Unfall mit einem selbstfahrenden Auto passiert? Wenn Jurist*innen sich mit Assistenzsystemen und autonomem Fahren befassen, wird es komplex. In Würzburg gibt es eigens die Forschungsstelle RobotRecht, die sich mit solchen technik-rechtlichen Fragen beschäftigt. Wissenschaftlicher Mitarbeiter Max Tauschhuber gibt einen Einblick.

Herr Tauschhuber, welche Aspekte beim Fahrzeug wären durch Automatisierung betroffen? Und was gehört alles bei einem autonomen Fahrzeug dazu?

Da muss man bei den Begrifflichkeiten aufpassen. Bei Fahrzeugen wird zwischen mehreren Stufen unterschieden. Die deutsche Bundesanstalt für Straßenwesen hat seit 2021 eine neue Kategorisierung mit drei Levels eingeführt.

Die erste Stufe ist der assistierte Modus. Da werden die Fahrzeugführer*innen bei der Ausübung bestimmter Fahraufgaben unterstützt – ungeachtet dessen müssen sie permanent das System und das Umfeld überwachen. Dazu gehören Tempomaten oder Spurhalteassistenten.

Dann gibt es den automatisierten Modus. Da können Fahrzeugführer*innen, während das System das Fahrzeug fährt, fahrfremde Tätigkeiten vornehmen. Man könnte etwas lesen, beispielsweise. Aber die fahrzeugführende Person muss weiterhin so weit aufmerksam bleiben, dass sie nach Aufforderung durch das System die Fahraufgabe rechtzeitig wieder übernehmen kann.

Der dritte Modus ist der autonome Modus. Hier fährt nur noch das System das Fahrzeug. Menschen an Bord sind nur noch Passagier*innen. Busse, die im autonomen Modus betrieben werden, werden auch Shuttles genannt. Da kann man sich vorstellen, dass diese Fahrzeuge kein Lenkrad oder sonstige Bedienelemente mehr haben.

Wann fließen juristische Erwägungen und Überlegungen in den Entwurf oder den Bau eines automatisierten oder autonomen Fahrzeugs mit ein?

Es kommt auf die jeweilige juristische Fragestellung an. Es gibt bestimmte Qualitätsstandards, ISO- oder DIN-Normen. Diese Normen sind kein Gesetz, sondern von einer privaten Institution aufgestellte Standards, aber sie entsprechen natürlich im besten Fall rechtlichen Anforderungen.

Bei grundsätzlichen Fragen, die nicht über Normen dargestellt werden können, hat die Automobilindustrie ein Interesse dran, dass sie wissenschaftlich geklärt werden. Das erfolgt im besten Fall bevor überhaupt irgendein Fahrzeug auf die Straße kommt. Das machen die Unternehmen oft über Forschungskooperationen – so finanzieren wir uns zum Teil – oder über Promotionsprojekte.

2017 wurde das Straßenverkehrsgesetz (StVG) angepasst. So dürfen automatisierte Systeme „unter gewissen Bedingungen“ die Fahraufgaben übernehmen. Was sind das für Bedingungen?

Fahrzeuge, die dem automatisierten Modus zugeordnet werden, können unter bestimmten Voraussetzungen auf deutschen Straßen zulässig sein. Das war der erste legislative Vorstoß dieser Art weltweit.

Diese Voraussetzungen sind dann erfüllt, wenn – vereinfacht gesagt – das Fahrzeug über eine technische Ausrüstung verfügt, die die Fahraufgabe nach ihrer Aktivierung bewältigen kann. Es muss in der Lage sein, Verkehrsvorschriften zu berücksichtigen, wie ein Stoppschild erkennen und entsprechend handeln. Dieses System muss durch die fahrende Person übersteuerbar oder deaktivierbar sein.

Das Besondere ist, dass die fahrende Person hier immer noch Rechte und Pflichten hat. Das Gesetz verpflichtet den oder die Fahrzeugführer*in zum Beispiel, die Steuerung unverzüglich zu übernehmen, wenn er oder sie merkt, dass das System dazu auffordert oder wenn er oder sie selbst erkennt, dass das System nicht mehr richtig funktioniert. Der oder die Fahrzeugführer*in darf sich zwar fahrfremden Aufgaben zuwenden, muss aber wahrnehmungsbereit bleiben.

Doch das Gesetz definiert nicht klar, was „wahrnehmungsbereit“ bedeutet. Es kommt in der Rechtswissenschaft vor, dass Gesetze unbestimmte Rechtsbegriffe verwenden. Da muss dann die Rechtsprechung diese Begriffe mit Leben füllen.

Es kann von keinem erwartet werden, dass man weiß, wann das System einen Fehler begeht.

Im Jahr 2021 wurde bekannt gegeben, dass „in bestimmten Bereichen“ weitere Fahrzeuge im öffentlichen Straßenverkehr zugelassen werden können. Können Sie die Unterschiede zur vorherigen Gesetzesanpassung 2017 hervorheben?

2017 wurden Fahrzeuge zugelassen, die dem automatisierten Modus zugeordnet werden können. Im Jahr 2021 wurde das StVG erneut reformiert und jetzt dürfen auch Fahrzeuge zugelassen werden, die dem autonomen Modus zugeordnet werden können.

Das ist der Hauptunterschied. Da sind keine Fahrer*innen mehr im Fahrzeug, sondern nur noch Passagier*innen. Mögliche Einsatzszenarien sind Busse, aber auch Bereiche der Logistik, Post oder Dokumentenverteilung. Wo es darüber hinaus Sinn ergeben würde, wären Fahrten zwischen medizinischen Versorgungszentren und Alten- oder Pflegeheimen.

Gibt es Orte, an denen solche Fahrzeuge bereits genutzt werden?

Es gibt mehrere Orte, in denen Busshuttles unterwegs sind, beispielsweise in Monheim am Rhein in Nordrhein-Westfalen und in ein paar oberfränkischen Städten. Das sind allerdings Forschungs- oder Pilotprojekte. Die wurden nicht über das StVG zugelassen, weil das erst seit vergangenem Jahr grundsätzlich zulässig ist. Da wurden also Sondergenehmigungen erteilt.

Wer übernimmt im Fall eines Unfalls sowohl bei assistierten, automatisierten als auch autonomen Fahrzeugen die Verantwortung, wenn der durch die Entscheidung des Systems entstanden ist?

Professor Dr. Dr. Eric Hilgendorf, der die Forschungsstelle RobotRecht leitet, stellt in diesem Zusammenhang oft den sogenannten Aschaffenburger Fall vor, der sich 2012 ereignet hat. Da ist ein Fahrzeug, das mit einem Spurhalteassistenten ausgestattet war, in den Ort Alzenau bei Aschaffenburg gefahren. Am Ortseingang hat der Fahrer einen Schlaganfall erlitten. Er hat das Bewusstsein verloren, hielt aber das Steuer weiterhin fest und verriss das Fahrzeug so nach rechts. Wenn das Fahrzeug seinem „Befehl“ gefolgt wäre, wäre er im Busch gelandet und zum Stehen gekommen. Da wäre vermutlich nichts passiert.

Aber der Spurhalteassistent hat das Fahrzeug tragischerweise wieder auf die Straße gelenkt. Es ist mit hoher Geschwindigkeit in den Ort hineingefahren und hat in der Ortsmitte eine junge Frau und ihr Kind erfasst. Sie sind auf der Stelle gestorben.

Wie geht man an solch einen Fall rechtlich heran?

Wenn man versucht, es juristisch zu lösen, hat man zwei Seiten. Es gibt im Straßenverkehr zum einen die sogenannte Gefährdungshaftung, die unabhängig von einem Verschulden wirken kann. Man haftet dann dafür, dass man eine erlaubte Gefahr – ein Fahrzeug – in die Öffentlichkeit gesetzt hat.

Es gibt aber auch eine Verschuldenshaftung. Das ist gewissermaßen das Gegenteil der Gefährdungshaftung. Hier muss man nachweisen, dass der oder die Anspruchsgegner*in mindestens fahrlässig gehandelt hat. Das ist schwierig, auch im Aschaffenburger Fall: Fehlverhalten des Fahrers ist nicht nachzuweisen, weil der Schlaganfall nicht vorhersehbar war.

Das zeigt, dass die Verwendung autonomer Systeme im Straßenverkehr in Zukunft Bedeutung gewinnen wird, weil auch Fehler, die das System begeht, nicht vorhersehbar sind. Es kann von keinem erwartet werden, dass man weiß, wann das System einen Fehler begeht. Deswegen wird es wohl einen Wechsel geben, weg von der Verschuldenshaftung und hin zur Gefährdungshaftung und mehr zu einer Haftung des Fahrzeugherstellers.

Schwieriger zu beurteilen ist die strafrechtliche Verantwortung. Beim Strafrecht haben wir das sogenannte Schuldprinzip. Das bedeutet, man muss dem Täter immer nachweisen, dass er ein individuelles Verschulden an den Tag gelegt hat. Verschulden bedeutet im Strafrecht Vorsatz oder Fahrlässigkeit. Vorsatz wird man im Straßenverkehr selten annehmen können. Wenn doch, dann ist der Fall unproblematisch.

Kompliziert ist aber vor allem die Fahrlässigkeit. Stellen sich vor: Beim Einparken mit einem Einparkassistenzsystem wird ein auf der Parkfläche spielendes Kind verletzt, weil die Sensoren des Fahrzeugs verschmutzt waren und das Fahrzeug dieses Kind nicht gesehen hat. Fahrlässig handelt, wer die im Verkehr erforderliche Sorgfalt außer Acht lässt. So lautet die Grundsatzdefinition.

Jetzt kann man argumentieren, dass der Einparkassistent auf selbstständiges Einparken ausgelegt ist, so dass der oder die Fahrer*in, nachdem der Einparkassistent aktiviert wurde, nichts mehr beachten muss. Dagegen spricht, dass ein*e vorausschauende*r Fahrer*in von der Möglichkeit einer Verschmutzung ausgehen würde – und von der Möglichkeit, dass Kinder auf dem Parkplatz spielen. Die Tatsache, dass ein autonomes technisches System eingesetzt wird, schließt also nicht von vornherein den oder die Nutzer*in des Systems von irgendeiner Strafbarkeit aus.

Das Gesetz hat vorgeschrieben, dass das System keine Gewichtung persönlicher Merkmale vorsehen darf.

Wie sähe die Situation bei einem Unfall mit einem komplett autonomen Fahrzeug aus, wenn der Fahrer nicht dafür verantwortlich ist, die Steuerung zu übernehmen oder das gar nicht kann?

Hier ist es ebenfalls komplizierter geworden. Es ist nun gesetzlich vorgeschrieben, wie das Fahrzeug beispielsweise mit Entscheidungen umgehen soll, die das Leben oder die körperliche Integrität betreffen.

Eine Voraussetzung ist, dass das Kraftfahrzeug ein System der Unfallvermeidung beinhaltet. Also es soll Schaden vermeiden und reduzieren können. Das Interessante: Wenn das System erkennt, dass eine Situation besteht, in der zwangsläufig Rechtsgüter verletzt werden – also zum Beispiel die körperliche Integrität oder sogar das Leben –, dann muss das System selbststständig erkennen können, welches Rechtsgut es priorisieren soll. Das sind Dilemma-Problematiken.

Wenn man zwei unvermeidbare alternative Schädigungen hat, soll das System des Autos dem Schutz menschlichen Lebens automatisch die höchste Priorität beimessen. Wenn das Fahrzeug also die Wahl hat, entweder einen Menschen zu verletzen oder einen Menschen zu töten, sollte es den Menschen verletzen.

Daran kann man anknüpfen. Was ist, wenn bei beiden Varianten ein Menschenleben infrage steht? In diesen Fällen hat das Gesetz vorgeschrieben, dass das System keine Gewichtung persönlicher Merkmale vorsehen darf. Es darf nicht sein, dass das Fahrzeug das Alter der Personen erkennt und automatisch die ältere Person tötet.

Aber Systeme dürften auch nicht quantitativ abwägen. Sie dürften nicht zwischen 100 Menschenleben oder einem Menschenleben entscheiden. Das ist die große ethische Diskussion bei solchen Fällen. Sie besteht ja – schon vor der Existenz autonomer Fahrzeuge – seit tausenden Jahren. Fahrzeuge sollen es jetzt können, aber das wird wahrscheinlich technisch erstmal nicht möglich sein.

Das Interview führte Juliane Glahn, Zeitgeister-Volontärin.

Top