zurück
WÜRZBURG
Autos ohne Fahrer: Risiko oder mehr Sicherheit?
Der Würzburger Jura-Professor Eric Hilgendorf (57) war Mitglied der Ethikkommission für automatisiertes Fahren.
Foto: Theresa Müller | Der Würzburger Jura-Professor Eric Hilgendorf (57) war Mitglied der Ethikkommission für automatisiertes Fahren.
Andreas Jungbauer
 |  aktualisiert: 15.07.2024 08:55 Uhr

Nachdem ein autonom fahrendes Taxi des Unternehmens Uber in Arizona (USA) eine Frau tödlich erfasst hat, ist die Sicherheitsdebatte neu entbrannt. Darf man einem Computer das Lenkrad überlassen? Digitalen Chancen stehen ethische Grenzen gegenüber. Prof. Eric Hilgendorf (57), Inhaber des Lehrstuhls für Strafrecht, Strafprozessrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik an der Universität Würzburg, ist eines von 14 Mitgliedern der Ethikkommission zum automatisierten Fahren. Sie war vom Verkehrsministerium in der vergangenen Legislaturperiode eingesetzt worden.

Frage: Herr Hilgendorf, nach dem aktuellen Todesfall in den USA: Ist das autonome Fahren doch ein Sicherheitsrisiko?

Eric Hilgendorf: Autonomes Fahren ist nicht ohne Risiken durchzuführen – das war aber von vornherein klar. Es gibt keine hundertprozentig sichere Technik. Genauso wie durch Gurte oder Airbags viele Menschen gerettet, einige wenige aber getötet werden, so wird der Einsatz autonomer Systeme in Fahrzeugen die Zahl von Verletzten und Toten nicht auf Null bringen. Aber man kann davon ausgehen, dass die Zahl von Verkehrsunfällen stark zurückgehen wird, wenn solche Systeme vermehrt eingesetzt werden.

Das heißt, Sie sehen das autonome Fahren als Sicherheitsgewinn?

Hilgendorf: Ja, ich bin der Meinung, dass durch den stärkeren Einsatz von Technik das Fahren insgesamt sicherer wird. Allerdings zeigt der aktuelle Fall, dass der amerikanische Weg in diese Technik hinein problematisch ist. Die Amerikaner starten gleich mit dem autonomen Fahren. In Deutschland und Europa beginnt man mit Assistenzsystemen, um das Fahrzeug dann schrittweise hochzurüsten. An der Spitze der technischen Entwicklung in Deutschland stehen Daimler und Audi. Sie sind aber weit davon entfernt, Fahrzeuge ohne Weiteres in den Innenstädten zur Erprobung fahren zu lassen.

Lässt der Gesetzgeber hier in den USA mehr zu?

Hilgendorf: Mich überrascht, dass die Behörden in den USA sehr großzügig sind mit Fahrgenehmigungen für diese offenbar nicht ausgereifte Technik.

Und in Deutschland? Sind die Hersteller vorsichtiger oder steckt der Gesetzgeber den Rahmen enger ab?

Hilgendorf: Ja, die deutschen Hersteller haben eine andere Sicherheitsphilosophie. In den USA wird die Entwicklung stark getrieben von den Großunternehmen im Silicon Valley, also aus dem Softwarebereich. Dort war es immer schon üblich, eine Beta-Version auf den Markt zu bringen, zu testen und sie weiterzuentwickeln. Deutsche Automobilhersteller setzen sehr stark auf Sicherheit, auch wegen unserer strengen rechtlichen Regeln.

Reichen die Gesetze für die weitere Entwicklung im autonomen Fahren aus oder muss nachjustiert werden? Erste Teststrecken gibt es auch bei uns…

Hilgendorf: Ja, auf der A9 zum Beispiel. Man muss unterscheiden zwischen Fragen der Zulassung hochgerüsteter Fahrzeuge und Fragen der Haftung bei Unfällen: Hier geht es um Schadenersatz oder um strafrechtliche Verantwortung. Erst im letzten Sommer wurde das Straßenverkehrsgesetz geändert, um automatisiertes Fahren auf deutschen Straßen möglich zu machen.

Wer ist denn rechtlich verantwortlich, wenn – wie aktuell geschehen – ein autonom fahrendes Auto einen tödlichen Unfall verursacht?

Hilgendorf: Das können mehrere sein. Im aktuellen Fall von Arizona vermute ich Sorgfaltsverstöße beim Hersteller bzw. Programmierer des Fahrzeugs. Ein Großteil der Verantwortung liegt vermutlich dort, wo der Volvo umgebaut wurde, denn das System hat nicht hinreichend genug funktioniert. Verantwortung trägt aber wohl auch das Opfer selbst, das aus dem Dunklen auf die Straße gelaufen ist. Auch die Behörde dürfte wegen der erteilten Fahrerlaubnis mitverantwortlich sein und möglicherweise auch der Beifahrer, der nicht rechtzeitig eingegriffen hat.

Stehen Juristen hier vor ganz neuen Fragestellungen?

Hilgendorf: Solche Fälle sind nicht ganz neu. 2016 gab es einen Unfall mit einem Tesla, bei dem der Fahrer ums Leben kam. Und wir hatten in Alzenau bei Aschaffenburg bereits 2012 den wahrscheinlich ersten Tötungsfall durch ein autonomes System in einem Pkw. Damals erlitt ein Mann am Steuer einen Schlaganfall und verlor das Bewusstsein. Nachdem er das Fahrzeug noch zur Seite gerissen hatte, korrigierte ihn der automatische Spurhalterassistent und der Wagen fuhr mit hoher Geschwindigkeit über einen Kilometer in den Ort hinein und überfuhr dort eine junge Frau und ihr Kind. Die Staatsanwaltschaft Aschaffenburg hat in diesem Fall aber keine Fahrlässigkeit beim Hersteller gesehen. Zu Recht, wie ich meine.

Haben Sie über solche tödlichen Fälle in der Ethikkommission beraten?

Hilgendorf: Ja. Solche Fälle sind voraussehbar, und es wird weitere geben. In der Kommission herrschte die Ansicht vor, dass – wie bei jeder Technik – ein bestimmtes Restrisiko bleibt, und Todesfälle auch beim autonomen Fahren nicht auszuschließen sind. Die Zahl von Verletzungen wäre aber deutlich höher ohne automatisierte Hilfsmittel. Wir haben in Deutschland zurzeit rund 3000 Verkehrstote im Jahr. Mit dem verstärkten Einsatz solcher Systeme ließe sich die Zahl bestimmt auf drei Stellen senken.

Eine der Empfehlungen der Kommission lautete „Sachschaden vor Personenschaden“. Wie ist das zu verstehen?

Hilgendorf: Da ging es um so genannte Dilemma-Situationen: Grundsätzlich haben wir das Prinzip des geringeren Übels festgehalten: Lieber eine Sache beschädigen, wenn man dadurch einen Menschen retten kann. Problematisch wird es bei der Abwägung von Menschenleben. Beispiel: Jemand liegt bewusstlos auf der Straße – ein autonom fahrendes Auto weicht aus und tötet dabei einen anderen Menschen. Solche Fälle waren der Anlass für die Einberufung der Ethikkommission. Wir sind zur Auffassung gelangt, dass ein Ausweichen mit tödlicher Folge nicht zulässig wäre – auch nicht, wenn mehr Menschen gerettet als getötet würden.

Dürften in der Programmierung von Fahrzeugen persönliche Merkmale wie das Alter von Menschen eine Rolle spielen?

Hilgendorf: Das wurde in der Kommission klar abgelehnt. Qualitative Merkmale wie Alter, Geschlecht oder Herkunft sind nicht zu berücksichtigen. Über die Quantität dagegen kann man streiten. Die Mehrheit der Kommission (und auch ich selbst) meinte, auch sie dürfe keine Rolle spielen. Einfluss haben könnte dagegen die Wahrscheinlichkeit einer Todesfolge. Tatsächlich ist inzwischen eine akademische Diskussion entbrannt zum Beispiel über die Frage, ob Kinder gegenüber Erwachsenen vorzuziehen sind.

„Akademische Diskussion“, weil die technische Entwicklung noch lange nicht so weit ist?

Hilgendorf: Zum einen… Und zum anderen ist die Rechtsprechung eindeutig nicht der Meinung, dass man Menschenleben qualitativ unterscheiden darf. Kinder und Erwachsene sind gleich wert. Das ist die feste Rechtsprechung des Bundesverfassungsgerichts.

Wenn ich als Hacker ein Auto fremdprogrammiere, könnte ich ein Fahrzeug zur Waffe machen. War dies ein Thema in der Kommission?

Hilgendorf: Ja. Es gibt mittlerweile eine weitere Kommission, die sich speziell mit Künstlicher Intelligenz, der Vernetzung und möglichen Angriffen auf autonome Systeme beschäftigt, nicht nur bei Autos. Diese Plattform ist im Forschungsministerium angesiedelt. Die Vorstellung, dass Internet- und Straßenverkehrskriminalität verschmelzen, ist erschreckend. Wenn das Pentagon gehackt werden kann, können auch vernetzte Autos gehackt werden. Man stelle sich vor, ein Hacker würde in einer Stadt wie Würzburg eine Vielzahl von Fahrzeugen angreifen und Unfälle verursachen.

Geht es also darum, die technischen Möglichkeiten ethisch zu bändigen?

Hilgendorf: Wir erleben eine technische Revolution wie vielleicht zuletzt in der Industriellen Revolution vor 250 Jahren. Die gesellschaftlichen Folgen damals waren katastrophal, mit Massenverarmung, exzessiven Arbeitszeiten, Kinderarbeit, et cetera. Die Entwicklung wurde ethisch und rechtlich nicht wirklich begleitet. Es passierte einfach. Jetzt geht es darum, ähnliche Katastrophen, die durch die Digitalisierung entstehen könnten, frühzeitig zu erkennen und zu vermeiden. Wir müssen diese technische Entwicklung durch das Recht einhegen und sicherstellen, dass die Technik dem Menschen dient und der Mensch nicht Opfer wird von technischen Imperativen.

 
Themen & Autoren / Autorinnen
Würzburg
Andreas Jungbauer
Audi
Bundesverfassungsgericht
Daimler AG
Ethikkommissionen
Julius-Maximilians-Universität Würzburg
Kommissionen
Staatsanwaltschaft Aschaffenburg
Tesla Motors
Uber
Volvo
Lädt

Damit Sie Schlagwörter zu "Meine Themen" hinzufügen können, müssen Sie sich anmelden.

Anmelden Jetzt registrieren

Das folgende Schlagwort zu „Meine Themen“ hinzufügen:

Sie haben bereits von 50 Themen gewählt

bearbeiten

Sie folgen diesem Thema bereits.

entfernen
Kommentare
Aktuellste
Älteste
Top