1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Politik

Was darf das Roboterauto?

30. September 2016

Wer haftet, wenn der Bordcomputer einen Unfall verursacht? Eine Ethikkommission beschäftigt sich mit den Herausforderungen durch selbst fahrende Autos. Verkehrsexperte Welf Stankowitz über neue Technik und alte Dilemma.

https://p.dw.com/p/2QmaE
Autonom fahrende Autos in den USA stehen hintereinander auf einer Straße
Autonom fahrende Autos in den USA: Traum oder Albtraum?Bild: picture-alliance/AP Images/G. J. Puskar

Darf ein Autofahrer über rote Ampeln fahren, um Menschenleben zu retten? Darf ein Bordcomputer das Steuer auch gegen den Willen des Fahrers übernehmen? Wenn nicht mehr ein Autofahrer, sondern der Computer die Entscheidungen am Steuer treffen, müssen diese Fragen beantwortet werden. Die neu eingerichtete Ethik-Kommission zum automatisierten Fahren, die an diesem Freitag erstmals zusammenkam, soll dazu Vorschläge erarbeiten. In dem Expertengremium unter der Leitung des ehemaligen Bundesverfassungsrichters Udo Di Fabio sitzen 14 Mitglieder aus den Bereichen Ethik, Recht, Technik sowie der Automobilbranche. Sie sollen bis zum kommenden Sommer Regeln aufstellen, an die sich Programmierer von selbst fahrenden Autos halten müssen. Welf Stankowitz, Referatsleiter Fahrzeugtechnik beim Deutschen Verkehrssicherheitsrat in Bonn, erklärt, um welche Fragen es geht.

Deutsche Welle: Wie sieht die Zukunft der selbst fahrenden Autos aus? Brauchen Autofahrer nicht mehr auf den Verkehr zu achten, weil der Computer es besser kann?

Welf Stankowitz:  Ich glaube, bis es einmal soweit ist, wird es noch mindestens ein bis zwei Generationen dauern. Dennoch müssen wir uns mit einzelnen Aspekten solcher Situationen schon beschäftigen. Wir erinnern uns alle an den Absturz der Germanwings-Maschine, den ja offenbar der Pilot absichtlich herbeigeführt hat. Seitdem gibt es für Flugzeuge die Überlegung, eine Software einzubauen, die den Piloten übersteuern kann, etwa die Maschine hochzieht, wenn der Abstand zu einem Berg zu gering wird. Auch beim Auto ist so eine Übersteuerung denkbar und möglicherweise sinnvoll. Es ist zwar noch eine offene Diskussion, aber viele Sicherheitsexperten sind dafür, dass ein Bordsystem dann das Steuer auch gegen den Willen des Fahrers übernehmen sollte, wenn es schwerwiegende Gefahren besser verhindern kann, als der Fahrer selbst. Derzeit widerspricht das allerdings noch dem Wiener Übereinkommen, wonach der Fahrer ständig die Herrschaft über das Fahrzeug hat und den Autopiloten auch jederzeit auszuschalten können muss.

Wer wird denn beim automatisierten Fahren für einen Unfall haftbar gemacht werden - der Fahrer oder der Programmierer?

DVR-Vorstandsausschuss Fahrzeugtechnik Welf Stankowitz (Copyright: privat)
Welf Stankowitz ist Referent beim Deutschen Verkehrssicherheitsrat Bild: privat

Wenn der Fahrer im automatisierten Modus fährt und sichergestellt hat, dass alles so ist, wie es sein soll, dann kann man natürlich nicht den Fahrer dafür verantwortlich machen, wenn aufgrund eines Programmierfehlers ein Unfall passiert. Wenn also der Reifendruck stimmt, die Beleuchtung intakt ist und das Fahrzeug keine Warnmeldung abgibt, dann muss man nachweisen, wer wann einen Fehler gemacht hat. Das wird nicht ganz einfach sein. Daher stellt sich die Frage, welche Kontrollmechanismen im Fahrzeug vorhanden sein müssen. Wir wünschen uns, dass die Fahrzeugindustrie nicht alleine die Regeln vorgeben kann, sondern dass die Gesellschaft diese aufstellt und dann auch kontrollieren kann.

Bundesverkehrsminister Alexander Dobrindt hat schon vor der ersten Sitzung der Ethik-Kommission ein paar Regeln für selbstfahrende Autos aufgestellt. Eine lautet, dass es keine unterschiedlichen "Wertigkeiten" von Menschenleben geben soll. Was genau heißt das?

Dahinter steckt ein ethisches Dilemma: Was tun, wenn ein Fahrzeug nicht mehr rechtzeitig bremsen kann und dann nur noch die Möglichkeit hat, entweder rechts in eine Gruppe Senioren oder links in eine Gruppe von kleinen Kindern zu fahren? Dann soll die Technik keine Wertung zwischen Senioren und Kindern vornehmen dürfen. Denn in unserer Rechtsordnung darf menschliches Leben nicht gegeneinander aufgewogen werden.

Aber wie sollte ein Bordcomputer für solche Situationen dann programmiert werden?

Die Frage ist: Muss das jetzt schon bedacht werden? Im Moment kann die Technik noch gar nicht unterscheiden, ob es sich um alte oder um junge Leute handelt. Die Wahrscheinlichkeit, dass es bei der einen Gruppe "nur" Verletzte und bei der anderen dagegen auch Tote geben könnte, kann ein Bordcomputer nicht ausrechnen. Dasselbe gilt für die Frage, wenn in einer Unfallsituation zwischen dem Schutz der Autoinsassen und dem von Passanten zu entscheiden wäre. Und es wird noch viele Jahre dauern, bis die Technik das kann. Wenn es aber mal soweit sein wird, ist es wichtig, dass solche Fragen gesellschaftlich entschieden werden. 

Was ist, wenn der Bordcomputer schneller fahren muss als erlaubt, um einer Gefahr auszuweichen?

Dann wird er es tun. Das ist ja jetzt schon so, wenn ich mich als Fahrer entscheiden muss, über eine rote Ampel zu fahren, weil sonst ein 40-Tonner in mein Auto rast und mein Leben auf dem Spiel steht. Dann werde ich über die rote Ampel fahren. Für solche Situationen müssen dann die Algorithmen dementsprechend nach der Wertigkeit der Rechtsgüter programmiert werden. Aber selbst wenn man alle gültigen Regeln programmiert - es wird immer Situationen geben, die so komplex sind, dass man sie im Vorfeld einfach nicht so beurteilen kann, wie es im Nachhinein Gerichte und Juristen tun.

Ein Mann sitzt in einem selbstfahrenden Audi A7
"Hände weg vom Steuer" - Bis Autofahrer gar nicht mehr lenken müssen, wird es aber noch eine Weile dauernBild: picture-alliance/Jim Fets/Audi AG/dpa

Welche datenschutzrechtlichen Fragen ergeben sich beim automatisierten Fahren?

Automatisiertes Fahren ist ja nicht per se auf einen dauernden Datenaustausch mit der Umwelt angewiesen. Ein Auto kann auch so programmiert werden, dass es das kann, was der Fahrer sonst kann - also, die Kamera sieht andere Autos oder Fußgänger und mehr nicht. Wenn aber Systeme eingebaut werden, die erkennen, dass hinter der nächsten Bergkuppe ein Stau ist, dann wird Datenaustausch erforderlich und dann muss das Recht jedes einzelnen auf seine eigenen Daten erhalten bleiben. Sonst laufen wir irgendwann einmal Gefahr, dass mir, wenn ich beispielsweise gerne zu McDonalds fahre und das Bordsystem sich meine bevorzugte Wegstrecke merkt, vielleicht nur noch gezielt Werbung von McDonalds ins Radio eingespielt wird. Also, beim Fahren stellen sich da die gleichen Datenschutzfragen wie in auch in anderen Bereichen, etwa beim Smartphone.

Wann wird automatisiertes Fahren die Regel sein und nicht mehr Ausnahme?

Vermutlich werden im kommenden Jahr bereits teilweise automatisierte Fahrzeuge auf der Autobahn fahren. Das heißt, dass man dann nicht mehr unbedingt ins Lenkrad greifen und bremsen oder Gas geben muss. Die Automobilhersteller bieten solche Fahrzeuge schon an. Dabei muss aber der Fahrer immer die Aufmerksamkeit über das Verkehrsgeschehen behalten und notfalls eingreifen. Und dann wird es stufenweise weitergehen bis zum vollautomatisierten Fahren. Ich gehe aber davon aus, dass dies noch bestimmt noch 20 bis 30 Jahre dauern wird.