+
Darf ein autonom fahrendes Auto eine Kollision in Kauf nehmen, um andere Leben zu retten?

Autonomes Fahren

Der Autopilot war's - wer ist schuld?

  • schließen

Computer könnten schon bald Millionen von Autos steuern. Unbeantwortet ist aber noch: Wer haftet bei einem Crash? Der Leitartikel.

Der Zusammenhang zwischen einem entführten Verkehrsflugzeug und einem autonom fahrenden Auto ist nicht auf den ersten Blick erkennbar. Im Jahre 2006 erklärte das Bundesverfassungsgericht das von der damaligen rot-grünen Bundesregierung verabschiedete Luftsicherheitsgesetz für verfassungswidrig.

Das Regelwerk sah vor, zur Abwehr eines Terroranschlags im Extremfall auch ein voll besetztes Passagierflugzeug abzuschießen, wenn nur so das Leben anderer Menschen gerettet werden kann. Die Kläger sahen in einer derartigen Abwägung – Leben gegen Leben – einen Verstoß gegen die grundgesetzlich garantierte Menschenwürde. Dem folgten die Karlsruher Richter.

Der Strafrechtler und Schriftsteller Ferdinand von Schirach übertrug diese eher abstrakte Materie in ein anschauliches Theaterstück. In seinem Justizdrama „Terror“ entführen Terroristen ein Verkehrsflugzeug mit 164 Passagieren an Bord, um es in der mit 70.000 Besuchern vollbesetzten Allianz-Arena zum Absturz zu bringen. Ein Jagdpilot schießt die Maschine ab – ohne ausdrücklichen Befehl. Ihm wird der Prozess gemacht, der Vorwurf lautet auf Mord. In der Verhandlung geht es vor allem um eine Frage: Darf man 164 Menschen opfern, um 70.000 Menschen das Leben zu retten?

Hier sind wir beim autonom fahrenden Auto. Ein kleines Kind rennt plötzlich auf die Straße, der Autopilot errechnet, dass selbst eine Vollbremsung nicht mehr hilft. Links auf dem Bürgersteig steht eine alte Dame, rechts auf dem Gehweg eine Mutter mit Kinderwagen. Wohin soll der Wagen steuern? Wer soll geopfert werden? Intuitiv kann kein Computer agieren, er braucht also ein vorher einprogrammiertes Regelwerk. Dort müsste definiert sein, ob er die Zahl der möglichen Opfer miteinander vergleichen soll, das Alter oder andere Kriterien.

Da die Abwägung Leben gegen Leben jedoch analog zum Luftsicherheitsgesetz nicht in eine Software eingebaut werden darf, hat das für eine Reihe von Ethikern und Philosophen eine klare Konsequenz: Autonom fahrende Autos dürfen nur dann eingesetzt werden, wenn derartige Gefahrensituationen ausgeschlossen sind, etwa durch eine strikte Trennung der Verkehrswege. Da das noch Jahrzehnte dauern wird, bleiben autonome Autos Zukunftsmusik.

Ingenieure halten Debatte für unnötig

Eine weitere Gruppe von Ethikern sieht zwar das Problem, mogelt sich aber durch. So hält es die vom ehemaligen Verkehrsminister Alexander Dobrindt eingesetzte Ethikkommission zwar für möglich, nach der Zahl der möglichen Opfer zu differenzieren. Ansonsten lehnt aber auch sie eine Aufrechnung von Leben ab. Doch was soll der Autopilot tun, wenn keine Regeln vorgegeben sind?

Die Ingenieure halten die gesamte Debatte dagegen für Quatsch. Sie behaupten, die autonomen Fahrzeuge würden so sicher und vorausschauend fahren, dass es gar keine gefährlichen Unfallsituationen mehr geben werde. Das Ignorieren der ethischen Bedenken wäre allerdings genauso verantwortungslos wie eine völlige Aufgabe des Konzepts von selbstfahrenden Fahrzeugen. Denn zu Recht besteht die Hoffnung, die Zahl der Unfälle mit Hilfe von Autopiloten stark senken zu können.

Es hilft hier nur eine pragmatische Lösung. Kommt einem selbstfahrenden Auto ein Hindernis in die Quere, versucht der Autopilot, durch starkes Abbremsen eine Kollision zu verhindern. Gleichzeitig sucht er nach einem Platz zum Ausweichen. Ist der nicht vorhanden oder reicht die Vollbremsung nicht aus, muss der Zusammenprall mit dem Hindernis in Kauf genommen werden. Das kommt wahrscheinlich auch dem am nächsten, wie viele Autofahrer in einer derartigen Situation reagieren würden.

Noch viel schwerer als das komplett autonome Fahren sind allerdings halbautomatische Systeme zu fassen, bei dem sich Fahrer und Autopilot noch abwechseln können. Weit verbreitet ist die Ansicht, das halbautomatische Fahren sei als Zwischenstufe zum autonomen Auto ein notwendiger und auch sinnvoller Schritt. Doch das könnte sich als gefährlicher Irrweg erweisen.

Steigt das Fahrsystem aus, weil es beispielsweise bei Regen nichts mehr erkennt, muss der Fahrer nach dem derzeitigen Stand innerhalb von vier Sekunden in der Lage sein, die komplette Steuerung selbst zu übernehmen. Studien zeigen allerdings, dass Menschen mindestens zwölf Sekunden benötigen, um sich einen Überblick zu verschaffen und wieder angemessen zu reagieren.

Das von der großen Koalition beschlossene Gesetz zum automatisierten Fahren tut zwar innovativ, wird den Fortschritt aber eher behindern. Der Fahrer haftet letztlich immer, weshalb es auch beim zeitweisen Fahren mit dem Autopiloten purer Leichtsinn wäre, aufs Tablet zu schauen.

Die neue Bundesregierung muss daher möglichst bald dringend nachbessern und dabei vor allem die Haftung stärker auf die Autohersteller verlagern, auch um diese damit zu zwingen, nur komplett ausgereifte Fahrsysteme auf den Markt bringen. Sehr treffend formulierte es gerade der Präsident des Verkehrsgerichtstags Kay Nehm: Bei der derzeitigen Gesetzeslage würden die Nutzer als Versuchskaninchen missbraucht.

Das könnte Sie auch interessieren

Kommentare