+
Catrin Misselhorn.

Drohnen

"Maschinen mit der Fähigkeit zu moralischem Handeln"

  • schließen

Philosophieprofessorin Catrin Misselhorn über moralische Entscheidungen von Pflegerobotern, selbstfahrenden Autos und Drohnen ? und damit verbundene Probleme.

Roboter befreien uns vom Staub in der Wohnung, helfen alten Menschen im Alltag, sitzen virtuell hinterm Steuer. Das kann man gut finden oder auch beängstigend. Fakt ist: Die Entwicklung autonomer künstlicher Systeme geht rasant voran. Aber wer übernimmt eigentlich die Verantwortung, wenn etwas schief geht, ein schrecklicher Unfall passiert? Die Philosophieprofessorin Catrin Misselhorn hat sich in ihrem Buch „Grundfragen der Maschinenethik“ damit auseinandergesetzt.

Wozu brauchen wir eine Maschinenethik? Auf den ersten Blick wirkt es wie ein Wortkonstrukt aus zwei Begriffen, die wenig miteinander zu tun haben.
Maschinenethik ist eine neue Disziplin an der Schnittstelle von Philosophie, Informatik und Robotik. Es geht darum, Maschinen zu konstruieren, die die Fähigkeit zu moralischem Handeln haben – aber auch darum, nachzudenken, ob es überhaupt wünschenswert ist, das zu tun. Diese Thematik ergibt sich aus den neuen technologischen Entwicklungen und ist keinesfalls Zukunftsmusik. Je autonomer und intelligenter Systeme werden, desto eher kommen sie auch in Situationen, die erfordern, dass die Maschine selber in einem gewissen Umfang in der Lage ist, moralisch zu entscheiden und zu handeln.

In welchen Situationen könnte das der Fall sein?
Solche Fragen stellen sich bereits bei relativ einfachen Anwendungen. So stehen schon Staubsaugerroboter vor moralischen Entscheidungen, zum Beispiel der, ob man Insekten und kleine Tiere zu Reinigungszwecken einfach einsaugen und damit töten darf. Eine Alternative wäre es, sie zu umfahren oder zu verscheuchen.

Wie reagiert der im Handel erhältliche Staubsaugerroboter im Normalfall?
Im Normalfall saugt er alles ein, was ihm in den Weg kommt, so wie ein herkömmlicher Staubsauger es auch tut, wenn man ihn als Mensch nicht drumherum führt. Aber an diesem Beispiel sieht man, dass sich schon auf einem relativ einfachen Niveau die Forderung nach einer Maschinenethik stellt. Komplexere Anwendungsbereiche sind Pflegeroboter oder das autonome Fahren. Soll ein autonomes Fahrzeug berücksichtigen, wie viele Menschen bei einem Unfall getötet werden, wenn es keine andere Möglichkeit gibt als irgendeiner Gruppe Schaden zuzufügen? Aber es gibt auch in sozialen Netzwerken einen Bedarf nach moralisch handelnden Maschinen, wenn es darum geht, Inhalte pornographischer oder rassistischer Art herauszufiltern.

Wie lässt sich Moral in die Maschine reinbringen, ist das technisch schon möglich?
Bei einfachen Anwendungen kann man das durchaus schon machen. So hat mein Kollege Oliver Bendel von der Hochschule für Wirtschaft in der Schweiz einen Prototyp für einen Staubsaugerroboter entwickelt, der kleine Tiere verschont. Er ist aber noch nicht im Handel erhältlich. Und zumindest auf dem Papier gibt es bereits solche Designs für Pflegeroboter. Dazu existieren auch Arbeiten, wie sich das technisch umzusetzen lässt.

Nach welchen Kriterien würde man eine Maschine mit moralischen Standards ausstatten? Obliegt das demjenigen, der sie programmiert oder beruft man sich auf ein allgemeines Wertesystem?
Das hängt vom Anwendungsbereich ab. Man kann nicht die gleichen Standards in Pflegeroboter einbauen wie in das autonome Fahren, weil ihnen grundsätzlich andere Situationen zugrunde liegen. Der gravierendste Unterschied besteht darin, dass das autonome Fahren auch Personen betrifft, die selbst nicht Nutzer solcher Systeme sind: Kinder, Radfahrer und Fußgänger etwa. Deshalb brauchen wir dort Regeln, die für all diese Gruppen akzeptierbar sind. Eine Hürde besteht darin, dass es in demokratischen, liberalen Gesellschaften immer einen Dissens im Hinblick auf moralische Fragen gibt, der nicht zu eliminieren ist. Das heißt aber nicht, dass wir dort keine moralischen Entscheidungen treffen können. Bei konfliktträchtigen Fragen, etwa beim Thema Sterbehilfe, haben wir rechtliche Regelungen, die für die allermeisten Menschen akzeptierbar sind. Ich stelle mir vor, dass man auch im Hinblick auf Maschinenethik auf diese Weise mit einem Dissens umgehen kann. Bei Pflegerobotern spielt das weniger eine Rolle, wenn man diese Systeme nur für Personen einsetzt, die noch in der Lage sind zu entscheiden, ob sie überhaupt auf diese Weise gepflegt werden wollen. Sie können dann selbst festlegen, welchen moralischen Kriterien ihr Roboter folgen soll.

Das heißt, es wären dann individuell für einen Menschen konzipierte Pflegeroboter und keine Maschinen „von der Stange“?
Genau. Wir brauchen zunächst einen Rahmen von Werten, die in der Pflege relevant sind und mit denen ein Roboter ausgestattet wird. Das sind etwa die Autonomie des zu Pflegenden, die eigene Gesundheit und die Privatsphäre. Diese Werte können jedoch in Konflikt miteinander geraten. So könnte ein Nutzer sagen, meine Gesundheit steht über allem, dafür mache ich Abstriche bei der Privatsphäre. Ein anderer wiederum würde möglicherweise die Prioritäten umgekehrt setzen. In der Interaktion mit dem Nutzer könnte ein System lernen, was einer Person am wichtigsten ist und sich dann deren individuellen Bedürfnissen anpassen.

Welche Aufgaben kann so ein Pflegeroboter denn überhaupt übernehmen?
Bislang geht es vor allem um Systeme, die an Medikamente erinnern, ans Essen und Trinken und die Notdienste verständigen, wenn sich jemand eine Zeitlang nicht bewegt.

Wie reagiert ein solcher Pflegeroboter, wenn sein Nutzer einfach mal nur seine Ruhe haben will und sich zum Beispiel mal nicht waschen möchte?
Das ist eine wichtige Frage. Sie spricht die Sorge vieler älterer Menschen an, dass ein System sie bevormunden könnte. Ich finde es wichtig, dass ein Roboter den Willen des Nutzers akzeptiert – auch wenn die Resultate dann möglicherweise anders sind als es etwa die Angehörigen möchten.

Gerade in so einem engen Kontakt wie bei der Pflege müsste also sichergestellt sein, dass der menschliche Partner stets die Oberhand behält.
Das würde ich unbedingt so sehen. Autonome Systeme sollten immer so beschaffen sein, dass sie die menschliche Selbstbestimmung befördern.

Könnte man Pflegerobotern auch so etwas wie „Empathie“ einprogrammieren, dass sie mitfühlend mit ihrem Nutzer umgehen?
Nicht, wenn man Empathie in dem Sinne versteht, dasselbe zu fühlen wie mein Gegenüber. Aber es gibt auch eine kognitive Empathie. Sie bezeichnet die Fähigkeit, zu erkennen, was ein anderer fühlt und darauf angemessen zu reagieren. Grundsätzlich wäre es möglich, Robotern entsprechende Reaktionsmuster einzuprogrammieren. Eine solche Gefühlerkennungssoftware gibt es bereits, und sie funktioniert auch gut bei basalen Emotionen, die sich an bestimmten Gesichtsausdrücken ablesen lassen.

Klingt auch ein bisschen gruselig.
Es ist die Frage: Will man das oder nicht? Ich persönlich würde es nicht wollen.

Stellt die Tatsache, dass künstliche Systeme keine Emotionen haben, nicht generell ein Problem dar? Bei Menschen spielen beim moralischen Handeln viele Aspekte eine Rolle: Wir haben Mitgefühl, können spontan auf eine Situation eingehen, aus dem Bauch heraus entscheiden, uns selbst in Frage stellen. Eine Maschine arbeitet doch nur starr ab, was ihr einprogrammiert wurde, oder?
Die Maschine verfügt über all diese Eigenschaften natürlich nicht. Wir Menschen sind zur Selbstreflexion fähig, können in allen Bereichen moralisch handeln. Diese Universalität besitzt die Maschine nicht, sie kann das nur im Hinblick auf einen begrenzten, ihr vorgegebenen Anwendungsbereich tun. In diesem Rahmen kann sie sich allerdings weiterentwickeln – und das birgt auch ein großes Problem. Denn diese Autonomie kann die Maschine auch unvorhersehbar und unkontrollierbar für Menschen machen: dann, wenn sie sich plötzlich anders verhält, als es ihre Programmierer sich einmal gedacht haben.

Was wäre ein denkbares Szenario?
Diskutiert wird diese Frage unter dem Begriff der Verantwortungslücke vor allem in Hinblick auf Kriegsroboter. Dahinter steht der Gedanke, dass es im Falle von Tötungshandlungen jemanden geben muss, den man zur Verantwortung ziehen kann. Gehen wir einmal davon aus, dass einer Maschine die Regeln der guten ethischen Kriegsführung einprogrammiert werden. Diese Diskussion setzt freilich einen nicht-pazifistischen Ansatz voraus, der Krieg unter bestimmten Bedingungen moralisch erlaubt. Einer Maschine könnte vorgegeben werden, dass sie Gewalt immer nur dann anwendet, wenn es angemessen und militärisch notwendig erscheint. Zu einer unvorhergesehenen Handlung könnte es kommen, wenn jemand erfasst wird, der nicht erfasst werden sollte. Im Film „American Sniper“ gibt es eine Szene, wo ein Kind eine Waffe hochhält. Damit wird es für den Roboter zum Kombattanten. Der Sniper wartet zunächst ab, das Kind wirft die Waffe weg und läuft davon. Man könnte sich aber auch vorstellen, dass eine Maschine in so einer Situation das Kind erschießt. Niemand hat das dann so gewollt, das System wurde nicht programmiert, Kinder zu töten. Aber es hält sich an die vorgegebenen Regeln und erschießt den vermeintlichen Kombattanten, ein Mensch kann es nicht mehr kontrollieren. Niemand ist für die Tötung verantwortlich. Das ist das Problem der Verantwortungslücke.

Wer sollte denn die Verantwortung übernehmen? Nicht nur im Krieg, sondern auch bei Pflegerobotern, die vielleicht nicht an lebenswichtige Medikamente erinnern, oder auch bei einem autonomen Auto, das einen Fußgänger überfährt?
Es muss unterschieden werden zwischen dem rechtlichen und dem moralischen Bereich. Im rechtlichen Bereich kann man Regelungen finden, im moralischen ist es schwieriger. Man müsste eine Konzeption kollektive Verantwortung entwickeln, die das Problem der Verantwortungslücke berücksichtigt.

Wie kann ich mir den Umgang mit Verantwortung im Verkehr vorstellen, wenn selbstfahrende Autos mit von Menschen gelenkten Autos zusammentreffen? Oder wenn ein selbstfahrendes Auto in einer unausweichlichen Lage vor der Wahl steht, ein Kind oder eine alte Frau umzufahren? Menschen treffen in solchen Situationen keine rationalen, sondern eher instinktive Entscheidungen.
Die Visionen vom autonomen Fahren gehen immer von einem vernetzten, ausschließlich autonomen Verkehr und nicht von einem Mischverkehr aus. Ein autonomes Auto kann tatsächlich in die Lage kommen, dass es sich entscheiden muss, einen Menschen zu überfahren, um einen anderen zu retten. Eine solche Entscheidung würde voraussetzen, dass eine moralische Pflicht besteht, aus Gründen der Schadensminimierung zu töten. Meiner Ansicht nach gibt es eine solche Pflicht jedoch nicht. Deshalb stehe ich aus moralischen Gründen dem autonomen Fahren mit großer Skepsis gegenüber. Und ja, wir Menschen entscheiden in solchen Situationen instinktiv und nicht rational – und das ist auch gut so. Solche Entscheidungen lassen sich nicht verallgemeinern und keiner Maschine einprogrammieren.

Befürworter argumentieren, der Verkehr werde sicherer, weil meistens menschliches Versagen der Grund für Unfälle ist.
Das ist ein Argument, das oft von denen gebracht wird, die am meisten profitieren vom autonomen Fahren. Schließlich handelt es sich um ein großes Konjunkturprogramm auf Jahre und Jahrzehnte. Manche behaupten sogar, es würden sich überhaupt keine Unfälle mehr ereignen. Dahinter steht die Idee: 90 Prozent der Unfälle hängen vom Fahrer ab, nehmen wir ihn raus, können wir 90 Prozent der Unfälle vermeiden. So einfach ist es aber nicht. Je mehr Entscheidungen eine Maschine übernimmt, desto fehleranfälliger wird dieser Aspekt des Systems. Es wird deshalb weiterhin Unfälle geben, nur ihre Ursachen werden sich verändern.

Man könnte auch anführen, dass Menschen, die aufgrund einer körperlichen Einschränkung wie einer Sehbehinderung nicht Autofahren können, mobiler werden.
Die Mobilität von Menschen mit Behinderung ist ein wichtiger Faktor. Aber müssen sie tatsächlich am Kfz-Verkehr teilnehmen oder kann man nicht eine andere Lösung finden, zum Beispiel, indem man Zubringer oder Fahrdienste zu öffentlichen Verkehrsmitteln fördert? Das autonome Fahren ist nicht die einzige Möglichkeit, um ihnen Mobilität zu gewährleisten.

Wenn durch autonomes Fahren noch mehr Menschen am Kfz-Verkehr teilnehmen, könnte auch der Verkehrskollaps drohen.
Befürworter behaupten, durch vernetztes Fahren könne man Verkehrsflüsse steuern, es werde weniger Chaos geben. Andererseits ist aber davon auszugehen, dass es eine erhebliche Zunahme an Fahrzeugen auf den Straßen geben wird, die diese Vorteile relativieren könnte.

Der Einsatz von Kriegsrobotern könnte noch dramatischere Folgen haben als das autonome Fahren, weil Töten explizit Teil des Programms sein wird. Besteht die Gefahr, dass die Hemmschwelle für Kriege sinkt, weil Regierungen weniger oder keine Soldaten mehr schicken müssen und das Militär sich – vordergründig – nicht mehr selbst „die Finger schmutzig machen“ muss?
Das finde ich plausibel, vor allem, weil Kriegen oft asymmetrische Szenarien zugrunde liegen, bei denen eine Seite technologisch überlegen ist. Besitzen alle die gleichen Möglichkeiten, dann ergibt sich das Problem der sinkenden Hemmschwelle weniger. Befürworter würden nun sagen, wir haben so einen „sauberen“ Krieg, ohne die Irrationalität von Menschen, die sich von Leidenschaften oder sogar Sadismus zu Kriegsverbrechen hinreißen lassen. Ich aber sehe Kriegsroboter aus ähnlichen Gründen wie das autonome Fahren sehr kritisch Schließlich wird die Maschine darauf programmiert, Menschen zu töten. Meiner Ansicht nach besteht aber auch im Krieg nicht die moralische Pflicht, zu töten. Es ist erlaubt, zu töten. Aber jeder einzelne Soldat kann sich aus moralischer Sicht immer wieder gegen das Töten entscheiden.

Was passiert, wenn ein solches System in die Hände eines Diktators oder von Terroristen fällt?
Das will man sich nicht vorstellen. Das sehe ich als sehr große Gefahr an – und auch, dass die Systeme irgendwann gehackt werden oder preisgünstig auf dem Schwarzmarkt erhältlich sind. Dass man sie dann ganz stark auch gegen Zivilbevölkerung einsetzen und Terror in ungeahntem Ausmaß ausüben kann.

Was heißt das in der Konsequenz? Sollte man nicht lieber die Finger davon lassen, solche Kriegsroboter zu entwickeln?
Ich persönlich bin dafür, die Finger davon zu lassen. Assistenzsysteme, die im Krieg Soldaten helfen, sehe ich als nicht so problematisch an. Aber Systeme, die autonom töten können, stellen aus moralischer Sicht keine wünschenswerte Entwicklung dar.

Macht sich die Politik genug Gedanken darüber, was auf uns zukommen könnte?
Ich war vor drei Jahren auf einer Veranstaltung eingeladen, wo auch ein bekannter Bundespolitiker zu Gast war und ihm diese Frage gestellt wurde. Seine Antwort lautete: Als Politiker solle man erst einmal abwarten, sich informieren und nicht so früh Stellung beziehen und gesetzliche Regelungen treffen. Allerdings gibt es mittlerweile parlamentarische Ausschüsse, die sich mit diesen Fragen beschäftigen und in denen versucht wird, einen Standpunkt zu finden.

Besteht Ihrer Ansicht nach für die Menschen die Gefahr eines Kontrollverlust durch solche autonomen Systeme?
Ja, sie besteht, weil autonome künstliche Systeme zu den bereits angesprochenen Problemen der Vorhersehbarkeit und der Einflussnahme auf ihr Handeln führen. Wenn das System läuft, kann man es nicht unbedingt wieder rückgängig machen. Der Kontrollverlust ist eine Frage, die sich schon auf der jetzigen Ebene stellt. Nehmen nur einmal das Computerprogramm „AlphaGo“, das auf das Brettspiel Go spezialisiert ist. Kein Mensch kann voraussagen, welchen Zug „AlphaGo“ als nächstes spielen wird.

Interview: Pamela Dörhöfer

Das könnte Sie auch interessieren

Mehr zum Thema

Kommentare

Liebe Leserinnen und Leser,

wir bitten um Verständnis, dass es im Unterschied zu vielen anderen Artikeln auf unserem Portal unter diesem Artikel keine Kommentarfunktion gibt. Bei einzelnen Themen behält sich die Redaktion vor, die Kommentarmöglichkeiten einzuschränken.

Die Redaktion