Lade Inhalte...

Drohnen „Maschinen mit der Fähigkeit zu moralischem Handeln“

Philosophieprofessorin Catrin Misselhorn über moralische Entscheidungen von Pflegerobotern, selbstfahrenden Autos und Drohnen – und damit verbundene Probleme.

Drohne
Eine Drohe der irakischen Armee fliegt über Mossul. Was könnte passieren, wenn solche Systeme von Hackern manipuliert werden? Foto: rtr

Roboter befreien uns vom Staub in der Wohnung, helfen alten Menschen im Alltag, sitzen virtuell hinterm Steuer. Das kann man gut finden oder auch beängstigend. Fakt ist: Die Entwicklung autonomer künstlicher Systeme geht rasant voran. Aber wer übernimmt eigentlich die Verantwortung, wenn etwas schief geht, ein schrecklicher Unfall passiert? Die Philosophieprofessorin Catrin Misselhorn hat sich in ihrem Buch „Grundfragen der Maschinenethik“ damit auseinandergesetzt.

Wozu brauchen wir eine Maschinenethik? Auf den ersten Blick wirkt es wie ein Wortkonstrukt aus zwei Begriffen, die wenig miteinander zu tun haben.
Maschinenethik ist eine neue Disziplin an der Schnittstelle von Philosophie, Informatik und Robotik. Es geht darum, Maschinen zu konstruieren, die die Fähigkeit zu moralischem Handeln haben – aber auch darum, nachzudenken, ob es überhaupt wünschenswert ist, das zu tun. Diese Thematik ergibt sich aus den neuen technologischen Entwicklungen und ist keinesfalls Zukunftsmusik. Je autonomer und intelligenter Systeme werden, desto eher kommen sie auch in Situationen, die erfordern, dass die Maschine selber in einem gewissen Umfang in der Lage ist, moralisch zu entscheiden und zu handeln.

In welchen Situationen könnte das der Fall sein?
Solche Fragen stellen sich bereits bei relativ einfachen Anwendungen. So stehen schon Staubsaugerroboter vor moralischen Entscheidungen, zum Beispiel der, ob man Insekten und kleine Tiere zu Reinigungszwecken einfach einsaugen und damit töten darf. Eine Alternative wäre es, sie zu umfahren oder zu verscheuchen.

Wie reagiert der im Handel erhältliche Staubsaugerroboter im Normalfall?
Im Normalfall saugt er alles ein, was ihm in den Weg kommt, so wie ein herkömmlicher Staubsauger es auch tut, wenn man ihn als Mensch nicht drumherum führt. Aber an diesem Beispiel sieht man, dass sich schon auf einem relativ einfachen Niveau die Forderung nach einer Maschinenethik stellt. Komplexere Anwendungsbereiche sind Pflegeroboter oder das autonome Fahren. Soll ein autonomes Fahrzeug berücksichtigen, wie viele Menschen bei einem Unfall getötet werden, wenn es keine andere Möglichkeit gibt als irgendeiner Gruppe Schaden zuzufügen? Aber es gibt auch in sozialen Netzwerken einen Bedarf nach moralisch handelnden Maschinen, wenn es darum geht, Inhalte pornographischer oder rassistischer Art herauszufiltern.

Wie lässt sich Moral in die Maschine reinbringen, ist das technisch schon möglich?
Bei einfachen Anwendungen kann man das durchaus schon machen. So hat mein Kollege Oliver Bendel von der Hochschule für Wirtschaft in der Schweiz einen Prototyp für einen Staubsaugerroboter entwickelt, der kleine Tiere verschont. Er ist aber noch nicht im Handel erhältlich. Und zumindest auf dem Papier gibt es bereits solche Designs für Pflegeroboter. Dazu existieren auch Arbeiten, wie sich das technisch umzusetzen lässt.

Nach welchen Kriterien würde man eine Maschine mit moralischen Standards ausstatten? Obliegt das demjenigen, der sie programmiert oder beruft man sich auf ein allgemeines Wertesystem?
Das hängt vom Anwendungsbereich ab. Man kann nicht die gleichen Standards in Pflegeroboter einbauen wie in das autonome Fahren, weil ihnen grundsätzlich andere Situationen zugrunde liegen. Der gravierendste Unterschied besteht darin, dass das autonome Fahren auch Personen betrifft, die selbst nicht Nutzer solcher Systeme sind: Kinder, Radfahrer und Fußgänger etwa. Deshalb brauchen wir dort Regeln, die für all diese Gruppen akzeptierbar sind. Eine Hürde besteht darin, dass es in demokratischen, liberalen Gesellschaften immer einen Dissens im Hinblick auf moralische Fragen gibt, der nicht zu eliminieren ist. Das heißt aber nicht, dass wir dort keine moralischen Entscheidungen treffen können. Bei konfliktträchtigen Fragen, etwa beim Thema Sterbehilfe, haben wir rechtliche Regelungen, die für die allermeisten Menschen akzeptierbar sind. Ich stelle mir vor, dass man auch im Hinblick auf Maschinenethik auf diese Weise mit einem Dissens umgehen kann. Bei Pflegerobotern spielt das weniger eine Rolle, wenn man diese Systeme nur für Personen einsetzt, die noch in der Lage sind zu entscheiden, ob sie überhaupt auf diese Weise gepflegt werden wollen. Sie können dann selbst festlegen, welchen moralischen Kriterien ihr Roboter folgen soll.

Die Zeitung für Menschen mit starken Überzeugungen.

Multimedia App E-Paper
App
Online Kundenservice Abo-Shop
Ok

Um Ihnen ein besseres Nutzererlebnis zu bieten, verwenden wir Cookies. Durch Nutzung unserer Dienste stimmen Sie unserer Verwendung von Cookies zu. Weitere Informationen