Lade Inhalte...

Human Rights Watch Verbot von Killer-Robotern gefordert

Killer-Roboter können den Krieg menschlicher machen, meinen Experten. Die Menschenrechtsorganisation Human Rights Watch fordert, ihre Entwicklung zu verbieten. In der nächsten Woche berät eine UN-Konferenz darüber.

Eine unbemannte Aufklärungsdrohne vom Typ Heron 1, aufgenommen bei einem Testflug. Foto: dpa/Symbolbild

Die Bundesregierung hat gerade beschlossen, eine unbemannte Drohne entwickeln zu lassen. Sie soll in erster Linie über und hinter den feindlichen Linien eines militärischen Schlachtfeldes aufklären. Aber sie soll auch Raketen abfeuern können - auf Kommando verantwortlicher Offiziere und in besonders wichtigen Fällen nach einem politischen Beschluss. Verteidigungsministerin Ursula von der Leyen geht davon aus, dass eine Entscheidung, die abseits einer konkreten Gefechtssituation in einer Kommandozentrale getroffen wird, mit mehr Ruhe und Übersicht gefällt werden kann als direkt im Kampf. 

Die militärischen Entwicklung, besonders aber die militärischen Entwickler sind längst weiter. Im vorigen April berichtete die Nachrichtenagentur RIA Nowosti über Pläne der russischen Regierung, die Atomwaffenlager des Landes künftig von bewaffneten Robotern schützen zu lassen. Die Maschinen könnten „stationäre und bewegliche Ziele erfassen und zerstören“, wurde ein Sprecher des Verteidigungsministeriums in Moskau zitiert. Wie weit die Pläne gediehen sind, ist nicht bekannt. 

Auch im Pentagon ist man nicht untätig. Schon 2013 veröffentlichte das amerikanische Verteidigungsministerium einen umfassende Zielplanung für die Entwicklung „unbemannter integrierter Systeme“. Als eine der Schlüsseltechnologien werden darin die Fähigkeit zu „Autonomie und kognitivem, Verhalten“ genannt. Lernende Roboter sollen so programmiert werden, dass sie in der Lage sind selbst Strategien zu entwickeln und ihr Verhalten selbst wählen. 

Noch handelt es sich weitgehend um Zukunftsmusik. Aber Ronald Arkin, Experte für Künstliche Intelligenz am Institut für Technologie in Georgia, meint, in bestimmten Situationen könnten Maschinen besser als Menschen zu ethischem Handeln in der Lage sein, weil sie in kürzester Zeit schneller Informationen verarbeiteten und weniger tödliche Fehler machten. Außerdem handele eine Maschine ohne Gefühle wie Hass, Frust, Rachsucht oder Angst. 

Aber sie handeln auch ohne Kreativität und vor allem ohne Mitgefühlt, widerspricht der britische Roboterexperte Noel Sharkey. Maschinen sollten nie entscheiden dürfen „ob ein Mensch lebt oder stirbt.“ Die Frage von Leben oder Tod an einen Roboter zu delegieren sei zutiefst unmenschlich, meinte der emeritierte Professor aus Sheffield (Großbritannien). 

„Stoppt Killer-Roboter“

Diese Meinung vertritt auch die Organisation Human Rights Watch. Zusammen mit mehr als 50 internationalen Menschenrechtsorganisationen hat sie die Kampagne „Stoppt Killer Roboter“ ins Leben gerufen. Sie haben eine Studie mit dem Titel in Auftrag gegeben: „Vorsicht Lücke! Killer Roboter können nicht verantwortlich gemacht werden“, die am heutigen Donnerstag in Genf vorgestellt wird. Die 38-seitige Untersuchung macht darauf aufmerksam, welche gravierenden straf-, zivil- und völkerrechtlichen Hürden bestehen, Individuen für die Handlungen autonomer Waffensysteme verantwortlich zu machen. Für die Opfer gebe es kaum einen „Weg zu Gerechtigkeit“, sagt Bonnie Docherty, die Hauptautorin des Berichts. Eine autonome Waffe könne „Handlungen ausführen, die Kriegsverbrechen darstellen, wenn sie von einem Menschen“ begangen würden und niemand könne dafür zur Verantwortung gezogen werden. Docherty: „Wir müssen vollständig autonome Waffen dringend verbieten.“ 

Das Papier zielt auf eine einwöchige Konferenz der Vereinten Nationen, die am kommenden Montag in Genf beginnt. An ihr nehmen zahlreiche Vertragsstaaten der UN-Waffenkonvention teil. Für dieses Treffen und die Kontrolle der Killer-Roboter hatte sich besonders die frühere Hohe Repräsentantin der UN für Abrüstung, die Deutsche Angela Kane eingesetzt. Wann es zu einer internationalen Übereinkunft in dieser Frage kommt, die ein neue technologisches Wettrüsten verhindern könnte, ist jedoch völlig offen. Human Rights Watch macht jedoch darauf aufmerksam, dass ein Verbot bestimmter Waffenentwicklungen durchaus möglich ist. So sei 1995 ein präventives Verbot von Blendlaser-Waffen in die UN-Waffenkonvention aufgenommen worden.

Die Zeitung für Menschen mit starken Überzeugungen.

Multimedia App E-Paper
App
Online Kundenservice Abo-Shop
  • Nutzungsbasierte Onlinewerbung
  • Mediadaten
  • Wir über uns
  • Impressum