Lade Inhalte...

Leitartikel Stoppt Killerroboter

Autonome Waffen werden einen Krieg schlimmer und nicht besser machen. Deshalb sollten die UN diese Maschinen verbieten.

Panzer
Ein Panzer bei einer Waffenschau. Foto: afp

Die nächste Revolution hat begonnen. Es ist möglicherweise die folgenreichste in der Geschichte der Kriegsführung. Nach der Erfindung des Speers, des Schießpulvers und der Atombombe stehen wir nun vor der Frage, ob künftig bewaffnete Auseinandersetzungen mit und von Robotern geführt werden sollen – oder besser doch nicht, weil es moralisch verwerflich ist, Computern die Entscheidung über Leben und Tod auf dem Schlachtfeld zu überlassen.

Die autonomen Waffensysteme, die derzeit in vielen Ländern entwickelt werden, sind Kriegsgeräte eines neuen Typs. Erstmals sollen Waffen nicht mehr an die Entscheidungsgewalt von Menschen gebunden sein. Erstmals sind es Maschinen, die autonom entscheiden sollen, wer leben darf und wer sterben muss.

Ein Krieg aber, der wie im Autopilotmodus geführt wird, ist eine schreckliche Vorstellung. Man könnte sich mit dieser Vorstellung ja abfinden, wenn sichergestellt würde, dass künftig nur noch ausschließlich sogenannte Killerroboter gegen Killerroboter Schlachten führen. Aber so wird es nicht kommen. Wer autonome Waffen besitzt, sei es die Armee eines Staates, sei es eine nichtstaatliche Terrorgruppe, der wird sie immer auch gegen Menschen einsetzen, die keine Killerroboter besitzen.

Es ist also höchste Zeit, dass sich die Staatengemeinschaft Gedanken macht, ob und wie die Auswirkungen dieser technologischen Revolution zu regeln sind. Vertreter von mehr als 75 UN-Mitgliedsstaaten debattieren darüber in dieser Woche in Genf. Die Ergebnisse dieser Debatte, das darf man voraussagen, werden mager sein. Im Prinzip sei man sich einig, sagte jetzt der Vorsitzende der UN-Verhandlungsrunde: Der Einsatz der autonomen Waffen müsse mit dem humanitären Völkerrecht vereinbar sein. Was das allerdings genau bedeutet, sagte er nicht. Die prinzipielle Einigkeit ist keine Lösung.

Bemerkenswert ist, dass die Entwicklung autonomer Waffen nicht, wie so oft in der Geschichte, von der Rüstungsindustrie vorangetrieben wird. Es sind zivile Unternehmen, die erkannt haben, dass sich mit Robotik und Künstlichen Intelligenz sehr viel Geld verdienen lässt. Das ist legitim. Es war aber nur eine Frage der Zeit, bis auch Militärplaner den vermeintlichen Nutzen dieser Entwicklung erkannt haben. Die Grenzen zwischen militärischer und ziviler Technik verwischen zusehends.

Die Befürworter autonomer Waffen werben für Kriegsgeräte, die angeblich verhindern sollen, dass eigene Soldaten in Gefahr geraten. Das mag ja für Defensivwaffen in der Luftabwehr gelten, für Offensivwaffen gilt das nicht.

Und was machen wir, wenn sich ein Roboter irrt und statt eines gegnerischen Soldaten einen unbeteiligten Zivilisten tötet? Wer beantwortet die Frage nach der moralischen Verantwortung für diese Tat? Werden dann Angelegenheiten, die im Zweifel von einem internationalen Strafgericht verhandelt werden müssen, zu einer zivilen Haftungsklage gegen den Hersteller des Roboters?

Welche Auswirkungen hat der Einsatz von autonomen Waffen auf das geopolitische Gefüge? Müssen wir uns mit dem Gedanken anfreunden, dass Terrorgruppen künftig versuchen werden, auch in den Besitz von Killerrobotern zu gelangen? Viele Fragen, keine Antworten.

Es mag ja sein, dass weniger Soldaten sterben, wenn Roboter eingesetzt werden. Aber bislang hat jede technische Fortentwicklung Kriege für alle Beteiligten nur schlimmer gemacht, niemals besser. Erinnern wir uns nur an die Kriege zu Beginn des 20. Jahrhunderts, als die Waffen schon modern, aber die medizinische Versorgung ihrer Opfer vielerorts noch altmodisch war.

Es ist nachvollziehbar, dass vor allem in Industriestaaten die autonomen Waffen einen besonderen Reiz für Politik und Militär haben. Weil die Gesellschaften in diesen Staaten altern, haben die Streitkräfte große Probleme, genügend Nachwuchs zu rekrutieren. Ob aber ausgerechnet Killerroboter die richtige Antwort auf dieses Problem sind, muss bezweifelt werden.

Es könnte vielmehr sogar sein, dass es Regierungen künftig leichter fällt, sich für militärische Interventionen zu entscheiden. Denn wenn das Risiko für die eigenen Soldaten sinkt, dann ist das auch mit weniger öffentlichem Rechtfertigungs- und Begründungszwang verbunden.

Autonome Waffensysteme gelten als der letzte Schrei in der Militärtechnologie. In Mode sollten sie dennoch nicht kommen. Zu gefährlich sind sie, nicht kontrollierbar. Das ist kein Ausdruck von Fortschrittsfeindlichkeit. Wenn Staaten diese Waffen nur für Defensivzwecke einsetzen, muss das kein Problem sein. Aber das wird nicht geschehen. Die Preußen haben ihre Zündnadelgewehre nicht nur zur Verteidigung eingesetzt, sondern deren Vorteile gegenüber den österreichischen Vorderladern auch gezielt für Angriffe genutzt.

Weil Gesellschaften nicht aus prinzipiellen Gründen auf die Anwendung von Gewalt gegen andere Gesellschaften verzichten und auch in Zukunft darauf nicht verzichten werden, sollten Waffensysteme wie Killerroboter international verboten werden.

Die Zeitung für Menschen mit starken Überzeugungen.

Multimedia App E-Paper
App
Online Kundenservice Abo-Shop
Ok

Um Ihnen ein besseres Nutzererlebnis zu bieten, verwenden wir Cookies. Durch Nutzung unserer Dienste stimmen Sie unserer Verwendung von Cookies zu. Weitere Informationen