Lade Inhalte...

Künstliche Intelligenz Angst vor dem Killer-Roboter

In Genf beraten UN-Mitgliedsstaaten über ein Verbot von autonomen Waffensystemen.

Roboter
Dieser Killer ist nicht echt - er war Teil einer Protestkampagne gegen autonome Waffen in London. Foto: afp

Von „Killerrobotern“ ist die Rede, von „tödlichen autonomen Waffen“ – es geht um die Kriegsführung der Zukunft. Noch werden die Waffensysteme, die sich ihre Ziele selbst aussuchen und sich damit der Kontrolle durch den Menschen weitgehend entziehen, nicht eingesetzt. Aber ihre Entwicklung läuft schon auf Hochtouren. Rechtlich geregelt ist ihr Einsatz dagegen noch nicht. Die Frage, ob eine Maschine über Leben und Tod entscheiden darf, versuchen seit Montag Unterhändler von mehr als 75 UN-Mitgliedsstaaten in Genf zu beantworten. Es ist schon die sechste Verhandlungsrunde, und es werden wohl noch einige folgen, bis Einigkeit herrscht – wenn es überhaupt dazu kommt.

Schon heute gibt es sogenannte automatisierte Waffen wie etwa unbemannte Kampfdrohnen. Sie werden allerdings immer noch von Menschen ferngesteuert, die den Waffen vorgeben, wo, wann und gegen wen sie ihre Geschosse abfeuern sollen. Anders die sogenannten autonomen Waffen. Durch den Einsatz künstlicher Intelligenz bestimmen die Roboter oder Drohnen selbst, wo, wann und auf wen sie schießen.

Aus militärtechnischer Sicht haben autonome Waffen einen entscheidenden Vorteil gegenüber automatisierten Systemen. Drohnen der herkömmlichen Art etwa müssen heutzutage mit Satellitendaten versorgt werden, damit sie das Ziel finden, das ihnen Menschen vorgeben. Sie senden auch Daten an den Piloten zurück, der mit einer Fernsteuerung auch Tausende Kilometer von dem Fluggerät entfernt sitzen kann. Diesen Austausch von Signalen können Gegner, sofern sie über die Ausrüstung verfügen, abfangen und damit möglicherweise Angriffsziele räumen, bevor die erste Rakete einschlägt.

Die Probleme beginnen allerdings jenseits der Technik. „Sind wir als Gesellschaft bereit, die Entscheidung über Leben und Tod an einen Computer zu delegieren?“, fragt die deutschen Wissenschaftlerin Ulrike Franke, die im Londoner Büro der Denkfabrik European Council on Foreign Relations arbeitet.

Die Menschenrechtsorganisation Amnesty International lehnt das strikt ab. „Wir fordern ein Verbot autonomer Waffensysteme“, sagt Mathias John, Experte für den „Krieg der Zukunft“ bei der deutschen Amnesty-Sektion in Berlin. Es dürfe nicht sein, das auf „jegliche menschliche Kontrolle verzichtet wird“. Ähnlich sieht das die Bundesregierung. Union und SPD haben in ihrem Koalitionsvertrag festgeschrieben: „Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.“

Wer ist Feind und wer Freund?

Es gibt viele ungeklärte Fragen: Können die autonomen Waffen erkennen, wer Feind ist, wer Freund, wer sich ergeben will, wer nicht, wer ein Zivilist ist, wer dagegen ein feindlicher Kombattant in ziviler Kleidung? Völlig offen ist auch, wie ein mögliches Kriegsverbrechen zu beurteilen ist, wenn statt eines Menschen die Maschine sich selbst den Angriffsbefehl erteilt.

Amnesty-Fachmann John weist zudem auf einen Aspekt hin, der auch hierzulande für Aufregung sorgen könnte. Sollte die Polizei etwa mit autonomen Systemen ausgerüstet werden, die bei Demonstrationen als Elektroschocker eingesetzt würden oder Tränengas versprühten, „dann könnte uns das auch bald betreffen“.

Auch deswegen müsse es zu einem internationalen Verbot kommen. Weltweit haben inzwischen mehr als 2000 Wissenschaftler, die sich mit künstlicher Intelligenz beschäftigen, an die Staatengemeinschaft appelliert, die Finger von den Kriegswaffen der neuen Art zu lassen. Gleichzeitig versprechen die Wissenschaftler, die Mitarbeit an der Entwicklung dieser Waffen zu verweigern. Auch Technologiekonzerne sollten die Arbeit an den Systemen einstellen.

Damit ist allerdings nicht zu rechnen. Die Gefahr bestehe, dass eine Art Rüstungswettlauf beginne, sagt die Militärexpertin Ulrike Franke. Sobald ein Staat autonome Waffensysteme einführe, „ziehen die anderen nach“.

Zwar glaubt Franke nicht, dass es bei den Verhandlungen in Genf sehr schnell zu einem Verbot der autonomen Waffensysteme kommen wird. Es könnte allerdings sein, dass sich die Unterhändler an einem Vorbild aus den 1990er Jahren orientieren. 1995 gelang es schon einmal, einen neuen Waffentypus zu verbieten, bevor er überhaupt zum Einsatz kam. Damals einigten sich die Vereinten Nationen auf ein Verbot sogenannter Blendwaffen, die ihre Opfer dauerhaft erblinden lassen.

Die Zeitung für Menschen mit starken Überzeugungen.

Multimedia App E-Paper
App
Online Kundenservice Abo-Shop
Ok

Um Ihnen ein besseres Nutzererlebnis zu bieten, verwenden wir Cookies. Durch Nutzung unserer Dienste stimmen Sie unserer Verwendung von Cookies zu. Weitere Informationen