1. Startseite
  2. Politik

Künstliche Intelligenz in Waffensystemen: „Deutschland darf Entwicklung nicht verschlafen“

Erstellt:

Kommentare

Eine Drohne, erschaffen von dem Programm Midjourney.
So stellt sich Künstliche Intelligenz die Zukunft des Krieges vor: Eine Drohne, erschaffen von dem Programm Midjourney. © N. Bruckmann/Midjourney (maschinell erstellt*)

Deutschland ist dabei, eine der wichtigsten Debatten über künftige Rüstungsvorhaben zu verpassen: Welche Rolle soll Künstliche Intelligenz in Waffensystemen spielen?

Diese Analyse liegt IPPEN.MEDIA im Zuge einer Kooperation mit dem Security.Table Professional Briefing vor – zuerst veröffentlicht hatte ihn Security.Table am 18. April 2023.

Berlin – Selten ist so viel über Künstliche Intelligenz (KI) gesprochen worden wie in den vergangenen Wochen. In einem offenen Brief forderten kürzlich rund 1000 Experten, unter ihnen Elon Musk, eine Entwicklungspause. Diese sollte genutzt werden, um ein Regelwerk für den Einsatz von KI zu schaffen. Meist diskutiertes Beispiel ist das generative KI-System GPT-4, das eigenständig Fragen beantworten und Texte formulieren kann. Bislang findet in Deutschland jedoch keine breite Debatte darüber statt, was KI der dritten Generation für die Entwicklung von Waffensystemen bedeuten kann.

Frank Sauer, der an der Bundeswehruniversität München zum Einsatz von KI im Militär forscht, erklärt gegenüber Table.Media: „Wir müssen in Deutschland endlich eine ergebnisorientierte Diskussion führen.“ Anders als in den USA oder Frankreich, die längst KI-Strategien für Waffensysteme vorgelegt haben, gibt es in Deutschland keine kohärente Vorgehensweise.

Für den Verteidigungs-Experten der FDP, Marcus Faber, wäre eine Debatte über KI in Waffensystemen im Parlament „sinnvoll, ähnlich wie wir sie über die Bewaffnung von Drohnen geführt haben, zum Beispiel im Rahmen einer Anhörung im Verteidigungsausschuss“.

Künstliche Intelligenz: Keine Zeit für zehnjährige Debatte

Viel Zeit bleibt angesichts der rasanten Entwicklung auf dem Gebiet der KI nicht. Politikwissenschaftler Sauer warnt: „Die Debatte über die Bewaffnung von Drohnen hat zehn Jahre gedauert. Diese Zeit haben wir nicht.“ Mit der Entwicklung des Future Combat Air System (FCAS), des größten europäischen Rüstungsprojekts mit deutscher und französischer Beteiligung, wird die Frage nach der Rolle von KI in den Waffensystemen der Zukunft virulent.

Autonome Waffensysteme (AWS) – und damit der Einsatz von KI – sind längst Bestandteil moderner Armeen, auch der Bundeswehr. Ohne „Autonomie in Waffensystemen“, so der wissenschaftlich korrekte Begriff, würde das Flugabwehrraketensystem Patriot oder das Waffenleitsystem der Fregatte 125 nicht funktionieren. Die AWS übernehmen in Maschinengeschwindigkeit sowohl Zielerfassung wie Verteidigung. Noch allerdings entscheidet ein Mensch, wann und in welchem Umfang die AWS eingesetzt werden.

Newsletter von Table.Media

Erhalten Sie 30 Tage kostenlos Zugang zu weiteren exklusiven Informationen der Table.Media Professional Briefings – das Entscheidende für die Entscheidenden in Wirtschaft, Wissenschaft, Politik, Verwaltung und NGOs.

Das könnte sich ändern, wenn KI die „meaningful human control“ übernimmt. Die umgangssprachlich als „Killerroboter“ bezeichneten AWS gelten als die Schreckgespenster künftiger Schlachtfelder. In dem Science-Fiction-Video „Slaughterbots“ aus dem Jahre 2017 führt ein Schwarm autonomer und vernetzter Drohnen Angriffe auf Studenten und Politiker aus. Der Videoclip, den Kritiker von AWS produziert haben, bündelt die Ängste vor Waffen, die sich jeder menschlichen Kontrolle entziehen.

Deutschland fehlt eine Strategie im Umgang mit AWS

Die Diskussion über die Existenz solcher Waffensysteme hält Militärexperte Sauer für nicht zielführend: „Die zentrale Frage lautet vielmehr, insbesondere mit Blick auf das Ausführen der kritischen Funktion der Zielauswahl und -bekämpfung: Wer oder was – Mensch oder Maschine – übernimmt was, wann und wo? Kurz: Der Fokus muss weg von Waffenkategorien und hin zur Rolle des Menschen.“

Bislang gibt es in Deutschland keine offizielle Strategie, die eine nationale Position im Umgang mit AWS definieren würde. Im Koalitionsvertrag heißt es lediglich: „Letale autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab.“

Auch in der Bundeswehr gibt es kein umfassendes, verbindliches Papier, das die Beziehung Mensch-Maschine definiert. Das Amt für Heeresführung hat 2019 das Konzeptpapier „Künstliche Intelligenz in den Landstreitkräften“ herausgegeben. Darin steht: „Der Mensch muss die Entscheidungsgewalt über Leben und Tod behalten. Es gilt das Prinzip wirksamer menschlicher Kontrolle.“ Was daraus resultiert, ist jedoch unklar.

„Als größtes europäisches Land sollte Deutschland aktiver und selbstbewusster werden“

Dabei erfordert zum Beispiel die Entwicklung eines so hochkomplexes „system of systems“ wie FCAS dringend klare Anforderungsprofile. Zusammen mit dem Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie hat Airbus Defence and Space, einer der Partner von FCAS, eine AG Technikverantwortung gegründet.

Ihr gehören, neben Industrie und Bundeswehr, vor allem Mitglieder der Zivilgesellschaft wie Theologen und Politikwissenschaftlerinnen an. Sie diskutieren die Frage: Wie kann KI ethischen Normen gerecht werden? Eine Frage, die auch die Politik beantworten müsste.

Experten wie Sauer von der Bundeswehruniversität fordern schon lange eine KI-Strategie: „Als größtes europäisches Land mit steigenden Militärausgaben sollte Deutschland im Sinne der Mitgestaltung der regulatorischen Landschaft bei AWS aktiver und selbstbewusster werden.“ In Frankreich beispielsweise hat eine Ethikkommission Leitlinien für das Verteidigungsministerium entwickelt.

Der CDU-Sicherheitspolitiker Markus Grübel, Mitglied des Verteidigungsausschusses, sieht dabei die Politik in der Pflicht: „Vielleicht gelingt es uns anders als bei der zehnjährigen Diskussion über die Bewaffnung von Drohnen, dass wir eine rationale Debatte führen können und nicht wieder eine Entwicklung verschlafen.“

Von Nana Brink

*Dieses Bild wurde mithilfe maschineller Unterstützung erstellt. Dafür wurde ein Sprachmodell genutzt, das Informationen aus ausgewählten Quellen verarbeitet. Auswahl der Quellen und Sprachmodellanfragen sowie finale Bearbeitung des Bildes: Art Director Nicolas Bruckmann.

Auch interessant

Kommentare