Künstliche Intelligenz im Militär – Autonomie in Waffensystemen

Mit der Verknüpfung von Waffensystem und künstlicher Intelligenz vollziehe sich gerade ein „Paradigmenwechsel in der Militärtechnik“, welcher die Art der Kriegsführung grundlegend verändern wird. Zwar seien bereits voll autonome Waffensystem (LAWS) seit 30 Jahren im Einsatz und finden auch heute in der Bundeswehr, etwa durch das Flugabwehrsystem Mantis, Verwendung. Dennoch erweitere der aktuelle Fortschritt im Bereich der künstlichen Intelligenz die Anwendungsfelder solcher vollautonomen Systeme. So gab die US Air Force bereits ein vollautonomes Kampfflugzeug die X-47B in Auftrag, welches schon heute flugfähig ist und in Zukunft vollautonom Ziele identifizieren, aufklären und bekämpfen soll. Diese technische Entwicklung mache letztlich deutlich wie schnell und umfassend KI-Anwendungen im militärischen Bereich Eingang findet. Ursächliche hierfür seien sicherlich die Vorteile, die solche Systeme bieten. So beschleunigen LAWS den Entscheidungsprozess innerhalb einer Kampfhandlung und würden damit einen strategischen Vorteil erzeugen. Dennoch läge genau in diesem Prozess auch die größte Problemstellung autonomer Waffensysteme, wenn menschliche Abwägung vollständig ausgeschlossen oder auf ein Minimum reduziert würde. Daher sei eine Kontextualisierung des Einsatzes von LAWS von zentraler Bedeutung. Dies macht Dr. Sauer an seiner eigenen Position besonders deutlich, wenn er den Einsatz von LAWS grundsätzlich ablehnt, sobald menschliches Leben gefährdet werde oder gezielt Menschen, unabhängig ihres völkerrechtlichen Status als Kombattant, getötet würden. Dennoch lehnt er autonomen Waffensystem nicht
grundsätzlich ab und verweist darauf, dass diese Systeme von ihm aus „schießen können bis sie blau werden“, solange es sich lediglich gegen Material richte. Denn eine Bekämpfung von Menschen durch LAWS ist aus seiner Sicht auf der völkerrechtlichen, ethischen und politischen Ebene problematisch.
Im juristischen Sinne sei sicherlich die Frage zu stellen wer Verantwortung für die Handlung solcher Waffensysteme übernehmen müsse. Gerade in der militärischen Struktur bliebe dies vollkommen unklar und erzeuge damit eine Rechtsunsicherheit, bei der vor allem die nicht festgelegte Rechenschaftspflicht schwerwiegend sei.


Aber auch die ethischen Implikationen, etwa die Tötung eines Menschen durch LAWS, seien dabei kaum von der Hand zu weisen. So gelte es hier die Würde des Menschen auch im Krieg zu wahren. Für Herrn Dr. Sauer besteht diese auch darin, dass sich bei der Bekämpfung eines Kombattanten „ein Mensch die Tötung mit seinem Gewissen abgleicht“ und sich auch mit dieser Handlung belaste.
Aber auch unabhängig von rechtlichen und ethischen Problemstellungen ergebe sich eine dringliche sicherheitspolitische Relevanz, die auf eine Regulierung solcher Systeme verweise. Denn LAWS und die dafür notwendigen Technologien seien vor allem eins: „dumm, billig, überall und blitzschnell“. Mit dieser schlaglichtartigen Umschreibung bringt Herr Dr. Sauer die wesentlichen sicherheitspolitischen Herausforderungen auf den Punkt. So sei die Verbreitung solcher Systeme schon jetzt weit fortgeschritten und der Innovationstreiber im Bereich der künstlichen Intelligenz als maßgebliche Grundlage der LAWS sei nicht das Militär, sondern der zivile Sektor. Zudem gehe die Gefahr nicht nur von komplexen Systemen wie etwa der X47-B aus, sondern insbesondere auch von billigen und dummen LAWS wie etwa ein 3-dimensionales Minenfeld
durch Mikro-Drohnen mit Wärmeerkennung. Nicht zuletzt könnten autonome Waffenplattformen auch als konkretes politisches Mittel verwendet werde, so Dr. Sauer. Dabei sei es durchaus denkbar, dass diese als Instrument zur Souveränitätsverletzung Verwendung fänden, da eine vollautonome Intervention in ein Hoheitsgebiet nur schwer zugeordnet werden könne und damit völkerrechtliche Ahndung kaum möglich erscheine.


Auf dieser Grundlage sei es von besonderer Bedeutung, dass auf internationaler Ebene ein neues Regulierungssystem entstehe, da traditionelle Ansätze der Rüstungskontrolle in diesem Zusammenhang kaum zielführend seien, wenn man „eine Funktion regulieren muss und nicht mehr einzelne Waffensysteme“. Es gilt, mit anderen Worten, die grundsätzlichen Charakteristika des autonomen Bekämpfens von Zielen innerhalb unterschiedlichster Waffensystemen zu regulieren und nicht mehr einen bestimmten Typ von Waffen einzuschränken.


Aus diesem Grund verweist Herr Dr. Sauer auf die Wichtigkeit der „Group of Governmental Experts on Lethal Autonomous Weapons Systems“, die sich auch dieses Jahr wieder in Genf getroffen hat, um ein solches Regulierungssystem zu erarbeiten.