Diesen Trend nahm die Außen- und Sicherheitspolitischen Hochschulgruppe Heidelberg zum Anlass, mit Prof. Dr. Katharina Zweig und Oberst i. G. Sönke Marahrens im Rahmen eines Online-Seminars mit rund 80 Teilnehmer*innen über eine ethische Nutzung von Künstlicher Intelligenz im sicherheitspolitischen Kontext zu sprechen. Katharina Zweig lehrt Informatik an der TU Kaiserslautern, wo sie außerdem das Algorithm Accountability Lab leitet. Darüber hinaus ist sie Sachverständige der Enquete-Kommission KI des Deutschen Bundestages. Sönke Marahrens beschäftigt sich im Zuge seiner Arbeit am German Institute for Defense and Strategic Studies in Hamburg schwerpunktmäßig mit militärischen Strategien und Führung im 21. Jahrhundert.
Laut Zweig seien KI-Systeme dabei, den Sicherheitssektor zu erobern. Als Beispiel nannte sie eine KI, die terroristische Kuriere identifizieren sollte. Zweig ließ die Zuhörer vorschlagen, welche Art von Daten diese KI dazu nutzen könnte: Vorstrafenregister, Waffenkäufe oder Social-Media-Verhalten? Tatsächlich hätte die KI mithilfe von Kommunikations- und Standortdaten nach Mustern gesucht, wer sich wann in einschlägigen Gebieten aufhielt und mit bekannten Terroristen in Kontakt stand. Auf dieser Grundlage sei ein Journalist des arabischen Nachrichtensenders Al-Jazeera ermittelt worden. Problematisch, wie Zweig plakativ auf den Punkt brachte: „Natürlich reiste er durch den Nahen Osten und sprach mit verdächtigen Personen. Aber ist er deswegen selbst ein Gefährder?“
KIs würden lernen, indem sie riesige Datenmengen nach Mustern durchsuchten, erklärte die Informatikerin. Gefundene Korrelationen seien aber keineswegs mit Kausalitäten gleichzusetzen – stattdessen müsse mit der Übertragung der Erkenntnisse auf neue Sachverhalte vorsichtig umgegangen werden. Trotzdem könnten KIs vieles besser als Menschen. „Sie sind in der Lage, sehr kleine Unterschiede zu erkennen und feinste Korrelationsmuster zu identifizieren. Außerdem wären Menschen nicht dazu fähig, eine ähnlich große Datenfülle in derart kurzer Zeit zu durchsuchen.“ Wichtig sei eben, dass KI und Einsatzgebiet zusammenpassten und dass die gesellschaftliche Seite der KI-Nutzung ins Zentrum der Debatte rücke. Die Frage sei also weniger das Ob, sondern vielmehr das Wie. „Man soll bitte sehr viel Data Science machen; problematisch wird es erst, wenn man Systeme konstruiert, die direkt Entscheidungen treffen.“ Letztendlich, so Zweig, „brauchen wir einen Evaluationsprozess, gebaut von unabhängigen Gutachtern.“
Anschließend umriss Oberst i.G. Marahrens die derzeitig absehbaren Auswirkungen von KI auf Militär und Konflikte, sowie die damit verbundenen sicherheitspolitischen Konsequenzen. „Vielleicht müssen wir den Begriff des Kriegs gesellschaftlich neu aushandeln“, so sein Fazit. Prof. Zweigs Aufruf nach einem aufgeklärten und achtsamen Umgang mit KI schloss er sich an: „Wenn ich im Einsatz bin, brauche ich keinen Roboter an meiner Seite, aber ich will vorbereitet sein, wenn einer vor mir steht.“ Wir lebten in einer Welt technischer Fortschritte und zunehmender Komplexität, führte er seinen Gedanken weiter, KI könne uns bei der Bewältigung künftiger Herausforderungen helfen. „Deshalb sollten wir sie verstehen und weiterentwickeln.“
Für Zweig steht fest: Damit die Möglichkeiten des modernen Computeringenieurswesens den Menschen nutzen, müssen sie ethischen Standards folgen. „KI ist kein Zaubermittel, braucht aber gesellschaftliche Regulierung. Es geht hierbei um grundsätzliche Fragen, die uns alle angehen. Deshalb ist dies auch der einzige Weg, wie die Ethik in den Rechner kommt: Durch Sie, durch mich, durch uns.“