Bericht über den 1. Teil des 5. GSP-Sicherheitsdialogs

Bericht über den 1. Teil des 5. GSP-Sicherheitsdialogs

Video-Mitschnitt des 1. Teils des 5. GSP-Sicherheitsdialogs

 

Bericht über den 5. GSP-Sicherheitsdialog – Künstliche Intelligenz und deutsche Sicherheitspolitik – Teil 1

von Daniel Reißmann

Künstliche Intelligenz dringt immer tiefer in unser Leben ein. Immer mehr Bereiche funktionieren autonom und der Mensch wird da nicht mehr gebraucht. Nun kann man darüber diskutieren, ob alles, was zivil genutzt wird, auch früher oder später militärisch eingesetzt wird oder umgekehrt. Was jedoch feststeht ist, dass die KI auch in militärischen Dingen weiter an Bedeutung gewinnen wird. Deshalb hat sich die Gesellschaft für Sicherheitspolitik dafür entschieden, mit diesem zukunftsträchtigen Thema den diesjährigen GSP-Sicherheitsdialog zu überschreiben.

Zu Beginn führt der Vizepräsident der GSP, Generalleutnant a.D. Kersten Lahl, mit einer Keynote in die Thematik ein. Sind humanuide Kampfroboter und autonome Killerdrohnen bald Wirklichkeit oder bleibt es hier bei Science-Fiction? Durch KI können die Grenzen und Mängel menschlichen Handelns überwunden werden, so Lahl. Bereits heute möchte keine Armee mehr auf die Vorteile von Künstlicher Intelligent verzichten. Aber wie muss Sicherheitspolitik mit KI umgehen und sich auf sie einstellen?

Kersten Lahl stellt sechs Thesen in den Raum, über die im Nachgang diskutiert werden soll. Zuerst vertritt der Generalleutnant a.D. das Argument, dass die Autonomie und Vernetzung von Waffen mittels Künstlicher Intelligenz die Kriegsführung revolutioniert haben. Kersten Lahl zeichnet die Entwicklung militärischer Revolutions-Schritte nach und beginnt bei der Nutzung von Schießpulver über die Telegrafie und Eisenbahn, bis hin zur Atombombe. Und nun steht die Revolution durch die Künstliche Intelligenz an. Bei der KI sprechen wir nicht mehr über eine Hardware von Waffen, sondern über  die Software, um die Vernetzung und Programmierung dieser Waffen, wodurch die Effizienz von Armeen gesteigert werden kann.

Wenn der Soldat geografisch von seiner Waffe getrennt ist, aber immer noch derjenige ist, der am Ende handeln muss und die Kontrolle über das Waffensystem hat, dann ist dies zwar noch keine „harte KI“, aber es ist immerhin der Einstieg in die Welt der Künstlichen Intelligenz.

Dann stellt Kersten Lahl die These auf, dass KI zum entscheidenden Faktor für den militärischen Erfolg in symmetrisch angelegten Konflikten zwischen Staaten wird. Die Seite, die auf KI setzt, bekommt ein klareres Lagebild, kann schneller entscheiden und sich auch selbst besser schützen. Nur wer auf KI setzt, kann auch in Zukunft mit militärischem Erfolg rechnen.

In seiner dritten These prognostiziert der Generalleutnant a.D., dass KI den Angreifer bevorteilt, Abschreckung neu definiert und einen Rüstungswettlauf und damit eine Kriegsgefahr verstärkt. Der Gegner kann überrumpelt werden und am Ende ist unter Umständen nicht mal sicher, wer angegriffen hat, da sich im Digitalen die Spuren gut verwischen lassen. Durch die KI könnte die Zweitschlagfähigkeit, die bisher immer ein Garant für weitestgehenden Frieden war, unterlaufen werden.

Die vierte These wird vor allem auch Ethiker und Rechtsphilosophen noch lange beschäftigen. Wenn Systeme eines Tages komplett autonom und selbstlernen handeln, dann hat der Mensch, der sie bedient, zwar auf dem Papier noch die Kontrolle und die Verantwortung, aber in der Praxis sieht das ganz anders aus – vor allem, wenn man die Systeme letal gegen Menschen einsetzt. Bisher versichert auch die deutsche Bundesregierung, dass am Ende immer ein Mensch die Entscheidung treffen muss, ob und wie eine Waffe eingesetzt wird. Aber wie realistisch ist es zu glauben, dass ein Mensch in einer Situation, in der er unter hohem Druck steht, sich noch rational und bewusst für die eine oder andere Möglichkeit entscheidet?

An dieser Stelle spricht sich Kersten Lahl für internationale Vereinbarungen aus, die den Umgang von KI-Waffen verbindlich regeln sollen.

Daran schließt sich gleich der nächste Punkt an. KI-Waffen sind für die internationale Rüstungskontrolle und Verifikation eine kaum überwindbare Hürde. Die Künstliche Intelligenz befördert das Sicherheitsdilemma. Auch wenn alle Seiten nur daran interessiert sind, sich defensiv zu schützen, rüsten sie auf und somit ist man wieder mitten im Rüstungswettlauf. Im Rahmen internationaler Verträge muss überprüft werden können, ob sich alle an die Vereinbarungen halten. Aber dies ist unter anderem durch den dual-use-Charakter der KI nur schwer auszumachen. Es ist schwer bis unmöglich, die KI-Fähigkeiten der anderen Seite verlässlich aufzuklären, um so gegenseitig Vertrauen aufzubauen.

Zusammenfassend erklärt Generalleutnant a.D. Lahl, dass durch die KI eine neue internationale Sicherheitskultur erzwungen wird. Mit der Künstlichen Intelligenz ist abermals die „Büchse der Pandora“ geöffnet worden. Jedoch kann man sich dem technologischen Wandel nicht verschließen, denn um weiterhin mitgestalten zu können, muss man potentiellen Gegnern auf Augenhöhe begegnen können.

Nun blickt die Junge GSP auf das Thema KI. Jessica Nies nennt die Beispiele Rüstungskontrolle und illegaler Waffenhandel, bei denen KI hilfreich eingesetzt werden kann. Der Handel wird immer globaler und in unseren Häfen treffen täglich Container aus der ganzen Welt ein. Mittels Röntgen-Apparaten können diese Container auf illegale Waffen hin untersucht werden.

Stephan Klaus von der Jungen GSP verweist darauf, dass es Bestrebungen gibt, ethische Leitlinien für KI zu entwickeln. Jedoch fehlt es aktuell noch an einer Zusammenarbeit von Politik und der netzpolitischen Gemeinde. KI wird für und mit den Menschen gestaltet.

Lorenz Lehmhaus von der Jungen GSP lädt die Zivilgesellschaft nochmals mit Nachdruck dazu ein, ins Gespräch zu kommen, um neue Konzepte für den Umgang mit der KI zu entwickeln.

Prof. Varwick eröffnet nun das Podium und stellt die vier Diskutanten des heutigen Abends vor. Den Anfang macht Prof. Dr. Robin Geiss, er ist Professor für Völkerrecht und lehrt aktuell an der Universität in Glasgow. Den Blick der Wirtschaft und der Industrie auf das Thema KI bringt Dr. Martin Glas in die Debatte ein. Er leitet seit 2017 das Departement Predictive Modeling and Decision Support bei der IABG in Ottobrunn. Für das Bundesministerium der Verteidigung steht Generalleutnant Michael Vetter zur Verfügung. Seit 2019 ist er Abteilungsleiter Cyber- und Informationstechnik und Vorsitzender des Digitalrates des BMVg. Und auch Kersten Lahl diskutiert mit.

Zu Beginn haben die Diskutanten die Möglichkeit, ihre Sicht auf das Thema darzustellen und Aspekte, die ihnen beim Thema KI in der Sicherheits- und Verteidigungspolitik wichtig sind, zu unterstreichen.

Robin Geiss beschreibt die KI als Allzweck-Technologie. Ihm ist besonders wichtig zu erwähnen, dass beim Thema digitale Sicherheitspolitik immer auch Menschenrechte Beachtung finden müssen. Bislang konnte sich die internationale Gemeinschaft nicht dazu durchringen, autonome Waffensysteme zu ächten. Keine Seite möchte sich in seinen militärischen Möglichkeiten freiwillig beschränken und aus ethischer Sicht ist kritisch zu beurteilen, wenn Menschen nicht mehr die endgültige Kontrolle in der Hand haben. Es muss ein internationaler Verhaltenskodex für den Umgang mit der Künstlichen Intelligenz installiert werden. Aber auch innenpolitisch wird der Umgang mit KI in der Sicherheitspolitik noch Debatten auslösen.

Martin Glas greift nochmal den Bereich „Lagebild“ auf, in dem KI nützlich eingesetzt werden kann. Er gibt Einblicke in seine Arbeit und erklärt, welche Möglichkeiten des Einsatzes von KI es heute gibt und wo die Vorteile liegen. Glas kritisiert, dass sich bisher zu wenig mit der Technologie auseinandergesetzt wird und sieht deshalb die Gefahren und Risiken noch zu niedrig angesetzt.

Michael Vetter spricht davon, dass die militärische Verheißung von KI schon groß ist. Aber in der KI-Strategie der Bundesregierung kommen militärische Aspekte nicht vor, sondern sie richtet sich vor allem auf die Wirtschaft. Täglich gibt es großangelegte Cyber-Angriffe, auch auf Kritische Infrastruktur, begleitet von Desinformationskampagnen. Heute sind wir im Kampf der Narrative und das kommt im politischen Diskurs noch viel zu kurz. Ein großes Problem sieht Michael Vetter auch im Bereich der Zuständigkeiten und befürchtet, dass die Klärung von Zuständigkeiten im Falle eines Angriffs viel zu viel Zeit beanspruchen wird, bevor man zu einer koordinierten Aktion gelangt. Wenn ein Angreifer hypersonische Waffen nutzt, hat man als Verteidiger gar keine andere Möglichkeit, als auf autonome Systeme zurückzugreifen. Informationsüberlegenheit ist die Voraussetzungen für Führungsüberlegenheit und mit dieser hat man dann Wirkungsüberlegenheit. Aktuell nutzt das BMVg lediglich „weiche“ KI in der Nachrichtengewinnung und Krisenfrüherkennung – in Zusammenarbeit mit dem Auswärtigen Amt. Der Geoinformationsdienst ist größter Big Data-Anbinder der Bundeswehr – und diese Informationen sind von enormer Wichtigkeit für die Streitkräfte, wenn es zum Beispiel um Evakuierungsaktionen in bisher wenig aufgeklärtem Gebiet geht. Jetzt, wo wir noch einige Jahre von starker KI entfernt sind, müssen wir über diese Technologie reden und auch schauen, wie wir diese eingehen können.

Robin Geiss ist der Meinung, dass man robotische Systeme konservativere und strengere Regel einprogrammieren kann, als man die für Soldatinnen und Soldaten vorsieht, damit man das autonome Handeln der KI beschränkt. Dazu kann auch beitragen, dass man die Einsatzszenarien, in denen KI zur Anwendung kommt, sehr restriktiv gestaltet und dafür sorgt, dass überhaupt keine zivilen Opfer entstehen. Kein Problem hat Geiss hingegen damit, wenn autonome Waffen submarin für den Kampf gegen andere unbemannte Plattformen eingesetzt werden. Ethische Bedenken entstehen dann, wenn Personen von den Handlungen der autonomen Systeme betroffen sind. Für die Staaten, die ihre Waffensysteme bisher selbstständig gehandhabt haben, wird es gewöhnungsbedürftig sein, Firmen wie Apple, Microsoft und Co. einzubinden, aber Geiss hält das für richtig.

Michael Vetter beschreibt, dass die Bundeswehr breit aufgestellt und in allen militärischen Bereichen einsatzbereit sein muss. Die KI bietet die Möglichkeit, in einigen Bereichen auch personalsparender arbeiten zu können. Es gibt kein Szenario im Fähigkeitsspektrum der Bundeswehr, für das KI nicht relevant ist. Was aktuell in Deutschland verstanden wurde ist, dass auch unter einem US-Präsident Biden ein größeres militärisches Engagement auch von Deutschland gefordert werden wird. Auch Mitglieder der EU haben in diesem Bereich Erwartungen an Deutschland und um glaubwürdig zu sein, muss Deutschland die gesamte militärische Breite abdecken können.

Martin Glas wirft in die Diskussion ein, dass ethische Aspekte auch schon im Stadium der Entwicklung eine wichtige Rolle spielen sollten. Man sollte nicht erst über ethische Entscheidungen sprechen, wenn das System im Einsatz ist. Entwickler müssen sich fragen, ob es überhaupt ethisch vertretbar ist, ein autonomes System, das potentiell auch für den Menschen gefährliche Optionen wählen kann, einzusetzen.

Michael Vetter erklärt mit Hinblick auf die NATO, dass unter anderem auch Deutschland bereit ist, dem Bündnis „souveräne nationale Cyber-Effekte“ zur Verfügung zu stellen. Da geht es darum, dass ein NATO-Kommandeur eines anderen Landes darum bitte, dass ein Partner eine Luftverteidigung zeitweilig ausschaltet und wenn Deutschland sich das zutraut, dann können deutsche Mittel dafür eingesetzt werden.

Robin Geiss bemüht das Bild der ISS um zu zeigen, dass wir auch im Bereich der KI vertrauensbildende Maßnahmen brauchen, um Künstliche Intelligenz international regeln und einhegen zu können. Auch war Geiss nochmal wichtig zu betonen, dass Informationsräume manipuliert werden und somit Einfluss auf ganze Gesellschaften genommen werden kann. Man muss zu einem neuen Denken kommen und dieses überschreiben mit dem Titel „Gesellschaften schützen“ um die Gesellschaft als Ganzes im Blick zu haben und nicht nur auf rein klassische militärische Aspekte zu schauen.

In der Abschlussrund soll jeder der Diskutanten nochmal zusammenfassend Punkte nennen, die seiner Ansicht nach in den kommenden Jahren in der Diskussion über KI in der deutschen Sicherheitspolitik eine Rolle spielen sollten.

Kersten Lahl wirbt dafür, dass Deutschland bei der KI im militärischen Bereich gemeinsam mit Frankreich vorne mit dabei sein sollte. Und auf dieser Grundlage sollte sich Deutschland international dafür einsetzen, dass man diese Technologie gemeinsam beherrschen können sollte.

Martin Glas wünscht sich, dass es eine Organisation, vergleichbar mit der Open AI gibt, in der industriefinanziert an Künstlicher Intelligenz geforscht wird. Die Industrie wünscht sich weiterhin, dass es ein Forschungsinstitut für die Sicherheits- und Verteidigungspolitik in Deutschland geben soll – ähnlich der DARPA des US-Verteidigungsministeriums.

Robin Geiss plädiert dafür, dass sich die deutsche Bundesregierung weiterhin dafür einsetzt, letale Gewaltanwendungen bei kritischen Entscheidungen rechtsverbindlich zu ächten. In diesem Punkt müssen die EU-Staaten mit einer Stimme sprechen.

Michael Vetter verlangt, dass in Deutschland noch mehr auf die Chancen der KI geblickt wird, und man sollte die außen-, sicherheits- und militärpolitische Dimension von KI sehen, was sich auch in der KI-Strategie der Bundesregierung niederschlagen muss und die Zivilgesellschaft muss eingebunden werden.

Zum Schluss fasst Richard Roßmanith, auch Vizepräsident der GSP, die Diskussion nochmal zusammen und bringt einige Gedanken zum Ausdruck. Roßmanith betont, dass der Mensch Daten und Empfehlungen der KI für seine Entscheidungen nutzt, aber am Ende gar nicht ausreichend versteht, wie die KI zu ihrer Beurteilung kommt, man muss die Technik besser verstehen lernen.  Dann dankt er dem Panel und dem Moderator Prof. Varwick und verweist auf den zweiten Teil des 5. GSP-Sicherheitsdialogs.

Letzte News