Bericht über den 2. Teil des 5. GSP-Sicherheitsdialogs

Bericht über den 2. Teil des 5. GSP-Sicherheitsdialogs

Video-Mitschnitt des 2. Teils des 5. GSP-Sicherheitsdialogs
 

Bericht den 5. GSP-Sicherheitsdialog – Künstliche Intelligenz und deutsche Sicherheitspolitik – Teil 2

von Daniel Reißmann

Im zweiten Teil des 5. GSP-Sicherheitsdialogs wird auf die politische Seite des Einsatzes von Künstlicher Intelligenz in der Sicherheitspolitik geschaut.

Gleich zu Beginn spricht Ulrike Demmer, die stellvertretende Sprecherin der Bundesregierung, mit dem Moderator Prof. Dr. Johannes Varwick darüber, welchen Stellenwert Sicherheitspolitik generell in der deutschen Politik hat. Demmer sieht die Sicherheitspolitik ausreichend beachtet und freut sich darüber, dass das Interesse in der Bevölkerung an Sicherheitspolitik sehr groß ist. Vor zehn oder 15 Jahren sei dies noch nicht so gewesen.

Künstliche Intelligenz wird für das künftige Leben eine zentrale Rolle spielen, da ist sich Ulrike Demmer sicher. Die Bundesregierung hat 2018 eine KI-Strategie auf den Weg gebracht und Deutschland soll im Bereich Künstliche Intelligenz zu einem Vorreiter werden.

Mit Hinblick auf den Bereich Sicherheitspolitik ist KI ein kontroverses Thema. Die Gesellschaft muss darüber sprechen, wie und in welcher Form KI auch für offensive militärische Operationen genutzt werden kann, merkt Demmer an.

Nun fasst Generalleutnant Kersten Lahl, der Vizepräsident der Gesellschaft für Sicherheitspolitik, die Ergebnisse der Diskussion des ersten Teils des 5. GSP-Sicherheitsdialoges zusammen. Er stellt fest, dass es bei einigen Punkten zwischen allen Diskutanten großes Einvernehmen gab. Man war sich einig, dass der KI eine überragende Bedeutung für alle Lebensbereich zukommt. KI bedeutet sicherheitspolitisch große Chancen, aber auch große Risiken. Wenn eine „starke“ Künstliche Intelligenz einsatzfähig wird, dann wird man sich einer Reihe von Problemen und Fragen gegenüber sehen – vor allem, wenn es dann um den letalen Einsatz von autonomen Waffen gegen Menschen geht.

Kersten Lahl sieht, dass KI den Angreifer bevorteilt, da er den Gegner überrumpeln kann. Abschreckung bekommt in diesem Sinne eine völlig neue Bedeutung – sie wird an Gewicht verlieren.

Es wird zunehmend zur Illusion, dass am Ende der Mensch noch alle Fäden in der Hand hat und selbst entscheiden kann, wie, wann und wogegen Waffen eingesetzt werden.

Der Generalleutnant argumentiert, dass eine rechtliche Einhegung der KI scheitern wird, da sich niemand in diesem Bereich einschränken und somit benachteiligen lassen will.

Die Welt sollte zu einem neuen Verständnis von Sicherheitspolitik gelangen – leichter gesagt als getan. Aber schon jetzt muss der KI mehr Aufmerksamkeit gewidmet werden.

Jetzt eröffnet Prof. Varwick das Podium und gleich zu Beginn weist er darauf hin, dass Dr. Hans-Peter Bartels, ehemaliger Wehrbeauftragter des Deutschen Bundestages, aus technischen Gründen nicht wie geplant mit dabei sein kann. An diesem Abend diskutieren die Bundestagabgeordneten Reinhard Brandl (CSU), Agnieszka Brugger (Bündnis90/Die Grünen) und Alexander Müller (FDP). Außerdem steht Kersten Lahl auch dieses Mal wieder mit seiner Expertise zur Verfügung.

Johannes Varwick stellt zu Beginn die Frage, wie die Diskutanten Chancen und Risiken der KI in der deutschen Sicherheitspolitik beurteilen.

Reinhard Brandl führt aus, dass im Bereich KI das Thema Risiken auch in der Öffentlichkeit überbetont wird und mit autonomen Waffensystemen gleichgesetzt wird. Zum Beispiel kann KI bei der Früherkennung von Krisen oder auch bei der Erstellung von Lagebildern gewinnbringend eingesetzt werden. Die Bundeswehr darf diesen Zug nicht verpassen und es muss genügend kompetentes Personal vorhanden sein.

Agnieszka Brugger plädiert dafür, dass man nicht auf die Chancen blicken kann, ohne die Risiken im Blick zu haben. Der Menschen darf sich nicht zurücklehnen und den Programmen blind vertrauen. Der Mensch muss sich bemühen, die Abläufe zu verstehen und dafür braucht es fähiges Personal. Man darf es sich in der Diskussion aber nicht zu einfach machen und immer nur auf den „Killerroboter“ abstellen. Agnieszka Brugger spricht sich dafür aus, dass die KI international rechtlich eingehegt werden muss.

Auch Alexander Müller sieht Chancen und Risiken. Er skizziert, dass sich im Verteidigungsausschuss alle einig sind, dass autonome letale Waffensysteme weltweit verboten werden sollen. Aber einige Länder wollen dies unterbinden. Eine Streitfrage ist jedoch, ob man über diese Waffensysteme forschen können sollte. Das ist aus Müllers Sicht und aus der Sicht der FDP unabdingbar, da man sich im Zweifelsfall verteidigen können muss. Müller widerspricht Kersten Lahl, dass der Angreifer mit KI im Vorteil wäre. Auch in der Verteidigung kann KI diesen Nachteil ausgleichen. Ein ethisches Problem sieht Müller darin, dass bei autonomen Waffen am Ende zwar ein Mensch den Befehl geben muss, aber im Zweifel führt er damit nur Empfehlungen des Systems aus und versteht nicht, was eigentlich vor sich geht.

Der Abgeordnete Brandl sieht die KI-Strategie der Bundesregierung kritisch, da die Bundeswehr und die Aufgabe der Verteidigung darin gar keine Rolle spielen.

Die Vertreterin der Grünen, Agnieszka Brugger spricht sich ganz klar dafür aus, dass Deutschland eine Selbstverpflichtung eingeht, in der man erklärt autonome letale Waffen nicht zu nutzen und auch nicht zu entwickeln. Man muss international versuchen, diese Technologie einzuhegen.

Alexander Müller sieht als Informatiker, dass es einen Zeitpunkt geben wird, zu diesem Maschinen bessere Entscheidungen treffen können als Menschen. Dann werden wir wieder vor ethischen Fragen stehen.

Der Vertreter der CSU, Reinhard Brandl gibt nochmal zu bedenken, dass man sich im Zweifelsfall wirksam verteidigen können muss. Man muss klar unterscheiden, ob der Mensch die Regeln festlegt und die KI dann „nur“ noch handelt, oder ob die KI die Regeln setzt und der Mensch nur noch in diesem Rahmen entscheiden kann. Auch Brandl spricht sich nochmals für eine weltweite Ächtung von autonomen Waffensystemen aus. Aber wenn sich andere Länder damit beschäftigen, muss sich auch Deutschland damit auseinandersetzen.

Alle drei Abgeordneten sind sich einig, dass die Leitung der Bundeswehr zu wenig Druck macht, dass Deutschland bei Künstlicher Intelligenz im sicherheitspolitischen Bereich nach vorne geht und technisch besser wird.

Agnieszka Brugger regt an, dass sowohl in der Gesellschaft als auch im Parlament mehr über autonome Waffen und den Einsatz von KI diskutiert werden muss.

Reinhard Brandl stellt klar, dass man bei Künstlicher Intelligenz immer den Reflex hat, gleich darauf zu verweisen, dass Deutschland keine letalen autonomen Waffen einsetzen will. Aber durch diesen Verweis kommt man in der Diskussion keinen Schritt weiter.

Die Abgeordneten sehen es kritisch, dass sich vor allem die USA und China einem Verbot bzw. einer Regulierung von autonomen Waffen sperren. Agnieszka Brugger vertritt den Standpunkt, dass man bei einer internationalen Vereinbarung lieber eine weichere Formulierung wählen sollte als zu hart zu sein, um möglichst viele Staaten mit einzubinden.

Kersten Lahl sieht es als unabdingbar, dass sich Deutschland im Bereich Künstlicher Intelligenz weiterhin einsetzen muss, denn wenn es sich ausklinkt, wird es jegliche Gestaltungsmacht in diesem Bereich verlieren. Zwar ist die Bundeswehr strategisch defensiv ausgerichtet, aber operativ sollte man zumindest die Möglichkeit haben, auch offensiv werden zu können.

Reinhard Brandl sieht denjenigen, der KI nutzt, im Vorteil. Sobald sich ein System in Regeln fassen lässt, kann KI einen Entscheidungsvorteil bringen. Aber die Frage ist, ob KI auch auf dem Kriegsfeld so wirkungsvoll eingesetzt werden kann.

Agnieszka Brugger erinnert nochmal daran, dass es bei Forschung immer darauf ankommt, zu welchem Zweck man forscht. Geht es um zivile oder um militärische Nutzung? Die zivile Entwicklung wird nicht spurlos an der Bundeswehr vorbeigehen.

Alexander Müller denkt, dass man sich den Entwicklungen nicht verschließen kann und wenn man angegriffen wird, muss man sich wirkungsvoll verteidigen können.

Aus der Sicht der Grünen muss man für die Bundeswehr Aufgaben und Fähigkeiten definieren und wenn man sich den aktuellen Haushalt anschaut, dann wird da auch viel Geld verschwendet, so Brugger. Sie gibt auch zu bedenken, wie man an geeignetes Personal kommen muss. Viele würde die Arbeit für Nachrichtendienste und Militär abschrecken. Aber diese fähigen Leute braucht Deutschland, so Brugger. Hier muss sich die Bundeswehr anders aufstellen.

Zum Abschluss sollen die Diskutanten noch zwei Punkte nenne, die die deutsche Sicherheitspolitik aus ihrer Sicht angehen sollte.

Alexander Müller möchte, dass sich Deutschland weiterhin für die weltweite Ächtung autonomer Waffensysteme einsetzt, aber gleichzeitig über sie forscht.

Auch Agnieszka Brugger spricht sich für eine Verrechtlichung von autonomen Waffen aus und hofft, dass KI zum Schutz von Zivilisten und Soldatinnen und Soldaten eingesetzt wird.

Reinhard Brandl appelliert an die Bundesregierung, dass künftig auch die Bundeswehr bei der Verteilung von finanziellen Mitteln für KI berücksichtigt wird. Außerdem soll jeder Inspekteur der Bundeswehr für seinen Bereich eine Liste mit zehn konkreten Anwendungsfällen für KI anfertigen, um der Regierung zu zeigen, in welchen Fällen Künstliche Intelligenz helfen kann.

Auch Kersten Lahl hat einen Appell an die Bundesregierung. Das, was in der KI-Strategie der Bundesregierung steht, endlich mit Leben gefüllt wird.

Prof. Varwick dankt den Diskutanten für angeregte Diskussion.

Zum Schluss ergreift Richard Roßmanith, Vizepräsident der GSP, nochmal das Wort und stellt fest, dass zur Bewältigung des Themas KI noch einiger Handlungsbedarf besteht. Die meisten Fragen, die sich in diesem Zusammenhang stellen, sind politische Entscheidungen. Hier muss eine neue Dynamik entstehen. Die Stärke von KI muss zum Gemeinwohl, zum Wohl aller beitragen. In Bezug auf die KI-Strategie der Bundesregierung mahnt Roßmanith kritisch an, dass Sicherheit und Verteidigung dort nur marginal vorkommen.

Vizepräsident Roßmanith dankt allen Beteiligten für das große Engagement, welches diesen 5. GSP-Sicherheitsdialog möglich gemacht hat.

 

 

Letzte News