„JEDE ZEIT HAT IHRE AUFGABE,
UND DURCH DIE LÖSUNG DERSELBEN RÜCKT DIE MENSCHHEIT WEITER.“
HEINRICH HEINE

Sie sind hier:StartseiteTERMINE / veranstaltungen-detailansicht
Mo 02. Aug 2021

WELCHEN EINFLUSS HABEN KI-TECHNOLOGIEN AUF DIE DEUTSCHE SICHERHEITSPOLITIK (FOTOGALERIE)

Die im Heinrich-Heine-Saal des Steigenberger Parkhotels zahlreich erschienenen Heine-Freundinnen, Heine-Freunde und Gäste wurden von HF Dr. Andreas Turnsek herzlich zum zweiten Jour fix 2021 begrüßt. Thema des Abends war der mit Spannung erwartete Vortrag von HF Caro Kirchhoff zu einem brisanten, aktuell heftig diskutierten  Aspekt der deutschen Sicherheitspolitik, Einsatz von bewaffneten Drohnen angesichts der Problematik autonomer Waffensysteme als Herren über Leben und Tod sowie der damit einhergehenden Gefahr eines Hackerangriffs auf dieses Waffensystem, der verheerende Folgen zeitigen könnte. Zuvor machte Dr. Turnsek noch auf die kommenden Veranstaltungen aufmerksam. Mit der Bitte an Caro Kirchhoff um ihren Vortrag äußerte er zum Begriff der Intelligenz noch einen Wunsch von Heinrich Heine, dass sie die Intoleranz aus den Herzen vertreiben möge, um selbst darin einzuziehen.

 

Präludium: Benötigt die Bundesrepublik Deutschland zur Wahrung ihrer militätischen Sicherheit bewaffnete Drohnen? Bundeswehr-Generalinspekteur Eberhard Zorn fordert die zügige Anschaffung von Kampfdrohnen. "Der militärische Bedarf für eine bewaffnete Drohne ist aus meiner Sicht unverändert gegeben. Und zwar nicht irgendwann, sondern in den Auslandseinsätzen, die wir heute erleben." "Sonst zwinge ich unsere Truppe in Deckung und verdamme sie damit zur Untätigkeit, anstatt ihr aktives Handeln zu ermöglichen." (Welt am Sonntag, 3. Januar 2021). Laut Koalititionsvertrag der Bundesregierung bedarf es einer völkerrechtlichen, verfassungsrechtlichen und ethischen Würdigung, bevor eine Entscheidung über die Beschaffung bewaffneter Drohnen für die Bundeswehr getroffen wird. Das BMVg hat dem Bundestag im Sommer 2020 einen Bericht zu dieser breit geführten gesellschaftlichen Debatte über die rechtlichen, politischen und  ethischen Dimensionen vorgelegt. Bislang sind Initiativen des BMVg zur Beschaffung bewaffneter Drohnen an der parlamentarischen Mehrheit gescheitert. Insofern setzt die Bundeswehr nach wie vor nur unbewaffnete Drohnen für die Bodenaufklärung zum Schutz des Militärs und des Materials ein. Neben anderen Fabrikaten ist seit 2009 die von Israel geleaste Heron 1 in einer Stückzahl von 3 Drohnen im Einsatz. Solche unbemannten Systeme stehen bereits für einen Großteil der Bundeswehr-Streitkräfte zur Verfügung. Aufklärungsdrohnen exisieren mittlerweile schon in Insektengröße, um so unerkannt Informationen einzuholen. Nun wird die Forschung und Entwicklung Künstlicher Intelligenz (KI) Einzug in sämtliche Bereiche der Gesellschaft haben. Die deutsche Sicherheitspolitik ist davon nicht ausgenommen.

 

Was sind bewaffnete Drohnen? In der Vergangenheit hat sich die Bundesregierung mehrfach mit der Anwendung von autonomen Waffensystemen, besonders mit dem Einsatz von Drohnen, auseinandergesetzt. In den Koalitionsverträgen von 2013 und 2017 lehnt sie die Verwendung ausschließlich autonom agierender und bewaffneter Systeme ab. Eine eindeutige Definition des Begriffs "autonomer Waffensysteme" liegt global nicht vor. Größtenteils werden sie unter dem Begriff "Waffensysteme" verstanden, die ohne eine menschliche Entscheidung gezielt feindliche Objekte töten. Diese sogenannten Lethal Autonomous Weapon Systems, kurz LAWS, werden bereits von China, Israel, Russland und den USA verwendet. In Deutschland fehlt eine präzise Definition. Der technologische Fortschritt und die Entwicklung autonomer Waffensysteme führt dazu, dass die atomare Pattsituation aufgelöst wurde. Mit den neuen Technologien gehen neue Machtverhältnisse einher. Der Kriegsschauplatz an sich hat sich digitalisiert. Das heißt, Automatisierung verändert nicht nur die Art der Kriegsführung, sondern auch das Verhältnis von Mensch zu Maschine im bewaffneten Konflikt. Somit entsteht eine Autonomisierung der Kriegsführung. Die klassischen Drohnenmächte sind Großbritannien, Israel, Russland und die USA. Mittlerweile besitzen aber auch nicht staatliche Akteure, zum Beispiel die Hamas, autonome Waffensysteme. Diese Systeme entscheiden auf Grundlage von Algorithmen über die Tötung einer Zielperson. Dabei ist es wichtig, Kombattanten und Zivilisten auseinanderzuhalten. Dies muss technisch gewährleistet sein. Solange dies nicht technisch realisierbar ist, dürfen autonome Waffensysteme nicht eingesetzt werden.

 

Ein Paradigmenwechsel innerhalb der Kriegsführung findet aktuell statt. Dabei markieren autonome Waffensysteme keine neue Kategorie von Waffen, da man durch die Verwendung KI-gestützter Systeme lediglich bestehende Systeme nachrüstet. Das Neue an der Auseinandersetzung mit autonomen Waffen ist das völkerrechtliche Anwendungsszenario. Künftig wird man Waffensystemen nicht mehr ansehen, in welchem technologischen Zustand sie sich befinden und wie weit ihre Autonomie reicht. Die echte Herausforderung liegt darin, die mitiltärisch-praktische Nutzung in Systemen zu erkennen, die bisher nicht autonom gehandelt haben. Dies könnte in der Zukunft womöglich ein vollautonom geführtes Gefecht von KI-basierten Systemen gegenüber Panzern, Schiffen, Flugzeugen oder Infanterie zur Folge haben. Anders als bei der autonomen Abwehr von unbelebten Objekten (wie zum Beispiel Munition), ist die Autonomie von Waffen die Gefahr, die es rechtzeitig zu analysieren gilt. Bisher ist die Waffenautonomie in Deutschland nur vereinzelt in Systemen wie beispielweise im Flugabwehrbereich (wie bei Patriot) zu finden. Werden autonome Waffensysteme gegenüber belebter Ziele oder direkt gegen Menschen eingesetzt, wirft das zahlreiche Probleme auf. Das Staatenrecht weist hier eine Verantwortungslücke auf, da es die Würde des Menschen verletzt, Entscheidungen über Leben und Tod an KI in Form von Algorithmen abzugeben.

 

Das führt zu den beiden Hauptaspekten der Diskussion: es entsteht mehr Autonomie und zunehmende Bewaffnung. Welche Parameter müssen jetzt in Deutschland umgesetzt werden, um einen Anstieg von zivilen Opfern zu vermeiden? Der Handlungsbedarf hinsichtlich autonomer Waffensysteme ist offensichtlich. Deutschland engagiert sich im UN-Waffenübereinkommen, der Convention on prohibitions or restrictions on the use of certain conventional weapons which may be deemed to be excessively injurious or to have indiscriminate effects, die Convention on Certain Conventional Weapons (CCW). Bislang hat sich Deutschland nicht den Verbotsbefürwortern angeschlossen.

 

Neben den mit der Einführung von autonomen Waffensystemen verbundenen Bedenken und Gefahren besteht zudem bei bewaffneten Drohnen ein enormes, nicht zu unterschätzendes Risikopotential durch mögliche Cyberattacken. Hacker kapern bereits längst nach Lust und Laune erfolgreich über WLAN Hobbydrohnen. IT-Spezialisten der Universität von Texas übernahmen 2012 mit Billigung der Behörden mit gefälschtem GPS-Signal die Steuerung einer Drohne im Wert von 80.000 US-Dollar. Peanuts! Aber wo sind dem Grenzen gesetzt? Mit den rasant wachsenden Möglichkeiten der Hacker, extrem lernfähige KI einzusetzten, schaffen sie es nahezu spielend, unbemerkt in die digitalen Hochsicherheitstrakte von Unternehmen, Behörden und Ministerien einzudringen. Stets finden sie Schwachstellen und Schlupflöcher für Erpressung, Spionage oder auch Sabotageaktionen. Ein schier unlösbares Problem dabei ist, dass professionelle Hacker bei Advanced Persistant Threads nicht direkt ermittelt werden können, weil sie alle digitalen Spuren verwischen, sodass die Möglichkeiten einer Rückverfolgung zwecks Identifizierung nicht mehr gegeben sind. Aufwendige Nachforschungen im sogenannten Attributionsprozess, das besagte "Waldo was viewable"-Syndrom, schaffen es technisch eventuell, den geographischen, kulturellen oder sprachlichen Hintergrund zu ermitteln. Doch die Urheber verbleiben in den Nebelwolken des digitalen Universums. Da die digitale Forensik nicht greift, können nur durch geheimdienstliche Aktivitäten eventuell politische Motive eines Cyberangriffs vermutet werden, die aber keine Beweiskraft haben.

 

Drohnen können theoretisch durch Hacker gehijackt werden, sobald sie eingeschaltet sind, am Boden und in der Luft, weil die Verbindung zum Drohnenpiloten unterbrochen ist. Welche Gefahren damit verbunden sind, bedarf es keines weiteren Szenarios. Ob das bislang schon bei Kampfdrohnen passiert ist, schweigt die militärische Geheimhaltung. Der zunehmende Einsatz bei Hackern von KI, also im aktuellen Prozess autonom lernende Systeme, die ihre Algorithmen blitzschnell modifizieren und optimieren, macht dieses Risiko deutlich. Auch für autonome Drohnen, die sich autark pilotieren. Cyberwar ist ein Wettkauf um die Zeit, um den minimalen, aber entscheidenden Vorsprung just in time zu gewinnen.

 

Der brillante Vortrag von HF Caro Kirchhoff wurde mit kräftigem Applaus bedacht, der zu einer regen, sehr lebkaft geführten Diskussion überleitete. In den Wortbeiträgen wurden die vorgetragenen Aspekte beleuchtet und thematisiert sowie das Für und Wider diskutiert. Zum Abschluss dankte Dr. Andreas Turnsek mit einem Buchpräsent der Referentin für ihren Beitrag zu einem brisanten Thema, das indes dringend in die öffentliche Debatte gehört.

 

Unterzeichner sei noch ein Nachtrag erlaubt, eine DPA-Meldung vom 2. August 2021. "Angreifer dürfen schnell dazu übergehen, ihre Schadsoftware automatisch von Algorithmen verändern zu lassen, damit sie nicht von Antivirenprogrammen erkannt wird", so Mikko Hyppönen, Forschungschef von F-Secure. "Dieser Ablauf kann sehr leicht durch maschinelles Lernen ersetzt werden." Dann können Hacker ihre Angriffe sogar alle 15 Sekunden modifizieren, um ihre Entdeckung zu erschweren. Die einzige Lösung wäre, die Systeme auf ähnliche Weise an diese Schlagzahl anzupassen. "Wir hätten sofort ein Wettrüsten zwischen künstlichen Intelligenzen auf der bösen und auf der guten Seite." Zugleich warnte Hypönnen, dass selbstlernende Systeme mittlerweile so komplex und intransparent würden, dass ihre Funktionsweise kaum noch nachzuvollziehen ist. "Es ist kein gutes Gefühl, Systeme aufzubauen, die man selbst nicht versteht." Aber genau das wird passieren, je mehr künstliche Intelligenz, auch im Kampf gegen Cyberattacken, eingesetzt wird.

 

(hb)

 

 

HHK01.jpg

totop