„An blutlose Kriege glaube ich nicht“: Verteidigungsexpertin Dr. Ulrike Franke über Killerroboter

Tief im Inneren des militärisch-industriellen Komplexes wird eine neue Art Soldat entwickelt: KI-gesteuerte Maschinen verändern das Gesicht der Kriegsführung. Der Dokumentarfilm Unbekannt: Killerroboter folgt militärischen und wissenschaftlichen Teams, die an der Entwicklung dieser Technologien arbeiten, und den Aktivist*innen, die ihr gefährliches Potenzial aufdecken wollen.

Im Interview mit Netflixwoche erklärt Verteidigungsexpertin Dr. Ulrike Franke die mangelnde Luftabwehr Deutschlands, erzählt von dem neuen Rüstungswettlauf, von Granaten unter Quadcoptern und beantwortet die Frage, ob wir Angst vor Drohnen und künstlicher Intelligenz haben sollten.

Netflixwoche: In der Doku sagt Bob Work, der ehemalige US Deputy Secretary of Defence: „Wir handeln lieber mit Maschinen als mit Menschenleben.“ Macht der technische Fortschritt Kriege wirklich weniger tödlich?

Dr. Ulrike Franke: An blutlose Kriege glaube ich nicht. Diese Idee, die Roboter machen das untereinander aus und am Ende wissen wir, wer gewonnen hat – das wird so nicht funktionieren. Roboter, hier meine ich Maschinen im weitesten Sinne, werden eine große Rolle spielen. Aber das kommt obendrauf, also zusätzlich zu anderen Systemen und eben auch Menschen, die an Kriegen beteiligt sind.

Es mag sein, dass der nächste Krieg mit Satelliten, Drohnen und Cyberangriffen anfängt. Aber danach werden eben doch immer noch Menschen beschossen. Ich sage immer plakativ: In jedem Krieg, den wir führen, stirbt am Ende irgendwo ein 18-Jähriger im Schlamm.

Ich kenne Drohnen vor allem als winzige Hubschrauber, die GoPros durch die Gegend schwirren lassen. Darf ich mir Drohnen im Militär genauso vorstellen?

Franke: Vor fünf bis zehn Jahren wäre die Einleitung noch gewesen: Drohnen, das sind doch diese unbemannten, bewaffneten Kampfjets, die über Pakistan und Afghanistan fliegen. Das hat sich mit dem Aufstieg der zivilen Drohnensysteme komplett gewandelt. Und jetzt kommen diese neuen zivilen Drohnensysteme tatsächlich auch aufs Schlachtfeld.

Um die Frage direkt zu beantworten: Ja, die First View Quadrocopter werden auch im Krieg eingesetzt. Die eigentlichen militärischen Systeme sind in der Regel aber größer, häufig bewaffnet, haben einen anderen Härtungsgrad. Bei militärischen Systemen will man, dass sie stärker sind, länger fliegen und gegen elektronische Störmaßnahmen ausgestattet sind.

Wie werden Drohnen denn bewaffnet?

Franke: Drohnen sind letztendlich Taxi-Systeme. Das heißt: Sie tragen, was man ihnen unter die Flügel schnallt oder in den Rumpf gibt. Bei bewaffneten militärischen Systemen sind das in der Regel kleine bis mittelgroße Raketen, zum Beispiel die „Hellfire Missile“. Das sind Raketen mit relativ wenig Sprengstoff, nur ein paar Kilo. Selten geht das auch hoch bis zu 500 Kilogramm schweren Bomben. Aber größere Militär-Drohnen sind auch nur bessere Segelflieger, die leicht bleiben müssen, damit sie möglichst lange fliegen. Da will man keine riesigen Bomben drunter schnallen.

In der Ukraine werden gerade auch kleinere, improvisierte Systeme eingesetzt, zum Beispiel Quadrocopter mit darunter geschnallten Handgranaten. Auch außerhalb der Ukraine wird viel experimentiert, da haben wir Drohen mit Maschinengewehren gesehen, oder mit Flammenwerfern.

Wie gut sind wir in Deutschland gegen Drohnenangriffe geschützt?

Franke: Schlecht – wir sind gegen die meisten Luftangriffe schlecht geschützt. Das liegt zum einen daran, dass wir in Deutschland die Verteidigung generell – und Territorialverteidigung im Speziellen – viele Jahre vernachlässigt haben. Die Problematik der fehlenden Flugabwehr ist allerdings inzwischen in der Bundeswehr, im Verteidigungsministerium und im Kanzleramt aufgefallen. Deswegen investieren wir mit anderen Ländern gerade in bessere Schutzschilde, für den European Sky Shield, eine Verteidigungsinitiative von inzwischen 19 europäischen Ländern. Der andere Grund, warum wir schlecht geschützt sind, liegt aber auch daran, dass der Schutz gegen Drohnen ein bisschen an die Quadratur des Kreises erinnert.

Inwiefern?

Man braucht das richtige System, am richtigen Ort, zum richtigen Moment und das möglichst preiswert. Und großflächig ist das eigentlich gar nicht möglich. Also wir werden nicht das ganze Bundesgebiet schützen, sondern nur einzelne Orte. Zum Teil wird das auch schon gemacht mit kleineren Drohnenabwehrsystemen für wirklich spezielle Orte, Gefängnisse zum Beispiel, oder sagen wir, das Bundeskanzleramt. Aber hundertprozentigen Schutz überall würden wir nie schaffen, egal wie viel Geld wir dort reinpumpen.

Wir haben in den letzten Monaten viel über künstliche Intelligenz (KI) gehört. Dabei bekamen wir mit, dass ChatGPT schlechte Gedichte schrieb und Midjourney gerne Hände mit sieben Fingern malte. Mittlerweile geht das schon viel besser, der Fortschritt ist schnell. Ich frage mich aber: Wie wird aus so einer künstlichen Intelligenz eine Waffe?

Franke: Aus so einer künstlichen Intelligenz wird meistens gar keine Waffe. Aber die Entwicklungen gehen ja parallel. Wobei nicht alle Erkenntnisse aus ziviler KI ins Militärische übertragen werden können. Zum Beispiel sind die Erkenntnisse aus der Entwicklung eines autonomen Autos hilfreich, wenn man einen autonomen Panzer programmieren will. Aber wenn man den Algorithmus einfach auf den Panzer überspielt, dann hält der an jedem Stoppschild und weigert sich, über den Bordstein zu fahren.

Zivile und militärische Forschung sind heute also nicht mehr so nah beieinander wie früher?

Sie sind eigentlich näher aneinander, aber man darf nicht denken, dass zivile KI direkt ins Militärische übertragen werden kann. Früher wurden Hochtechnologien in staatlichen, oft auch militärisch finanzierten Instituten entwickelt. Beim GPS und dem Internet hing zum Beispiel immer auch das amerikanische Militär mit drin. Dem ist jetzt nicht mehr so; die High-End-Technologieentwicklung vollzieht sich heute im zivilen Bereich – gerade im Bereich KI, mit Unternehmen wie DeepMind, OpenAI und Tencent. Das ist ein Problem für die Militärs, weil sie jetzt mit zivilen Unternehmen zusammenarbeiten müssen. Der Link zwischen ziviler und militärischer KI wird also in den nächsten Jahren ein großes Thema sein.

In der Doku haben einige Expert*innen Angst vor den Entwicklungen ausgedrückt. Haben Sie Angst vor Drohnen?

Franke: Vor Drohnen habe ich keine spezifische Angst. Natürlich hat man aus gutem Grund Angst vor Krieg und militärischen Geräten, die im Krieg eingesetzt werden. Aber ich sehe keinen Grund, sich besondere Sorgen um Drohnen zu machen.

Und bei Künstlicher Intelligenz?

Bei KI ist das anders, da habe ich Angst – aber nicht primär vor dem militärischen Einsatz. Eine KI muss nicht bewaffnet sein, um absolut katastrophale Auswirkungen zu haben. Auch der Film zeigt, wie KI extrem gefährlich eingesetzt werden kann, ohne etwas mit Waffen und Militär zu tun zu haben. Da war das bekannte Beispiel der Toxine und Gefahrenstoffe, die von KI entwickelt wurden. Das ist das eine, wovor ich Angst habe: Die Fähigkeiten von KI in falschen Händen, für falsche Zwecke. Als fahrlässig empfinde ich außerdem den Wettlauf zwischen verschiedenen Unternehmen, die dadurch Programme auf den Markt bringen, ohne dass diese ausgereift sind. Aber auch KI-unterstützte Überwachungstechnologie macht mir Angst. Und nicht zuletzt sehen wir ja bereits jetzt soziale Folgen des zunehmenden Einsatzes von KI, von diskriminierender KI zu Berufen, die wegen KI verloren gehen.

Und wie steht es im militärischen Bereich?

Dort gibt es zwei konkrete Elemente, die mir Angst machen: Das eine sind sogenannte Flash Wars und das andere ist ein Rüstungswettlauf.

Was ist ein Flash War?

Ein Flash War beschreibt die potenzielle Situation, dass autonome Waffensysteme verschiedener Parteien ungewollt aufeinander reagieren und einen Krieg auslösen, den eigentlich keiner wollte. Die Gefahren von Rüstungswettläufen sind uns hingegen schon bekannt. Wir wissen aus der Geschichte, dass diese ruinös und destabilisierend sind. Autonome Systeme beschleunigen die Kriegsführung so sehr, dass in vielen Fällen wohl nur eigene autonome Systeme gegen sie verteidigen können – das ist das Rezept für den nächsten Rüstungswettlauf. Ein drittes gefährliches Element könnte die Destabilisierung des nuklearen Gleichgewichts werden.

Jetzt machen Sie mir wirklich Sorgen. Welchen Einfluss hat KI auf das nukleare Gleichgewicht?

Es könnte dazu kommen, dass der Einsatz von KI und besserer Sensorik U-Boote in den Weltmeeren leichter auffindbar macht. Das würde auch bedeuten, dass die U-Boote der Länder gefunden werden, die ihre Zweitschlagfähigkeit auf Nuklear-U-Booten haben. Das wiederum untergräbt – wenn nicht zerstört – die nukleare Architektur, auf der unsere Sicherheit aktuell nun mal aufbaut. Ich will damit sagen: Künstliche Intelligenz ist so grundlegend, dass Dinge, die wir als gegeben sehen, dadurch zerstört werden könnten. Instabilität ist immer gefährlich – das macht mir Angst.

Wer regelt denn den Einsatz von Robotern oder KI im Krieg?

Franke: Kurz gesagt gibt es bisher noch keinen rechtlichen Rahmen. Es gibt natürlich einige allgemeine Regeln im Krieg. Aber spezifische Regeln für den Einsatz von Robotik, Künstlicher Intelligenz und autonomen Systemen im Krieg gibt es nicht.

Wer würde solche Regeln aufstellen?

Franke: Der Idealfall wäre ein internationaler völkerrechtlicher Vertrag. Da kann die UN eine große Rolle spielen. Seit 2013/2014 wird in der Convention of Certain Conventional Weapon Systems, einer Institution innerhalb der UN, darüber diskutiert, ob man tödliche autonome Waffensysteme regulieren sollte. Aber die Debatte steckt fest und ich vermute, dass da wenig rauskommt.

Was wäre die Alternative?

Franke: Danach gibt es die Möglichkeit, dass kleinere Gruppierungen das machen, also zum Beispiel die NATO oder auch einzelne Staaten. Wir haben zum Beispiel in letzter Zeit viel über Streumunition gehört, denn dagegen gibt es einen völkerrechtlichen Vertrag zwischen mehr als 100 Ländern.

Zuletzt können Länder und Militärs sich selbst Regeln geben. Auch das wird schon gemacht. So haben  viele Länder schon damit begonnen, über Regeln der Nutzung von künstlicher Intelligenz im militärischen Kontext nachzudenken. Aber es muss hier noch viel mehr gemacht werden.

Dr. Ulrike Franke

Dr. Ulrike Franke ist Senior Policy Fellow beim European Council on Foreign Relations (ECFR). Sie promovierte an der Universität Oxford in Internationale Beziehungen. Zu ihren Schwerpunkten gehören die deutsche und europäische Sicherheit, die Zukunft der Kriegsführung und die Auswirkungen neuer Technologien wie Drohnen und Künstlicher Intelligenz auf Krieg und Geopolitik.

Zu diesen Themen veröffentlichte Franke eigene Bücher, sowie Texte in (u. a.) Die Zeit, FAZ, RUSI Whitehall Papers und tritt regelmäßig als Kommentatorin in den Medien auf. Sie hostet mit drei weiteren Experten außerdem den Podcast Sicherheitshalber zur sicherheitspolitischen Lage von Deutschland, Europa und der Welt.

Netflixwoche Redaktion

Drücke ESC, um die Suche zu schließen.