- Roboter kämpfen gegen Roboter – so könnte man sich einen zukünftigen Krieg vorstellen, in dem keine Menschen zu Schaden kommen.
- Autonome Waffen sind schon heute in der Lage, selbständig Menschen zu töten, ohne dass Aussenstehende eingreifen. Könnten sie gar Kriege auslösen?
"Flash War" – das ist die neue Horrorvorstellung mancher Militärs. Der Begriff ist abgeleitet von einem Börsenphänomen: dem "Flash Crash". Im Mai 2017 etwa lösten sich an den Börsen innerhalb von wenigen Minuten Milliardenwerte in Luft auf. Eine der Ursachen: der ultraschnelle, von Computerprogrammen gesteuerte Wertpapierhandel.
Computergesteuerte Waffen führen zum Kontrollverlust
Niemand will, dass sich solche Phänomene auch auf militärischer Ebene wiederholen. Doch dass es zum "Flash War" kommen könnte, mag selbst ein Experte der Bundeswehr nicht ausschliessen. Wenn zwei computergesteuerte Waffensysteme gegeneinander antreten, befürchtet Dr. Frank Sauer von der Universität der Bundeswehr, drohe der "totale Kontrollverlust". Im Gespräch mit unserem Portal weist er besorgt darauf hin, dass die gegenwärtige Entwicklung in der Waffentechnik sekundenschnelle Entscheidungen erzwingen könnte, die menschliches Eingreifen unmöglich machen.
"Sensor to shooter gap" nennen Militärs den Zeitraum, der zwischen der Entdeckung einer feindlichen Position und der Reaktion darauf liegt. Dieser Zeitraum wird durch die Verwendung von autonomen Drohnen und anderen ohne menschliche Steuerung operierenden Waffen immer kürzer.
Was früher in einer langen Befehlskette abgewickelt wurde, die zum Beispiel von einem bombentragenden Kampfflugzeug über einen Satelliten und ein vor der Küste patrouillierendes Schiff bis zur Kommandozentrale auf dem Festland reichte, kann eine entsprechend ausgerüstete Drohne heute alles selbst erledigen. Den üblichen Handlungsablauf fassen militärische Fachleute in wenigen knappen Worten zusammen: "Find, fix, track, target, engage", deutsch etwa "identifizieren, finden, verfolgen, zielen, schiessen".
Jeder dieser Schritte wurde früher von Menschen kontrolliert, jeder Folgeschritt unter Einhaltung der Befehlskette eingeleitet. "Heute", sagt Frank Sauer, "kann die Maschine das alles in Sekundenschnelle mit sich selbst ausmachen – dann schiesst sie oder stürzt sich ins Ziel".
Noch beaufsichtigen Menschen die Waffensysteme
Noch wird nicht alles militärisch umgesetzt, was technisch möglich wäre. Der Wissenschaftler Reinhard Grünwald leitet für das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) das Projekt "Autonome Waffen". "Die kritischen Funktionen", sagt er unserem Portal, "werden immer noch von Menschen beaufsichtigt" – weder die Zielauswahl noch der Angriff selbst werde von künstlicher Intelligenz (KI) entschieden.
Doch das Instrumentarium steht bereit, um das zu ändern: Die in Israel gefertigte Drohne "Harop" etwa kann stundenlang nach einer Radaranlage suchen und sofort zuschlagen, wenn sie eine solche entdeckt hat. Das Problem: Die Algorithmen des Steuerungsprogramms können nicht zuverlässig zwischen militärischen und zivilen Einrichtungen unterscheiden, können nicht erkennen, ob Menschen in der Nähe sind oder die Anlage neben einer Schule oder auf einem Krankenhausdach stationiert ist. Eine unbeaufsichtigte Drohne würde im Zweifelsfall einfach losballern.
Selbstständigen Systemen fehlt es an Strategie und Analyse
Die Entwicklung hin zu immer selbständigeren Systemen fänden auch viele Militärs "gar nicht so attraktiv", sagt Grünwald. Deren Begründung: Kriegsführung braucht Strategie, Analyse und eine abschliessende Ergebniskontrolle. All dies können autonome Waffen nicht leisten. Nicht einmal deren Aktionen sind klar genug definierbar.
"Wie das System genau entscheidet", so Grünwald, "weiss im Vorfeld keiner und das ist auch schwierig zu testen." Militärische Befehlshaber aber wollen Konsequenzen sicher planen, bevor sie eine Entscheidung treffen. Die Skepsis des Militärs bestätigt auch Bundeswehr-Experte Sauer: "Die Grossmächte sehen durchaus die Risiken dieser Entwicklung, weil autonome Waffen die strategische Stabilität bedrohen und enormes Eskalationspotenzial mit sich bringen."
Doch für Rüstung und Kriege sind autonome und teilautonome Waffen bereits von grosser Bedeutung. Autonome Drohnen sind billiger als andere konventionelle Waffen und gelten deshalb als "Wegwerfsysteme": Man kann sie sorglos in die Schlacht werfen, ihr Verlust ist einkalkuliert. Ein Schwarm von Drohnen, wie sie im Krieg um Bergkarabach von Aserbeidschan eingesetzt wurden, kann mit wenig Einsatz Panzer unschädlich machen, während der Schutz dieser Panzer vor der neuartigen Bedrohung sich enorm verteuert.
Auswirkungen auf Völkerrecht bislang kaum bewertet
Während die Auswirkungen der neuen Waffen auf das Völkerrecht noch kaum bewertet sind, während man bei den Vereinten Nationen in Genf seit Jahren um eine Regulierung autonomer Waffen streitet und es dabei "in tektonischer Langsamkeit" vorangehe, schafft die technische Entwicklung laut Sauer Fakten: Die USA und China betrieben einen "direkten, offenen Wettstreit" in dieser Waffengattung nach dem Motto "Wer hat den grössten Drohnenschwarm". Russland arbeite hartnäckig an bodengebundenen Systemen, Länder wie Südkorea, die Türkei, Australien und Israel lägen bei der Entwicklung nur knapp hinter den Grossmächten.
Das einzige offizielle Strategie-Dokument zu autonomen Waffen ist ein Papier des amerikanischen Verteidigungsministeriums. Die Department of Defense Directory (DoDD) Nummer 3009.09 aus dem Jahr 2012 verlangt, alle Waffensysteme müssten so ausgelegt sein, dass sie den Benutzern "angemessene" menschliche Entscheidungsbefugnisse überlassen. Was angemessen ist, definiert das Dokument nicht.
Wirksame militärische Doktrinen für den Umgang mit autonomen Systemen und künstlicher Intelligenz fehlten weltweit und auch in der NATO, sagt Frank Sauer: "Da gibt es bisher gar nichts!" Auch die Ankündigung der Grossen Koalition im Bundestag, die im Koalitionsvertrag eine weltweite Ächtung autonomer Waffensysteme fordert, hat bisher international kaum Früchte getragen.
Während Experte Reinhard Grünwald bemängelt, dass es kein Konzept gebe, wie eine Ächtung der neuen Systeme umgesetzt werden könnte, hält Frank Sauer eine Ächtung für nicht zielführend: "In zehn Jahren werden in jeder Waffe autonome Systeme stecken." Er fordert daher, nicht im Sinne von Verboten zu verzichten und stattdessen "das Mensch-Maschine-Verhältnis zu regulieren". Das oberste Gebot müsse dann lauten, dass bei jedem Waffensystem auch zukünftig die menschliche Kontrolle bewahrt werden müsse.
Verwendete Quellen:
- Deutscher Bundestag, Textarchiv: Autonome Waffensysteme: Wenn Maschinen über Leben und Tod entscheiden
- Bericht des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung (18. Ausschuss) gemäss § 56a der Geschäftsordnung. Technikfolgenabschätzung (TA). Autonome Waffensysteme
- bundeswehr.de: Das Flugabwehrsystem Mantis
- Koalitionsvertrag zwischen CDU, CSU und SPD, 19. Legislaturperiode
- Congressional Research Service, Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems. Updated December 1, 2020
- Department of Defense, Directive Number 3000.09, November 21, 2012, Incorporating Change 1, May 8, 2017: Autonomy in Weapon Systems
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.