Mit jedem Fortschritt auf dem Feld der Künstlichen Intelligenz kommt die Menschheit auch der Möglichkeit näher, vollkommen autonome Waffensysteme zu entwickeln. Bei einer Diskussion im Vorfeld der Münchner Sicherheitskonferenz zeigt sich: Die Aussicht auf sogenannte Killerroboter stellt die Welt vor heikle Fragen.
Sophia trägt ein schwarzes Kleid, auf ihrem Kopf schimmert eine glitzernde Kopfbedeckung. Ihr leerer Blick ist frontal ins Publikum gerichtet, als sie die Gäste im Saal und auf dem Podium begrüsst: Nahmhafte Redner und hunderte Zuhörer sind am Vorabend der Münchner Sicherheitskonferenz ins Hotel Bayerischer Hof gekommen sind, um über Künstliche Intelligenz und autonome Waffensysteme zu diskutieren.
Der Anwesende bemerkt sofort: Sophia ist ein Roboter. Ein Roboter, der mit Moderator David E. Sanger schäkern kann, wenngleich die Unterhaltung teilweise gescriptet ist. Auf Nachfrage Sangers versichert Sophia: "Ich bin kein Killerroboter." Mehr noch, sie wolle die Welt zu einem besseren Ort machen.
Doch die Mehrheit der Diskutanten sieht in erster Linie die Gefahr, die die Technologie hinter Sophia birgt. Denn Künstliche Intelligenz (KI) wird auch für militärische Zwecke genutzt und ermöglicht die Entwicklung autonomer Waffensysteme, sprich bewaffnete Roboter, die selbst entscheiden, wann sie auf was oder wen schiessen.
"Wollen sicherstellen, dass allen klar ist, was kommt"
Der ehemalige Nato-Generalsekretär Anders Fogh Rasmussen befürchtet eine geopolitische Destabilisierung durch solche Waffensysteme und spricht sich deshalb für ein Verbot aus.
Der Mensch dürfe eine Entscheidung, die im schlimmsten Fall zum Tod anderer Menschen führen kann, nicht in die Hände eine Maschine geben, warnt er auf dem Podium.
Diese Position vertritt auch die deutsche Regierung, sagt Ludwig Leinhos, erster Inspekteur des Cyber- und Informationsraums der Bundeswehr. Allerdings: Weder Rasmussens Heimatland Dänemark noch die Bundesrepublik haben bislang offiziell entschieden, auf eine Entwicklung autonomer Waffen bewusst zu verzichten.
Kein Problem hat Leinhos derweil mit militärischer Ausrüstung zur Aufklärung, die Künstliche Intelligenz einsetzt.
Selbst Mary Wareham, Anführerin der weltweiten Kampagne "Killer Roboter stoppen!", sagt: "Wir haben grundsätzlich nichts gegen KI im Militär. Aber wo Maschinen selbst entscheiden, was sie angreifen, ziehen wir die rote Linie."
Noch besitzt keine Armee ein solches vollständig autonomes System, doch Warehams Initiative, der sich bereits 61 Nichtregierungsorganisationen aus 26 Ländern angeschlossen haben, geht es darum, "sicherzustellen, dass allen klar ist, was kommt".
Noch bevor autonome Waffen die Kriegsführung radikal verändern können, müssten sie verboten werden, fordert Wareham. Als Vorbild nennt sie das Abkommen zur Ächtung von Landminen, das 121 Länder 1997 in Ottawa unterzeichnet haben.
Das Beispiel Landminen macht aber auch deutlich, wie schwer es werden dürfte, einen weltweiten Bann autonomer Waffen zu erzielen: Grosse Militärmächte wie die USA, Russland und China haben ihre Unterschrift bis heute nicht unter das Dokument gesetzt.
Estland als Vorreiter in der Nutzung Künstlicher Intelligenz
Dass dem Einsatz Künstlicher Intelligenz Grenzen gesetzt werden müssen, darin stimmt auch Kersti Kaljulaid, Präsidentin von Estland, mit den anderen Diskutanten überein.
Den Gefahren der Technologie könne man wiederum mit technischen Raffinessen begegnen, glaubt sie, etwas, indem man in das System eine Art Notknopf implementiert, der es im Zweifel selbst abschaltet. Oder mit Hilfe von Software, die es Entwicklern ermöglicht, sich an kritische Stellen des Programms führen zu lassen und einzugreifen.
Grundsätzlich überwiegen für die Estin aber die Chancen der Technologie. "Es wäre schlecht, wenn wir der Menschheit nicht erlauben, von KI zu profitieren", sagt sie.
Laut Kaljulaid arbeitet Estland - ein Musterland in Sachen Digitalisierung - am "proaktiven Staat", der beispielsweise einem Kind bereits bei der Geburt eine ID zuweist und automatisch feststellt, welche Ansprüche an das Sozialsystem ihm zustehen. KI-Systeme sollen in Estland rechtlich bald als Personen gewertet werden - in einem Fall habe ein KI-System bereits Recht bekommen, nachdem ein Mensch ihm die Vorfahrt genommen habe.
Chancen, Risiken - was überwiegt? Ist dem zerstörerischen Potential von Künstlicher Intelligenz allein durch geschicktes Programmieren beizukommen? Oder läuft der Mensch vielmehr Gefahr, der Geister, die er rief, irgendwann nicht mehr Herr zu werden? "Wir stehen erst am Anfang der Debatte", sagt Generalleutnant Leinhos.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.