Künstliche Intelligenz in der Verteidigung: Der letzte Tropfen, der das Fass zum Überlaufen bringt

Vor wenigen Tagen kündigte die Ukraine ihren Austritt aus dem Ottawa-Übereinkommen an, das den Einsatz von Antipersonenminen verbietet . Polen und die baltischen Staaten hatten dies bereits getan; die USA, Israel, Russland und China hingegen haben es nie unterzeichnet. Die Entscheidung ist alles andere als unbedeutend: Antipersonenminen verstoßen per Definition gegen das humanitäre Völkerrecht und treffen auch viele Jahre nach Ende der Feindseligkeiten wahllos Kombattanten und Zivilisten. Die italienischen Nachkriegsgenerationen wissen das. Die ukrainischen Generationen werden es wahrscheinlich auch wissen: Schätzungsweise ist heute etwa ein Viertel des Staatsgebiets vermint.
Doch die Bedeutung dieser Entscheidung geht über den Kriegsfall hinaus. Sie enthält eine beunruhigende politische Botschaft: Wenn ein Krieg eskaliert, werden die Beschränkungen des humanitären Völkerrechts verhandelbar und überwindbar .
Diese Botschaft kommt aus vielen Richtungen. In den letzten Jahren hat die internationale Politik Rückschritte gezeigt : Die sogenannte Kanonenbootpolitik ist wieder aufgetaucht, ein Konzept, bei dem sich die Rechte eines Staates nur auf seine militärischen Fähigkeiten beschränken. Der russische Einmarsch in die Ukraine, der anhaltende Konflikt im Gazastreifen und sogar Donald Trumps spontane Äußerungen über eine mögliche Annexion Kanadas oder Grönlands sind aktuelle Variationen eines Themas, das als letztes Mittel der Geschichte gilt.
Diese Logik stellt die Grundlage des modernen Völkerrechts in Frage : das Verbot gewaltsamer Gebietseroberung. Der Verzicht auf das Recht auf Eroberung markierte den Übergang von einer zwangsgesteuerten Regelung der zwischenstaatlichen Beziehungen zu einer Regelung, die auf gemeinsamen Normen und supranationalen Institutionen beruht. In diesem Kontext ist das humanitäre Völkerrecht keine juristische Pedanterie, sondern Ausdruck eines Prinzips: Auch im Krieg gibt es Grenzen. Das unterscheidet Konflikt von Barbarei.
Die Rückkehr der Kanonenbootpolitik stellt einen nicht ganz so verschleierten Versuch dar, diesen Übergang umzukehren und das Völkerrecht zu überwinden.
KI in der Verteidigung könnte sich als entscheidendes Instrument für den Erfolg dieser Bemühungen erweisen. Der Einsatz von KI in der Verteidigung führt zu einer schleichenden und stillen Erosion des Völkerrechts und könnte es zu einer ineffektiven formalen Struktur reduzieren. KI in der Verteidigung könnte das Ende des Völkerrechts bedeuten – nicht durch eine offene Revolution, sondern durch eine Reihe geschickt eingesetzter taktischer Verstöße.
Der Krieg in der Ukraine markierte einen Wendepunkt in der Einführung von KI in der Verteidigung – eine Beschleunigung, die von keiner Regulierung begleitet wurde. Nicht einmal das KI-Gesetz regelt den Einsatz von KI in der Verteidigung. Dennoch setzen in der Ukraine beide Seiten tödliche (potenziell) autonome Waffen ein, bevor überhaupt ein Konsens über deren Rechtmäßigkeit besteht. Israel nutzte KI zur Identifizierung von Zielen im Gazastreifen, ohne dass es vereinbarte Regeln für akzeptable Fehlergrenzen oder ein Mindestmaß an menschlicher Kontrolle gab. Unterdessen haben die Vertreter der Mitgliedsstaaten der UN-Gruppe, die seit 2013 an autonomen Waffen arbeitet, nicht einmal einen Konsens über die Definition dieser Waffensysteme erzielt.
Es wäre naiv, dieses Regulierungsvakuum als vorübergehende Pattsituation zu betrachten, die das Ergebnis des uralten Dilemmas zwischen verfrühter und ineffektiver Regulierung oder verspäteter und überflüssiger Regulierung darstellt. Es ist etwas viel Beunruhigenderes: die Schaffung eines Regulierungsvakuums, das sowohl den Interessen liberaler als auch autoritärer Staaten dient . Beides trifft aufeinander und vertieft ein Regulierungsvakuum, um das Potenzial der KI in der Verteidigung nicht einzuschränken, selbst wenn dies möglicherweise gegen grundlegende Prinzipien wie die Unterscheidung zwischen Kombattanten und Nichtkombattanten verstößt.
Wir haben denselben Ansatz zur Regulierung internationaler Positionen bei Cyberangriffen zwischen Staaten erlebt. In diesem Fall begünstigte das Regulierungsvakuum aggressives Vorgehen und verursachte Schäden und Risiken für die digitale Infrastruktur unserer Länder. Nicht gerade die klugste Entscheidung. Es wäre am besten, dies zu vermeiden, wenn Cyberangriffe zu konventionellen Kriegen eskalieren.
Die Überschneidung zwischen der aggressiven Rhetorik der Kanonenbootpolitik und der diskreten Allgegenwärtigkeit der KI ist beunruhigend. Während sich die öffentliche Aufmerksamkeit zu Recht auf die sichtbaren Auswirkungen der ersteren konzentriert, wirkt die letztere im Verborgenen und untergräbt langsam die Stabilität des Völkerrechts.
Die Lösung besteht nicht darin, KI in der Verteidigung aufzugeben, sondern den regulatorischen Rahmen, innerhalb dessen sie funktionieren kann, neu zu gestalten. Erforderlich ist eine aktualisierte Auslegung der Grundsätze des humanitären Völkerrechts , die ihre Gültigkeit auf neue Technologien ausweitet. Technologischer Fortschritt darf nicht mit rechtlichem oder, schlimmer noch, moralischem Rückschritt einhergehen oder dessen Instrument sein.
*Ordentlicher Professor für Digitale Ethik und Verteidigungstechnologien, Oxford Internet Institute, Universität Oxford. Autor von The Ethics of Artificial Intelligence in Defense , Oxford University Press, das in Italien von Raffaello Cortina veröffentlicht wird.
La Repubblica