Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Italy

Down Icon

L'intelligence artificielle dans la défense : la goutte d'eau qui fait déborder le vase du droit international

L'intelligence artificielle dans la défense : la goutte d'eau qui fait déborder le vase du droit international

Il y a quelques jours, l'Ukraine a annoncé son intention de se retirer de la Convention d'Ottawa, qui interdit l'utilisation des mines antipersonnel . La Pologne et les États baltes avaient déjà fait de même ; les États-Unis, Israël, la Russie et la Chine, quant à eux, ne l'ont jamais signée. Cette décision est loin d'être marginale : les mines antipersonnel, par définition, violent le droit international humanitaire, affectant indistinctement les combattants et les civils, même de nombreuses années après la fin des hostilités. Les générations italiennes d'après-guerre en savent quelque chose. Les générations ukrainiennes le savent probablement aussi : on estime qu'environ un quart du territoire national est désormais miné.

Mais l'importance de cette décision dépasse le cadre de la guerre. Elle véhicule un message politique inquiétant : lorsque la guerre s'intensifie, les contraintes du droit humanitaire deviennent négociables, surmontables .

C'est un message qui vient de multiples horizons. Ces dernières années, la politique internationale a montré des signes de régression : la diplomatie dite de la canonnière a refait surface, un concept selon lequel les droits d'un État ne s'étendent qu'à ses capacités militaires. L'invasion russe de l'Ukraine, le conflit en cours à Gaza, et même les déclarations improvisées de Donald Trump sur une possible annexion du Canada ou du Groenland sont des variations contemporaines sur un thème considéré comme le dernier recours de l'histoire.

Cette logique remet en cause le fondement même du droit international moderne : l’interdiction de la conquête territoriale par la force. L’abandon du droit de conquête a marqué le passage d’une gestion coercitive des relations entre États à une gestion régie par des normes communes et des institutions supranationales. Dans ce contexte, le droit international humanitaire n’est pas une pédanterie juridique, mais l’expression d’un principe : même en temps de guerre, il existe des limites. C’est ce qui distingue le conflit de la barbarie.

Le retour de la diplomatie de la canonnière représente une tentative à peine voilée d’inverser cette transition et de transcender le droit international.

L'IA appliquée à la défense pourrait s'avérer l'outil décisif pour la réussite de cet effort. Son utilisation permet une érosion progressive et silencieuse du droit international , le réduisant potentiellement à une structure formelle inefficace. L'IA en défense pourrait sonner le glas du droit international non pas par une révolution ouverte, mais par une série de violations tactiques savamment réparties.

La guerre en Ukraine a marqué un tournant dans l'adoption de l'IA en défense , une accélération non accompagnée de réglementation. Même la loi sur l'IA ne réglemente pas son utilisation à des fins de défense. Pourtant, en Ukraine, les deux camps utilisent des armes létales (potentiellement) autonomes avant même qu'il n'y ait un consensus sur leur légalité. Israël a utilisé l'IA pour identifier des cibles à Gaza sans aucune règle convenue sur les seuils d'erreur acceptables ou les niveaux minimaux de contrôle humain. Parallèlement, les représentants des États membres du groupe des Nations Unies qui travaille sur les armes autonomes depuis 2013 ne sont même pas parvenus à un consensus sur la définition de ces systèmes d'armes.

Il serait naïf de considérer ce vide réglementaire comme une impasse temporaire, résultat du dilemme séculaire entre une réglementation prématurée et inefficace ou une réglementation tardive et superflue. Il s'agit de quelque chose de plus inquiétant : la création d' un vide réglementaire qui sert à la fois les intérêts des États libéraux et autoritaires . Ces deux éléments convergent et alimentent un vide réglementaire afin de ne pas limiter le potentiel de l'IA en matière de défense, même lorsque cela risque de violer des principes fondamentaux tels que la distinction entre combattants et non-combattants.

Nous avons observé la même approche en matière de réglementation des postures internationales lors de cyberattaques entre États. Dans ce cas précis, le vide réglementaire a favorisé des postures agressives, causant des dommages et des risques pour les infrastructures numériques de nos pays. Ce n'est pas vraiment le choix le plus éclairé. Il serait préférable de l'éviter lorsque la cyberattaque dégénère en guerre conventionnelle.

Le chevauchement entre la rhétorique musclée de la diplomatie de la canonnière et l'omniprésence discrète de l'IA est inquiétant. Alors que l'attention du public se concentre légitimement sur les effets visibles de la première, la seconde opère dans l'ombre, érodant lentement la stabilité du droit international.

La solution ne consiste pas à abandonner l'IA dans le domaine de la défense, mais à reconfigurer clairement le cadre réglementaire dans lequel elle peut opérer. Une interprétation actualisée des principes du droit international humanitaire est nécessaire, en étendant leur validité aux technologies émergentes. Le progrès technologique ne doit pas coïncider avec, ni être l'instrument d'une régression juridique ou, pire encore, d'une régression morale.

*Professeur titulaire d'éthique numérique et de technologies de défense, Oxford Internet Institute, Université d'Oxford. Auteur de « The Ethics of Artificial Intelligence in Defense », Oxford University Press, qui sera publié en Italie par Raffaello Cortina.

La Repubblica

La Repubblica

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow