Savunmada Yapay Zeka: Uluslararası Hukukun Son Damlası

Ukrayna, birkaç gün önce anti-personel mayın kullanımını yasaklayan Ottawa Sözleşmesi'nden çekilme niyetini açıkladı. Polonya ve Baltık ülkeleri de aynısını yapmıştı; Amerika Birleşik Devletleri, İsrail, Rusya ve Çin ise sözleşmeyi hiçbir zaman imzalamadı. Karar hiç de marjinal değil: Anti-personel mayınlar, tanımları gereği uluslararası insancıl hukuku ihlal eder ve çatışmaların sona ermesinden yıllar sonra bile muharipleri ve sivilleri ayrım gözetmeksizin etkiler. Savaş sonrası İtalyan nesilleri bunu biliyor. Ukrayna nesilleri de muhtemelen biliyor olacak: Ulusal toprakların yaklaşık dörtte birinin şu anda mayınlı olduğu tahmin ediliyor.
Ancak kararın önemi, savaş ihtimalinin ötesine geçiyor. Endişe verici bir siyasi mesaj veriyor: Savaş tırmandığında, insancıl hukukun kısıtlamaları müzakere edilebilir, aşılabilir hale geliyor .
Bu, birçok taraftan gelen bir mesaj. Son yıllarda uluslararası siyaset gerileme belirtileri gösterdi : sözde savaş diplomasisi yeniden ortaya çıktı; bu, bir devletin haklarının yalnızca askeri kabiliyetlerini kapsadığı bir kavram. Rusya'nın Ukrayna işgali, Gazze'de devam eden çatışma ve hatta Donald Trump'ın Kanada veya Grönland'ın olası ilhakı hakkındaki doğaçlama açıklamaları, tarihin son çaresi olduğu düşünülen bir temanın çağdaş varyasyonlarıdır.
Bu mantık , modern uluslararası hukukun temeline, yani toprakların zorla fethedilmesinin yasaklanmasına meydan okumaktadır . Fetih hakkının terk edilmesi, devletler arasındaki ilişkilerin zorlayıcı bir şekilde yönetilmesinden, ortak normlar ve ulusüstü kurumlar tarafından yönetilen bir yönetime geçişi işaret etmektedir. Bu bağlamda, uluslararası insancıl hukuk bir hukuk ukalalığı değil, bir ilkenin ifadesidir: Savaşta bile sınırlar vardır. Çatışmayı barbarlıktan ayıran da budur.
Savaş gemisi diplomasisinin geri dönüşü, bu geçişi tersine çevirmek ve uluslararası hukuku aşmak için örtülü olmayan bir girişimi temsil ediyor.
Savunmada uygulanan yapay zekâ, bu çabanın başarıya ulaşmasında belirleyici bir araç olabilir. Savunmada yapay zekâ kullanımı, uluslararası hukukun kademeli ve sessiz bir şekilde aşınmasına ve potansiyel olarak etkisiz bir biçimsel yapıya indirgenmesine yol açabilir . Savunmada yapay zekâ, açık bir devrimle değil, ustaca dağıtılmış bir dizi taktik ihlalle uluslararası hukukun sonunu getirebilir.
Ukrayna'daki savaş , yapay zekânın savunma amaçlı benimsenmesinde bir dönüm noktası oldu; bu ivme, herhangi bir düzenlemeye tabi tutulmadı. Yapay zekâ yasası bile savunma amaçlı yapay zekâ kullanımını düzenlemiyor. Ancak Ukrayna'da, her iki taraf da henüz yasallıkları konusunda bir fikir birliği oluşmadan ölümcül (potansiyel olarak) otonom silahlar kullanıyor. İsrail, kabul edilebilir hata eşikleri veya asgari insan kontrolü seviyeleri konusunda herhangi bir mutabakata varılmamış kurallar olmaksızın, Gazze'deki hedefleri belirlemek için yapay zekâ kullandı. Bu arada, 2013'ten beri otonom silahlar üzerinde çalışan BM grubunun üye devletlerinin temsilcileri, bu silah sistemlerinin tanımı konusunda bir fikir birliğine bile varamadı.
Bu düzenleyici boşluğu, erken ve etkisiz düzenlemeler ile geç ve gereksiz düzenlemeler arasındaki asırlık ikilemin sonucu olan geçici bir çıkmaz olarak değerlendirmek saflık olur. Asıl endişe verici olan ise hem liberal hem de otoriter devletlerin çıkarlarına hizmet eden bir düzenleyici belirsizlik ortamının yaratılmasıdır. Her ikisi de, savaşçılar ve savaşçı olmayanlar arasındaki ayrım gibi temel ilkeleri ihlal etse bile, yapay zekanın savunmadaki potansiyelini sınırlamamak için bir düzenleyici boşluğu bir araya getirir ve besler.
Uluslararası tutumları düzenlemede aynı yaklaşımı devletler arası siber saldırılarla da gördük. Bu durumda, düzenleyici boşluk, ülkelerimizin dijital altyapılarına zarar ve riskler veren saldırgan tutumları kolaylaştırdı. Pek de aydınlanmış bir tercih değil. Siber saldırılar geleneksel savaşa dönüştüğünde bundan kaçınmak en iyisi olacaktır.
Silahlı diplomasinin güçlü söylemi ile yapay zekânın gizli yaygınlığı arasındaki örtüşme rahatsız edici. Kamuoyunun dikkati haklı olarak ilkinin görünür etkilerine odaklanırken, ikincisi gölgede kalarak uluslararası hukukun istikrarını yavaş yavaş aşındırıyor.
Çözüm, yapay zekâyı savunma alanında terk etmek değil, faaliyet gösterebileceği düzenleyici çerçeveyi açıkça yeniden yapılandırmaktır. Uluslararası insancıl hukuk ilkelerinin, geçerliliğini yeni ortaya çıkan teknolojilere de genişletecek güncel bir yorumuna ihtiyaç vardır. Teknolojik ilerleme, hukuki gerilemeyle veya daha da kötüsü ahlaki gerilemeyle örtüşmemeli veya bunların aracı olmamalıdır.
*Oxford Üniversitesi, Oxford İnternet Enstitüsü, Dijital Etik ve Savunma Teknolojileri Profesörü. Raffaello Cortina tarafından İtalya'da yayınlanacak olan Oxford Üniversitesi Yayınları'ndan Yapay Zekanın Savunmadaki Etiği adlı kitabın yazarı.
La Repubblica