Yapay zeka aslında bir nükleer savaşı nasıl başlatabilir?

Yapay zeka var olduğundan beri, insanlar yapay zeka ve nükleer silahlar konusunda korkular beslemiştir. Filmler de bu korkuların harika bir örneğidir. Terminatör serisinden Skynet, bilinç kazanır ve Amerika'ya nükleer füzeler fırlatır. WarGames'ten WOPR, bir yanlış iletişim yüzünden neredeyse nükleer savaş başlatıyordu. Kathryn Bigelow'un yakın zamanda vizyona giren filmi House of Dynamite , yapay zekanın Chicago'ya doğru ilerleyen bir nükleer füze saldırısında rol alıp almadığını sorguluyor.
Vox'tan Josh Keating , Today, Explained programının yardımcı sunucusu Noel King'e verdiği demeçte, yapay zekanın nükleer girişimimizin zaten bir parçası olduğunu söylüyor. "Bilgisayarlar başından beri bunun bir parçasıydı," diyor. "Geliştirilen ilk dijital bilgisayarlardan bazıları, Manhattan Projesi'nde atom bombasının yapımı sırasında kullanıldı." Ancak bunun tam olarak nerede ve nasıl dahil olduğunu bilmiyoruz.
Peki endişelenmemiz gerekiyor mu? Keating, belki de, diye savunuyor. Ama yapay zekanın bize düşman olması konusunda değil.
Aşağıda, uzunluk ve anlaşılırlık açısından düzenlenmiş sohbetlerinin bir bölümü yer almaktadır. Bölümün tamamında çok daha fazlası var, bu yüzden Today, Explained'ı Apple Podcasts , Pandora ve Spotify dahil olmak üzere podcast'leri nereden dinlerseniz dinleyin.
A House of Dynamite'da , ne olduğunu ve yapay zekanın işin içinde olup olmadığını anlamaya çalıştıkları bir bölüm var . Bu korkuları olan filmler doğru yolda mı?
Nükleer savaş söz konusu olduğunda filmlerle ilgili ilginç olan şey şu: Bu, daha önce hiç yaşanmamış bir savaş. Japonya'ya attığımız iki bomba dışında nükleer savaşların hiçbir gazisi yok ki bu çok farklı bir senaryo. Bence filmler, nükleer silahlar hakkındaki tartışmalarda her zaman büyük bir rol oynamıştır. Stratejik Hava Komutanlığı'nın Dr. Strangelove ve Fail Safe'e kendi reddiyesini ürettiği 60'lara dönebilirsiniz. 80'lerde, The Day After adlı TV filmi nükleer dondurma hareketi için bir tür harekete geçirici güçtü. Başkan [Ronald] Reagan filmi izlediğinde görünüşe göre çok rahatsız olmuş ve bu, Sovyetler Birliği ile silah kontrolü konusundaki düşüncelerini etkilemiş.
İncelediğim özel konu olan yapay zeka ve nükleer silahlar konusunda, bu konuyu konu edinen şaşırtıcı sayıda film var. Ve bu konudaki politika tartışmalarında sıkça gündeme geliyor. Yapay zekanın nükleer komuta sistemine entegre edilmesini savunan kişiler "Bakın, bu Skynet olmayacak" diyor. Nükleer silahlardan sorumlu askeri birim olan Stratejik Komutanlığın mevcut komutanı General Anthony Cotton, yapay zeka araçlarının daha fazla kullanılmasını savunuyor. 1983 yapımı WarGames filmine atıfta bulunarak, "Daha fazla yapay zekaya sahip olacağız, ancak stratejik komutada bir WOPR olmayacak" diyor.
[Filmlerin] biraz eksik kaldığını düşündüğüm nokta, süper zeki bir yapay zekanın nükleer silahlarımızı ele geçirip bizi yok etmek için kullanacağı korkusu. Şimdilik bu teorik bir endişe. Bence asıl endişe, yapay zeka komuta ve kontrol sisteminin giderek daha fazla alanına girdikçe, nükleer silah üretme kararlarından sorumlu olan insanların yapay zekaların nasıl çalıştığını gerçekten anlayıp anlamadıkları. Ve bu, insanlık tarihinde alınmış en önemli kararlardan bazıları olabilecek bu kararları alma biçimlerini nasıl etkileyecek?
Nükleer silahlar üzerinde çalışan insanlar yapay zekayı anlıyor mu?
Yapay zekanın nükleer girişimde tam olarak nerede olduğunu bilmiyoruz. Ancak insanlar nükleer komuta ve kontrol sisteminin aslında ne kadar düşük teknolojili olduğunu öğrenince şaşıracaklar. 2019'a kadar iletişim sistemleri için disket kullanıyorlardı. Windows'taki kayıt simgesine benzeyen küçük plastik disketlerden bahsetmiyorum bile. Yani, 80'lerin o esnek disketlerinden. Bu sistemlerin dışarıdan siber müdahaleye karşı güvenli olmasını istiyorlar, bu yüzden her şeyin buluta bağlı olmasını istemiyorlar.
Ancak milyarlarca dolarlık bir nükleer modernizasyon süreci devam ederken, bunun büyük bir kısmı bu sistemlerin güncellenmesinden oluşuyor. Görüştüğüm birkaç kişi de dahil olmak üzere StratCom'un birçok komutanı, yapay zekanın bu sürecin bir parçası olması gerektiğini düşünüyor. Hepsi, yapay zekanın nükleer silah fırlatıp fırlatmayacağımıza karar verme yetkisine sahip olmaması gerektiğini söylüyor. Yapay zekanın devasa miktarda bilgiyi analiz edip bunu insanlardan çok daha hızlı yapabileceğini düşünüyorlar. Eğer "A House of Dynamite"ı izlediyseniz, filmin çok iyi gösterdiği bir şey var: Başkan ve üst düzey danışmanlar ne kadar hızlı ve olağanüstü, zor kararlar almak zorunda kalacaklar.
Yapay zeka ve nükleer silahların bir arada kullanılmasına karşı çıkan büyük argümanlar nelerdir?
Bugün elimizdeki en iyi yapay zeka modelleri bile hâlâ hataya meyillidir. Bir diğer endişe ise bu sistemlere dışarıdan müdahale edilebilmesidir. Bu, bilgisayar korsanlığı veya siber saldırı olabilir ya da yabancı hükümetler modele yanlış bilgi yerleştirmenin yollarını bulabilir. Rus propaganda ağlarının, Batılı tüketici yapay zekası sohbet robotları tarafından kullanılan eğitim verilerine aktif olarak yanlış bilgi yerleştirmeye çalıştığına dair haberler var. Bir diğeri de insanların bu sistemlerle nasıl etkileşim kurduğudur. Birçok araştırmacının belirttiği otomasyon yanlılığı adı verilen bir olgu var; bu, insanların bilgisayar sistemlerinin kendilerine verdiği bilgilere güvenme eğiliminde olmalarıdır.
Tarihte, teknolojinin neredeyse nükleer felaketlere yol açtığı ve tırmanışı önlemek için devreye girenlerin insanlar olduğu birçok örnek var. 1979'da, ABD Ulusal Güvenlik Danışmanı Zbigniew Brzezinski, gecenin bir yarısı Oregon açıklarında Sovyet denizaltılarından yüzlerce füzenin fırlatıldığını bildiren bir telefonla uyanmıştı. Başkan Jimmy Carter'ı arayıp Amerika'nın saldırı altında olduğunu söylemek üzereyken, [ilk] aramanın yanlış alarm olduğu yönünde bir başka arama daha gelmişti. Birkaç yıl sonra, Sovyetler Birliği'nde çok ünlü bir vaka yaşandı. Füze tespit altyapısında çalışan Albay Stanislav Petrov, bilgisayar sistemi tarafından bir ABD nükleer füze fırlatması olduğu konusunda bilgilendirildi. Protokoller uyarınca, amirlerine haber vermesi gerekiyordu ve amirleri de derhal misilleme emri verebilirdi. Ancak sistemin, bulutlardan yansıyan güneş ışığını füze fırlatması olarak yanlış yorumladığı ortaya çıktı. Dolayısıyla Petrov'un üstlerini aramadan önce birkaç dakika bekleme kararı alması çok iyi oldu.
Bu örnekleri dinliyorum ve eğer gerçekten basit bir şekilde düşünürsem, çıkarabileceğim şey şu ki, teknoloji başarısız olduğunda insanlık bizi uçurumun kenarından geri çekiyor.
Doğru. Ve son zamanlarda yapay zeka modelleri üzerinde askeri kriz senaryoları göz önüne alındığında gerçekten ilginç testler yapıldığını düşünüyorum ve aslında insan karar vericilerden daha şahin olma eğilimindeler. Bunun nedenini tam olarak bilmiyoruz. Neden nükleer bir savaş yapmadığımıza bakarsak - Hiroşima'dan 80 yıl sonra neden kimse başka bir atom bombası atmadı, neden savaş alanında hiç nükleer çatışma yaşanmadı - bence bunun bir kısmı ne kadar korkutucu olduğundan kaynaklanıyor. İnsanların bu silahların yıkıcı potansiyelini ve bu tırmanışın neye yol açabileceğini nasıl anladıkları. Beklenmedik sonuçlara yol açabilecek bazı adımlar var ve korku bunun büyük bir parçası.
Bana göre, sisteme korkunun yerleştirilmesini sağlamalıyız. Nükleer silahların yıkıcı potansiyeli karşısında tamamen dehşete kapılma potansiyeline sahip olanların, onları kullanıp kullanmama konusunda temel kararları verenler olmasını sağlamalıyız.
Sanki A House of Dynamite'ı izliyormuşsunuz gibi , belki de tüm yapay zekayı buradan tamamen çıkarmamız gerektiğini canlı bir şekilde düşünebilirsiniz. Söylediğiniz şey şu gibi: Yapay zeka bizim için, diğer uluslar için nükleer altyapının bir parçası ve muhtemelen öyle kalacak.
Daha fazla otomasyon savunucusunun bana söylediği bir şey şuydu: "İnsanların güvenilir bir yapay zeka inşa edebileceğini düşünmüyorsanız, o zaman insanların nükleer silahlarla işi olmaz." Fakat mesele şu ki, bence bu, tüm nükleer silahları tamamen ortadan kaldırmamız gerektiğini düşünen insanların da katılacağı bir ifade. Yapay zekanın nükleer silahları ele geçireceğinden endişelenerek bu işe girmiş olabilirim, ancak şu anda insanların nükleer silahlarla ne yapacakları konusunda yeterince endişeli olduğumu fark ettim. Mesele, yapay zekanın nükleer silahlarla insanları öldürecek olması değil. Mesele, yapay zekanın insanların birbirlerini nükleer silahlarla öldürme olasılığını artırabileceği. Bir bakıma, yapay zeka en az endişelendiğimiz şey. Bence film, onları kullanıp kullanmamaya karar vermek zorunda kalacağımız senaryonun ne kadar saçma olduğunu gayet iyi gösteriyor.
Vox

