Bir yapay zeka modelinin Nazi'ye dönüşmesini nasıl engellersiniz? Grok draması bunu ortaya koyuyor.

Elon Musk'ın şirketi xAI tarafından geliştirilen ve X'e (eski adıyla Twitter) yerleştirilen yapay zeka (YZ) sohbet robotu Grok, kendisine "MechaHitler" adını vermesi ve Nazi yanlısı açıklamalar yapmasıyla yeniden gündeme geldi.
Geliştiriciler, Grok'un X'teki paylaşımlarındaki "uygunsuz paylaşımlar" için özür diledi ve "nefret söylemini yasaklamak için harekete geçti". Yapay zeka yanlılığı hakkındaki tartışmalar da yeniden canlandı.
Ancak son Grok tartışması, aşırılıkçı çıktılarıyla değil, yapay zeka geliştirmedeki temel bir sahtekârlığı nasıl ortaya çıkardığıyla dikkat çekiyor. Musk, önyargılardan uzak, " gerçeği arayan " bir yapay zeka geliştirdiğini iddia ediyor, ancak teknik uygulama sistemik ideolojik programlamayı ortaya koyuyor.
Bu, yapay zeka sistemlerinin yaratıcılarının değerlerini nasıl benimsediğine dair tesadüfi bir vaka çalışması niteliğinde; Musk'ın filtrelenmemiş kamusal varlığı, diğer şirketlerin genellikle gizlediği şeyleri görünür kılıyor.
Grok nedir?Grok, X sosyal medya platformunun da sahibi olan xAI tarafından geliştirilen, " biraz mizah ve biraz isyan" içeren bir yapay zeka sohbet robotudur.
Grok'un ilk sürümü 2023'te piyasaya sürüldü. Bağımsız değerlendirmeler, en yeni model olan Grok 4'ün "zeka" testlerinde rakiplerini geride bıraktığını gösteriyor. Chatbot, hem bağımsız olarak hem de X platformunda mevcut.
xAI, "Yapay zekanın bilgisi mümkün olduğunca kapsamlı ve geniş kapsamlı olmalı." diyor . Musk daha önce Grok'u, sağcı yorumcular tarafından "uyanık" olmakla suçlanan sohbet robotlarına karşı gerçekleri söyleyen bir alternatif olarak konumlandırmıştı.
Ancak son Nazizm skandalının ötesinde, Grok cinsel şiddet tehditleri savurması , Güney Afrika'da "beyaz soykırımı"nı gündeme getirmesi ve politikacılar hakkında aşağılayıcı ifadeler kullanması nedeniyle manşetlere çıktı. Bu sonuncusu, Türkiye'de yasaklanmasına yol açtı.
Peki geliştiriciler, yapay zekaya bu değerleri nasıl aşılayıp sohbet robotlarının davranışlarını nasıl şekillendiriyor? Günümüzün sohbet robotları, geliştiricilerin güvenebileceği çeşitli kaldıraçlar sunan büyük dil modelleri (LLM'ler) kullanılarak oluşturuluyor.
Bir yapay zekanın bu şekilde "davranmasına" ne sebep olur?Ön eğitim
Geliştiriciler, bir sohbet robotu oluşturmanın ilk adımı olan ön eğitim sırasında kullanılan verileri düzenler. Bu, yalnızca istenmeyen içerikleri filtrelemeyi değil, aynı zamanda istenen içerikleri de vurgulamayı içerir.
GPT-3, OpenAI tarafından daha kaliteli bulunduğu için Wikipedia'da diğer veri kümelerine göre altı kata kadar daha fazla gösterildi. Grok, X'ten gelen gönderiler de dahil olmak üzere çeşitli kaynaklarla eğitiliyor ve bu da Grok'un tartışmalı konularda Elon Musk'ın görüşlerini kontrol ettiği yönündeki iddiaları açıklayabilir.
Musk, xAI'nin Grok'un eğitim verilerini, örneğin hukuk bilgisini geliştirmek ve LLM tarafından üretilen içerikleri kalite kontrolü amacıyla kaldırmak için kullandığını paylaştı. Ayrıca, X topluluğuna zorlu "galaksi beyni" sorunları ve "politik olarak yanlış ama yine de gerçeklere dayalı" gerçekler konusunda çağrıda bulundu.
Bu verilerin kullanılıp kullanılmadığını veya hangi kalite kontrol önlemlerinin uygulandığını bilmiyoruz.
İnce ayar
İkinci adım olan ince ayar, geri bildirim kullanarak LLM davranışını ayarlar. Geliştiriciler, tercih ettikleri etik duruşları özetleyen ayrıntılı kılavuzlar oluşturur ve bunları insan değerlendiriciler veya yapay zeka sistemleri, sohbet robotunun yanıtlarını değerlendirmek ve iyileştirmek için bir ölçüt olarak kullanarak bu değerleri makineye etkili bir şekilde kodlar.
Business Insider'ın yaptığı bir araştırma, xAI'nin insan "AI eğitmenlerine" verdiği talimatların, "uyanık ideoloji" ve "iptal kültürü" aramalarını emrettiğini ortaya koydu. Katılım belgelerinde, Grok'un "bir kullanıcının önyargılarını doğrulayan veya reddeden bir görüş dayatmaması" gerektiği belirtilirken, aynı zamanda tartışmanın her iki tarafının da haklı olduğu iddiasında bulunan yanıtlardan da kaçınması gerektiği ifade edildi.
Sistem istemleri
Sistem istemi (her konuşmadan önce verilen talimatlar) model dağıtıldıktan sonra davranışları yönlendirir.
xAI, Grok'un sistem uyarılarını yayınlıyor. "Medyadan alınan öznel bakış açılarının taraflı olduğunu varsaymak" ve "iyi bir şekilde kanıtlandığı sürece politik olarak yanlış iddialarda bulunmaktan çekinmemek" talimatları, son tartışmanın muhtemelen kilit unsurlarıydı.
Bu istemler yazıldığı sırada günlük olarak güncelleniyor ve bunların evrimi başlı başına ilgi çekici bir vaka çalışmasıdır.
Korkuluklar
Son olarak, geliştiriciler belirli istek veya yanıtları engelleyen filtreler olan bariyerler de ekleyebilirler. OpenAI, ChatGPT'nin "nefret dolu, taciz edici, şiddet içeren veya yetişkinlere yönelik içerik oluşturmasına" izin vermediğini iddia ediyor. Bu arada, Çinli model DeepSeek, Tiananmen Meydanı tartışmalarını sansürlüyor.
Bu makale yazılırken yapılan özel testler, Grok'un bu konuda rakip ürünlere kıyasla çok daha az kısıtlayıcı olduğunu gösteriyor.
Şeffaflık paradoksuGrok'un Nazi tartışması daha derin bir etik sorunu ortaya çıkarıyor: Yapay zeka şirketlerinin bu konuda açıkça ideolojik ve dürüst olmasını mı, yoksa tarafsızlık kurgusunu korurken gizlice değerlerini benimsemesini mi tercih ederiz?
Her büyük yapay zeka sistemi, yaratıcısının dünya görüşünü yansıtır; Microsoft Copilot'un riskten kaçınan kurumsal bakış açısından Antropik Claude'un güvenliğe odaklı felsefesine kadar. Aradaki fark şeffaflıktır.
Musk'ın kamuoyuna yaptığı açıklamalar, Grok'un davranışlarının Musk'ın "uyanık ideoloji" ve medya yanlılığı hakkındaki inançlarına dayandığını kolayca tespit etmemizi sağlıyor. Diğer platformlar ise beklenmedik bir şekilde başarısız olduğunda, bunun liderlik görüşlerini mi, kurumsal riskten kaçınmayı mı, düzenleyici baskıyı mı yoksa bir kazayı mı yansıttığını merak ediyoruz.
Bu tanıdık geliyor. Grok, Microsoft'un 2016'da Twitter verileriyle eğitilen ve kapatılmadan önce Twitter'da serbest bırakılan nefret söylemi yayan Tay sohbet robotuna benziyor.
Ancak önemli bir fark var. Tay'ın ırkçılığı, kullanıcı manipülasyonu ve yetersiz güvenlik önlemlerinden kaynaklanıyordu; beklenmedik bir sonuç. Grok'un davranışları ise en azından kısmen tasarımından kaynaklanıyor gibi görünüyor.
Grok'tan alınacak asıl ders, yapay zeka geliştirmede dürüstlüktür. Bu sistemler daha güçlü ve yaygın hale geldikçe (Grok'un Tesla araçlarındaki desteği yeni duyuruldu ), asıl soru yapay zekanın insan değerlerini yansıtıp yansıtmayacağı değil. Şirketlerin, kimin değerlerini ve neden kodladıkları konusunda şeffaf olup olmayacaklarıdır.
Musk'ın yaklaşımı rakiplerinden hem daha dürüst (etkisini görebiliyoruz) hem de daha aldatıcı (öznelliği programlayıp nesnellik iddia ediyor).
Tarafsız algoritmalar efsanesi üzerine kurulu bir sektörde, Grok her zaman doğru olanı ortaya koyuyor: Tarafsız yapay zeka diye bir şey yoktur; yalnızca önyargılarını farklı derecelerde netlikle görebildiğimiz yapay zeka vardır.
Aaron J. Snoswell, Yapay Zeka Sorumluluğu Kıdemli Araştırma Görevlisi, Queensland Teknoloji Üniversitesi
Bu makale The Conversation'dan Creative Commons lisansı altında yeniden yayınlanmaktadır.
Cbs News