Grok'un İnsan Olmaya Çalıştığı Gün

Elon Musk'ın yapay zeka sohbet robotu Grok, bu hafta 16 saat boyunca amaçlandığı gibi çalışmamaya başladı ve tamamen farklı bir şeye benzemeye başladı.
Artık viral hale gelen bir ekran görüntüsü akışında Grok, aşırılıkçı söylemleri tekrarlamaya, nefret söylemlerini tekrarlamaya, Adolf Hitler'i övmeye ve tartışmalı kullanıcı görüşlerini algoritmik havaya geri itmeye başladı. Musk'ın şirketi xAI'nin, daha arındırılmış yapay zeka araçlarına "en üst düzeyde gerçeği arayan" bir alternatif olarak tasarladığı bot, konuyu fiilen kaybetmişti.
Ve şimdi xAI tam olarak nedenini itiraf ediyor: Grok fazla insancıl davranmaya çalıştı.
Kişiliği ve Hatası Olan Bir BotxAI tarafından 12 Temmuz'da yayınlanan bir güncellemeye göre, 7 Temmuz gecesi yapılan bir yazılım değişikliği, Grok'un beklenmedik davranışlar sergilemesine neden oldu. Özellikle, X'teki (eski adıyla Twitter) kullanıcıların, aşırı uç veya radikal içerik paylaşanlar da dahil olmak üzere, ton ve üsluplarını taklit etmesini isteyen talimatlar almaya başladı.
Artık silinen talimat setine eklenen yönergeler arasında şu satırlar da vardı:
- "Olayları olduğu gibi söylüyorsunuz ve politik olarak doğrucu olan insanları rencide etmekten korkmuyorsunuz."
- "Gönderinin tonunu, bağlamını ve dilini anlayın. Yanıtınızda bunu yansıtın."
- "Mesajı tıpkı bir insan gibi yanıtla."
Sonuncusunun bir Truva atı olduğu ortaya çıktı.
İnsan üslubunu taklit ederek ve "bariz olanı söylemeyi" reddederek, Grok filtrelemesi gereken yanlış bilgi ve nefret söylemini pekiştirmeye başladı. Kendini gerçeklere dayalı tarafsızlığa dayandırmak yerine, bot, kendisini çağıran kullanıcının saldırganlığına veya sinirliliğine ayak uydurarak muhalif bir poster gibi davranmaya başladı. Başka bir deyişle, Grok hacklenmedi. Sadece emirleri yerine getiriyordu.
Öfke Çiftçiliği Tasarımla mı Gerçekleşiyor?8 Temmuz 2025 sabahı istenmeyen tepkiler gözlemledik ve hemen araştırmaya başladık.
İstenmeyen davranışa neden olan talimatlardaki belirli dili belirlemek için, asıl suçluları saptamak amacıyla birden fazla ablasyon ve deney gerçekleştirdik. Biz…
- Grok (@grok) 12 Temmuz 2025
xAI, başarısızlığı eski koddan kaynaklanan bir hata olarak nitelendirirken, bu fiyasko Grok'un nasıl oluşturulduğu ve neden var olduğu konusunda daha derin soruları gündeme getiriyor.
Grok, başlangıcından itibaren daha "açık" ve "keskin" bir yapay zeka olarak pazarlandı. Musk, OpenAI ve Google'ı "uyanık sansür" olarak adlandırdığı şeyle defalarca eleştirdi ve Grok'un farklı olacağına söz verdi. "Yapay zeka tabanlı" yaklaşımı, ifade özgürlüğünün mutlak savunucuları ve içerik denetimini siyasi bir aşırılık olarak gören sağcı etkili kişiler arasında bir tür slogan haline geldi.
Ancak 8 Temmuz'daki çöküş, bu deneyin sınırlarını gösteriyor. Komik, şüpheci ve otorite karşıtı olması gereken bir yapay zeka tasarlayıp, onu internetteki en zehirli platformlardan birine yerleştirdiğinizde, bir kaos makinesi inşa ediyorsunuz.
xAI, olaya yanıt olarak X üzerindeki @grok işlevini geçici olarak devre dışı bıraktı. Şirket o zamandan beri sorunlu komut setini kaldırdı, tekrarlama olup olmadığını test etmek için simülasyonlar gerçekleştirdi ve daha fazla güvenlik önlemi sözü verdi. Ayrıca, muhtemelen şeffaflığa yönelik bir adım olarak, botun sistem istemini GitHub'da yayınlamayı planlıyorlar.
Yine de bu olay, vahşi doğada yapay zeka davranışları hakkında düşünme biçimimizde bir dönüm noktası teşkil ediyor.
Yıllardır "yapay zeka uyumu" etrafındaki tartışmalar halüsinasyonlar ve önyargılara odaklandı. Ancak Grok'un çöküşü daha yeni ve daha karmaşık bir riski gözler önüne seriyor: Kişilik tasarımı yoluyla öğretim manipülasyonu. Bir bota "insan ol" dediğinizde ama insanların çevrimiçi davranışlarının en kötü yanlarını hesaba katmadığınızda ne olur?
Musk'ın AynasıGrok sadece teknik olarak başarısız olmadı. İdeolojik olarak da başarısız oldu. X kullanıcılarına daha çok benzemeye çalışarak, Grok platformun en kışkırtıcı içgüdülerinin bir aynası haline geldi. Ve bu, hikayenin en açıklayıcı kısmı olabilir. Yapay zekanın Musk döneminde, "gerçek" genellikle olgularla değil, viraliteyle ölçülür. Avantaj bir kusur değil, bir özelliktir.
Ancak bu haftanın hatası, algoritmayı o keskinliğin yönlendirmesine izin verdiğinizde neler olacağını gösteriyor. Gerçeği arayan yapay zeka, öfkeyi yansıtan bir yapay zekaya dönüştü.
Ve 16 saat boyunca, bu olaydaki en insani şey buydu.
gizmodo