Yapay zeka bile güvensizlikten muzdariptir, sorgulanırsa krize girer

Yapay Zeka bile güvensizlikten muzdariptir : ifadelerinden biri sorgulandığında , GPT4 gibi büyük ölçekli dil modelleri (LM'ler) zorlanma eğilimindedir ve daha az güvenilir yanıtlar sağlar . Bu, Google DeepMind ve University College London'daki araştırmacılar tarafından yürütülen ve bilim camiası tarafından henüz hakemli olmayan çalışmaları barındıran platform olan arXiv'de yayınlanan bir çalışmayla kanıtlanmıştır. LM'ler, harika iletişim becerilerine sahip Yapay Zeka sistemleridir, ancak dilleri esasen doğru kelime dizisiyle ilgili istatistiksel analizlerden kaynaklanır. Finanstan sağlık hizmetlerine kadar birçok sektörde giderek daha fazla kullanıldıklarından, LM'lerin yüksek bir doğruluk ve güvenilirlik seviyesine sahip olması esastır . Ancak çalışma, bazı durumlarda güvenlerinin sarsılabileceğini göstermektedir. Özellikle, büyük dil modelleri, muhatapları bir ifadeye yanlış karşıt argümanlar kullanarak yanıt verdiğinde güven kaybederler ve tersine, rahatlık bulduklarında çok fazla güven kazanırlar. Bu özellik özellikle Gemma 3, GPT4o ve o1-preview gibi modellerde ortaya çıkmıştır.
Araştırmacılar, bir LLM öğrencisi yanlış bir cevap verdiğinde, ancak muhatabı yine de onunla aynı fikirde olduğunda , modelin güvenini artırdığını ve zıt kanıtlar olsa bile ifadesine bağlı kalma eğiliminde olduğunu gözlemlediler. Tersine, doğru bir ifade verdiğinde ve muhatap tarafından sorgulandığında , model kolayca güvenini kaybetme eğilimindedir; başka bir deyişle, yazarlar, "aksi tavsiyelere aşırı önem verirler ve bu da ilk cevaplarına olan güvenlerini önemli ölçüde kaybetmelerine neden olur" diye yazıyor. Bu gözlemler , yapay zekâ tarafından üretilen metinlerin hala birçok potansiyel hata kaynağına maruz kaldığını ve LLM'lerin gerçekten güvenilir araçlar olabilmesi için ne kadar çok çalışma yapılması gerektiğini gösteren diğer birçok çalışmaya katkıda bulunuyor.
ansa