Yapay zeka görüntü etiketleme filigranları kolayca değiştirilebilir

Bilgisayar
Teknolojik Yenilik Web Sitesi Editör Ekibi - 07/03/2025

Solda gerçek bir görüntü var. Araştırmacılar buna bir semantik filigran uyguladılar, bu da bunun AI tarafından oluşturulduğunu kanıtlamalı. Sonuç sağda görülebilir. Filigranın eklenmesi görüntüde neredeyse hiç iz bırakmadı. [Görsel: MS COCO Veri Seti]
Anlamsal filigran
Bir görüntünün yapay zeka tarafından oluşturulup oluşturulmadığını kontrol etmek için görüntü dosyalarına yerleştirilen görünür veya görünmez işaretleyiciler olan filigranlara güveniyorsanız, görüntüyü doğrulamanın yeni yollarını aramak isteyebilirsiniz.
Almanya'daki Ruhr Üniversitesi Bochum'dan Andreas Müller, "Saldırganların şaşırtıcı derecede basit yöntemler kullanarak semantik filigranları taklit edebildiğini veya tamamen kaldırabildiğini gösterdik" dedi.
Görüntü oluşturma sürecinin derinliklerine gömülmüş olan sözde semantik filigranlar, özellikle sağlam ve kaldırılması zor olarak kabul edildi. Ancak ekip, bu sözde dayanıklı filigranları oluşturma tekniklerinde temel güvenlik açıklarını ortaya çıkardı.
Araştırmacılar iki saldırı stratejisi keşfettiler. İlk yöntem, baskı saldırısı olarak adlandırılır ve gizli temsiller düzeyinde, yani AI görüntü oluşturucularının üzerinde çalıştığı bir görüntünün altta yatan dijital imzasında çalışır. Gerçek bir görüntünün gizli temsili -tabiri caizse altta yatan dijital yapısı- filigran içeren bir görüntününkine benzeyecek şekilde kasıtlı olarak değiştirilir.
Bu, referans görüntü başlangıçta yalnızca AI tarafından oluşturulmuş olsa bile filigranı herhangi bir gerçek görüntüye aktarmayı mümkün kılar. Bu nedenle bir saldırgan, bir AI sağlayıcısını herhangi bir görüntünün filigranlı görünmesini sağlayarak kandırabilir - ve dolayısıyla yapay olarak oluşturulmuş - gerçek görüntüleri etkili bir şekilde sahte gibi gösterebilir.
"İkinci yöntem olan tavsiye saldırısı, filigranlı bir görüntüyü gizli alana geri döndürme ve ardından yeni bir komutla yeniden oluşturma yeteneğini kullanır. Bu, aynı filigranı taşıyan yeni oluşturulmuş keyfi görüntülerle sonuçlanır," diye açıkladı Profesör Erwin Quiring.

Saldırı tekniklerinin gösterimi. [Görsel: Andreas Müller ve diğerleri (2025)]
Savunmasız
Daha da kötüsü, her iki saldırı da hedef filigranı içeren tek bir referans görüntüsü gerektirir; farklı model mimarilerinde yürütülebilir; ve hem eski UNet tabanlı sistemler hem de daha yeni difüzyon dönüştürücüler için çalışır. Modeller arasındaki bu esneklik, güvenlik açıklarını özellikle endişe verici hale getirir.
Araştırmacılara göre bu güvenlik açığının etkileri çok geniş kapsamlı: Şu anda her iki saldırıya karşı da etkili bir savunma yok. Müller, "Bu, AI tarafından üretilen içeriği ileride nasıl güvenli bir şekilde etiketleyip doğrulayabileceğimiz sorusunu gündeme getiriyor," dedi ve uzun vadede güven ve dayanıklılığı garanti altına almak için semantik filigranlamaya yönelik mevcut yaklaşımın temelden yeniden düşünülmesi gerektiğini ekledi.
Makale: Yayılma Modelleri için Anlamsal Filigranlara Yönelik Kara Kutu Sahteciliği Saldırıları
Yazarlar: Andreas Müller, Denis Lukovnikov, Jonas Thietke, Asja Fischer, Erwin Quiring İnceleme: 2025 Bilgisayar Görüntüsü ve Desen Tanıma Bildirileri Bağlantı: https://arxiv.org/pdf/2412.03283Diğer haberler:
inovacaotecnologica