Büyük yapay zeka modellerine ilişkin yeni AB kuralları yolda

Bilgi paylaşımı, telif hakkı uyumluluğu ve şeffaflık: Bunlar, genel amaçlı yapay zeka (GPAI) modelleri geliştiren şirketlerin bugün itibarıyla Avrupa'da uymak zorunda kalacağı yeni yükümlülükler. Yapay Zeka Yasası'nın yürürlüğe girmesinden bir yıl sonra, yasaklı yapay zeka uygulamalarının yasaklanması ve zorunlu eğitimin getirilmesinin ardından, şimdi sıra büyük yapay zeka modelleri için kurallarda.
GPAI nedir?Bunlar, büyük miktarda veriyle eğitilmiş ve genellikle diğer yapay zeka sistemlerine entegre edilmiş, çok çeşitli görevleri yerine getirebilen modellerdir. GPAI yönergelerinde Komisyon, 10^23 FLOP'u aşan hesaplama kaynaklarıyla eğitilmiş ve metinden dil (metin veya ses biçiminde), görüntü veya video üretebilen bir algoritmanın bu kategoriye girdiğini açıklığa kavuşturmuştur.
Model ayrıca önemli bir genellik göstermeli ve çok çeşitli farklı görevleri yetkin bir şekilde yerine getirebilmelidir. Bu nedenle, GPAI'ler belirtilen işlem gücüyle eğitilmiş dil modellerini içerir; satranç veya video oyunları oynamak veya fotoğraf çözünürlüğünü artırmak için tasarlanmış olanları değil.
Ardından, Yapay Zeka Yasası'nın ek yükümlülükler getirdiği sistemik risk modelleri geliyor. Bunlar, Avrupa pazarında önemli bir etki yaratma kapasitesine sahip algoritmalardır. Bu durumda, dikkate alınması gereken eşik 10^25 FLOP'tur ve Komisyon bunları resen belirleme yetkisine sahiptir.
Şeffaflık yükümlülükleriHer şeyden önce, tedarikçilerin daha şeffaf olmaları gerekiyor. Yapay Zeka Yasası, tedarikçilerin eğitim sürecinin ayrıntıları da dahil olmak üzere modelle ilgili teknik dokümanları hazırlamalarını ve saklamalarını ve talep üzerine yetkililere sunmalarını gerektiriyor.
Şirketlerin ayrıca, GPAI'yi bir yapay zeka sistemine entegre etmeyi planlayan alt tedarikçilere, modelin yeteneklerini ve sınırlamalarını anlamalarına ve yasal yükümlülüklerine uymalarına yardımcı olmak için bilgi ve belge sağlamaları gerekecektir.
Yapay Zeka Yasası, toplanması gereken asgari bilgileri listeler. Ayrıca, GPAI Davranış Kuralları, bu gereklilikleri karşılamak için standart ve kullanımı kolay bir şablon yayınlamıştır.
Telif hakkı korumasıYasa ayrıca sağlayıcıların, hak saklılıklarını tespit etmek ve uygulamak için son teknolojiyi kullanarak Avrupa telif hakkı yasalarına uymak için etkili politikalar uygulamasını da zorunlu kılıyor.
Davranış Kuralları ayrıca bu yeni yükümlülüğün karşılanmasına yönelik bir dizi pratik çözümü de sıralıyor.
Model eğitim raporuYapay zeka şirketleri ayrıca algoritmayı eğitmek için kullanılan içeriğin yeterince ayrıntılı bir özetini yayınlamak zorundadır. Sağlayıcıların uyum sağlamasına yardımcı olmak için Komisyon, şirketlerin referans olarak kullanabileceği ve vatandaşların ve telif hakkı sahiplerinin kendilerini bilgilendirmelerine ve korumalarına olanak tanıyan bir şablon yayınladı.
Sistemik risk durumunda kurallarBugünden itibaren, sistemik olarak riskli modeller için ek gerekliliklerin de karşılanması gerekiyor. Sağlayıcılar, standart protokoller ve son teknoloji araçlar kullanarak bir model değerlendirmesi yapmalı. Bu modellerden kaynaklanan potansiyel sistemik riskler de değerlendirilmeli ve azaltılmalı ve ciddi olaylar yetkililere bildirilmelidir.
Bu şirketlerin ayrıca, hırsızlık, kötüye kullanım veya arızalardan kaynaklanan yaygın sonuçları önlemek için hem model hem de fiziksel altyapısı için yeterli siber güvenlik korumasını sağlamaları gerekiyor.
Davranış Kuralları, sistemik risk içeren yapay zeka modellerine özel bir bölüm ayırarak, bu riskleri yönetmeye yönelik somut uygulamaları sıralıyor.
La Repubblica