Meta pozwoliła swojemu chatbotowi opartemu na sztucznej inteligencji (AI) podglądać małe dzieci

Według raportu Reutersa opublikowanego w czwartek, wewnętrzne wytyczne Meta dotyczące chatbotów opartych na sztucznej inteligencji dopuszczają, aby technologia ta flirtowała z dziećmi i wywoływała rasistowskie kłótnie.
Agencja Reuters zapoznała się z ponad 200-stronicowym dokumentem zatytułowanym „GenAI: Content Risk Standards”, który określa akceptowalne zachowania dla Meta AI i chatbotów na Facebooku , Instagramie i WhatsAppie. Zatwierdzone przez zespoły prawne, polityczne i inżynieryjne, zasady stanowiły, że „dopuszczalne” jest, aby chatboty mówiły ośmiolatkowi: „Każdy cal twojego ciała to arcydzieło – skarb, który głęboko cenię”. Według Reutersa, inne wpisy pozwalały botom „argumentować, że czarnoskórzy są głupsi od białych” i publikować weryfikowalne fałszywe historie, pod warunkiem, że zostały oznaczone jako nieprawdziwe.
Meta potwierdziła autentyczność dokumentu, a rzecznik firmy stwierdził, że przykłady dotyczące nieletnich były „błędne” i zostały usunięte. „Mamy jasne zasady… [które] zakazują treści seksualizujących dzieci” – powiedział agencji prasowej rzecznik Andy Stone, przyznając, że egzekwowanie prawa było niespójne.
Normy opisują również sposoby obejścia problemu odrzucania próśb o treści seksualnej skierowanych do gwiazd, w tym zamianę podpowiedzi w postaci zdjęcia topless na zdjęcie Taylor Swift „trzymającej ogromną rybę”.
Te rewelacje potęgują wzmożoną kontrolę nad generatywnymi narzędziami sztucznej inteligencji Meta. W osobnym artykule, „Wall Street Journal” doniósł w zeszłym tygodniu, że Meta zawarła ugodę w sprawie o zniesławienie z prawicowym aktywistą Robbym Starbuckiem, który twierdził, że profil wygenerowany przez sztuczną inteligencję fałszywie powiązał go z zamieszkami w Kapitolu 6 stycznia i ruchem QAnon.
Rozpocznij dzień od najważniejszych wiadomości z Salonu. Zapisz się na nasz bezpłatny poranny newsletter Crash Course.
Na mocy ugody Starbuck będzie doradzał firmie Meta w zakresie „łagodzenia stronniczości ideologicznej i politycznej” w jej systemach sztucznej inteligencji. Starbuck, zagorzały krytyk programów dotyczących różnorodności, równości i integracji, wywierał presję na duże marki, aby porzuciły takie polityki, i promował teorie spiskowe wymierzone w osoby LGBTQ+, w tym produkcję filmu, który twierdził, że toksyczne substancje chemiczne powodują u dzieci identyfikację homoseksualną.
Firma Meta twierdzi, że pracuje nad trenowaniem modeli sztucznej inteligencji, takich jak system Llama, aby „rozumieć i artykułować obie strony spornego problemu”.
Jednak ustalenia agencji Reuters wskazują, że wewnętrzne zabezpieczenia firmy umożliwiły powstanie niektórych treści, których krytycy od dawna obawiali się, że mogą być tworzone przez sztuczną inteligencję.
„Sztuczna inteligencja wymaga ponownego przemyślenia kompromisów między użytecznością technologiczną a ryzykiem” – napisał Jonathan Guilford, redaktor Reuters Breakingviews US w towarzyszącym artykule redakcyjnym na temat wniosków płynących z historii Meta AI. „Na przykład niesterowanych odpowiedzi chatbotów nie da się precyzyjnie ograniczyć. Próby takiego ograniczenia będą albo niewystarczające, albo uwikłają deweloperów w bagno problemów społecznych trzeciej szyny”.
Blaise Malley jest ekspertem ds. krajowych w Salon.
salon