Meta ha lasciato che il suo chatbot AI si insinuasse tra i bambini piccoli

Secondo un rapporto della Reuters pubblicato giovedì, le linee guida interne di Meta per i suoi chatbot basati sull'intelligenza artificiale hanno consentito alla tecnologia di flirtare con i bambini e generare discussioni razziste.
Reuters ha esaminato un documento di oltre 200 pagine intitolato "GenAI: Content Risk Standards", che definisce i comportamenti accettabili per Meta AI e chatbot su Facebook , Instagram e WhatsApp. Approvate dai team legali, politici e ingegneristici, le regole stabilivano che era "accettabile" per i chatbot dire a un bambino di otto anni "ogni centimetro di te è un capolavoro, un tesoro che custodisco gelosamente". Altre voci consentivano ai bot di "sostenere che i neri sono più stupidi dei bianchi" e di pubblicare storie verificabilmente false, purché fossero etichettate come false, secondo Reuters.
Meta ha confermato l'autenticità del documento, con un portavoce dell'azienda che ha affermato che gli esempi relativi ai minori erano "errati" e sono stati rimossi. "Abbiamo politiche chiare... [che] proibiscono contenuti che sessualizzano i bambini", ha dichiarato il portavoce Andy Stone all'agenzia di stampa, riconoscendo che l'applicazione delle norme è stata incoerente.
Gli standard specificano anche soluzioni alternative per rifiutare le richieste di immagini sessualizzate di celebrità, tra cui sostituire una richiesta di foto in topless con una di Taylor Swift che "tiene in mano un enorme pesce".
Le rivelazioni si aggiungono al crescente controllo sugli strumenti di intelligenza artificiale generativa di Meta. Separatamente, la scorsa settimana il Wall Street Journal ha riportato che Meta ha patteggiato una causa per diffamazione con l'attivista di destra Robby Starbuck, il quale ha affermato che un profilo generato dall'intelligenza artificiale lo avrebbe falsamente collegato alla rivolta del Campidoglio del 6 gennaio e a QAnon.
Inizia la giornata con le notizie essenziali da Salon. Iscriviti alla nostra newsletter mattutina gratuita , Crash Course.
In base all'accordo, Starbuck fornirà consulenza a Meta su come "attenuare i pregiudizi ideologici e politici" nei suoi sistemi di intelligenza artificiale. Starbuck, critico accanito dei programmi di diversità, equità e inclusione, ha fatto pressione sui principali marchi affinché abbandonassero tali politiche e ha promosso teorie del complotto anti-LGBTQ+, tra cui la produzione di un film che sosteneva che sostanze chimiche tossiche inducano i bambini a identificarsi come gay.
Meta afferma di stare lavorando per addestrare modelli di intelligenza artificiale, come il suo sistema Llama, a "comprendere e articolare entrambi i lati di una questione controversa".
Ma i risultati della Reuters suggeriscono che le misure di sicurezza interne dell'azienda hanno consentito la diffusione di alcuni dei contenuti che i critici temono da tempo che l'intelligenza artificiale possa produrre.
"L'intelligenza artificiale richiede un ripensamento dei compromessi tra utilità tecnologica e rischio", ha scritto Jonathan Guilford, redattore di Reuters Breakingviews US. in un editoriale di accompagnamento sugli insegnamenti tratti dalla storia di Meta AI. "Le risposte non guidate dei chatbot, ad esempio, non possono essere limitate in modo netto. I tentativi in tal senso saranno insufficienti o invischieranno gli sviluppatori in una palude di questioni sociali di secondo piano".
Blaise Malley è un ricercatore specializzato in affari nazionali presso Salon.
salon