Meta espone i suoi utenti a un'ondata di disinformazione, denuncia una ONG

Pubblicato , aggiornato
L'annuncio da parte di Meta dell'abbandono del suo programma di fact-checking e dei suoi sistemi di rilevamento dei discorsi d'odio potrebbe comportare la cessazione del 97% del suo attuale lavoro di moderazione.
Salta la pubblicitàLa nuova politica di moderazione di Meta , la società madre di Facebook e Instagram, rischia di aumentare "disinformazione e contenuti pericolosi" su queste due reti, ha avvertito lunedì una ONG che combatte la disinformazione online. Secondo uno studio del Center for Countering Digital Hate (CCDH), l'annuncio da parte di Meta dell'abbandono del suo programma di fact-checking e dei suoi sistemi di rilevamento dei discorsi d'odio potrebbe comportare la cessazione del 97% del suo attuale lavoro di moderazione e quindi un'ondata di contenuti dannosi per gli utenti di Internet.
La ONG ha effettuato questa stima analizzando le principali modifiche annunciate da Meta il 7 gennaio, tra cui la sostituzione del fact-checking con le valutazioni della comunità e l'abbandono delle sue regole su "immigrazione, identità di genere e genere". "Meta deve spiegare ai suoi utenti perché sta abbandonando un approccio che presentava come efficace contro la disinformazione e la polarizzazione" delle opinioni, sottolinea il CCDH nel suo rapporto.
Il 7 gennaio, pochi giorni prima dell'insediamento di Donald Trump, il capo di Meta, Mark Zuckerberg, ha annunciato che avrebbe "eliminato i fact-checker e li avrebbe sostituiti con le valutazioni della comunità" , ritenendo che le elezioni avessero segnato una "svolta culturale" che dà "priorità alla libertà di espressione". Il gruppo californiano ha aggiunto di voler "semplificare" le sue regole e "abolire un certo numero di limiti riguardanti argomenti come l'immigrazione e il genere, che non sono più nel discorso dominante" . Questa inversione di tendenza è stata seguita di recente dall'annuncio di un cambiamento di politica da parte del social network X di Elon Musk.
Giovedì scorso, il consigliere più stretto di Donald Trump ha promesso di "correggere" una funzionalità di X che consente agli utenti di negare o qualificare pubblicazioni potenzialmente false, incolpando "i governi e i media tradizionali" di averla sfruttata, sullo sfondo dei dissensi con l'Ucraina. Per il direttore del CCDH Imran Ahmed, mentre le valutazioni della community restano "un'aggiunta gradita alle misure di sicurezza della piattaforma" , questo modello basato sulla partecipazione degli utenti di Internet "non può e non sarà mai in grado di sostituire completamente i team di moderazione dedicati e il rilevamento tramite intelligenza artificiale" .
L'AFP partecipa in più di 26 lingue a un programma di fact-checking sviluppato da Facebook, che paga più di 80 organi di informazione in tutto il mondo per utilizzare i loro "fact-checking" sulla sua piattaforma, su WhatsApp e su Instagram.
script-dati=https://static.lefigaro.fr/widget-video/short-ttl/video/index.js>
lefigaro