Une étude américaine remet en question l'efficacité de la vérification des faits sur X

Les « notes communautaires » de X – le système de vérification des faits généré par les utilisateurs qui a remplacé la vérification professionnelle – seraient inefficaces pour lutter contre la désinformation. Plus de 90 % d'entre elles ne sont jamais publiées, et le plus grand fournisseur de notes en anglais n'est pas humain, mais un robot conçu pour signaler les arnaques aux cryptomonnaies : il en a produit plus de 43 000 entre 2021 et mars de cette année.
C'est ce que révèle une étude américaine menée par l'ONG Digital Democracy Institute of the Americas (DDIA), qui vise à raviver les critiques sur les décisions de plusieurs réseaux sociaux, dont Meta, de retirer leurs programmes de modération et de vérification de contenu.
Depuis plusieurs années, les utilisateurs de X peuvent ajouter un commentaire appelé « note communautaire » à une publication pour apporter du contexte ou signaler un bug. Les autres utilisateurs votent ensuite pour déterminer si le commentaire est utile ou non. Si suffisamment de personnes votent pour, la note est rendue visible par tous.
Après avoir étudié 1,76 million de ces notes entre janvier 2021 et mars 2025, l'ONG américaine a conclu que « la grande majorité – plus de 90 % – ne parvient jamais au public ». En 2023, 9,5 % des notes soumises en anglais ont été publiées, contre 4,9 % en 2025. La tendance est inversée pour les notes en espagnol (3,6 % en 2023, 7,1 % en 2025).
Platform X a introduit le système de notes communautaires sous le mandat de sa PDG Linda Yaccarino, qui a annoncé sa démission mercredi. Aucune raison n'a été donnée, mais l'annonce est intervenue au moment même où Grok, le chatbot d'intelligence artificielle d'Elon Musk, suscitait un tollé en ligne suite à ses propos antisémites.
ansa