OpenAI démantèle dix opérations d'IA malveillantes liées à la Chine, la Russie, l'Iran et la Corée du Nord

OpenAI , une société leader dans le domaine de l'intelligence artificielle, a révélé qu'elle luttait activement contre l'utilisation abusive généralisée de ses outils d'IA par des groupes malveillants de pays comme la Chine, la Russie, la Corée du Nord et l'Iran.
Dans un nouveau rapport publié plus tôt cette semaine, OpenAI a annoncé avoir réussi à fermer dix réseaux majeurs en seulement trois mois, démontrant ainsi son engagement à lutter contre les menaces en ligne.
Le rapport met en évidence la manière dont des acteurs malveillants utilisent l'IA pour créer des tromperies en ligne convaincantes. Par exemple, des groupes liés à la Chine ont utilisé l'IA pour publier massivement de faux commentaires et articles sur des plateformes comme TikTok et X, se faisant passer pour de vrais utilisateurs dans le cadre d'une campagne baptisée Sneer Review.
Parmi ces attaques figurait une fausse vidéo accusant l'activiste pakistanais Mahrang Baloch d'apparaître dans un film pornographique. Ils ont également utilisé l'IA pour générer du contenu afin de polariser les débats aux États-Unis, notamment en créant de faux profils d'anciens combattants américains afin d'influencer les débats sur des sujets comme les tarifs douaniers, dans le cadre d'une opération baptisée « Uncle Spam ».
De leur côté, des acteurs nord-coréens ont créé de faux CV et de fausses candidatures grâce à l'IA. Ils ont recherché des emplois informatiques à distance dans le monde entier, susceptibles de voler des données. Parallèlement, des groupes russes ont utilisé l'IA pour développer des logiciels dangereux et planifier des cyberattaques. L'une de leurs opérations, ScopeCreep, visait à créer des logiciels malveillants conçus pour voler des informations et échapper à la détection.
Un groupe iranien, STORM-2035 (alias APT42, Imperial Kitten et TA456 ), a utilisé à plusieurs reprises l'IA pour générer des tweets en espagnol et en anglais sur l'immigration américaine, l'indépendance de l'Écosse et d'autres sujets politiques sensibles. Ils ont créé de faux comptes sur les réseaux sociaux, souvent avec des photos de profil masquées, pour se faire passer pour des résidents locaux.
L'IA est également utilisée dans des escroqueries généralisées. Dans un cas notable, une opération probablement basée au Cambodge, baptisée « Wrong Number », a utilisé l'IA pour traduire des messages dans le cadre d'une arnaque aux tâches. Ce stratagème promettait une rémunération élevée pour des activités en ligne simples, comme aimer des publications sur les réseaux sociaux.
L'arnaque suivait un schéma clair : un « ping » (contact à froid) proposant des salaires élevés, un « zing » (instaurer la confiance et susciter l'enthousiasme grâce à de faux gains), et enfin, un « sting » (exiger de l'argent des victimes en échange de prétendues récompenses plus importantes). Ces arnaques étaient diffusées en plusieurs langues, dont l'anglais, l'espagnol et l'allemand, et redirigeaient les victimes vers des applications comme WhatsApp et Telegram .
OpenAI détecte et bannit activement les comptes impliqués dans ces activités, utilisant l'IA comme un « multiplicateur de force » pour ses équipes d'enquête, affirme l'entreprise. Cette approche proactive signifie souvent que nombre de ces campagnes malveillantes n'ont suscité que peu d'engagement authentique ou eu un impact limité dans le monde réel avant d'être démantelées.
Outre sa lutte contre les abus de l'IA , OpenAI est également confrontée à un important défi juridique concernant la confidentialité des utilisateurs. Le 13 mai, un tribunal américain, présidé par la juge Ona T. Wang, a ordonné à OpenAI de préserver les conversations ChatGPT.
Cette ordonnance fait suite à une plainte pour violation de droits d'auteur déposée par le New York Times et d'autres éditeurs, qui accusent OpenAI d'avoir utilisé illégalement des millions de leurs articles protégés par le droit d'auteur pour entraîner ses modèles d'IA. Ils soutiennent que la capacité de ChatGPT à reproduire, résumer ou imiter leur contenu sans autorisation ni rémunération menace leur modèle économique.
OpenAI a protesté contre cette ordonnance, affirmant qu'elle l'oblige à aller à l'encontre de son engagement en matière de confidentialité et de contrôle des utilisateurs. L'entreprise a souligné que les utilisateurs partagent souvent des informations personnelles sensibles dans les chats, s'attendant à ce qu'elles soient supprimées ou restent privées. Cette exigence légale représente un défi complexe pour OpenAI.
HackRead