Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Italy

Down Icon

Le côté obscur de l'IA : comment ChatGPT est tombé entre les mains de pirates informatiques, d'espions et de régimes autoritaires

Le côté obscur de l'IA : comment ChatGPT est tombé entre les mains de pirates informatiques, d'espions et de régimes autoritaires

Lorsqu'une invite sur ChatGPT devient un outil de propagande et le point de départ d'une cyberattaque, nous ne sommes plus dans le domaine des hypothèses : cela se produit déjà à l'échelle mondiale. OpenAI, dans le rapport « Disrupting Malicious Uses of AI: June 2025 » , explique comment ses modèles d'intelligence artificielle ont été exploités par des acteurs malveillants du monde entier pour organiser des escroqueries, des campagnes de désinformation, des opérations d'espionnage et des cyberattaques.

Le document reconstitue en détail une série d'activités identifiées et interrompues ces derniers mois. Des actions allant de la criminalité numérique à l'ingénierie sociale avancée, jusqu'à de véritables opérations d'influence secrètes . De faux CV créés en Corée du Nord pour obtenir des emplois à distance, des campagnes pro-Kremlin relancées sur Telegram, des robots philippins vantant le gouvernement Marcos, des logiciels malveillants écrits ligne par ligne grâce à l'IA générative.

Un saut qualitatif dans l’abus de l’intelligence artificielle, qui permet aujourd’hui aux cybercriminels et aux régimes autoritaires de reproduire et d’amplifier leurs actions avec la même facilité avec laquelle un utilisateur ordinaire écrit un e-mail ou demande un résumé.

Mais si l'IA accroît l'efficacité et l'ampleur des attaques, elle fournit également de nouveaux outils pour les contrer. Chaque message envoyé, chaque utilisation anormale des modèles laisse derrière elle une série de signaux numériques : habitudes d'utilisation, traces de journaux, anomalies comportementales. Ces indices deviennent de précieuses sources d'analyse pour les équipes de sécurité, qui peuvent ainsi identifier les menaces émergentes, bloquer les comptes suspects et renforcer efficacement les défenses.

Désinformation, piratage et escroqueries : le journal des attaques d'IA

Du phishing politique aux systèmes pyramidaux, le rapport d’OpenAI met en évidence la surprenante polyvalence avec laquelle l’IA est exploitée par des acteurs malveillants aux quatre coins de la planète.

En Corée du Nord, des agents soupçonnés d'être liés au régime auraient utilisé ChatGPT pour générer de fausses identités, des CV plausibles et des profils LinkedIn crédibles afin d'obtenir des emplois à distance dans des entreprises étrangères , notamment américaines. Dans certains cas, les contrats prévoyaient également la livraison d'appareils de l'entreprise, tels que des ordinateurs portables, qui pouvaient ensuite être contrôlés à distance, permettant ainsi potentiellement l'accès à des infrastructures numériques sensibles.

Pékin, dans le cadre de l'opération Sneer Review, aurait alimenté des campagnes pro-gouvernementales sur les réseaux sociaux concernant la question de Taïwan , en diffusant des publications et des commentaires en conserve sur TikTok, Reddit et X pour orienter la conversation mondiale.

À Manille, la campagne « High Five » aurait transformé l'IA en caisse de résonance électorale : les likes, les émojis et les slogans pro-Marcos auraient été issus de faux comptes gérés par une agence de marketing. Parallèlement, les groupes de hackers APT5 et APT15, tous deux liés à la Chine, auraient utilisé des modèles linguistiques pour forcer les identifiants et cartographier les infrastructures stratégiques des États-Unis , notamment les réseaux militaires.

Les tentatives de division pour mieux régner ne manquent pas : avec « Uncle Spam », de faux vétérans américains auraient diffusé des messages contradictoires sur X et Bluesky afin d'exacerber les tensions internes. Enfin, au Cambodge, l'arnaque du « Wrong Number » promettait des gains faciles via le chat : des messages automatiques attiraient les victimes, leur demandaient une « avance » et les incitaient ensuite à recruter de nouveaux abonnés, alimentant ainsi un système pyramidal lucratif.

Faux journalistes avec ChatGPT : universitaires et décideurs politiques espionnés

Parmi les cas les plus sophistiqués décrits dans le rapport figure l'opération « VAGue Focus » , attribuée à des acteurs ayant des liens présumés avec la Chine. Se faisant passer pour des journalistes indépendants ou des analystes de centres de recherche fictifs, les auteurs auraient contacté des experts, des universitaires et des responsables publics occidentaux. L'objectif était de recueillir des informations confidentielles sur des sujets sensibles pour Pékin, tels que la politique américaine à l'égard de Taïwan ou la dynamique interne des institutions européennes. ChatGPT a été utilisé pour rédiger des messages réalistes, simuler un langage journalistique , générer des noms et des biographies de couverture, et traduire automatiquement des textes. Dans certains cas, de petites sommes étaient offertes en échange d'interviews ou de documents écrits. Dans d'autres, les demandes étaient plus invasives, comme l'accès à des documents sensibles pouvant être réutilisés pour des analyses stratégiques ou des opérations de contre-information .

IA et désinformation : les élections allemandes dans le collimateur

Le rapport décrit également une campagne soupçonnée de vouloir influencer les élections fédérales allemandes de 2025. L'opération, qu'OpenAI retrace prudemment à des réseaux pro-russes, aurait diffusé des slogans, des mèmes et des articles pseudo-journalistiques via les chaînes Telegram et le site web Pravda DE , pour soutenir l'AfD, critiquer l'OTAN et délégitimer Berlin. L'IA générative a joué un rôle crucial pour adapter les messages à un allemand naturel et culturellement cohérent.

Du développement au débogage : l’IA au service des logiciels malveillants

Un autre cas notable est l'opération « ScopeCreep », qui, selon le rapport, aurait été menée par un acteur potentiellement lié à la Russie. Des pirates auraient utilisé ChatGPT pour développer un malware en plusieurs étapes, se faisant passer pour un outil de jeu légitime. Le code était écrit en Go – un langage de programmation créé par Google, reconnu pour sa rapidité et son efficacité – et incluait des scripts PowerShell, des séquences de commandes permettant d'automatiser des tâches sur les ordinateurs Windows. L'intelligence artificielle aurait été utilisée non seulement pour écrire le code, mais aussi pour le peaufiner, corriger des bugs et trouver des moyens de contourner des contrôles de sécurité comme Windows Defender. Cet exemple illustre comment les modèles génératifs peuvent devenir de véritables assistants dans la création de logiciels malveillants.

La Repubblica

La Repubblica

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow