Il lato oscuro dell’IA: come ChatGPT è finito nelle mani di hacker, spie e regimi autoritari

Quando un prompt su ChatGPT diventa strumento di propaganda e punto di partenza per un attacco informatico, non siamo più nel campo delle ipotesi: sta già accadendo su scala globale. OpenAI, nel report “Disrupting Malicious Uses of AI: June 2025”, racconta come i suoi modelli di intelligenza artificiale siano stati sfruttati da attori malevoli in tutto il mondo per organizzare truffe, campagne di disinformazione, operazioni di spionaggio e attacchi informatici.
Il documento ricostruisce nel dettaglio una serie di attività individuate e interrotte nei mesi scorsi. Azioni che spaziano dai crimini digitali all’ingegneria sociale avanzata, fino a vere e proprie operazioni di influenza occulta. Curriculum falsi generati in Corea del Nord per ottenere lavori da remoto, campagne filo-Cremlino rilanciate su Telegram, bot filippini che lodano il governo Marcos, malware scritti riga per riga grazie all’IA generativa.
Un salto di qualità nell’abuso dell’intelligenza artificiale, che oggi consente a cybercriminali e regimi autoritari di replicare e amplificare le proprie azioni con la stessa facilità con cui un utente comune scrive una mail o chiede un riassunto.
Tuttavia, se da un lato l’IA potenzia l’efficacia e la scala degli attacchi, dall’altro offre anche nuovi strumenti per contrastarli. Ogni prompt inviato, ogni uso anomalo dei modelli lascia dietro di sé una scia di segnali digitali: pattern d’uso, tracce nei log, anomalie nei comportamenti. Questi indizi diventano preziose fonti di analisi per i team di sicurezza, che possono così identificare minacce emergenti, bloccare account sospetti e rafforzare le difese efficacemente.
Disinformazione, hacking e truffe: il diario degli attacchi con AIDal phishing politico agli schemi piramidali, il report di OpenAI mette in luce la sorprendente versatilità con cui l’IA viene sfruttata da attori malevoli in ogni angolo del pianeta.
In Corea del Nord, operatori sospettati di essere legati al regime avrebbero utilizzato ChatGPT per generare identità fittizie, curriculum plausibili e profili LinkedIn credibili, con l’obiettivo di ottenere impieghi da remoto presso aziende estere, in particolare statunitensi. In alcuni casi, i contratti prevedevano anche la consegna di dispositivi aziendali — come laptop — che sarebbero poi stati controllati a distanza, consentendo potenzialmente l’accesso a infrastrutture digitali sensibili.
Pechino, con l’operazione “Sneer Review”, avrebbe animato campagne social filo-governative sulla questione di Taiwan, rimbalzando post e commenti preconfezionati su TikTok, Reddit e X per orientare la conversazione globale.
A Manila, la campagna “High Five” avrebbe trasformato l’IA in cassa di risonanza elettorale: like, emoji e slogan pro-Marcos partivano da account fasulli manovrati da un’agenzia di marketing. Parallelamente, i gruppi di hacker APT5 e APT15 — entrambi collegati alla Cina — avrebbero impiegato modelli linguistici per forzare credenziali e mappare infrastrutture strategiche negli Stati Uniti, reti militari comprese.
Non mancano i tentativi di divide-et-impera: con “Uncle Spam”, falsi veterani americani avrebbero diffuso messaggi contrapposti su X e Bluesky per esasperare le fratture interne. Infine, in Cambogia, la truffa “Wrong Number” prometteva guadagni facili via chat: messaggi automatici attiravano le vittime, chiedevano un “anticipo” e le spingevano poi a reclutare nuovi adepti, alimentando un lucroso schema piramidale.
Finti giornalisti con ChatGPT: spiati accademici e policy makerTra i casi più sofisticati descritti nel report spicca l’operazione “VAGue Focus”, attribuita ad attori con presunti legami con la Cina. Fingendosi giornalisti freelance o analisti di centri di ricerca inesistenti, i responsabili avrebbero contattato esperti, accademici e funzionari pubblici occidentali. L’obiettivo era raccogliere informazioni riservate su temi sensibili per Pechino, come le politiche statunitensi verso Taiwan o le dinamiche interne delle istituzioni europee. ChatGPT è stata utilizzata per scrivere messaggi realistici, simulare un linguaggio giornalistico, generare nomi e biografie di copertura, e tradurre automaticamente i testi. In alcuni casi, venivano offerte piccole somme in cambio di interviste o documenti scritti. In altri, le richieste risultavano più invasive, come l’accesso a materiali sensibili che potevano essere riutilizzati per analisi strategiche o operazioni di controinformazione.
IA e disinformazione: nel mirino le elezioni tedescheIl report descrive anche una campagna sospettata di voler influenzare le elezioni federali tedesche del 2025. L’operazione, che OpenAI riconduce con cautela a reti filorusse, avrebbe diffuso slogan, meme e articoli pseudogiornalistici tramite canali Telegram e il sito Pravda DE, per sostenere l’AfD, criticare la NATO e delegittimare Berlino. L’IA generativa sarebbe stata decisiva per calibrare i messaggi in un tedesco naturale e culturalmente coerente.
Dallo sviluppo al debug: l’IA al servizio del malwareUn altro caso di rilievo è l’operazione “ScopeCreep”, che secondo il report sarebbe stata condotta da un attore con probabili legami con la Russia. Gli hacker avrebbero utilizzato ChatGPT per sviluppare un malware multi-stadio, mascherato da tool legittimo per gamer. Il codice era scritto in Go — un linguaggio di programmazione creato da Google, apprezzato per la sua velocità ed efficienza — e includeva script PowerShell, ossia sequenze di comandi per automatizzare operazioni su computer Windows. L’intelligenza artificiale sarebbe stata impiegata non solo per scrivere il codice, ma anche per perfezionarlo, risolvere errori e trovare modi per eludere i controlli di sicurezza come Windows Defender. Un esempio di come i modelli generativi possano trasformarsi in veri e propri assistenti nella creazione di software malevolo.
La Repubblica