WormGPT torna alla ribalta utilizzando i modelli Grok e Mixtral jailbroken

Nonostante la sua chiusura annunciata nel 2023, WormGPT , un tipo di strumento di intelligenza artificiale (IA) non censurato per attività illegali, sta tornando alla ribalta. Una nuova ricerca di Cato CTRL, il team di threat intelligence di Cato Networks, rivela che WormGPT sta ora sfruttando potenti modelli linguistici di grandi dimensioni (LLM) di note aziende di IA, tra cui Grok di xAI e Mixtral di Mistral AI.
Ciò significa che i criminali informatici stanno utilizzando tecniche di jailbreaking per aggirare le funzionalità di sicurezza integrate di questi LLM avanzati (sistemi di intelligenza artificiale che generano testo simile a quello umano, come ChatGPT di OpenAI). Effettuando il jailbreaking, i criminali costringono l'IA a produrre "risposte non censurate a un'ampia gamma di argomenti", anche se "non etici o illegali", hanno osservato i ricercatori nel loro post sul blog condiviso con Hackread.com.
WormGPT è apparso per la prima volta nel marzo 2023 su un forum online underground chiamato Hack Forums, e la sua pubblicazione è avvenuta più tardi, a metà del 2023, come riportato da Hackread.com. Il creatore, noto con lo pseudonimo Last, avrebbe iniziato a sviluppare lo strumento nel febbraio 2023.
WormGPT era inizialmente basato su GPT-J , un LLM open source sviluppato nel 2021. Era offerto dietro pagamento di un abbonamento, in genere compreso tra 60 e 100 € al mese o 550 € all'anno, con un'installazione privata che costava circa 5.000 €.
Tuttavia, il WormGPT originale è stato chiuso l'8 agosto 2023, dopo che il giornalista investigativo Brian Krebs ha pubblicato un articolo che identificava la persona dietro Last come Rafael Morais, suscitando grande attenzione da parte dei media.
Nonostante ciò, WormGPT è ormai diventato un marchio riconosciuto per una nuova classe di tali strumenti. Il ricercatore di sicurezza Vitaly Simonovich di Cato Networks ha dichiarato: "WormGPT è ora un marchio riconosciuto per una nuova classe di LLM non censurati".
Ha aggiunto che queste nuove versioni non sono creazioni del tutto nuove, ma sono state sviluppate da criminali che hanno modificato abilmente gli LLM esistenti. Lo fanno alterando istruzioni nascoste chiamate prompt di sistema e, possibilmente, addestrando l'IA con dati illegali.
La ricerca di Cato CTRL ha individuato varianti di WormGPT mai segnalate in precedenza, pubblicizzate su altri forum dedicati alla criminalità informatica come BreachForums . Ad esempio, una variante denominata " xzin0vich-WormGPT
" è stata pubblicata il 26 ottobre 2024, mentre " keanu-WormGPT
" è apparsa il 25 febbraio 2025. L'accesso a queste nuove versioni avviene tramite i chatbot di Telegram, anch'essi in abbonamento.
Attraverso i test, Cato CTRL ha confermato che keanu-WormGPT è basato su Grok di xAI, mentre xzin0vich-WormGPT è basato su Mixtral di Mistral AI. Ciò significa che i criminali stanno utilizzando con successo LLM commerciali di alto livello per generare contenuti dannosi come email di phishing e script per rubare informazioni.
L'emergere di questi strumenti, insieme ad altri LLM non censurati come FraudGPT e DarkBERT , mostra un mercato in crescita per gli strumenti di analisi criminale basati sull'intelligenza artificiale e sottolinea la sfida costante di proteggere i sistemi di intelligenza artificiale.
J Stephen Kowski , Field CTO di SlashNext Email Security+, ha commentato l'ultimo sviluppo affermando: " L'evoluzione di WormGPT dimostra come i criminali stiano diventando più intelligenti nell'uso degli strumenti di intelligenza artificiale. Ma diciamoci la verità, si tratta di strumenti di uso generale e chiunque li abbia sviluppati senza aspettarsi un utilizzo dannoso a lungo termine è stato piuttosto ingenuo " .
" Ciò che è davvero preoccupante è che questi non sono nuovi modelli di intelligenza artificiale creati da zero: stanno prendendo sistemi affidabili e violandone le norme di sicurezza per creare armi per la criminalità informatica " , ha avvertito. " Questo significa che le organizzazioni devono andare oltre il semplice blocco di strumenti noti come dannosi e iniziare a osservare il comportamento dei contenuti generati dall'intelligenza artificiale, indipendentemente dalla piattaforma che li ha creati " .
HackRead