WormGPT retorna usando modelos Grok e Mixtral desbloqueados

Apesar de seu suposto encerramento em 2023, o WormGPT, um tipo de ferramenta de inteligência artificial (IA) sem censura para atos ilegais, está retornando. Uma nova pesquisa da Cato CTRL, a equipe de inteligência de ameaças da Cato Networks, revela que o WormGPT agora está explorando poderosos modelos de grande linguagem (LLMs) de empresas de IA renomadas, incluindo a Grok, da xAI, e a Mixtral, da Mistral AI.
Isso significa que os cibercriminosos estão usando técnicas de jailbreak para contornar os recursos de segurança integrados desses LLMs avançados (sistemas de IA que geram texto com aparência humana, como o ChatGPT da OpenAI). Ao fazer o jailbreak, os criminosos forçam a IA a produzir "respostas sem censura a uma ampla gama de tópicos", mesmo que sejam "antiéticos ou ilegais", observaram os pesquisadores em sua postagem de blog compartilhada com o Hackread.com.
O WormGPT apareceu pela primeira vez em março de 2023 em um fórum online clandestino chamado Hack Forums, com seu lançamento público ocorrendo em meados de 2023, conforme relatado pelo Hackread.com. O criador, conhecido pelo pseudônimo Last, teria começado a desenvolver a ferramenta em fevereiro de 2023.
O WormGPT foi inicialmente baseado no GPT-J , um LLM de código aberto desenvolvido em 2021. Ele era oferecido por uma taxa de assinatura, normalmente entre € 60 e € 100 por mês, ou € 550 anualmente, com uma configuração privada custando cerca de € 5.000.
No entanto, o WormGPT original foi fechado em 8 de agosto de 2023, depois que o repórter investigativo Brian Krebs publicou uma história identificando a pessoa por trás do Last como Rafael Morais, o que gerou grande atenção da mídia.
Apesar disso, o WormGPT tornou-se uma marca reconhecida para um novo grupo dessas ferramentas. O pesquisador de segurança Vitaly Simonovich, da Cato Networks, declarou: "O WormGPT agora serve como uma marca reconhecida para uma nova classe de LLMs sem censura".
Ele acrescentou que essas novas versões não são criações inteiramente novas, mas sim criadas por criminosos que modificam habilmente os LLMs existentes. Eles fazem isso alterando instruções ocultas chamadas prompts do sistema e, possivelmente, treinando a IA com dados ilegais.
A pesquisa da Cato CTRL encontrou variantes do WormGPT não relatadas anteriormente, anunciadas em outros fóruns de crimes cibernéticos, como o BreachForums . Por exemplo, uma variante chamada " xzin0vich-WormGPT
" foi publicada em 26 de outubro de 2024, e " keanu-WormGPT
" apareceu em 25 de fevereiro de 2025. O acesso a essas novas versões é feito por meio de chatbots do Telegram, também mediante assinatura.
Por meio de seus testes, a Cato CTRL confirmou que o keanu-WormGPT é alimentado pelo Grok da xAI, enquanto o xzin0vich-WormGPT é baseado no Mixtral da Mistral AI. Isso significa que criminosos estão usando com sucesso LLMs comerciais de ponta para gerar conteúdo malicioso, como e-mails de phishing e scripts para roubo de informações.

O surgimento dessas ferramentas, juntamente com outros LLMs sem censura, como FraudGPT e DarkBERT , mostra um mercado crescente para ferramentas de combate ao crime com tecnologia de IA e destaca o desafio constante de proteger os sistemas de IA.
J Stephen Kowski , CTO de campo da SlashNext Email Security+, comentou sobre o desenvolvimento mais recente, afirmando: “ A evolução do WormGPT mostra como os criminosos estão ficando mais inteligentes no uso de ferramentas de IA – mas sejamos honestos, essas são ferramentas de uso geral e qualquer um que as tenha criado sem esperar uso malicioso a longo prazo foi muito ingênuo. “
“ O que é realmente preocupante é que esses não são novos modelos de IA criados do zero – eles estão pegando sistemas confiáveis e quebrando suas regras de segurança para criar armas para o crime cibernético ” , alertou. “ Isso significa que as organizações precisam pensar além de apenas bloquear ferramentas nocivas conhecidas e começar a observar como o conteúdo gerado por IA se comporta, independentemente da plataforma que o criou. ”
HackRead