WormGPT возвращается, используя взломанные модели Grok и Mixtral

Несмотря на сообщение о закрытии в 2023 году, WormGPT , тип нецензурируемого инструмента искусственного интеллекта (ИИ) для незаконных действий, возвращается. Новое исследование Cato CTRL, команды по анализу угроз в Cato Networks, показывает, что WormGPT теперь использует мощные большие языковые модели (LLM) от известных компаний ИИ, включая Grok от xAI и Mixtral от Mistral AI.
Это означает, что киберпреступники используют методы джейлбрейка, чтобы обойти встроенные функции безопасности этих продвинутых LLM (систем ИИ, которые генерируют текст, похожий на человеческий, например, ChatGPT от OpenAI). Взламывая их, преступники заставляют ИИ выдавать «неотцензурированные ответы на широкий спектр тем», даже если они «неэтичны или незаконны», отметили исследователи в своем сообщении в блоге, опубликованном на Hackread.com.
WormGPT впервые появился в марте 2023 года на подпольном онлайн-форуме Hack Forums, а его публичный релиз состоялся позднее, в середине 2023 года, как сообщает Hackread.com. Создатель, известный под псевдонимом Last, как сообщается, начал разработку инструмента в феврале 2023 года.
Первоначально WormGPT был основан на GPT-J , LLM с открытым исходным кодом, разработанном в 2021 году. Он предлагался за абонентскую плату, обычно от 60 до 100 евро в месяц или 550 евро в год, а частная настройка стоила около 5000 евро.
Однако оригинальный WormGPT был закрыт 8 августа 2023 года после того, как журналист-расследователь Брайан Кребс опубликовал статью, в которой назвал человека, стоящего за Last, Рафаэлем Мораисом, что привлекло широкое внимание СМИ.
Несмотря на это, WormGPT теперь стал узнаваемым брендом для новой группы таких инструментов. Исследователь безопасности Виталий Симонович из Cato Networks заявил: «WormGPT теперь служит узнаваемым брендом для нового класса нецензурированных LLM».
Он добавил, что эти новые версии не являются полностью новыми творениями, а созданы преступниками, которые ловко изменяют существующие LLM. Они делают это, изменяя скрытые инструкции, называемые системными подсказками, и, возможно, обучая ИИ нелегальными данными.
Исследование Cato CTRL обнаружило ранее не зарегистрированные варианты WormGPT, рекламируемые на других форумах по киберпреступности, таких как BreachForums . Например, вариант под названием « xzin0vich-WormGPT
» был опубликован 26 октября 2024 года, а « keanu-WormGPT
» появился 25 февраля 2025 года. Доступ к этим новым версиям осуществляется через чат-ботов Telegram, также на основе подписки.
В ходе тестирования Cato CTRL подтвердил, что keanu-WormGPT работает на базе Grok от xAI, а xzin0vich-WormGPT — на базе Mixtral от Mistral AI. Это означает, что преступники успешно используют топовые коммерческие LLM для генерации вредоносного контента, например фишинговых писем и скриптов для кражи информации.

Появление этих инструментов, наряду с другими нецензурированными LLM, такими как FraudGPT и DarkBERT , свидетельствует о растущем рынке инструментов для борьбы с преступностью на базе ИИ и подчеркивает постоянную проблему обеспечения безопасности систем ИИ.
Дж. Стивен Коуски , технический директор SlashNext Email Security+, прокомментировал последнюю разработку, заявив: « Эволюция WormGPT показывает, как преступники становятся умнее в использовании инструментов ИИ, но давайте будем честны, это инструменты общего назначения, и любой, кто создает эти инструменты, не ожидая их вредоносного использования в долгосрочной перспективе, был довольно наивен » .
« Что действительно беспокоит, так это то, что это не новые модели ИИ, созданные с нуля — они берут проверенные системы и нарушают их правила безопасности, чтобы создать оружие для киберпреступности », — предупредил он. « Это означает, что организациям нужно думать не только о блокировке известных вредоносных инструментов, но и начать изучать, как ведет себя контент, созданный ИИ, независимо от того, какая платформа его создала » .
HackRead