Выберите язык

Russian

Down Icon

Выберите страну

England

Down Icon

OpenAI пресекает 10 вредоносных операций ИИ, связанных с Китаем, Россией, Ираном и Северной Кореей

OpenAI пресекает 10 вредоносных операций ИИ, связанных с Китаем, Россией, Ираном и Северной Кореей

OpenAI , ведущая компания в области искусственного интеллекта, заявила, что активно борется с широко распространенным нецелевым использованием своих инструментов ИИ вредоносными группами из таких стран, как Китай, Россия, Северная Корея и Иран.

В новом отчете, опубликованном ранее на этой неделе, компания OpenAI сообщила, что успешно закрыла десять крупных сетей всего за три месяца, продемонстрировав свою приверженность борьбе с интернет-угрозами.

В отчете подчеркивается, как злоумышленники используют ИИ для создания убедительных онлайн-обманов. Например, группы, связанные с Китаем, использовали ИИ для массовой публикации фейковых комментариев и статей на таких платформах, как TikTok и X, выдавая себя за реальных пользователей в кампании под названием Sneer Review.

Это включало в себя фальшивое видео, обвиняющее пакистанского активиста Махранга Балоча в съемках порнографического фильма. Они также использовали ИИ для генерации контента для поляризационных дискуссий в США, включая создание поддельных профилей ветеранов США, чтобы влиять на дебаты по таким темам, как тарифы, в операции под названием Uncle Spam.

С другой стороны, северокорейские деятели создавали поддельные резюме и заявления о приеме на работу с использованием ИИ. Они искали удаленную работу в сфере ИТ по всему миру, вероятно, для кражи данных. Тем временем российские группировки использовали ИИ для разработки опасного программного обеспечения и планирования кибератак, при этом одна операция, ScopeCreep, была сосредоточена на создании вредоносного ПО, предназначенного для кражи информации и сокрытия от обнаружения.

Иранская группа STORM-2035 (также известная как APT42, Imperial Kitten и TA456 ) неоднократно использовала ИИ для создания твитов на испанском и английском языках об иммиграции в США, независимости Шотландии и других деликатных политических вопросах. Они создавали поддельные аккаунты в социальных сетях, часто со скрытыми фотографиями профиля, чтобы выдавать себя за местных жителей.

ИИ также используется в широко распространенных мошенничествах. В одном известном случае операция, вероятно, базирующаяся в Камбодже, под названием Wrong Number, использовала ИИ для перевода сообщений для мошенничества с заданиями. Эта схема обещала высокую оплату за простые действия в Интернете, например, лайки в социальных сетях.

Мошенничество следовало четкой схеме: «пинг» (холодный контакт) с предложением высокой заработной платы, «зинг» (создание доверия и волнения с помощью фальшивых доходов) и, наконец, «укус» (требование денег от жертв за предполагаемое более крупное вознаграждение). Эти мошеннические действия осуществлялись на нескольких языках, включая английский, испанский и немецкий, направляя жертв в такие приложения, как WhatsApp и Telegram .

OpenAI активно обнаруживает и блокирует аккаунты, вовлеченные в эту деятельность, используя ИИ в качестве «множителя силы» для своих следственных групп, утверждает компания. Этот проактивный подход часто означает, что многие из этих вредоносных кампаний не достигли подлинного взаимодействия или ограниченного реального воздействия, прежде чем были закрыты.

В дополнение к своей борьбе с неправомерным использованием ИИ , OpenAI также сталкивается со значительными правовыми проблемами, касающимися конфиденциальности пользователей. 13 мая суд США во главе с судьей Она Т. Ванг приказал OpenAI сохранить разговоры ChatGPT.

Этот приказ вытекает из иска о нарушении авторских прав, поданного The New York Times и другими издателями, которые утверждают, что OpenAI незаконно использовал миллионы их статей, защищенных авторским правом, для обучения своих моделей ИИ. Они утверждают, что способность ChatGPT воспроизводить, обобщать или имитировать их контент без разрешения или компенсации угрожает их бизнес-модели.

OpenAI опротестовала этот приказ, заявив, что он вынуждает компанию пойти против своих обязательств по обеспечению конфиденциальности и контроля пользователей. Компания подчеркнула, что пользователи часто делятся конфиденциальной личной информацией в чатах, ожидая, что она будет удалена или останется конфиденциальной. Это юридическое требование создает сложную проблему для OpenAI.

HackRead

HackRead

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow