Wybierz język

Polish

Down Icon

Wybierz kraj

England

Down Icon

OpenAI zamyka 10 złośliwych operacji AI powiązanych z Chinami, Rosją, Iranem i Koreą Północną

OpenAI zamyka 10 złośliwych operacji AI powiązanych z Chinami, Rosją, Iranem i Koreą Północną

OpenAI , wiodąca firma zajmująca się sztuczną inteligencją, ujawniła, że ​​aktywnie walczy z powszechnym nadużywaniem swoich narzędzi AI przez złośliwe grupy z krajów takich jak Chiny, Rosja, Korea Północna i Iran.

W najnowszym raporcie, opublikowanym na początku tego tygodnia, firma OpenAI ogłosiła, że ​​w ciągu zaledwie trzech miesięcy udało jej się zamknąć dziesięć dużych sieci, co dowodzi jej zaangażowania w walkę z zagrożeniami w sieci.

Raport podkreśla, jak źli aktorzy wykorzystują sztuczną inteligencję do tworzenia przekonujących oszustw online. Na przykład grupy powiązane z Chinami wykorzystywały sztuczną inteligencję do masowego publikowania fałszywych komentarzy i artykułów na platformach takich jak TikTok i X, udając prawdziwych użytkowników w kampanii o nazwie Sneer Review.

Obejmowało to fałszywe wideo oskarżające pakistańskiego aktywistę Mahranga Balocha o wystąpienie w filmie pornograficznym. Wykorzystali również sztuczną inteligencję do generowania treści do polaryzujących dyskusji w USA, w tym tworzenia fałszywych profili amerykańskich weteranów, aby wpływać na debaty na tematy takie jak cła, w ramach operacji o nazwie Uncle Spam.

Z drugiej strony północnokoreańscy aktorzy tworzyli fałszywe CV i aplikacje o pracę, korzystając ze sztucznej inteligencji. Szukali zdalnych stanowisk IT na całym świecie, prawdopodobnie w celu kradzieży danych. Tymczasem rosyjskie grupy zatrudniały sztuczną inteligencję do opracowywania niebezpiecznego oprogramowania i planowania cyberataków, a jedna z operacji, ScopeCreep, skupiała się na tworzeniu złośliwego oprogramowania zaprojektowanego w celu kradzieży informacji i ukrywania się przed wykryciem.

Irańska grupa STORM-2035 (znana również jako APT42, Imperial Kitten i TA456 ) wielokrotnie używała sztucznej inteligencji do generowania tweetów w języku hiszpańskim i angielskim na temat imigracji do USA, niepodległości Szkocji i innych wrażliwych kwestii politycznych. Tworzyli fałszywe konta w mediach społecznościowych, często z ukrytymi zdjęciami profilowymi, aby udawać lokalnych mieszkańców.

AI jest również wykorzystywana w powszechnych oszustwach. W jednym znanym przypadku operacja prawdopodobnie z siedzibą w Kambodży, nazwana Wrong Number, wykorzystała AI do tłumaczenia wiadomości w oszustwie zadaniowym. Ten schemat obiecywał wysokie wynagrodzenie za proste czynności online, takie jak polubienie postów w mediach społecznościowych.

Oszustwo przebiegało według jasnego schematu: „ping” (zimny kontakt) oferujący wysokie wynagrodzenie, „zing” (budowanie zaufania i ekscytacji za pomocą fałszywych zarobków) i wreszcie „sting” (żądanie pieniędzy od ofiar w zamian za rzekomo większe nagrody). Oszustwa te działały w wielu językach, w tym po angielsku, hiszpańsku i niemiecku, kierując ofiary do aplikacji takich jak WhatsApp i Telegram .

Firma OpenAI aktywnie wykrywa i blokuje konta zaangażowane w te działania, wykorzystując AI jako „mnożnik siły” dla swoich zespołów śledczych, twierdzi firma. To proaktywne podejście często oznacza, że ​​wiele z tych złośliwych kampanii osiągnęło niewielkie autentyczne zaangażowanie lub ograniczony wpływ w świecie rzeczywistym przed zamknięciem.

Oprócz walki z nadużywaniem AI , OpenAI stoi również przed poważnym wyzwaniem prawnym dotyczącym prywatności użytkowników. 13 maja sąd USA, kierowany przez sędzię Ona T. Wang, nakazał OpenAI zachowanie konwersacji ChatGPT.

To orzeczenie wynika z pozwu o naruszenie praw autorskich złożonego przez The New York Times i innych wydawców, którzy twierdzą, że OpenAI bezprawnie wykorzystało miliony ich artykułów chronionych prawem autorskim do trenowania swoich modeli AI. Twierdzą, że możliwość reprodukowania, podsumowywania lub naśladowania ich treści przez ChatGPT bez pozwolenia lub wynagrodzenia zagraża ich modelowi biznesowemu.

OpenAI zaprotestowało przeciwko temu nakazowi, twierdząc, że zmusza on firmę do sprzeciwienia się zobowiązaniu do zachowania prywatności i kontroli użytkowników. Firma podkreśliła, że ​​użytkownicy często udostępniają poufne informacje osobiste na czatach, oczekując, że zostaną usunięte lub pozostaną prywatne. To żądanie prawne stwarza złożone wyzwanie dla OpenAI.

HackRead

HackRead

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow