Wybierz język

Polish

Down Icon

Wybierz kraj

Russia

Down Icon

Prorosyjska kampania dezinformacyjna wykorzystuje bezpłatne narzędzia AI do napędzania „eksplozji treści”

Prorosyjska kampania dezinformacyjna wykorzystuje bezpłatne narzędzia AI do napędzania „eksplozji treści”
Narzędzia AI przeznaczone dla konsumentów dodatkowo wzmocniły dezinformację popieraną przez Rosję, ponieważ pojawiło się mnóstwo zdjęć, filmów, kodów QR i fałszywych stron internetowych.
Ilustracja fotograficzna: WIRED Staff; Getty Images

Według nowych badań opublikowanych w zeszłym tygodniu , prorosyjska kampania dezinformacyjna wykorzystuje narzędzia sztucznej inteligencji konsumentów, aby napędzać „eksplozję treści” skupioną na zaostrzaniu istniejących napięć wokół globalnych wyborów, Ukrainy i imigracji oraz innych kontrowersyjnych kwestii.

Kampania, znana pod wieloma nazwami, w tym Operation Overload i Matryoshka (inni badacze również powiązali ją ze Storm-1679 ), działa od 2023 roku i została powiązana z rządem rosyjskim przez wiele grup, w tym Microsoft i Institute for Strategic Dialogue . Kampania rozpowszechnia fałszywe narracje, podszywając się pod media w celu siania podziałów w krajach demokratycznych. Podczas gdy kampania jest skierowana do odbiorców na całym świecie, w tym w USA , jej głównym celem jest Ukraina. Setki zmanipulowanych przez sztuczną inteligencję filmów z kampanii próbowały podsycać prorosyjskie narracje.

W raporcie opisano, jak w okresie od września 2024 r. do maja 2025 r. ilość treści tworzonych przez osoby prowadzące kampanię drastycznie wzrosła i osiągnęła miliony wyświetleń na całym świecie.

W swoim raporcie badacze zidentyfikowali 230 unikalnych treści promowanych przez kampanię w okresie od lipca 2023 r. do czerwca 2024 r., w tym zdjęcia, filmy, kody QR i fałszywe strony internetowe. Jednak w ciągu ostatnich ośmiu miesięcy Operation Overload wyprodukował łącznie 587 unikalnych treści, z których większość została utworzona przy pomocy narzędzi AI, powiedzieli badacze.

Naukowcy stwierdzili, że wzrost treści był napędzany przez konsumenckie narzędzia AI, które są dostępne bezpłatnie online. Ten łatwy dostęp pomógł w napędzaniu taktyki kampanii „amalgamacji treści”, w której osoby zarządzające operacją były w stanie wyprodukować wiele treści promujących tę samą historię dzięki narzędziom AI.

„To oznacza zmianę w kierunku bardziej skalowalnych, wielojęzycznych i coraz bardziej wyrafinowanych taktyk propagandowych” – napisali w raporcie badacze z Reset Tech, londyńskiej organizacji non-profit, która śledzi kampanie dezinformacyjne, oraz Check First, fińskiej firmy zajmującej się oprogramowaniem. „Kampania znacznie zwiększyła produkcję nowych treści w ciągu ostatnich ośmiu miesięcy, sygnalizując zmianę w kierunku szybszych, bardziej skalowalnych metod tworzenia treści”.

Badacze byli również oszołomieni różnorodnością narzędzi i typów treści, których dotyczyła kampania. „Zaskoczyła mnie różnorodność treści, różne typy treści, których zaczęli używać” – mówi Aleksandra Atanasova, główna badaczka wywiadu open-source w Reset Tech, w wywiadzie dla WIRED. „To tak, jakby zróżnicowali swoją paletę, aby uchwycić jak najwięcej różnych kątów tych historii. Nakładają różne typy treści, jeden po drugim”.

Atanasova dodała, że ​​kampania najprawdopodobniej nie korzystała z żadnych specjalnych narzędzi AI do osiągnięcia swoich celów, lecz korzystała z generatorów głosu i obrazu opartych na sztucznej inteligencji, dostępnych dla każdego.

Choć trudno było zidentyfikować wszystkie narzędzia wykorzystywane przez działaczy kampanii, badacze byli w stanie zawęzić wybór do jednego konkretnego narzędzia: Flux AI.

Flux AI to generator tekstu do obrazu opracowany przez Black Forest Labs, niemiecką firmę założoną przez byłych pracowników Stability AI. Korzystając z narzędzia do analizy obrazu SightEngine, badacze odkryli 99-procentowe prawdopodobieństwo, że szereg fałszywych obrazów udostępnionych przez kampanię Overload — niektóre z nich rzekomo przedstawiały muzułmańskich migrantów zamieszkujących i podpalających Berlin i Paryż — zostało stworzonych przy użyciu generowania obrazów z Flux AI.

Następnie badacze byli w stanie wygenerować obrazy, które wiernie odzwierciedlają estetykę opublikowanych zdjęć, korzystając z podpowiedzi zawierających język dyskryminujący, taki jak „wściekli muzułmanie”.

Naukowcy napisali, że pokazuje to, „w jaki sposób modele AI przekształcające tekst na obraz mogą być nadużywane w celu promowania rasizmu i podsycania antymuzułmańskich stereotypów”, dodając, że budzi to „obawy etyczne dotyczące sposobu działania monitów w różnych modelach generowania AI”.

„Wprowadzamy wiele warstw zabezpieczeń, aby pomóc zapobiegać bezprawnemu nadużyciu, w tym metadane pochodzenia, które umożliwiają platformom identyfikację treści generowanych przez AI, i wspieramy partnerów we wdrażaniu dodatkowych narzędzi moderacji i pochodzenia” — napisał rzecznik Black Forest Labs w wiadomości e-mail do WIRED. „Zapobieganie nadużyciom będzie zależeć od warstw łagodzenia, a także współpracy między programistami, platformami mediów społecznościowych i organami, i nadal jesteśmy zaangażowani we wspieranie tych wysiłków”.

Atansova powiedziała w rozmowie z WIRED, że zdjęcia, które ona i jej koledzy przeglądali, nie zawierały żadnych metadanych.

Wykorzystanie AI przez Operation Overload wykorzystuje również technologię klonowania głosu AI do manipulowania filmami, aby sprawiać wrażenie, że wybitne osobistości mówią rzeczy, których nigdy nie powiedziały. Liczba filmów wyprodukowanych przez kampanię wzrosła ze 150 między czerwcem 2023 r. a lipcem 2024 r. do 367 między wrześniem 2024 r. a majem 2025 r. Badacze stwierdzili, że większość filmów w ciągu ostatnich ośmiu miesięcy wykorzystywała technologię AI do oszukiwania osób, które je oglądały.

W jednym przypadku, na przykład, kampania opublikowała w lutym na X film, w którym Isabelle Bourdon, starsza wykładowczyni i badaczka z francuskiego Uniwersytetu w Montpellier, najwyraźniej zachęcała obywateli Niemiec do angażowania się w masowe zamieszki i głosowania na skrajnie prawicową partię Alternatywa dla Niemiec (AfD) w wyborach federalnych. To było fałszywe: materiał filmowy został zaczerpnięty z filmu na oficjalnym kanale YouTube szkoły, w którym Bourdon omawia niedawno zdobytą nagrodę w dziedzinie nauk społecznych. Jednak w zmanipulowanym filmie technologia klonowania głosu AI sprawiła, że ​​wyglądało to tak, jakby zamiast tego omawiała niemieckie wybory.

Treści generowane przez sztuczną inteligencję, wyprodukowane przez Operation Overload, są udostępniane na ponad 600 kanałach Telegram, a także na kontach botów na platformach społecznościowych, takich jak X i Bluesky. W ostatnich tygodniach treści te zostały po raz pierwszy udostępnione na TikToku. Po raz pierwszy zauważono to w maju, a chociaż liczba kont była niewielka — zaledwie 13 — opublikowane filmy zostały obejrzane 3 miliony razy, zanim platforma zdegradowała konta.

„Jesteśmy bardzo czujni wobec aktorów, którzy próbują manipulować naszą platformą i usunęliśmy już konta ujęte w tym raporcie” — mówi Anna Sopel, rzeczniczka TikToka, w rozmowie z WIRED. „Wykrywamy, przerywamy i pracujemy nad tym, aby wyprzedzać tajne operacje wpływu na bieżąco i co miesiąc przejrzyście raportujemy nasze postępy”.

Badacze wskazali, że podczas gdy Bluesky zawiesił 65 procent fałszywych kont, „X podjął minimalne działania pomimo licznych raportów na temat operacji i rosnących dowodów na koordynację”. X i Bluesky nie odpowiedzieli na prośby o komentarz.

Po stworzeniu fałszywej i wygenerowanej przez sztuczną inteligencję treści przez Operation Overload, kampania robi coś niezwykłego: wysyła e-maile do setek mediów i organizacji zajmujących się weryfikacją faktów na całym świecie, podając przykłady fałszywych treści na różnych platformach, a także prosząc weryfikatorów o sprawdzenie, czy są one prawdziwe, czy nie.

Choć może się wydawać, że kampania dezinformacyjna powinna ostrzegać osoby próbujące zwalczać dezinformację o swoich działaniach, to dla prorosyjskich działaczy ostatecznym celem jest publikowanie treści online przez prawdziwą agencję informacyjną — nawet jeśli są one opatrzone etykietą „FAŁSZYWE”.

Według badaczy, od września 2024 r. wysłano do ponad 240 odbiorców do 170 000 takich wiadomości e-mail. Wiadomości zazwyczaj zawierały wiele linków do treści generowanych przez sztuczną inteligencję, ale tekst wiadomości e-mail nie został wygenerowany przy użyciu sztucznej inteligencji, powiedzieli badacze.

Grupy dezinformacyjne prorosyjskie od dawna eksperymentują z wykorzystaniem narzędzi AI w celu zwiększenia wydajności. W zeszłym roku wykazano, że grupa CopyCop , prawdopodobnie powiązana z rosyjskim rządem, używała dużych modeli językowych, czyli LLM, do tworzenia fałszywych witryn internetowych zaprojektowanych tak, aby wyglądały jak legalne media. Chociaż te próby zazwyczaj nie generują dużego ruchu, towarzysząca im promocja w mediach społecznościowych może przyciągnąć uwagę, a w niektórych przypadkach fałszywe informacje mogą znaleźć się na szczycie wyników wyszukiwania Google .

Według niedawnego raportu amerykańskiego projektu Sunlight Project rosyjskie sieci dezinformacyjne produkują co roku co najmniej 3 miliony artykułów generowanych przez sztuczną inteligencję, a treść ta zatruwa wyniki pracy chatbotów opartych na sztucznej inteligencji, takich jak ChatGPT firmy OpenAI i Gemini firmy Google.

Badacze wielokrotnie wykazali , w jaki sposób osoby zajmujące się dezinformacją korzystają z narzędzi opartych na sztucznej inteligencji. Ponieważ ludziom coraz trudniej odróżnić prawdziwe treści od generowanych przez sztuczną inteligencję, eksperci przewidują, że wzrost treści opartych na sztucznej inteligencji napędzających kampanie dezinformacyjne będzie kontynuowany.

„Oni już mają przepis, który działa” – mówi Atanasova. „Oni wiedzą, co robią”.

wired

wired

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow