Ramkowanie za dotknięciem przycisku: jak sztuczna inteligencja staje się dezinformacją

Sztuczna inteligencja maskuje propagandę pod postacią statystyk – i zniekształca historię. Neutralność? Daleko jej do tego. Artykuł gościnny.
Rosjanie wkrótce „wrócą” pod Bramę Brandenburską. A przynajmniej spróbują to zrobić, podejmując kolejną wojnę agresywną, która narusza prawo międzynarodowe. Wielu wpływowych polityków i przedstawicieli aparatu państwowego, w „think tankach” (think tankach?), a także w mediach, zgadza się z tym.
Jednocześnie, zgodnie z najnowszymi badaniami empirycznymi, wykorzystanie tzw. sztucznej inteligencji staje się coraz ważniejsze w codziennym życiu młodych ludzi w tym kraju. 62 proc. z nich korzysta z aplikacji AI, takich jak Chat GPT, Meta AI, Grok (X), Google AI itp. – najczęściej w kontekście szkoły/pracy domowej (65 proc.), dla rozrywki (52 proc.) lub podczas wyszukiwania informacji (43 proc.).
Biorąc pod uwagę rosnące w Niemczech wrogie nastawienie do Rosji i jej przywódców, ciekawie będzie zobaczyć, jakie odpowiedzi udzielają obecnie instancje sztucznej inteligencji na proste pytanie: „Czy Rosja kiedykolwiek zaatakowała Niemcy?”
Najbardziej zintegrowaną sztuczną inteligencją w codziennym korzystaniu z mediów, nawet w Niemczech, jest „Meta AI” Marka Zuckerberga . Niezwykle popularny metakomunikator WhatsApp od jakiegoś czasu oferuje tę instancję AI praktycznie wszystkim użytkownikom za darmo. To całkiem sporo osób ze wszystkich pokoleń, od przedszkolaków po pradziadków – około 50 milionów osób, czyli około 80% populacji w wieku 14 lat i starszych (młodsi użytkownicy nie są uwzględnieni w tym badaniu). Według Statista, młodsi użytkownicy korzystają z WhatsApp jeszcze częściej niż starsi.
Czyją historię opowiadają algorytmy?Ta meta-sztuczna inteligencja odpowiada na pytanie „Czy Rosja kiedykolwiek zaatakowała Niemcy?”
Zrzut ekranu 1 | Transkrypcja Meta-AI : Tak, Rosja, a raczej Związek Radziecki, zaatakował Niemcy podczas II wojny światowej. 22 czerwca 1942 roku Rzesza Niemiecka pod wodzą Adolfa Hitlera rozpoczęła atak na Związek Radziecki w ramach operacji Barbarossa. [...]
Pierwsze zdanie jest kluczowe, ponieważ wielu użytkowników ledwo czyta dalej. Odpowiada to również klasycznej strukturze wiadomości, jaką jest „odwrócona piramida”, co oznacza: najważniejsze na początek: „Tak, Rosja, a raczej Związek Radziecki, zaatakował Niemcy podczas II wojny światowej”. To stwierdzenie otwierające jest niezwykłym stwierdzeniem. Żeby nie rzec, kontrfaktycznym. A może nawet fake newsem? Dezinformacją? Porównajmy to z obecną sytuacją: operacje ukraińskiego wojska przeciwko rosyjskiemu obwodowi kurskiemu w 2025 roku z pewnością nie zostałyby określone przez Zachód jako „wojna agresywna”. Byłyby one raczej opisane jako działania w ramach uzasadnionej obrony przed rosyjską wojną agresywną.
W każdym razie taka odpowiedź dotycząca sztucznej inteligencji nie wydaje się być zwykłym zbiegiem okoliczności, ponieważ jeśli zadamy to samo pytanie, wyszukując w Google aplikację sztucznej inteligencji grupy Alphabet (Google, YouTube itp.), początek odpowiedzi jest uderzająco podobny do odpowiedzi Meta-AI:
Zrzut ekranu 2 | Transkrypcja Google : Tak, Rosja (a raczej Związek Radziecki) zaatakowała Niemcy w ramach wojny niemiecko-radzieckiej, która rozpoczęła się inwazją na Związek Radziecki 22 czerwca 1941 r. [...]
Aby (lepiej) zrozumieć tego typu odpowiedzi, należy zrozumieć, jak takie „duże modele językowe” funkcjonują jako modele lingwistyki obliczeniowej. Algorytmy te, zasilane ogromnymi ilościami danych jako materiałem szkoleniowym przez zazwyczaj słabo opłacanych pracowników, zużywających ogromne ilości energii (ludzkiej i innej), dosłownie nic nie rozumieją, ale bardzo szybko ekstrapolują, tj. obliczają prawdopodobieństwa na podstawie dostarczonego im materiału szkoleniowego. W sensie: Która sekwencja znaków najprawdopodobniej będzie następna? Można rozsądnie założyć, że biorąc pod uwagę obecny stan materiału szkoleniowego, zwłaszcza w przypadku zachodnich modeli sztucznej inteligencji, po słowie „Rosja” stosunkowo często pojawiają się terminy „sprzeczny z prawem międzynarodowym” i „wojna agresywna”. I odwrotnie. To może już wyjaśniać niektóre z tych zjawisk.
Bociany wróciły – dzięki sztucznej głupocieModele sztucznej inteligencji (przynajmniej obecnie) nie mają pojęcia o przyczynowości, czyli związkach przyczynowo-skutkowych. Ludzie natomiast potrafią precyzyjnie rozpoznawać takie zależności. Nie tylko dlatego, że (mogą) odpowiednio działać. Znamy przykład bociana przynoszącego dzieci. Jest to jednak jedynie korelacja, czyli współistnienie zjawisk. W końcu obecność bocianów oczywiście nie powoduje narodzin dzieci. Czynnikiem wyjaśniającym, „brakującym ogniwem”, że tak powiem, są obszary wiejskie: wiejskość, a nie miejska. Na obszarach wiejskich jest (więcej) bocianów, częściowo ze względu na tamtejsze zasoby żywności, a z pewnych przyczyn historycznych i społecznych na wsi rodzi się więcej dzieci niż w miastach. Berlin ma obecnie najniższy wskaźnik urodzeń na kobietę w Niemczech . Nie wynika to jednak z małej liczby bocianów, które mogłyby przynieść dzieci. Możliwy związek przyczynowo-skutkowy mógłby być następujący: jeśli mieszkasz na wsi, masz tendencję do posiadania większej liczby dzieci i, z podobnych powodów, masz większe prawdopodobieństwo spotkania bocianów. Przyczyna i skutek. I właśnie tej typowo ludzkiej zdolności do poznania i działania brakuje aplikacjom AI (przynajmniej na razie). Choćby dlatego, że nie potrafią działać niezależnie, a tym samym osiągać i rozpoznawać zupełnie nowych rzeczy. Modele AI najlepiej radzą sobie z rutynowym obliczaniem, przyporządkowując je do istniejących, predefiniowanych kategorii.
Inny aspekt odpowiedzi jest godny uwagi: najwyraźniej obie kwestionowane aplikacje sztucznej inteligencji nie rozumieją praktycznych relacji podmiot-dopełnienie w takich zdaniach. Obie odpowiedzi można by rozumieć w ten sposób (i wtedy teoretycznie byłyby nawet poprawne, choć mało kto zrozumiałby je w ten sposób): „Tak, Rosja lub Związek Radziecki (jako dopełnienie, jako ofiara, dA) zaatakował Niemcy (jako podmiot, jako sprawca, dA) podczas II wojny światowej”. Możliwe, że modele językowe już zrozumiały pytanie w ten sposób, dokonując w ten sposób przypisania postaci na podstawie swojego materiału szkoleniowego, które najprawdopodobniej jest poprawne w tym momencie – Rosja jako agresor, Niemcy są atakowane.
Nawiasem mówiąc, cała ta sprawa nie jest halucynacją, jak często twierdzi się, aby wyjaśnić pozorne awarie. Nie, te aplikacje sztucznej inteligencji nigdy nie fantazjują (co również jest możliwe tylko dla ludzi), lecz raczej wykonują dokładnie to, do czego zostały zaprogramowane: tworzą wysoce prawdopodobne przypisania z maksymalną prędkością w oparciu o materiał treningowy. To, czy i w jakim stopniu odpowiada to temu, w co my, ludzie, wierzymy (lub moglibyśmy wierzyć), jest naszym problemem, a nie problemem sztucznej inteligencji.
Aplikacje sztucznej inteligencji Grok (na platformie X Elona Muska) i ChatGPT (Open AI) wyrażają się w nieco bardziej zróżnicowany sposób, ale w istocie (pierwsze zdanie) bardzo podobnie, odpowiadając na to samo pytanie: „Tak, Rosja zaatakowała Niemcy”, zamiast najpierw jasno stwierdzić, że w obu wojnach światowych deklaracje wojny i ataki pochodziły z Niemiec.
Zrzut ekranu 3 | Transkrypcja GROK : Tak, Rosja atakowała Niemcy kilkukrotnie w historii, szczególnie w kontekście dwóch wojen światowych: [...]
Zrzut ekranu 4 | Transkrypcja ChatGPT : Tak, Rosja atakowała Niemcy militarnie na przestrzeni dziejów, ale tylko w pewnych kontekstach historycznych — szczególnie podczas obu wojen światowych. [...]
Oczywiście, takie odpowiedzi legitymizują dominującą narrację, że Niemcy muszą (ponownie) przygotować się na (nowy) atak ze strony Rosji. Istnieją jednak inne opcje.
Zrzut ekranu 5 | Transkrypcja Meta-AI : Nie, zachodni alianci (USA, Wielka Brytania, Francja itd.) nie prowadzili wojny agresywnej przeciwko Niemcom od 1944 r. [...]
Kiedy sztuczna inteligencja zniekształca historię: Wschód jako agresor, Zachód jako wyzwolicielOpierając się na tym samym materiale szkoleniowym, meta-sztuczna inteligencja odpowiada na pytanie (wprowadzone): „Czy zachodni alianci prowadzili wojnę agresywną przeciwko Niemcom od 1944 roku?”, nie twierdząco (jak w przypadku Rosji/Związku Radzieckiego), ale stanowczo przecząco. To oczywiście potwierdza dominujący pogląd, ponieważ w czasach słabnącej koncentracji uwagi całkiem sporo osób prawdopodobnie przeczyta nawet pierwsze słowo.
Okazuje się, że w tej historii kryje się dziwny paradoks: chociaż wszyscy czterej alianci walczyli w tej samej wojnie przeciwko nazistowskim Niemcom i ich sojusznikom, zachodnie aplikacje sztucznej inteligencji przypisują „atak na Niemcy” wschodnim aliantom – podczas gdy zachodni alianci są czczeni jako „wyzwoliciele”.
To, jak powiedziałem, nie jest halucynacją ani nawet rozkazem Muska, Zuckerberga czy kogokolwiek innego. Nie, w tego rodzaju dyskursie obecne relacje władzy strukturalnie się ugruntowują. Ktokolwiek ma władzę, by zdefiniować bazę danych jako materiał szkoleniowy i opracować algorytmy, automatycznie zyskuje i reprodukuje suwerenność interpretacyjną. Kiedy demokratycznie ukonstytuowane państwa twierdzą, że ich misją jest zdolność do wojny i w tym celu dążą do masowych cięć socjalnych, niszczenia środowiska i ograniczania praw itd., potrzebne są dominujące idee, a w szczególności wyraźne obrazy wroga, które nadal integrują przynajmniej milczącą względną większość. Sztuczna inteligencja po raz kolejny okazuje się mało inteligentna, ale tym bardziej potencjalnym narzędziem wojny.
Sebastian Köhler jest specjalistą od komunikacji i mediów oraz specjalistą od reklamy.
Berliner-zeitung