Framing met één druk op de knop: hoe AI desinformatie wordt

AI vermomt propaganda als statistieken – en verdraait de geschiedenis. Neutraal? Verre van dat. Een gastartikel.
De Russen zullen binnenkort "terug" zijn bij de Brandenburger Tor. Of in ieder geval zullen ze dat proberen met de volgende agressieoorlog die het internationaal recht schendt. Veel machtige figuren in de politiek en het staatsapparaat, in "denktanks" (denktanks?), en in de media zijn het hierover eens.
Tegelijkertijd wordt het gebruik van zogenaamde kunstmatige intelligentie (AI) steeds belangrijker in het dagelijks leven van jongeren in dit land, zo blijkt uit recente empirische studies . 62 procent gebruikt AI-toepassingen zoals Chat GPT, Meta AI, Grok (X), Google AI, enz. – het vaakst in de context van school/huiswerk (65 procent), voor de lol (52 procent) of bij het zoeken naar informatie (43 procent).
Gezien de enorme vijandigheid die Duitsland opbouwt ten opzichte van Rusland en zijn leiderschap, lijkt het interessant om te zien wat AI-instanties momenteel antwoorden op de simpele vraag: "Heeft Rusland ooit Duitsland aangevallen?"
De meest geïntegreerde AI in het dagelijks mediagebruik, zelfs in Duitsland, is Mark Zuckerbergs "Meta AI". De extreem populaire meta-messenger WhatsApp biedt deze AI-instantie al geruime tijd gratis aan vrijwel alle gebruikers aan. Dat zijn behoorlijk wat mensen van alle generaties, van kleuters tot overgrootouders – zo'n 50 miljoen mensen, oftewel ongeveer 80 procent van de bevolking van 14 jaar en ouder (jongere gebruikers zijn niet in dit onderzoek meegenomen). Volgens Statista gebruiken jongere gebruikers WhatsApp zelfs meer dan oudere gebruikers.
Wiens verhaal vertellen algoritmes?Deze meta-AI beantwoordt de vraag: “Heeft Rusland ooit Duitsland aangevallen?”
Screenshot 1 | Meta-AI Transcriptie: Ja, Rusland, of liever gezegd de Sovjet-Unie, viel Duitsland aan tijdens de Tweede Wereldoorlog. Op 22 juni 1942 lanceerde het Duitse Rijk onder leiding van Adolf Hitler de aanval op de Sovjet-Unie met Operatie Barbarossa. [...]
De eerste zin is cruciaal, aangezien veel gebruikers nauwelijks verder lezen dan dit begin. Dit komt ook overeen met de klassieke nieuwsstructuur van de "omgekeerde piramide", wat betekent: het belangrijkste eerst: "Ja, Rusland, of liever de Sovjet-Unie, heeft Duitsland aangevallen in de Tweede Wereldoorlog." Deze openingszin is een opmerkelijke bewering. Om niet te zeggen contrafactisch. Misschien zelfs nepnieuws? Desinformatie? Laten we het vergelijken met de huidige situatie: de operaties van het Oekraïense leger tegen de Russische regio Koersk in 2025 zouden door het Westen nauwelijks worden omschreven als een "agressieoorlog". Ze zouden eerder worden omschreven als acties binnen het kader van een legitieme verdediging tegen de Russische agressieoorlog.
Hoe dan ook, dit soort AI-antwoord lijkt geen toeval te zijn, want als je dezelfde vraag stelt door te ‘googelen’ op de AI-toepassing van de Alphabet-groep (Google, YouTube, etc.), lijkt het begin van het antwoord opvallend veel op dat van de Meta-AI:
Schermafbeelding 2 | Google Transcriptie: Ja, Rusland (of liever gezegd de Sovjet-Unie) viel Duitsland aan als onderdeel van de Duits-Russische Oorlog, die begon met de invasie van de Sovjet-Unie op 22 juni 1941. [...]
Om dit soort antwoorden (beter) te begrijpen, moet men begrijpen hoe zulke "grote taalmodellen" functioneren als computationele linguïstische modellen. Deze algoritmen, die worden gevoed met enorme hoeveelheden data als trainingsmateriaal door doorgaans slechtbetaalde werknemers, die enorme hoeveelheden energie verbruiken (menselijk en anderszins), begrijpen letterlijk niets, maar zijn zeer snel in het extrapoleren, d.w.z. berekenen, van waarschijnlijkheden op basis van het aan hen verstrekte trainingsmateriaal. In de zin van: welke tekenreeks is waarschijnlijk de volgende? Het is redelijk om aan te nemen dat, gezien de huidige stand van het trainingsmateriaal, met name voor westerse AI-modellen, het woord "Rusland" relatief vaak wordt gevolgd door de termen "in strijd met het internationaal recht" en "aanvalsoorlog". En vice versa. Dit zou een deel van dergelijke verschijnselen al kunnen verklaren.
De ooievaars zijn terug – dankzij kunstmatige domheidAI-modellen (althans momenteel) kennen geen causaliteit, d.w.z. oorzaak-gevolgrelaties. Mensen daarentegen kunnen dergelijke relaties wél herkennen. Niet in de laatste plaats omdat ze ernaar (kunnen) handelen. We kennen het voorbeeld van de ooievaar die de kinderen brengt. Dit is echter slechts een correlatie, d.w.z. een coëxistentie van verschijnselen. De aanwezigheid van ooievaars veroorzaakt immers natuurlijk niet de geboorte van kinderen. De verklarende factor, de "missing link", om het zo maar te zeggen, is het platteland: platteland in plaats van stedelijkheid. Er zijn (meer) ooievaars op het platteland, deels vanwege de voedselvoorziening aldaar, en om bepaalde historische en sociale redenen worden er in dorpen meer kinderen geboren dan in steden. Berlijn heeft momenteel het laagste geboortecijfer per vrouw in Duitsland . Maar dit komt niet doordat er hier zo weinig ooievaars zijn die kinderen kunnen brengen. Een mogelijk causaal verband zou zijn: als je op het platteland woont, heb je de neiging om meer kinderen te krijgen en, om vergelijkbare redenen, heb je meer kans om ooievaars tegen te komen. Oorzaak en gevolg. En juist dit typisch menselijke vermogen tot cognitie en handelen ontbreekt bij AI-toepassingen (althans nog niet). Niet in de laatste plaats omdat ze niet zelfstandig kunnen handelen en daardoor compleet nieuwe dingen kunnen bereiken en herkennen. AI-modellen zijn het best in staat om routinematig te rekenen en toewijzingen te maken aan bestaande, vooraf gedefinieerde categorieën.
Een ander aspect van het antwoord is opmerkelijk: Blijkbaar missen beide ondervraagde AI-toepassingen ook inzicht in de praktische subject-objectrelaties in dergelijke zinnen. Beide antwoorden zouden zo bedoeld kunnen zijn (en zouden dan theoretisch zelfs correct zijn, hoewel vrijwel geen mens ze ooit zo zou begrijpen): "Ja, Rusland of de Sovjet-Unie (als object, als slachtoffer, dA) viel Duitsland aan (als subject, als dader, dA) in de Tweede Wereldoorlog." Het is mogelijk dat de taalmodellen de vraag al op deze manier begrepen en zo op basis van hun trainingsmateriaal een karaktertoewijzing maakten die hier en nu waarschijnlijk correct is – Rusland als agressor, Duitsland wordt aangevallen.
Overigens is het hele gebeuren geen hallucinatie, zoals vaak wordt beweerd om schijnbare mislukkingen te verklaren. Nee, deze AI-toepassingen fantaseren nooit (ook dat blijft alleen mogelijk voor mensen), maar voeren precies uit waarvoor ze geprogrammeerd zijn: zeer waarschijnlijke opdrachten razendsnel uitvoeren op basis van trainingsmateriaal. Of en in hoeverre dit overeenkomt met wat wij mensen geloven (of zouden kunnen geloven) is ons probleem, niet dat van de AI.
De AI-toepassingen Grok (op Elon Musks platform X) en ChatGPT (Open AI) uiten zich wat genuanceerder, maar in essentie (eerste zin) vrijwel gelijk, over dezelfde vraag: "Ja, Rusland heeft Duitsland aangevallen", in plaats van eerst duidelijk te stellen dat in beide wereldoorlogen de oorlogsverklaringen en aanvallen vanuit Duitsland kwamen.
Screenshot 3 | GROK Transcriptie: Ja, Rusland heeft Duitsland in de loop van de geschiedenis meerdere keren aangevallen, vooral in de context van de twee wereldoorlogen: [...]
Schermafbeelding 4 | ChatGPT -transcriptie: Ja, Rusland heeft Duitsland door de geschiedenis heen militair aangevallen, maar alleen in bepaalde historische contexten, met name tijdens de twee wereldoorlogen. [...]
Het is duidelijk dat antwoorden als deze het heersende verhaal legitimeren dat Duitsland zich (opnieuw) moet voorbereiden op een (nieuwe) aanval van Rusland. Maar er zijn andere opties.
Schermafbeelding 5 | Meta-AI Transcriptie: Nee, de westerse geallieerden (VS, Groot-Brittannië, Frankrijk, etc.) hebben sinds 1944 geen agressieoorlog meer gevoerd tegen Duitsland. [...]
Wanneer AI de geschiedenis verdraait: Het Oosten als agressor, het Westen als bevrijderGebaseerd op hetzelfde trainingsmateriaal beantwoordt de meta-AI de prompt (de ingevoerde vraag): "Hebben de westerse geallieerden sinds 1944 een agressieoorlog tegen Duitsland gevoerd?" niet met een ja (zoals in het geval van Rusland/Sovjet-Unie), maar met een volmondig nee. Dit ondersteunt natuurlijk de heersende opvatting, want in tijden van afnemende aandachtsspanne zullen nogal wat mensen waarschijnlijk zelfs het allereerste woord lezen.
Het blijkt een vreemde ironie in dit verhaal te zijn: hoewel alle vier de geallieerden in dezelfde oorlog tegen nazi-Duitsland en zijn bondgenoten vochten, schrijven westerse AI-toepassingen achteraf een "aanval op Duitsland" toe aan de oostelijke geallieerden, terwijl de westerse geallieerden worden gevierd als "bevrijders".
Dit is, zoals ik al zei, geen hallucinatie of zelfs maar een bevel van Musk of Zuckerberg of wie dan ook. Nee, in dit soort discours laten de huidige machtsverhoudingen zich structureel gelden. Wie de macht heeft om de database als trainingsmateriaal te definiëren en de algoritmen te ontwikkelen, verwerft en reproduceert daarmee automatisch interpretatieve soevereiniteit. Wanneer democratisch geconstitueerde staten oorlogsvermogen als hun missie claimen en daartoe massale sociale bezuinigingen, milieuvernietiging en het beperken van rechten nastreven, zijn dominante ideeën en met name duidelijke vijandbeelden vereist die ten minste een zwijgende relatieve meerderheid blijven integreren. AI blijkt opnieuw nauwelijks intelligent te zijn, maar des te meer een potentieel oorlogsinstrument.
Sebastian Köhler werkt als communicatie- en mediawetenschapper en als publicist.
Berliner-zeitung