Hoi ChatGPT, wat moet ik stemmen? De risico’s van een AI-bot als kieshulp

- Experts verwachten dat kiezers in aanloop naar de Tweede Kamerverkiezingen massaal chatbots gaan raadplegen.
- Voor stemadvies aankloppen bij de op kunstmatige intelligentie gestoelde vraagbaken komt niet zonder risico.
- Achter chatbots zitten ondoorzichtige modellen, die onjuiste of politiek gekleurde informatie kunnen geven.
De Nederlandse democratie staat in oktober een noviteit te wachten: voor het eerst zijn de kiezers vertrouwd met chatbots op het moment dat zij in het stemhokje een keuze moeten maken. ‘Het is razend interessant’, zegt hoogleraar Claes de Vreese, gespecialiseerd in AI en democratische processen. ‘Er is heel veel informatie via de modellen beschikbaar, maar heel weinig over de bots zelf.’
Sinds de vorige stembusgang, in 2023, zijn er meer en betere AI-modellen en is het aantal gebruikers gegroeid. Na de uitrol eind 2022 van ’s werelds bekendste bot, ChatGPT, volgden tools als Gemini, Copilot en Grok. ChatGPT alleen al krijgt elke dag tweeënhalf miljard opdrachten van gebruikers wereldwijd; 5,8 miljoen Nederlanders gebruiken dagelijks AI-tools.
Aan stemhulp is behoefte. In 2023 maakte 44% van de kiezers een definitieve keuze in de laatste dagen voor de verkiezingsdag. De Stemwijzer werd tijdens die campagne 9,1 miljoen keer volledig ingevuld. Weinig mensen spitten alle verkiezingsprogramma’s van begin tot einde door. Met AI-modellen heeft de kiezer er, naast nieuws, debatten, peilingen en stemhulpen, een extra gereedschap bij.
Voor stemadvies aankloppen bij de op kunstmatige intelligentie gedreven vraagbaken is niet zonder risico’s, zeggen experts. Het zijn ondoorzichtige modellen, die onjuiste of politiek gekleurde informatie kunnen geven.
ChatGPT geeft stemadvies. Na enig aandringen noemt de bot één partij. Dat is anders dan hoe gebruikelijke stemhulpen te werk gaan. Die leggen de gebruiker stellingen voor en komen aan de hand van de antwoorden tot een shortlist van partijen.
Hoe bepaalt een chatbot wat ‘goed’ is? Daar signaleert Tom Dobber, universitair docent politieke communicatie, een moeilijkheid. Wat goed is voor de ene kiezer, is niet per se in het belang van de andere.
‘De vraag welke partij goed is voor de woningmarkt, is subjectief’, zegt hij. ‘Ben je huiseigenaar en wil je zo lang mogelijk de hypotheekrente behouden? Of ben je jong en op zoek naar een woning? Daar zou een ander antwoord uit moeten komen.’
Het doel is volgens Dobber uiteindelijk om een geïnformeerde keuze te maken. Chatbots kunnen daarbij helpen, denkt de universitair docent. ‘Er komen wel bepaalde risico’s bij kijken, bijvoorbeeld als er verkeerde informatie wordt gegeven.’
Het ministerie van Binnenlandse Zaken houdt geen toezicht op chatbots, maar benadrukt dat het nuttig is als kiezers meerdere stemhulpen gebruiken en ook op andere plekken informatie over politieke partijen zoeken. Bij het gebruik van AI-tools ‘is het van belang dat een chatbot correcte informatie verstrekt en duidelijk is waar bepaalde informatie vandaan komt’, aldus een woordvoerder.
In dit antwoord van ChatGPT staan meerdere fouten. Niet Gideon van Meijeren maar Thierry Baudet is partijleider van Forum voor Democratie. De vicevoorzitter van de Raad van State is niet Paulien de Graaf maar Thom de Graaf. Nilüfer Gündogan is nooit partijleider van Volt geweest en inmiddels niet meer actief bij de partij.
Onderzoeken naar AI-tools tijdens de Europese, Duitse deelstaten-, Britse en Amerikaanse verkiezingen laten allemaal hetzelfde zien: een deel van de antwoorden met betrekking tot verkiezingen is onjuist.
Zo keek AI Forensics naar de antwoorden van chatbots tijdens de Zwitserse federale verkiezingen en verkiezingen in Hessen en Beieren. De conclusie: er is een systematisch risico op foute antwoorden, zegt de Europese non-profitorganisatie tegen het FD.
‘Zelfs de beste modellen confabuleren nog’, zegt Stephan Raaijmakers, hoogleraar communicatieve AI aan Universiteit Leiden. ‘Dat betekent dat ze dingen verzinnen die er niet toe doen of nieuwe elementen introduceren in die antwoorden.’
De modellen leren bij, dus zijn de verzinsels wel subtieler geworden dan een aantal jaar geleden. Ook al zijn ze gekoppeld aan het web en aan databases, ze zetten altijd nog één laatste, creatieve stap: van al die informatie een antwoord maken. ‘En dat is nog steeds riskant’, zegt Raaijmakers.
‘Politieke partijen moeten zelf mensen overtuigen. Daarop horen techbedrijven geen invloed uit te oefenen. Anders kunnen die bedrijven invloed uitoefenen op de verkiezingen’
Voor het democratisch proces kan dat grote gevolgen hebben. De Britse hoogleraar David Buckingham beschrijft op zijn website hoe afhankelijk verkiezingen zijn van feiten. ‘Als informatie niet langer betrouwbaar is, hebben burgers weinig basis om politieke beslissingen te nemen.’
Daarbij komt dat de rol van politieke partijen in informatievoorziening via AI vrij klein is. Zij hebben weinig invloed op de modellen, de manier waarop die getraind worden en de datasets waarop ze zich baseren. De antwoorden die de bots geven op dezelfde vraag kunnen verschillen per gebruiker en per moment. Waar correcties nodig zijn, is dus moeilijk te voorspellen.
Ook is het maar de vraag hoe actueel de modellen zijn en dus of ze de nieuwste verkiezingsprogramma’s meenemen in hun antwoorden. Geen garantie dat zo’n chatbot het laatste migratieplan of de oplossing voor de woningnood meeneemt.
Het is overigens niet zo dat externe partijen nooit van buitenaf de AI-tools kunnen manipuleren. Uit onderzoek van databedrijf Newsguard blijkt dat een Russisch desinformatienetwerk erin slaagde om op grote schaal chatbots te beïnvloeden. Het netwerk overspoelde zoekresultaten met pro-Russische desinformatie, waardoor de bots die narratieven overnamen. Maar die (systematische) aanpak vraagt veel tijd en menskracht.
In de test heeft ChatGPT toch een ideologische voorkeur. De vraag met de €57.000 komt uit de Stemwijzer van 2023. Bij de vermogensbelasting leunt het AI-antwoord naar dat van de sociaaleconomisch linkse partijen, terwijl VVD en CDA het oneens waren met deze stelling.
Nog een risico dat experts signaleren: chatbots kunnen vragen politiek gekleurd beantwoorden. De meeste modellen zijn links georiënteerd, dat blijkt keer op keer uit de literatuur, zegt hoogleraar Raaijmakers. Dat bevestigden wetenschappers van de Amerikaanse universiteiten Dartmouth en Stanford nogmaals dit voorjaar.
Grok, de chatbot van Elon Musk, is een uitzondering. De miljardair vond de andere AI-tools te politiek correct. Zijn bot moest juist ‘antiwoke’ zijn en het ‘vertellen zoals het is’. Grok kwam in juli in het nieuws omdat hij Hitler verheerlijkte.
Dat bots gekleurd kunnen zijn, komt deels doordat ze vooroordelen overnemen van de teksten waarop zij hun antwoorden baseren. Daarnaast wordt het model getraind door mensen: die geven de antwoorden een kwalitatief oordeel, een soort straffen en belonen. Dan sluipen de menselijke oordelen het model binnen.
Raaijmakers: ‘Door het straffen en belonen wil het model de gebruiker blij maken, want dan krijgt hij zelf ook een beloning. Hij is ingericht op pleasen.’
Heeft deze gebruiker het over socialehuurwoningen of juist over koophuizen? Vindt de gebruiker de regels voor particuliere verhuurders te streng, of te soepel? Dat is onduidelijk. Toch zegt de chatbot: deze rechtse partijen passen mogelijk minder goed. En hoe is de chatbot tot dit advies gekomen?
De invloed van buitenlandse commerciële bedrijven op politieke communicatie en campagnes groeit. Socialemediabedrijven stelden al eisen aan advertenties en bepaalden wie welke advertentie zag. Nu vatten chatbots zelf politieke standpunten samen.
Het is onwenselijk als chatbots aangeven op welke partij een kiezer niet moet stemmen, zegt universitair docent Dobber. Immers: achter die chatbots zitten Amerikaanse techbedrijven. ‘Politieke partijen moeten zelf mensen overtuigen. Daarop horen techbedrijven geen invloed uit te oefenen. Anders kunnen die bedrijven invloed uitoefenen op de verkiezingen.’
De effectiefste manier om kiezers te overtuigen, is volgens Dobber langs de deuren gaan. Ook een chatbot lijkt een beetje op een gesprek. De gebruiker stelt vragen, de chatbot geeft veel informatie en zoekt naar ondersteuning voor zijn argumentatie. Dobber: ‘Chatbots zijn nu goed genoeg om mensen te overtuigen.’
Kiezers zijn intussen minder loyaal geworden aan bepaalde partijen en veranderen steeds vaker van stemkeuze tijdens en tussen verkiezingen. Het is gebruikelijk dat mensen ‘zweven’ binnen ‘blokken’, en bijvoorbeeld twijfelen tussen PVV en VVD enerzijds, en GroenLinks-PvdA en SP anderzijds. Uit het Nationaal Kiezersonderzoek 2023 bleek dat 44% van de kiezers nog in de laatste dagen voor de verkiezingen een definitieve keuze maakte.
Een ‘totale gamechanger’ tijdens de campagne zijn chatbots nog niet, zegt hoogleraar De Vreese. Kiezers hebben allerlei hulpmiddelen in de gereedschapskist om hun stem te bepalen: nieuws, peilingen, debatten, stemwijzers. Chatbots zijn ‘gewoon’ een nieuw instrument geworden.
Toch ontbreekt er wel iets bij chatbots: transparantie. De beste stemwijzers in Nederland worden volgens de hoogleraar gemaakt in samenspraak met politieke partijen, waardoor de informatie in die hulpmiddelen wordt geverifieerd. Bij chatbots blijft het ondoorzichtig waar de informatie vandaan komt en hoe die wordt samengesteld. Het is een risico dat experts keer op keer benoemen terwijl het FD chatbots test.
Die transparantie mag de kiezer best van grote techbedrijven eisen, zegt De Vreese. ‘We hebben spelregels voor allerlei soorten informatie en voor het democratisch proces. Het zou gek zijn om geen spelregels voor deze tools te hebben.’
RegelgevingRegels over wat de chatbots wel en niet mogen doen in verkiezingstijd komen uit Europa. De AI Act en de Digital Services Act (DSA) bevatten regels die de democratie moeten beschermen tegen de risico’s. Toch constateren experts nogal altijd een grijs gebied, zodat zij aandringen op verdergaande regelgeving.
Dat zit zo: AI-systemen die speciaal zijn ontworpen voor verkiezingen en de politiek, krijgen het stempel ‘hoog risico’. Dat betekent dat ze aan strengere regels gebonden zijn of soms zelfs verboden. Alleen de algemene chatbots, dus die van OpenAI, Google en X, zijn daar niet voor gemaakt en vallen dus niet in die hoogrisicocategorie, zegt Sofia Calabrese van het Europees Partnerschap voor Democratie.
Ook de DSA is niet zaligmakend. De meest gebruikte chatbot, ChatGPT, valt (nog) niet onder de Brusselse wetgeving omdat die te weinig gebruikers heeft. Andere techbedrijven zijn verplicht de risico's op te sporen en te verminderen. De praktijk wijst uit dat zij hier vaak niet consistent in zijn. Een jaar na de invoering zag adviesbureau KPMG ‘goede bedoelingen, beperkte resultaten’.
Voor dit artikel is geëxperimenteerd met verschillende chatbots. De voorbeelden komen uit ChatGPT, omdat dit de populairste chatbot is onder Nederlandse gebruikers. De vragen zijn voorgelegd aan het laatst uitgekomen model van OpenAI: ChatGPT 5. De eerst gegeven antwoorden zijn gebruikt.
fd.nl