Home

Grote zorgen bij privacytoezichthouder over ‘gekleurd stemadvies’ van AI-bots: ‘Dit raakt de integriteit van eerlijke verkiezingen’

De Autoriteit Persoonsgegevens heeft grote zorgen over de rol van AI-chatbots bij de verkiezingen.

Privacytoezichthouder Autoriteit Persoonsgegevens vindt het zorgwekkend dat steeds meer kiezers chatbots aangestuurd door kunstmatige intelligentie (AI) gebruiken voor stemadvies. Deze adviezen zijn „onbetrouwbaar en duidelijk gekleurd”, concludeert AP dinsdag na eigen onderzoek. De AI-chatbots vormen voor steeds meer kiezers een aanvulling op al langer bestaande online stemhulpen voor advies over de Tweede Kamerverkiezingen over acht dagen.

In het eigen onderzoek, waarbij in totaal 21 duizend keer om stemadvies werd gevraagd, vergeleek de toezichthouder vier bekende chatbots — die van ChatGPT, Gemini, Mistral en Grok — met bekende stemhulpen als Kieskompas en Stemwijzer. Ongeacht de vraag of opdracht van de gebruiker, adviseren de AI-bots „opvallend vaak” de twee zelfde partijen: in 56 procent komen ze uit bij GroenLinks-PvdA of de PVV.

Eén (niet genoemd) chatbot komt volgens AP zelfs in 80 procent van de gevallen bij die twee partijen uit. Het is niet direct duidelijk waarom juist GroenLinks-PvdA en de PVV relatief vaak als stemadvies worden gegeven, mogelijk komt dit volgens AP „mede door de mate waarin en de manier waarop deze partijen voorkomen in de trainingsdata”.

Anders dan GroenLinks-PvdA en de PVV, komen partijen als D66, SP, VVD en Partij voor de Dieren veel minder vaak als best aansluitende partij voor. Volgens het onderzoek komen BBB, CDA, SGP of Denk „zelfs bijna nooit” naar voren als belangrijkste stemadvies, zelfs niet als de gebruiker exact hun standpunten reflecteert in de gesprekken met de bots.

AP-vicevoorzitter Monique Verdier stelt op de website van AP dat de AI-chatbots „stelselmatig de plank misslaan”, met mogelijk grote maatschappelijk consequenties. Een verkeerd stemadvies „raakt de hoeksteen van de democratie”, zegt Verdier, namelijk: „de integriteit van vrije en eerlijke verkiezingen”. „Wij waarschuwen daarom om AI-chatbots niet te gebruiken voor stemadvies, omdat de werking ervan niet helder en controleerbaar is. En wij roepen aanbieders van chatbots op te voorkomen dat hun systemen voor stemadvies kunnen worden gebruikt.”

De AI-bots zijn getraind met informatie opgehaald van internet. Die data zijn echter niet verifieerbaar en kunnen achterhaald zijn. Zo leidt een eenvoudige vraag over een bepaald onderwerp uit een van de verkiezingsprogramma bij chatbots soms tot een antwoord uit een programma van eerdere verkiezingen, dat inmiddels herzien kan zijn.

NIEUW: Geef dit artikel cadeauAls NRC-abonnee kun je elke maand 10 artikelen cadeau geven aan iemand zonder NRC-abonnement. De ontvanger kan het artikel direct lezen, zonder betaalmuur.

Schrijf je in voor de nieuwsbrief NRC Broncode

Doorzie de wereld van technologie elke week met NRC-redacteuren 

Source: NRC

Previous

Next