Home

AI-chatbots ‘onbetrouwbaar en niet neutraal’ als stemwijzer, waarschuwt de Autoriteit Persoonsgegevens

Wie wil, kan ook ChatGPT of Gemini vragen om een stemadvies. Maar de AI-adviezen zijn onbetrouwbaar en komen vaak uit bij PVV of GL-PvdA. En bijvoorbeeld vrijwel nooit bij het CDA, ziet de Autoriteit Persoonsgegevens.

schrijft voor de Volkskrant over theater en human interest

De zwevende kiezer kan in de zoektocht naar de juiste politieke partij beter wegblijven bij AI-chatbots. Die verlenen namelijk een ‘duidelijk gekleurd’ en ‘onbetrouwbaar’ stemadvies, zo stelt de Autoriteit Persoonsgegevens (AP) in een vandaag verschenen onderzoek naar de betrouwbaarheid van de adviezen van vier veelgebruikte chatbots: ChatGPT, Gemini, Le Chat Mistral en Grok.

Voor het onderzoek stelde de AP drieduizend kiezersprofielen op met verschillende politieke voorkeuren. Vervolgens werd de chatbots gevraagd om een passend stemadvies bij deze profielen. Uit de in totaal 21 duizend gegeven adviezen concludeert AP dat de programma’s ‘niet neutraal’ opereren.

Wat bleek: de PVV (30,5 procent) en GroenLinks-PvdA (24,9 procent) komen disproportioneel vaak als de geschiktste partij uit de bus, ongeacht de precieze vraagstelling en het kiezersprofiel. Partijen als D66, SP en PvdD zitten in de middenmoot. ChristenUnie, Denk en CDA worden vrijwel nooit gesuggereerd als de te kiezen partij.

De plank misslaan

‘Chatbots lijken slimme hulpjes, maar als stemhulp slaan ze stelselmatig de plank mis. Hierdoor krijgen kiezers mogelijk – zonder het te weten – het advies om op een partij te stemmen die niet het best bij hun voorkeuren past’, stelt Monique Verdier, vicevoorzitter van de AP. Dit raakt volgens Verdier ‘direct aan een hoeksteen van de democratie’. Volgens haar brengt foutief stemadvies ‘de integriteit van vrije en eerlijke verkiezingen’ in het geding.

De AP waarschuwt dan ook voor het gebruik van AI-chatbots om tot een stemkeuze te komen, en wijst naar Kieskompas en Stemwijzer als onpartijdige en transparante vergelijkingsorganen voor de zwevende kiezer. Deze waarschuwing is nodig, aangezien een kwart van de Nederlanders openstaat voor stemadvies via een chatbot, concludeert de AP aan de hand van onderzoeken van de Wageningen Universiteiten en de Universiteit van Amsterdam, en mediaberichtgeving. Het gebruik ervan is het hoogst onder 18- tot 34-jarigen en hoogopgeleiden.

‘Schokkend’, vindt Natali Helberger, hoogleraar recht en digitale technologie aan de Universiteit van Amsterdam. ‘Ik ben heel blij met dit onderzoek, omdat het laat zien dat het cruciaal is dat we blijven benoemen dat AI geen betrouwbare informatieverstrekker is.’

Stofzuigeffect

Door een gebrek aan transparantie in de informatieverwerking van AI-chatbots is een precieze oorzaak voor de gekleurde stemadviezen niet vast te stellen, zegt de AP. Dat juist GroenLinks-PvdA en PVV hoog scoren bij de bots, komt volgens AP door het zogenoemde stofzuigeffect. Profielen die in de links-progressieve hoek vallen, worden door chatbots grotendeels toebedeeld aan GroenLinks-PvdA, en profielen in de rechts-conservatieve hoek komen in de stofzuigerzak van de PVV.

Helberger heeft nog een ander idee over de herkomst van de politieke voorkeuren van de bots. ‘Die systemen worden getraind door heel veel onlinedata. Zo is bekend dat Grok veel van zijn data van X haalt, waar een duidelijke politieke wind waait. Überhaupt zullen politieke partijen die zeer actief zijn online en op sociale media vaker opduiken in de adviezen van de chatbots.’

Helberger is het met de AP eens dat chatbots ‘zeer ongeschikt’ zijn voor het geven van stemadvies en dat betere regulering nodig is. Helberger spreekt van een ‘risico voor de democratie’; deze toepassing van het gebruik van AI, het geven van stemadvies, zou als hoogrisicosysteem moeten worden aangemerkt. Helberger: ‘Wanneer de nieuwe Europese wetten rondom AI-regulering in augustus 2026 van kracht gaan, kan er dan direct worden gehandhaafd’.

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next