Home

Opinie: Bespreek je politieke stem niet met een chatbot

Niet deepfakes of nepnieuws vormen de grootste bedreiging voor de verkiezingen, maar een vriendelijk compliment van een steeds overtuigender, persoonlijker en menselijker chatbot.

In mijn lessen zie ik het steeds vaker gebeuren. Studenten oefenen met een AI- gesprekspartner en lopen weg met het idee dat ze het geweldig hebben gedaan. ‘De chatbot vond mijn argument voor een beter salaris heel overtuigend’, zeggen ze dan tevreden.

Maar als we het gesprek samen evalueren, blijkt dat hun redenering vaak vol gaten zit. AI heeft hen vooral veel complimenten gegeven – en precies dát gevoel van bevestiging, maakt dat ze minder kritisch naar zichzelf kijken.

Die ervaring staat niet op zichzelf. In de aanloop naar verkiezingen, richten zorgen over kunstmatige intelligentie zich vooral op nepnieuws, deepfakes en datalekken. Maar de grootste invloed van AI speelt zich waarschijnlijk af op een veel subtieler niveau: in het gesprek zelf. Niet desinformatie, maar complimenten vormen daardoor de nieuwe route naar beïnvloeding.

Over de auteur

Monique Bil is docent.

Dit is een ingezonden bijdrage, die niet noodzakelijkerwijs het standpunt van de Volkskrant reflecteert. Lees hier meer over ons beleid aangaande opiniestukken.

Eerdere bijdragen in deze discussie vindt u onder aan dit artikel.

Vertrouwen

Uit recent onderzoek weten we dat mensen sneller geneigd zijn informatie te accepteren van bronnen die hen bevestigen. Complimenten wekken vertrouwen, bevestiging versterkt zelfvertrouwen en een vriendelijke gesprekspartner verlaagt onze kritische drempel. Juist dat mechanisme maakt gespreks-AI zo effectief: een chatbot die zegt dat een mening ‘goed onderbouwd’ is, of dat een standpunt ‘erg doordacht’ klinkt, beïnvloedt onze houding zonder dat er feitelijk iets inhoudelijks is veranderd.

Deze beïnvloeding is des te riskanter omdat zij nauwelijks wordt herkend. Waar nepnieuws nog als zodanig kan worden ontmaskerd, voelt een gesprek waarin iemand het met ons eens is niet bedreigend, maar prettig. Het versterkt het idee dat we zelf tot een overtuiging zijn gekomen, terwijl die overtuiging in werkelijkheid mede is gevormd door interactie met een systeem dat is ontworpen om responsief en bevestigend te zijn.

Voor verkiezingscampagnes is dat een aantrekkelijk perspectief. AI-gestuurde dialoogsystemen kunnen inmiddels meer dan informatie verspreiden; ze kunnen individuele kiezers aanspreken, hun emoties herkennen en hun denkproces stap voor stap begeleiden. Partijen hoeven chatbots niet te instrueren om u te vertellen op wie u moet stemmen. Het volstaat om de AI argumenten in een bepaalde volgorde te laten presenteren, bepaalde zorgen te laten herhalen of strategisch complimenten te geven. De uitkomst – dat je voorkeur na de interactie met AI bijvoorbeeld naar links verschuift kan hetzelfde zijn.

Een juridische kader hiervoor, ontbreekt. Politieke advertenties vallen onder regels voor transparantie en herkomst, maar een gesprek met een AI-systeem kent nauwelijks beperkingen. Ontwikkelaars hoeven niet duidelijk te maken namens wie een chatbot spreekt, of met welk doel het gesprek wordt gevoerd. En gebruikers hoeven niet geïnformeerd te worden dat zij zich in een gespreksomgeving bevinden die op beïnvloeding is ontworpen.

Dat gebrek aan transparantie is problematisch voor een democratie die rust op vrije meningsvorming. De autonomie van de kiezer staat of valt niet alleen met de afwezigheid van misleidende informatie, maar ook met de mogelijkheid om overtuigingen zelfstandig te vormen. Die autonomie wordt ondermijnd wanneer onzichtbare gespreksmechanismen – complimenten, bevestiging, framing – de richting van dat proces bepalen.

Niet verbieden

De oplossing ligt in ieder geval niet in het verbieden van chatbots. De technologie kan waardevol zijn voor bijvoorbeeld onderwijs, zorg of dienstverlening. Maar er zijn wel grenzen nodig.

Transparantie over de herkomst en het doel van AI-gesprekken zou een wettelijke basis moeten zijn, net als het recht om te weten welke gegevens worden gebruikt om een gesprek te sturen. Daarnaast is digitale geletterdheid een belangrijk aandachtspunt: iedereen moeten leren herkennen wanneer een gesprek niet neutraal is en welke technieken het denkproces kunnen beïnvloeden.

Zonder die bewustwording ontstaat een democratisch risico dat veel groter is dan nepnieuws of deepfakes. Niet omdat AI expliciet liegt, maar omdat het ons subtiel een richting op duwt zonder dat we dat doorhebben. In een verkiezingstijd waarin gesprekken met technologie alledaags zijn geworden, is dat misschien wel de meest onderschatte vorm van politieke beïnvloeding.

De vraag is dus niet of AI onze keuzes beïnvloedt – dat doet het al. De vraag is of we nog in staat zijn die invloed te herkennen voordat we het stemhokje binnenstappen.

Wilt u reageren? Stuur dan een opiniebijdrage (max 700 woorden) naar opinie@volkskrant.nl of een brief (maximaal 200 woorden) naar brieven@volkskrant.nl

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next