‘Iedereen leeft steeds meer in zijn eigen realiteit’, hoor ik geregeld sinds de pandemie. Het idee hierachter heeft me nooit bevallen, omdat het op me overkomt als een klaagzang: alsof we zó in onze bubbels leven dat we de gedeelde werkelijkheid uit het oog verliezen. Dat is onzin. Het probleem is niet dat we allemaal in een eigen realiteit leven en geloven, maar dat een deel van ons de realiteit luidkeels ontkent.
Ontkenning wordt bovendien een stuk makkelijker dankzij generatieve AI zoals Midjourney en Sora. Deze AI-tools worden steeds vaker ingezet om desinformatie te verspreiden of aan te zetten tot haat, zelfs binnen politieke campagnes. Zo bleek deze week dat PVV-Kamerleden Maikel Boon en Patrick Crijns voor een tweede keer betrapt waren op het heimelijk verspreiden van mogelijk strafbaar campagnemateriaal, gemaakt door AI.
Deze filmpjes en plaatjes leken voornamelijk haat te stoken tegen migranten, maar hadden ook verdacht vaak de inmiddels teruggetreden GroenLinks-PvdA-leider Frans Timmermans als doelwit. Onder deze filmpjes was bijna standaard een lawine van haat en doodsbedreigingen te vinden. Maar de reacties werden niet verwijderd door beheerders van de pagina, onder wie Boon. Integendeel: het laten staan van haatreacties impliceert dat woede en haat genereren het doel op zich is.
Over de auteur
Freya Terpstra is expert op het gebied van desinformatie & anti-rechtenbewegingen. In de maand november is zij gastcolumnist op volkskrant.nl/opinie.
Columnisten hebben de vrijheid hun mening te geven en hoeven zich niet te houden aan de journalistieke regels voor objectiviteit. Lees hier meer over ons beleid.
Eerdere bijdragen in deze discussie vindt u onder aan dit artikel.
Campagnemateriaal op basis van nepbeelden wordt steeds normaler, ook buiten Nederland. De Trump-regering maakt het zelfs nog bonter met AI-gegenereerde video’s die veelvuldig verschijnen op zijn social media feeds zelfs die van het Witte Huis. De video’s verheerlijken onder andere het etnisch zuiveren van de Gazastrook ten behoeve van een nieuw vakantieresort. Ook delen deze kanalen filmpjes waarin Trump gekroond wordt tot koning, waarna Democraten voor hem moeten knielen.
Maar hoe komt het toch dat politieke content gemaakt door generatieve AI zo vaak ingezet wordt om haat te verspreiden? En zijn organisaties die wél voor de rechtsstaat staan wel voldoende op de hoogte van het bestaan van deze technologie? Mijn indruk: met generatieve AI is het ontkennen van de realiteit simpelweg kinderspel. En laat dat nou juist een heel handige tool zijn als je de rechtsstaat wil ondermijnen.
Zo was de stelling dat de wooncrisis veroorzaakt wordt door migranten vier jaar geleden nog lachwekkend. Maar nu staat het op video: ‘Zie je wel, deze migrant krijgt gewoon een huis, weggekaapt van een witte jongen met een heldere toekomst.’
Mensen geloven nu eenmaal iets sneller wanneer zij het met hun eigen ogen kunnen zien. Dat maakt dat generatieve AI-beelden juist zo’n krachtig vehikel zijn om op grote schaal de publieke opinie te manipuleren. En dat is gevaarlijk, want we kunnen ons niet genoeg verweren tegen dit soort desinformatie.
Deze problematische trend zal in de toekomst alleen maar groter worden. Toen Wilders in 2017 een nepfoto deelde waarop toenmalig D66-leider Pechtold te zien zou zijn op een pro-shariademonstratie, kon je nog duidelijk zien dat deze vervalst was. Tegenwoordig is dat lastiger: niet alleen wordt generatieve AI steeds beter en geloofwaardiger, maar door de gigantische hoeveelheid AI-beelden die rondzweeft op het internet, zíen we het verschil ook steeds minder.
Ook het productieproces van een politieke campagne draagt bij aan het eenvoudiger verspreiden van haat met politieke AI-content. Zo kosten ouderwetse campagnes veel arbeid, want in tegenstelling tot ouderwets campagnemateriaal heb je voor AI-beeld geen fotografen, acteurs, modellen of editors nodig. En in die traditionele productieketen loop je als campagnemaker met radicale ideeën eerder het risico dat iemand medewerking weigert, omdat het tegen diens waarden ingaat of simpelweg strafbaar kan zijn.
Als maker van politieke AI-beelden is er daarentegen niemand die je aanspreekt op je verantwoordelijkheden, en niemand die je bijstuurt wanneer je visie te radicaal of problematisch is. Als je dan ook nog eens dit soort campagnemateriaal anoniem kunt verspreiden, wie is er dan nog om je op je verantwoordelijkheid te wijzen?
Al deze elementen leiden tot een politieke werkelijkheid die steeds meer gebaseerd is op leugens, haatzaaien, en ontmenselijking van kwetsbare groepen die als zondebok worden aangewezen. We moeten dus veel kritischer worden op wat we voorgeschoteld krijgen, al is dat slechts het begin van een oplossing voor deze uitdaging.
Om de rechtsstaat te beschermen is namelijk meer nodig, zoals politieke gedragscodes en wetgeving voor AI-gebruik in campagnemateriaal. De verspreiding van dit soort desinformatie stopt immers niet vanzelf.
Wilt u reageren? Stuur dan een opiniebijdrage (max 700 woorden) naar opinie@volkskrant.nl of een brief (maximaal 200 woorden) naar brieven@volkskrant.nl
Geselecteerd door de redactie
Source: Volkskrant