De NRC Code, waarin het karakter en de kernwaarden van NRC-journalistiek zijn vastgelegd, heeft sinds begin 2024 een lemma over kunstmatige intelligentie. Belangrijkste en eerste uitgangspunt is dat kunstmatige intelligentie, ofwel AI, onderdeel kan zijn van het journalistieke proces. Maar er staat ook in dat redacteuren zich bewust moeten zijn van de tekortkomingen, dat AI fouten maakt. ‘Bij twijfel: niet doen.’
Die twijfel ontstond de afgelopen weken binnen NRC. Een AI-stembot, waar maanden aan was gewerkt en mee was getest, stond op het punt online te gaan. Maar de twijfel werd zo groot, en het verzet van een deel van de redactie zo stevig, dat de hoofdredactie in een laat stadium een streep haalde door het experiment.
Als ombudsman schrijf ik doorgaans over het werk dat de redactie publiceert. Maar deze aflevering gaat over wat niet doorging. Want in dit geval is het relevant: doordat de AI-stembot in een laat stadium werd gecanceld is er nu − anders dan bij de verkiezingen van 2023 − geen NRC Stemhulp, een grote online-productie waar lezers zich over de standpunten van 17 partijen op tien thema’s konden informeren. En het late besluit laat zien hoe NRC probeert te innoveren, maar ook dat het gebruik van AI de redactie en de andere afdelingen binnen het bedrijf voor veel dilemma’s plaatst.
De snelle opkomst van AI heeft grote invloed op de journalistiek. Large Language Models genereren steeds betere teksten en ze kunnen helpen bij het structureren en de eindredactie van artikelen. Ofwel, ze kunnen journalisten deels overbodig maken. AI kan ook helpen bij het zoeken in en analyseren van teksten en andere data. Zo gebruiken redacteuren het al. Ook heeft AI effect op het vertrouwen in media, omdat lezers kunnen denken dat al veel met AI wordt gemaakt. Maar het kan ook andersom werken: media kunnen laten zien dat journalistiek vooral mensenwerk is en juist transparant zijn over het gebruik van kunstmatige intelligentie.
Dat laatste was hier de bedoeling. Met hulp van AI zouden verkiezingsprogramma’s van vijftien partijen toegankelijk worden gemaakt en konden gebruikers antwoord krijgen op uiteenlopende en gedetailleerde vragen. Vragen als: Wat willen partijen met het eigen risico? Wat vinden partijen van de tweestatenoplossing? Welke partijen zijn voor een asielstop? De chatbot zou dan antwoord geven, uitsluitend op basis van de partijprogramma’s. Het zou duidelijk als experiment gepresenteerd worden, lezers zouden kunnen aangeven als ze foute antwoorden kregen.
Het zag er lang goed uit. De AI-stembot zou veel rijker en informatiever worden dan de 170 stukjes tekst die de redacteuren in 2023 voor de Stemhulp hadden gemaakt. Maar er kwam in een laat stadium stevig intern verzet op gang, vooral vanuit de politieke redactie in Den Haag. De stembot, die gebruikmaakte van ChatGPT van Open AI, was niet betrouwbaar genoeg, vonden redacteuren. Ze kwamen met voorbeelden die uit het testen waren gebleken. Met het woord ‘remigratie’ – tegenwoordig vooral gebruikt door radicaal-rechts – ging de bot aan de haal. De SGP noemt dit woord nergens en heeft ook geen plannen om mensen te laten terugkeren naar hun geboorteland, maar toch stelde de stembot dat het een structureel onderdeel is van SGP-plannen. Die gaan alleen over terugkeer van afgewezen asielzoekers. En de tweestatenoplossing voor Israël en Palestina en het tweestatusstelsel in het asielbeleid haalde de stembot door elkaar. Zoveel mogelijk fouten werden eruit gehaald, maar duidelijk was dat het AI-systeem nooit onfeilbaar zou zijn en dat na publicatie tienduizenden lezers mogelijk nog veel fouten hadden ontdekt.
De Haagse redactie was meteen, aan het begin van de zomer, bij het project betrokken maar toen redacteuren in september goed gingen testen ontstond de bezorgdheid. Was er geen afbreukrisico, zo vlak voor de verkiezingen? Als we weten dat een artikel fouten bevat, dan publiceren we dat toch ook niet? En, vroeg een redacteur zich af, leveren we niet een foute bijdrage aan de democratie als er ook maar één kiezer door onze stembot een verkeerde keuze maakt op verkiezingsdag? Het project zou al het goede werk van de politieke redactie kunnen ondermijnen, kreeg de hoofdredactie te horen.
De hoofdredactie nam in mijn ogen toen een verstandig en onvermijdelijk besluit: niet doen dus. „Daar balen we enorm van”, schreef adjunct-hoofdredacteur Lucas Brouwers aan de redactie. Hij kondigde een evaluatie aan hoe in het vervolg ontwikkelprojecten beter en eerder journalistiek getoetst kunnen worden. Want NRC moet „een broedplaats blijven voor technologische en journalistieke vernieuwing”. We hebben, zegt Brouwers, een geschiedenis van innoveren en pionieren. Zo liep NRC in Nederland voorop met podcasts, kwam het in 2006 met de verfrissende ochtendkrant nrc.next en was het in een verder verleden zelfs de eerste landelijke krant met een website – het Eindhovens Dagblad had in 1995 net iets eerder de primeur.
Inspiratiebron was de KI-Wahlassistent die de Süddeutsche Zeitung bij de Europese Verkiezingen in 2024 en bij de Bondsdagverkiezingen begin dit jaar met succes had ingezet. Er kwam niet veel kritiek op. Verschil was wel dat de Süddeutsche het AI-systeem naast de partijprogramma’s ook had gevoed met eigen artikelen over de politiek. Er werd dus meer gebruikgemaakt van journalistieke content.
Dit raakt aan een belangrijk kritiekpunt ter redactie: verkiezingsprogramma’s zijn, hard gezegd, partijpropaganda waarin soms keuzes wollig worden opgeschreven en soms helemaal worden vermeden. De stembot kon zich alleen hierop baseren en zou dus de partijtaal interpreteren en parafraseren. Daar moet je geen journalistieke verantwoordelijkheid voor willen nemen, was de kritiek. Daar kwam bij dat veel partijen pas echte keuzes maakten voor de doorrekeningen van het Centraal Planbureau waarvan de uitkomsten twee weken geleden zijn gepubliceerd. Het was te ingewikkeld en te foutgevoelig om deze informatie nog mee te nemen.
De Autoriteit Persoonsgegevens (AP) kwam deze week met een duidelijke boodschap over chatbots als stemhulp: gebruik ze niet! Kunstmatige intelligentie, ofwel AI, kan „een enorme bedreiging voor de democratie” zijn, zei de vicevoorzitter van de privacywaakhond dinsdag. Eén op de zes Nederlanders zou overwegen ChatGPT of een ander AI-systeem te raadplegen voor ze het stemhokje ingaan. Maar die systemen zijn ondoorzichtig en komen vooral uit bij de PVV óf GroenLinks-PvdA, concludeerde de autoriteit nadat 21.000 keer om stemadvies was gevraagd. Dit ging om de algemene chatbots ChatGPT, Gemini, Mistral en Grok, niet om stemhulpen die vergelijkbaar zijn met wat NRC had willen publiceren, zoals openverkiezingen.nl en zweefhulp.nl.
Adjunct-hoofdredacteur Lucas Brouwers vindt dat het AP-onderzoek toont hoe belangrijk het is dat NRC ervaring blijft opdoen met het bouwen van journalistiek verantwoorde chatbots. „Mensen gebruiken het dus al massaal om hun stem te bepalen.” Cruciaal verschil met de chatbots waar de AP kritiek op had, was volgens Brouwers dat NRC verantwoording zou afleggen voor de inrichting en voor fouten. „ChatGPT gaat de telefoon niet opnemen – wij wel. Dat maakt het verschil tussen een journalistieke redactie en een techbedrijf.”
Niet al het werk is voor niks geweest. De redactie en de ontwikkelaars hebben veel geleerd. En de begeleidende artikelen die voor de stemhulp waren gemaakt, zijn deze week alsnog online als Slim Leven-gids gepubliceerd. De cultuurredactie maakte alsnog een overzicht van de partijstandpunten op het gebied van cultuur. Over wetenschap verscheen in september al een overzicht. Naast nog vele andere artikelen, podcasts en video’s − zoals dertien interviews met lijsttrekkers − heeft de lezer, luisteraar en kijker veel voorgeschoteld gekregen voor de gang naar de stembus.
Het experiment was dus bijna doorgegaan. Een principiële horde was eigenlijk al genomen: de lezer zou door AI gegenereerde teksten voorgeschoteld krijgen. Daar had ik moeite mee, want het blijft voor mij ambivalent: de lezer informatie geven met een disclaimer dat er fouten in kunnen staan. Het staat ook op gespannen voet met de NRC Code. Duidelijk is dat het lemma over AI binnen twee jaar al onder druk staat.
De principiële horde gaat NRC vast – met een politiek of een ander onderwerp – een keer echt nemen, nog beter doordacht, getest en verantwoord. De redactie kan nu al nadenken hoe bij de volgende Tweede Kamerverkiezingen kunstmatige intelligentie slim gebruikt kan worden, en als er dan een AI-stembot moet komen, welk bronmateriaal inhoudelijker en journalistieker is dan partijprogramma’s. Hopelijk is daar na woensdag vier jaar de tijd voor.
Reacties: ombudsman@nrc.nl
De ombudsman opereert onafhankelijk; zijn oordeel is persoonlijk en niet dat van de (hoofd)redactie. Kijk hier voor de statuten van de ombudsman. Wilt u rechtstreeks reageren op artikelen of audioproducties van NRC, dan kunt u een brief van maximaal 200 woorden mailen aan opinie@nrc.nl.
NIEUW: Geef dit artikel cadeauAls NRC-abonnee kun je elke maand 10 artikelen cadeau geven aan iemand zonder NRC-abonnement. De ontvanger kan het artikel direct lezen, zonder betaalmuur.
Doorzie de wereld van technologie elke week met NRC-redacteuren
Source: NRC