Vraag het de chatbot en hup, daar heb je een handig overzicht. Zo maakt de zoekmachine, die verwijst naar relevante bronnen, plaats voor een antwoordmachine. Met grote gevolgen voor wie informatie zoekt – en levert.
is techredacteur van de Volkskrant, gespecialiseerd in de impact van kunstmatige intelligentie op de maatschappij.
‘Doe lijm op je pizza.’ Dit opmerkelijke advies gaf Googles destijds gloednieuwe antwoordassistent AI Overview ruim een jaar geleden op de vraag hoe je een fijne pizza kan maken. Het is het archetypische voorbeeld geworden van AI-rommelinformatie.
Het was geen incident. Een python was volgens Google een zoogdier en verder speelde er ooit een hond mee in de NBA, de Amerikaanse basketbalcompetitie. Potentieel schadelijker waren de praktische tips die Google gaf. Bijvoorbeeld: het is goed iedere dag een kleine steen te eten. Ook was het handig bleekwater te mengen met azijn om een wasmachine schoon te maken. Gecombineerd vormen deze ingrediënten het giftige chloorgas.
‘Laat Google het zoeken voor u doen’, was de belofte die Google bij de introductie van zijn AI-antwoordmachine deed. Meer gemak dus, zonder aan kwaliteit in te boeten. Geen lange rij linkjes meer na een zoekopdracht, maar een door AI geschreven verhaaltje.
In verlegenheid gebracht door bovenstaande voorbeelden werd de zoekgigant gedwongen fluks aanpassingen te doen. Een van de oorzaken van de rare blunders was het bronmateriaal waaruit Google putte. Behalve betrouwbare bronnen zaten daar ook satirische websites tussen.
Nu, anderhalf jaar later, is AI niet meer weg te denken uit het informatielandschap. Veel mensen gebruiken ChatGPT of een AI-zoekmachine als Perplexity als vraagbaak, terwijl de AI-overzichten van Google steeds vaker (ongevraagd) opduiken.
Bij gevoelige kwesties zoals Gaza leunt Google nog op de ouderwetse rij linkjes, maar in andere gevallen zien consumenten vaak bovenaan de door AI geschreven samenvattingen staan. Ook biedt Google op zijn hoofdpagina sinds vorige maand ook voor Nederlanders een knop ‘AI Modus’, waar gebruikers via een chatinterface kunnen praten over een onderwerp waarin zij geïnteresseerd zijn.
Gecombineerd met de ongekende populariteit van ChatGPT heeft deze razendsnelle opkomst van AI als antwoordmachine grote gevolgen voor zowel de consument als voor de media- en informatie-industrie.
Handig toch, zo’n verhaaltje op maat van uw favoriete chatbot op welke vraag dan ook? Google heeft er natuurlijk ook wel een beetje om gevraagd. De ooit zo overzichtelijke zoekmachine is de laatste jaren verworden tot een ratjetoe aan gesponsorde links en verwijzingen naar sites die slimme commerciële partijen hoog in de zoekresultaten krijgen.
Zet daar het AI-overzicht tegenover en iedereen snapt de aantrekkingskracht. Alleen: die verhaaltjes zijn niet per se betrouwbaar. Google’s AI wist weliswaar de grootste blunders te voorkomen, maar de fundamentele bezwaren tegen de grote taalmodellen achter de chatbots blijven recht overeind.
In de basis zijn dit voorspellende wiskundige modellen die uitingen van menselijke intelligentie imiteren, zoals redeneren. Dat geeft meestal goed geformuleerde en ook wel juiste resultaten. Tegelijk hebben ze de vervelende gewoonte óók antwoorden te verzinnen die statistisch plausibel, maar feitelijk onjuist zijn. Dit gedrag is een rechtstreeks gevolg van hoe die modellen zijn ontworpen.
‘Op een fundamenteel niveau stimuleert de training van taalmodellen hallucinaties: modellen moeten altijd raden wat het volgende woord is’, zegt AI-bedrijf Anthropic van chatbot Claude daar zelf over. En concurrent OpenAI hint in een recent onderzoek op dezelfde weeffout: grote taalmodellen ‘hallucineren’ omdat ze tijdens het trainen altijd zijn beloond voor gokken.
In de praktijk betekent dit dat de chatbots antwoorden formuleren om de gebruiker tevreden te stellen. Ook als het taalmodel eigenlijk helemaal geen informatie heeft om op terug te vallen, vervalt het in zijn statistische trucje om overtuigend klinkende antwoorden te geven.
Dat is niet het enige probleem. De AI-hulpjes leggen soms verbanden tussen gebeurtenissen die er niet zijn, verzinnen citaten of laten essentiële context weg.
De Consumentenbond stelde onlangs honderd lastige zoekvragen aan Google. Bij zeventig van de honderd vragen verschenen AI-antwoorden. Daarvan zagen de onderzoekers bij twintig antwoorden minimaal één fout.
Soms is er sprake van duidelijke reclamepraat, als Google volgens de bond te veel leunt op commerciële bronnen. Een voorbeeld is de zoekvraag ‘Ik wil een duurzame cruise boeken’. Google geeft vervolgens boekingtips die zich baseren op de informatie van cruisemaatschappijen, in plaats van op kritische, onafhankelijke bronnen.
Andere problemen zijn te stellige, ongenuanceerde of verouderde informatie. Google dringt zijn AI te veel op, luidt de conclusie van de Consumentenbond, die ervoor pleit dat de zoekgigant zijn gebruikers de optie geeft AI-antwoorden permanent uit te schakelen.
Ook als chatbots alleen naar onafhankelijke, betrouwbare bronnen kijken, is dat nog geen garantie voor succes, concludeerde de BBC begin dit jaar. Onderzoekers van de omroep vroegen vier populaire AI-assistenten (ChatGPT, Google Gemini, Perplexity en Microsoft CoPilot) honderd vragen over nieuws en actualiteiten te beantwoorden met alleen BBC-artikelen als bron.
Vervolgens beoordeelden gespecialiseerde BBC-journalisten de antwoorden. Zij concludeerden dat iets meer dan de helft van de door AI gegenereerde antwoorden ‘aanzienlijke problemen’ had, variërend van verdraaiingen van letterlijke citaten tot feitelijke onjuistheden.
En zelfs als al die gebruiksvriendelijke AI-diensten altijd correcte antwoorden zouden uitspuwen, worden we opgezadeld met een fundamenteel probleem, stellen critici. ‘Als synthetische tekst in ons informatie-ecosysteem terechtkomt, betekent dat een vervuiling die vertrouwensrelaties schaadt’, betogen bijvoorbeeld Emily Bender en Alex Hanna in hun boek The AI Con.
De chatbots remixen de oorspronkelijke data in een nieuwe vorm die geen recht doet aan het origineel, zo stellen ze. Elders gebruikt Bender zelfs de term papier-maché, om te benadrukken dat LLM’s (large language models) tekst verwerken zonder begrip van onderliggende betekenis, net zoals voor papier-maché oude kranten worden gebruikt waarvan de inhoud irrelevant is voor het uiteindelijke kunstwerk.
Intussen lijken alle berichten over fabulerende, blunderende of knutselende AI-bots het publiek niet tegen te houden. ChatGPT heeft honderden miljoenen gebruikers, van wie velen de chatbot inzetten voor informatie. Google trekt nog veel meer bezoekers en schotelt die in toenemende mate zijn AI-gereedschap voor.
Volgens het Digital News Report 2025 van het Commissariaat voor de Media neemt de interesse van Nederlanders in nieuws af, vooral onder jongeren. En voor zover die nog wel interesse hebben, volgen ze het nieuws liever via Google of Meta dan via de nieuwssites zelf. Voor 60 procent van de jongeren zijn bigtechplatforms de belangrijkste toegang tot onlinenieuws.
AI begint nu ook een rol te spelen, blijkt uit hetzelfde rapport: een op de twintig Nederlanders gebruikt AI-chatbots voor nieuws. In de groep 18 tot 34 jaar is dat zelfs al iets meer dan een op de tien.
Recent onderzoek van het Reuters Institute ziet een vergelijkbare trend. Het gebruik van generatieve AI zoals ChatGPT steeg het afgelopen jaar niet alleen flink, het zoeken naar informatie is ook de populairste toepassing, vóór het creëren van plaatjes of tekst. Bijna een kwart van de ondervraagden gebruikt minimaal één keer per week een chatbot voor dit doeleinde. Een jaar geleden was dat nog maar 11 procent.
Google heeft tot nu toe altijd benadrukt dat consumenten vanuit de AI-samenvattingen nog steeds naar hartenlust doorklikken naar de oorspronkelijke bronnen, maar uit onderzoek van Pew Research blijkt iets heel anders. Als Google een AI-samenvatting toont, klikt nog maar 8 procent van de mensen door op een klassiek linkje dat daar ergens onder staat. Als er geen AI-antwoord staat, is dat 15 procent. Overigens zet Google ook linkjes in de AI-samenvatting zelf, maar daar klikt vrijwel niemand op.
José van Dijck, universiteitshoogleraar media en digitale samenleving aan de Universiteit Utrecht, waarschuwde de Tweede Kamer twee jaar geleden al voor de gevolgen van het gebruik van ChatGPT. Nu constateert ze dat de omarming van chatbots, ook bij nieuws, nog veel sneller is gegaan dan ze destijds vreesde.
‘Zorgwekkend’, noemt ze dit: ‘Chatbots stimuleren een houding die we eigenlijk niet zouden moeten willen: luiheid. De nieuwsconsument neemt het AI-verhaaltje tot zich, zonder dat hij uitgedaagd wordt naar de bronnen te kijken.’ Nieuws is mensenwerk, benadrukt Van Dijck; niet alleen in het maakproces, maar ook bij het verantwoord wegen van informatie uit verschillende bronnen.
Dat chatbots ook nog geregeld fouten maken, tot aan het verzinnen van niet-bestaande artikelen toe, maakt dit alleen nog maar kwalijker.
Ook Renée van der Nat, onderzoeker kwaliteitsjournalistiek in digitale transitie bij de Hogeschool Utrecht, maakt zich zorgen. Vooral over de trend bij jongeren om niet meer de oorspronkelijke brengers van nieuws of informatie te bezoeken. ‘Dit zal ook niet ineens anders worden naarmate ze ouder worden. Dit gedrag blijft.’
En ergens snapt ze dat ook wel: ‘Die AI-samenvattingen of ChatGPT-antwoorden zijn vaak ook superhandig. En jongeren vinden ze misschien ook wel goed genoeg.’ Het gevolg: ze komen niet meer in aanraking met de nieuwstitels zelf zoals NOS, de Volkskrant, NRC, De Groene of NU.nl, die bovendien niet garant staan voor de herverpakte AI-versie van hun nieuws.
Nu maken de bots nog te veel fouten, maar dat zou best kunnen veranderen, voorspelt Van der Nat. Maar dan nog: ‘Iedereen krijgt zijn persoonlijke nieuwssamenvatting. Daarmee verdwijnt een gedeelde werkelijkheid waarop burgers kunnen terugvallen.’
‘Wat is nu de situatie van de oostvleugel van het Witte Huis?’ AI-zoekdiensten geven in een paar alinea’s een handig en toegankelijk geschreven overzicht. Wie gaat dan nog naar de nieuwsmedia die de bron zijn van dat overzicht?
Voor de media zijn de implicaties van generatieve AI als vervanging van de ouderwetse zoekmachines daarom groot. Als de consument geen reden meer ziet om door te klikken, dreigt het verdienmodel van nieuwssites te worden ondermijnd. Geen bezoek betekent geen advertentie-inkomsten en, nog erger, geen potentiële nieuwe abonnees.
Ziehier in een paar stappen de immense uitdagingen waarmee uitgevers te maken krijgen, terwijl ze nog niet eens zijn bijgekomen van de vorige grote klap: de opkomst van sociale media. Van der Nat krijgt er een déjà-vugevoel bij: ‘Nieuwsmedia werden destijds enorm overvallen door de komst van internet en daarna sociale media. Nu gebeurt weer hetzelfde met AI.’
Eigenlijk zit de journalistiek sinds halverwege de jaren negentig permanent in een transformatiestand, zegt Van der Nat. ‘De veranderingen volgen elkaar in steeds sneller tempo op.’
Nu ziet ze naar eigen zeggen alweer de eerste contouren van een volgende fase: ‘Het lijkt erop dat de klassieke vorm waarop redacties hun nieuws aanbieden, namelijk via hun sites en apps, steeds minder belangrijk wordt.’
Maar liefst 49 van de 50 grootste Engelstalige nieuwswebsites zagen in augustus van dit jaar het aantal maandelijkse bezoekers dalen in vergelijking met dezelfde maand in 2024, zo liet recent onderzoek zien. Bij titels als Forbes (53 procent), HuffPost (45 procent) en Business Insider (44 procent) ging het bezoek zelfs alarmerend hard omlaag.
Wat de exacte rol van AI hierin is, is nog niet duidelijk. Wat wél helder is, is dat uitgevers de toekomst met angst en beven tegemoetzien. Zij konden zich jarenlang laven aan het verkeer dat Google naar ze toe stuurde, maar dit lijkt wat op te drogen. Sommige uitgevers houden zelfs rekening met een toekomst waarin het Google-verkeer naar 0 gaat. Google Zero heet dit somberste scenario.
Uitgevers moeten dus iets bedenken. Maar wat? Een van de strategieën is meegaan in de vaart der volkeren en het publiek óók AI-gereedschap aanbieden. De populairste vorm is die van chatbots waarmee abonnees kunnen praten en die zich alleen baseren op het eigen archief van sites. Onder andere de Financial Times (Ask FT) en The Washington Post (Ask the Post AI) doen dit al.
Beide partijen tekenden daarvoor een ‘strategisch partnerschap’ met OpenAI. Inderdaad: dezelfde partij die eerst zonder toestemming alle archieven van kranten wereldwijd leegtrok om haar modellen mee te trainen. De uitgevers krijgen met zulke samenwerkingen in ieder geval nog wat geld in het laatje vanuit de AI-industrie.
Toch is José van Dijck er geen voorstander van: ‘Uitgevers moeten hun eigen expertise ontwikkelen en zelf alternatieve technologieën ontwikkelen op basis van hun journalistieke waarden.’ Bovendien creëert zo’n samenwerking een nieuw soort afhankelijkheid, dit keer van de bedrijven die een machine hebben gemaakt die het werk van uitgevers in papier-machévorm dupliceert.
Er is nog een ander risico, iets waarvan de uitgevers zich terdege bewust zijn: chatbots maken fouten. Precies dat is de reden waarom zij zich verre van dit soort technieken zouden moeten houden, vindt AI-expert Laurens Vreekamp: ‘Je kunt er een disclaimer bij zetten, maar dat lost het probleem van het gebrek aan betrouwbaarheid niet op. Het is een beetje alsof een bakker een bordje ophangt met de tekst: ‘We kunnen niet garanderen dat ons brood vers is.’ Je voegt met generatieve AI een extra laag onzekerheid toe. Iets wat juist indruist tegen journalistieke principes.’
The Guardian koos eieren voor zijn geld en besloot een experiment met AI-samenvattingen op zijn site te staken omdat hier te veel fouten in voorkwamen, tot verzonnen citaten aan toe.
Een tweede strategie is defensief: proberen AI-bedrijven met hun hongerige bots buiten de deur te houden. Ze hebben hun modellen al getraind door bibliotheken en het halve internet af te romen, inclusief de nieuwsarchieven. Bedrijven als Perplexity, Anthropic en OpenAI blijven constant op zoek naar verse informatie. Zonder die informatie verliezen hun antwoordmachines immers hun bestaansrecht.
Tegenwoordig vermelden uitgevers daarom in de code van hun sites expliciet dat de bots van die AI-labs niet welkom zijn om de inhoud naar binnen te hengelen. De AI-bedrijven zeggen zich hieraan te houden, maar dat lijkt niet het geval te zijn. Cloudflare, een techbedrijf dat software aanbiedt waarmee uitgevers bots buiten de deur kunnen houden, beschuldigde afgelopen zomer Perplexity ervan dat het gewoon doorgaat met het scrapen van sites, ondanks de verbodsbordjes.
NDP Nieuwsmedia herkent dit beeld. De brancheorganisatie van Nederlandse nieuwsbedrijven deed twee maanden lang onderzoek naar de antwoorden van ChatGPT op zeer actuele onderwerpen. Hieruit bleek dat ook de bots van OpenAI zich weinig aantrekken van de verbodsbordjes en doodleuk doorgaan met het leegtrekken van nieuwssites en het geven van samenvattingen die vaak ook fouten bevatten.
Voor The New York Times waren de praktijken reden een rechtszaak tegen OpenAI aan te spannen. NDP Nieuwsmedia ziet dat als uiterste middel, al wil strategisch adviseur Stefan Heijdendael een gang naar de rechter niet uitsluiten.
Maar liever wil hij licenties afsluiten: ‘Het gebruik van artikelen voor de training van LLM’s zonder vergoeding en goede voorwaarden zal ertoe leiden dat nieuwsuitgevers dat gebruik gaan blokkeren, technisch of juridisch. Daar schiet uiteindelijk niemand iets mee op.’
Dat het ook anders kan, bewijst wat hem betreft de grote dataset die Nederlandse nieuwsuitgevers leverden voor het AI-model dat TNO bouwt: GPT-NL. Het idee daarvan is om een alternatief voor big tech te bieden, met trainingsdata waarvoor de uitgevers netjes toestemming hebben gegeven.
Dit model kan als basis dienen voor nieuwe chatbots voor het publiek. Heijdendael: ‘Daar is het gelukt om goede voorwaarden vast te leggen om de journalistiek te beschermen. Dit verdient navolging.’
Het opnemen van recent nieuws in AI-modellen is dan weer een ander verhaal: ‘Dat is aan de individuele uitgevers zelf.’
Uiteindelijk hebben de AI-bedrijven er zelf ook baat bij dat de aanbieders van informatie en nieuws overeind blijven. Het angstbeeld van uitgevers is Wikipedia. De online-encyclopedie zag haar bezoek de laatste tijd flink stijgen. Niet door mensen, maar door de bots van de AI-bedrijven die – op zoek naar tekst en afbeeldingen – het web opeten.
De gevolgen laten zich raden. Als mensen genoeg hebben aan de AI-samenvattingen van ChatGPT en consorten, zullen ze niet meer naar Wikipedia gaan. Deze site is daarbij nog extra kwetsbaar, omdat ze afhankelijk is van de bijdragen van gebruikers. Geen bezoek betekent geen nieuwe bijdragen, met als gevolg dat Wikipedia dan opdroogt als bron van informatie voor zowel mens als AI-machine.
Hetzelfde verhaal gaat op voor de nieuwsindustrie. Als die om zeep wordt geholpen, heeft dat ook gevolgen voor de chatbots. Ze zijn als de slang die in zijn eigen staart bijt.
Alles over tech vindt u hier.
Geselecteerd door de redactie
Source: Volkskrant