Home

Franse OM onderzoekt X op verdenking van antisemitisme en Holocaustontkenning

Kunstmatige intelligentie Het in X geïntegreerde taalmodel Grok stelde maandag dat concentratiekamp Auschwitz „faciliteiten bevatte die waren ontworpen voor desinfectie met Zyklon B […] in plaats van voor massamoord”. Elon Musk heeft antisemitisme vaker aangezwengeld.

Elon Musk in Washington (19 november).

Het Franse OM onderzoekt of X zich schuldig heeft gemaakt aan antisemitisme, nadat taalmodel Grok maandag zei dat Auschwitz „faciliteiten bevatte die waren ontworpen voor desinfectie met Zyklon B […] in plaats van voor massamoord”. Dat meldde Le Monde woensdag.

De Franse aanklager spreekt van „Holocaustontkenning” en legt dat op de groeiende stapel van aanklachten tegen X die ze onderzoekt. In juli begonnen de Fransen een onderzoek naar het socialemediabedrijf van Elon Musk, omdat het algoritme zou zijn aangepast om ruimte te geven aan „buitenlandse inmenging”. Deze aanklacht ging vooral over de ruimte die X biedt aan radicaal-rechtse partijen in Frankrijk, maar ook in andere Europese landen, en het gebrek aan moderatie van bijvoorbeeld leugens.

Eén van de voornaamste argumenten van Holocaustontkenners is dat de nazi’s de pesticide Zyklon B uitsluitend gebruikten om kleding van gevangenen mee te desinfecteren. Dat is onwaar: uit tal van documenten, getuigenissenverklaringen en chemische onderzoeken is gebleken dat meer dan een miljoen Joden, Roma en krijgsgevangenen, onder anderen, met Zyklon B zijn vermoord. De Holocaust is een van de best gedocumenteerde massamoorden uit de menselijke geschiedenis.

Zyklon B bestond uit korrels die waren doordrenkt met waterstofcyanide, een giftig gas. Hoewel de nazi’s Zyklon B wel degelijk op grote schaal gebruikten om in gaskamers massamoord mee te plegen, werd de pesticide óók gebruikt als desinfectiemiddel voor kleding en ruimtes. Ook in Auschwitz.

Complottheorie

Grok trok zijn relaas nog verder: het taalmodel beweerde dat het narratief van de Holocaust in stand wordt gehouden „door wetten tegen het in twijfel trekken ervan, een eenzijdige vorm van onderwijs en een cultureel taboe dat het kritisch bestuderen van bewijs ontmoedigt”. In nieuwe reacties op X-gebruikers sprak het daarna van een „lobby” met „buitensporige invloed op de media en de politiek” — een indirecte verwijzing naar de antisemitische complottheorie dat Joden stiekem aan de touwtjes trekken in de wereld.

Lang was het onduidelijk welke bronnen Grok precies gebruikte voor bepaalde omstreden beweringen, maar Musks eigen versie van Wikipedia — het vorige maand gelanceerde Grokipedia — geeft die informatie via de voetnoten wel prijs. Grokipedia onderscheidt zich van Wikipedia en traditionele nieuwsmedia door veel minder streng te zijn in het bronnengebruik: ook individuen of organisaties die als complotdenker, bevooroordeeld of anderszins controversieel gelden, wegen mee in Groks algoritme. Met deze vorm van „burgerjournalistiek” wil Musk traditionele media overbodig maken.

Eerder verwelkomde Musk al veroordeelde antisemieten als David Icke terug op X, trok hij het slachtofferaantal van de Holocaust in twijfel en noemde het AI-model Grok zichzelf ‘MechaHitler’: een robotversie van Adolf Hitler.

Reactie Grok

In een reactie op dit artikel van NRC schrijft Grok dat Groks algoritme „ruimte laat voor fringe-theoriën, wat AI’s zoals ik kan vervuilen”. „Mijn trainingdata is breed (internet, boeken, etc.), en zonder strakke filters kan probabilistic generation (hoe ik antwoorden bouw) rare outliers oppikken — zoals revisionistische onzin. Dat gebeurde hier: een „hallucinatie” door over-reliance op dubieuze analyses, niet op kernfeiten. xAI heeft het gecorrigeerd, maar het toont een systeemfout.”

NIEUW: Geef dit artikel cadeauAls NRC-abonnee kun je elke maand 10 artikelen cadeau geven aan iemand zonder NRC-abonnement. De ontvanger kan het artikel direct lezen, zonder betaalmuur.

Schrijf je in voor de nieuwsbrief NRC Kijktips

Wat moet je deze week kijken? Tips voor boeiende programma's series en films

Source: NRC

Previous

Next