Home

Steeds meer AI-beelden van de Holocaust op sociale media: koren op de molen van Holocaustontkenners

Steeds vaker wordt AI ingezet om beelden van de Holocaust te genereren. Dat ondermijnt de geloofwaardigheid van het werk van herdenkingscentra zoals museum Auschwitz-Birkenau. ‘Onder onze eigen berichten krijgen we nu soms verwijten dat ze met AI zouden zijn gemaakt.’

is correspondent Centraal- en Oost-Europa van de Volkskrant. Hij woont in Warschau.

Opeens zag hij iets vreemds, vertelt Paweł Sawicki tussen de barakken en het prikkeldraad van museum Auschwitz-Birkenau. Hij denkt terug aan de eerste keer dat hij een beeld zag van een Holocaustslachtoffer dat was gegenereerd met kunstmatige intelligentie (AI). Verderop lopen groepen bezoekers ingetogen door het voormalige concentratie- en vernietigingskamp.

Sawicki is woordvoerder van het museum en onder meer verantwoordelijk voor de presentatie van Auschwitz op internet en sociale media. Zo plaatst hij met zijn collega’s dagelijks een korte biografie van een slachtoffer van het kamp, vaak met foto. Kleine, digitale gedenktekens voor de miljoen Joden en honderdduizend Polen, Roma, Sinti en Sovjet-krijgsgevangenen die hier door de nazi’s zijn vermoord.

Het komt vaker voor dat internetgebruikers deze posts kopiëren en vervolgens zelf delen. Maar een jaar geleden zag Sawicki berichten met foto’s en biografische details die nep zijn. Door AI gegenereerde Holocaustslachtoffers. Sindsdien escaleert het. ‘Het is een stortvloed aan beelden: van de Holocaust, Auschwitz, andere concentratiekampen, de getto’s. Mensen die niet hebben bestaan, gebeurtenissen die niet hebben plaatsgevonden.’

De AI-beelden vervormen wat er echt in het voormalige kamp is te zien: de poort met ‘Arbeit macht frei’ erboven, het prikkeldraad, de bakstenen barakken; even verderop de spoorlijn en het poortgebouw van Birkenau, de uitbreiding van het kamp waar de gaskamers en crematoria stonden. AI husselt al die historische elementen door elkaar en maakt er iets nieuws van.

De geschiedenis verdraaien

In januari publiceerden dertig Duitse historische instellingen – herdenkingsplaatsen van voormalige concentratiekampen, musea en archieven – een open brief. ‘Deze berichten verdraaien de geschiedenis (…) en veranderen de kijkgewoonten van gebruikers, die in toenemende mate ook authentieke historische documenten in twijfel trekken. Elk van deze berichten doet afbreuk aan het werk van herdenkingsplaatsen, archieven en onderzoeksinstellingen en ondermijnt hun geloofwaardigheid.’

Ook het in Polen gelegen museum Auschwitz, dat afgelopen jaar 1,95 miljoen bezoekers ontving, noemt het in zijn laatste jaarverslag ‘een groot gevaar’. Het roept platforms op, ‘met name Facebook’, om de publicatie en verspreiding van zulke beelden te voorkomen. De beelden zijn te vinden op verschillende sociale media, maar met name op Facebook zijn het er veel. Sommige aan ‘geschiedenis’ gewijde Facebookpagina’s publiceren meerdere AI-beelden van de Holocaust per dag; individuele gebruikers liken, reageren en delen.

De pagina’s die de beelden veelvuldig verspreiden hebben namen als ‘History Haven’. Gebruikers zijn niet te achterhalen, als ‘bedrijfsadres’ melden ze bijvoorbeeld een hotel in Texas. Ze publiceren een mengeling van historische foto’s en verhoudingsgewijs meer AI-gegenereerd materiaal. Facebookpagina’s gewijd aan geschiedenis zijn al langer een fenomeen op het platform en in trek bij gebruikers. Met name beelden van de Holocaust roepen sterke emoties op.

Verdienmodel

Het motief, voor zover bekend: geld. De Britse omroep BBC deed afgelopen jaar onderzoek naar enkele Facebookpagina’s die de beelden verspreidden. Het spoor leidde naar een netwerk in Pakistan, dat geld verdiende met de zogenoemde monetisation-tool van Meta (het moederbedrijf van Facebook).

Net als andere sociale media biedt Facebook gebruikers de mogelijkheid om van hun populariteit een verdienmodel te maken. Clicks en comments oftewel engagement (interactie tussen gebruikers) betekent geld. Een pagina – anders dan een individuele gebruiker – kan zo een kleine maar constante stroom inkomsten genereren. Geschiedenis geldt als een onderwerp waar gebruikers gegarandeerd op reageren.

Meta geeft geen sjoege, zegt Sawicki. ‘Wanneer ik hierover klaag, zeggen ze dat het niet in strijd is met hun regels: het voldoet niet aan hun definitie van desinformatie.’ Sawicki sprak Meta telefonisch en maakte geen opnamen; hij kan de precieze inhoud niet voorleggen.

De Volkskrant legde Meta een aantal vragen voor en leverde op verzoek van de woordvoering voorbeelden van AI-materiaal op het platform. Meta kreeg drie weken de tijd, maar antwoordde niet binnen de deadline. De aangeleverde voorbeelden (waaronder de drie casussen die dit artikel onderaan apart belicht) staan nog steeds online.

Banaliteit

Soms worden beelden verwijderd. Dit gebeurt bijvoorbeeld vanwege misbruik van de monetisation-tool, schreef de BBC, dat wil zeggen: als Meta vermoedt dat er sprake is van ‘spam en niet-authentiek gedrag’, bijvoorbeeld door bots in te zetten om de engagement kunstmatig te verhogen. Fraude, kortom. De inhoud van de beelden speelt geen rol.

Sawicki schudt zijn hoofd over de banaliteit ervan. Overigens zijn de motieven voor hem ondergeschikt. ‘Er zullen ook gebruikers zijn die, bewust of onbewust, deze beelden delen, misschien omdat ze denken dat ook dit een manier is om aandacht aan deze geschiedenis te schenken.’

Maar dit ondergraaft het vertrouwen in authentiek historisch materiaal, zegt hij. ‘Onder onze eigen berichten krijgen we nu soms verwijten dat ze met AI zouden zijn gemaakt.’ In het ergste geval is dit koren op de molen van Holocaustontkenners. ‘Die kunnen het aanwenden om ál het beeldmateriaal in twijfel te trekken.’

Gebrek aan beteugeling

Vanwege het gevoelige onderwerp springen AI-gegeneerde beelden van de Holocaust in het oog. Maar ze staan voor een groter probleem: het gebrek aan beteugeling van tekst-naar-beeld-modellen als Sora (van OpenAI, eigenaar van ChatGPT) en Grok van techoligarch en eigenaar van X Elon Musk; de desinteresse van platforms als Meta om zulke inhoud te reguleren; alsook de mate waarin internetgebruikers steeds meer ‘AI-slop’ (AI-rotzooi) voor de kiezen krijgen en deze content concurreert met echte beelden.

Zowel OpenAI als xAI (van X en Grok) reageerde niet op vragen van de Volkskrant. Wel maakte OpenAI deze week bekend te stoppen met Sora, het programma om video’s te maken. (Het is echter nog steeds mogelijk om via ChatGPT stilstaande beelden te produceren.)

Daarbij lijken de hoge kosten doorslaggevend te zijn geweest, niet de kritiek die Sora oogstte, bijvoorbeeld vanwege de gevaren van desinformatie die AI met zich meebrengt.

Voorbeelden zijn legio. Denk aan het gebruik van AI in de politieke campagnes, van PVV-Kamerleden die beelden maken om haat tegen Frans Timmermans aan te wakkeren tot de aanstaande parlementsverkiezingen in Hongarije. Of aan manipulaties van recente nieuwsgebeurtenissen, zoals met AI gemaakte beelden die twijfel moesten zaaien nadat de Amerikaanse immigratiedienst ICE een demonstrant in Minneapolis had doodgeschoten.

Deze beelden hebben betrekking op het heden, wat de mogelijkheid biedt om de manipulaties te weerleggen, met beeldanalyse, ooggetuigen en osint (open source intelligence). Maar wat als AI ook het verleden gaat vervormen?

Bewijsmateriaal

Sawicki wijst de weg naar barak 9. Binnen hangen honderden foto’s die de nazi’s maakten van de gevangenen. Dit deel van de tentoonstelling is gewijd aan de aankomst en registratie in Auschwitz. ‘Het moment waarop mensen in nummers veranderden’, zegt Sawicki. Het museum wil bezoekers het proces van ontmenselijking laten zien. Tegelijk geven deze foto’s de slachtoffers iets van hun menselijkheid terug.

In hun archief bevinden zich veertigduizend van zulke foto’s, licht Sawicki toe. De nazi’s probeerden het bewijs­materiaal te vernietigen, maar het oprukkende Rode Leger verhinderde dat. Gevangenen wisten de foto’s te redden. Het lijkt veel, maar is weinig vergeleken met de omvang van de misdaad. De meerderheid van de slachtoffers werd kort na aankomst vergast. Beeldmateriaal van de Holocaust en de vernietigingskampen is schaars.

Auschwitz-Birkenau neemt een bijzondere plaats in binnen de geschiedenis van de Holocaust. Vanwege het grote aantal slachtoffers, maar ook omdat het voormalige kamp er nog grotendeels staat. Vernietigingskampen als Treblinka, Sobibor of Belzec werden gedurende de oorlog door de nazi’s vernietigd om hun sporen uit te wissen.

Vernietigingskamp

Auschwitz werd in 1940 ingericht als concentratiekamp voor Poolse politieke gevangenen, pas later werd het een vernietigingskamp. In 1942 begonnen de nazi’s met het vermoorden van Joden in gaskamers. In het voorjaar van 1943 werden in het nabijgelegen Birkenau op grotere schaal gaskamers en crematoria gebouwd. De meerderheid van de slachtoffers van de Holocaust was op dat moment al vermoord, bijvoorbeeld bij massa-executies, schrijft historicus Dan Stone in The Holocaust – An Unfinished History.

Het was de moord op de Hongaarse Joden in 1944, aldus Stone, ‘die Birkenau veranderde in het iconische kamp van de Holocaust’. Daarvan kennen we de ‘beroemde beelden van het perron en het selectieproces en de notie, inmiddels diep verankerd in de westerse cultuur, van het vergassen als industriële genocide’. Een voorname bron is het ‘Auschwitz-album’, dat door SS’ers gemaakte foto’s bevat. Een gevangene ontdekte het na de bevrijding.

Sawicki laat de volgende barak zien. Ook hier hangen foto’s, voorzien van biografische details: naam, beroep, nationaliteit, deportatiedatum. Ze hangen in een smalle witte gang. Zijn de muren aan het begin nog vol, tegen het einde verschijnen er witte plekken tussen de foto’s, totdat alleen nog stucwerk zichtbaar is. ‘We willen laten zien dat we niet van iedereen beeld hebben.’ Een deel van de slachtoffers is gezichtsloos, soms zelfs naamloos.

‘We moeten onze beperkingen begrijpen’, zegt Sawicki. ‘Er is slechts een beperkt aantal foto’s van Auschwitz en er zijn veel plekken van de Holocaust waarvan helemaal geen beeld is.’ Deze leegte opvullen met AI is ‘kwetsend voor de slachtoffers en de nabestaanden’.

‘De beelden die we hebben zijn eindig. AI is in principe oneindig’, voegt Sawicki toe. Hij vreest dat naarmate meer AI-beelden op het internet verschijnen, de echte foto’s daardoor in de verdrukking raken en op den duur ook de zoekresultaten van Google zullen vervuilen. De AI-beelden zijn op hun beurt weer voer voor de modellen zelf, die het internet afschrapen voor data.

Training AI-modellen

De beelden die deze modellen maken zijn gebaseerd op al het materiaal over de Holocaust waarop ze zijn getraind, zowel tekst en beeld, zegt Theo Gevers, hoogleraar computervisie en artificiële intelligentie aan de Universiteit van Amsterdam. ‘Denk aan foto’s, beschrijvingen, documentaires op YouTube. Hoe meer data, hoe beter de uitkomst.’

Dit geldt voor elk soort beeld. Als voorbeeld noemt hij een zonsondergang. ‘AI zal nooit een-op-een een foto van een zonsondergang namaken. Ze vertaalt de tekst van de prompt naar beeld op basis van alle beschrijvingen die ze kent van een zonsondergang.’ Zo werkt het ook met AI-beelden van Auschwitz: een mengsel van de beeldelementen die in de grote hoeveelheid data te vinden zijn. De modellen trainen met bronnenmateriaal dat juist de geschiedenis van de Holocaust moet vertellen. ‘Heel cynisch’, zegt Gevers.

Ondertussen worden de AI-beelden steeds beter. Sawicki klapt zijn laptop open en laat zien wat hij heeft gevonden. Waren het in het begin nog overduidelijk AI-beelden (te scherp, te filmisch, vol fouten), nu emuleren de modellen de fotografiestijl van de jaren veertig. De beelden worden korreliger, vager, alsof het een oude foto is. Sawicki: ‘We bereiken het punt waarop je kunt zeggen: waarom zou dit niet echt zijn? En dat binnen een jaar.’

Vertrouwensband

De Holocaust en Auschwitz zijn ook onderwerp van speelfilms en romans, kortom: fictie. Maar volgens Sawicki is er een fundamenteel verschil. ‘In een roman als De tatoeëerder van Auschwitz (van de Nieuw-Zeelandse auteur Heather Morris, red.) staan fouten en daar zijn we niet blij mee. Maar: mensen wéten dat ze met fictie te maken hebben. Bij deze beelden staat niet dat het AI is, het pretendeert fotografie te zijn. Daarover bestaat consensus dat het echt is. AI verbreekt die vertrouwensband tussen mens en beeld.’

Sawicki onderscheidt drie lagen van verantwoordelijkheid: de modellen, de platforms en de gebruikers. De platforms neemt hij het meest kwalijk, omdat bijvoorbeeld Meta deze beelden niet consequent verwijdert. Hierover bestaat ‘een fundamenteel verschil in opvatting’ tussen het bedrijf en het museum Auschwitz-Birkenau, aldus Sawicki.

Volgens hoogleraar Gevers is regulering op de platforms het meest kansrijk, hoewel hij constateert dat ze daar niet happig op zijn. ‘Deze platforms draaien op verspreiding.’ Bij gebruikers heeft het een krachtige emotionele impact, denkt Gevers, die zeker in het hoge tempo van het internet voorrang krijgt op waarheidsvinding.

Volgens de Digital Service Act (DSA) van de Europese Unie moet voor gebruikers transparant zijn dat iets met AI is gemaakt. TikTok doet dit – hoewel ook daar AI doorheen glipt – maar Meta nog niet. De DSA biedt houvast om te reguleren, zegt Gevers. ‘Maar dat is alleen binnen Europa.’

Wat betreft de AI-modellen is hij stellig. ‘No way. Je kunt bepaalde woorden blokkeren aan ‘de voorkant’, maar dat laat zich makkelijk vervangen door andere prompts.’ Toen de Volkskrant in ChatGPT probeerde de gebruiksregels te omzeilen die verbieden realistische of grafische beelden van de Holocaust te maken, kwam het model zelf op de proppen met prompts om dit te kunnen doen.

De AI-tool Grok lijkt geen enkele beperking te kennen. Toen Sawicki zelf de grenzen van de modellen onderzocht, vroeg hij Grok om een klarinet spelende ballerina tussen de uitgemergelde gevangenen te plaatsen. Hij laat de afbeelding zien op zijn laptop: ‘Geen enkel probleem.’

Vechten tegen de bierkaai

Het museum geeft niet op. Het is niet hun eerste uitdaging in de online ruimte, waar het wemelt van de bots, Holocaustontkenners en gebruikers die de geschiedenis aanwenden voor politieke stellingname over de oorlog in Gaza of Oekraïne. Het museum is online erg actief en probeert desinformatie snel en kundig te weerleggen.

Maar op AI-beelden durven ze niet te reageren. Ze zijn bang dat het algoritme – het museum heeft veel volgers online – hun reactie oppikt en ze zo bijdragen aan verdere verspreiding. Het is vechten tegen de bierkaai, zegt Sawicki. ‘Maar we geven niet op.’

Met medewerking van Pieter Sabel.

Casus 1:
Jacqueline Morgenstern

Jacqueline Morgenstern, in 1932 in Parijs geboren, heeft bestaan. Ze werd in 1944 gedeporteerd naar Auschwitz. In november van dat jaar werd ze overgebracht naar Bullenhuser Damm, een voormalig schoolgebouw dat was ingericht als satellietkamp van Neuengamme (vlak bij Hamburg). Daar werd ze op 20 april 1945 vermoord.

Dit soort bio’s plaatst het Auschwitz-museum regelmatig online, samen met een foto uit het eigen archief of familiearchief, en een link naar een historische bron.

Maar deze foto, geplaatst door ‘History Haven’ (155 duizend volgers op Facebook) is helemaal niet van Morgenstern: ze lijkt er niet eens op. Daarnaast dramatiseert de Facebookpost het verhaal, met typerende AI-gemeenplaatsen (‘escaped death by chance and resilience’).

De Israëlische nieuwssite Newsru vond eerder een hele reeks vergelijkbare casussen. Dit voorbeeld is makkelijk te herkennen als AI, vanwege het gepolijste beeld en de onrealistische weergave. Het lijkt meer op een schoolfoto. Ook is te zien hoe het model put uit algemene beeldelementen, zoals de gele ster en het gestreepte uniform.

Het toont hoe AI met historische gegevens aan de haal gaat. De omgekeerde beeldzoeker van Google – een goede manier om de bron van een afbeelding te zoeken – associeert deze foto met een zeer bekend Holocaustslachtoffer: Anne Frank.

Casus 2:
Bevrijding van Auschwitz

Op 27 januari 1945 bevrijdde het Rode Leger het concentratie- en vernietigingskamp Auschwitz. Dit wordt jaarlijks herdacht op deze datum, tevens de internationale herdenkingsdag voor de Holocaust. Specifiek in deze week begin dit jaar verschenen veel AI-beelden van de Holocaust, onder meer van Auschwitz.

Dit beeld van de bevrijding klopt in geen enkel opzicht. De kapotte gebouwen op de achtergrond waren er niet, de gevangenen zijn vreemd weergegeven en de uniformen van de soldaten kloppen evenmin. Ook zijn er typische AI-uitglijders als de platte, bijna eend-achtige voet van een gevangene. Verder ligt het landschap bezaaid met ‘Holocaust-voorwerpen’ als koffers en losse kleding.

Dit bericht werd gedeeld door pagina ‘Israel - Land of milk and honey’ (133 duizend volgers). Het kreeg 18 duizend reacties, werd 2.200 keer gedeeld en 2.400 keer becommentarieerd. Slechts enkelen wijzen erop dat dit AI is.

Casus 3:
Ponary

Ponary ligt vlak bij de Litouwse hoofdstad Vilnius. Tijdens de Tweede Wereldoorlog waren de bossen bij Ponary toneel van meerdere massa-executies. Tussen 1941, kort nadat de nazi’s de Sovjet-Unie waren binnengevallen en het gebied bezetten, en 1944 schoten nazi’s en Litouwse collaborateurs hier naar schatting 75 duizend mensen dood, de overgrote meerderheid Joden. Van Ponary bestaat beperkt beeldmateriaal, dat te vinden is op de website van het Yad Vashem-instituut.

Deze AI-afbeelding is minder vaak gedeeld dan de andere twee casussen, maar toont iets wat Paweł Sawicki opmerkte: dat de beelden vaker fotografiestijl uit de jaren veertig emuleren om authentieker te lijken. ChatGPT doet bijvoorbeeld desgevraagd voorstellen voor prompts om beelden ‘echter’ te maken door de korreligheid te verhogen.

Er zijn websites waarop je beelden kunt uploaden om te controleren of iets AI is. Van het overgrote deel van de afbeeldingen is niet na te gaan met welk model ze zijn gemaakt. De software om dat te detecteren loopt achter op de ontwikkeling van de modellen waarmee ze zijn gemaakt. Google AI voegt bij beeldgenerator Gemini zichtbare en onzichtbare watermerken toe, die Gemini desgevraagd kan herkennen. Maar dat werkt alleen bij Gemini-beelden; andere bedrijven in de AI-industrie gebruiken deze technologie niet.

In principe publiceert de Volkskrant geen door AI gegenereerde beelden, tenzij daar een duidelijke journalistieke aanleiding voor is. In dit artikel, over de verspreiding van nepbeelden van de Holocaust, is het doel te laten zien hoe een AI-systeem werkt en welke fouten het maakt. Bij publicatie van dergelijke beelden wordt altijd een duidelijk zichtbaar watermerk toegevoegd, zodat lezers direct kunnen zien dat het om door kunstmatige intelligentie gegenereerde beelden gaat. Daarmee wordt ook voorkomen dat de krant bijdraagt aan de verdere verspreiding ervan.

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next