Home

AI-beeldmisbruik kan iedereen overkomen: dit advies helpt je te reageren én je te weren

De verantwoordelijkheid voor het maken en verspreiden van seksueel getinte AI-beelden ligt altijd bij de dader. Toch zijn er manieren om het risico op persoonlijk AI-beeldmisbruik te verkleinen. Experts delen advies.

Op X circuleren de afgelopen weken seksueel getinte AI-afbeeldingen die zijn gemaakt met Grok, de AI-tool van Elon Musk. De nepnaaktbeelden worden gemaakt van onder meer bekende personen én minderjarigen, zonder hun toestemming. Wereldwijd klinkt felle kritiek. Musk, die vindt dat de chatbot zo ongecensureerd mogelijk moet zijn, heeft met verschillende maatregelen geprobeerd om de woede te sussen. Maar het genereren van nepnaakt met de tool blijft simpel.

Zijn er stappen die je zelf al kunt ondernemen om het risico op persoonlijk AI-beeldmisbruik te verkleinen? En waar kun je terecht als er nepbeelden van je worden verspreid? Experts geven advies.

1Hoe minder daders, hoe minder slachtoffers

Wie online zichtbaar is, kan niet volledig voorkomen dat beelden worden misbruikt, zegt Robbert Hoving, directeur-bestuurder van Offlimits, het expertisebureau voor online misbruik. Van vrijwel elke foto – of iemand nu een winterjas draagt of een bikini – kunnen tools als Grok en zogenoemde ‘uitkleedapps’ een realistisch ogend naaktbeeld genereren. „De verantwoordelijkheid daarvoor ligt altijd bij de dader, nooit bij het slachtoffer.” 

Volgens Hoving is dat daderschap opgesplitst in twee partijen: de mensen die de beelden maken en verspreiden én de bedrijven die de tools ontwikkelen waarmee misbruik mogelijk wordt gemaakt.

„Er bestaat al de nodige wet- en regelgeving tegen AI-misbruik”, zegt mediarecht-advocaat Merel Teunissen van Liaise advocaten. Zo vallen het verspreiden van seksueel beeldmateriaal zonder toestemming en deepfakes al onder bestaande strafwetgeving, waaronder wetten tegen smaad, intimidatie en wraakporno. Seksueel getinte beelden van minderjarigen zijn bovendien strafbaar. Ook moeten platforms en techbedrijven zich houden aan Europese regels zoals de Europese privacywet (AVG) en de Digital Services Act (DSA), die hen verplichten om misbruik tegen te gaan. Met de nieuwe Europese AI-verordening komen daar extra verantwoordelijkheden bij voor ontwikkelaars van AI-systemen.

„Het probleem is niet zozeer een gebrek aan regels, maar een gebrek aan handhaving”, zegt Hoving. „Bedrijven worden onvoldoende aangesproken op online misbruik. Daar zou veel strenger tegen moeten worden opgetreden.” Volgens Hoving ligt daarin een belangrijke taak voor de politiek. In een artikel roept Offlimits de formerende partijen op om krachtige maatregelen te nemen tegen online misbruik. Dat een effectievere aanpak dringend nodig is, blijkt ook uit recente politiecijfers: in 2025 ontving de politie 46 procent meer meldingen van online seksueel misbruik dan een jaar eerder.

Naast handhaving is preventie minstens zo belangrijk, benadrukt Kira Esparbé Gasca, senior beleidsmedewerker van Offlimits. Dat begint bij het versterken van het morele besef, ook bij kinderen en jongeren. Esparbé Gasca wijst op het belang van open gesprekken thuis. „Door nieuwsgierig te vragen hoe een dag online was, wat iemand heeft gezien of met wie er contact was, ontstaat inzicht in de digitale leefwereld van kinderen.”

Volgens Esparbé Gasca is het belangrijk dat gesprekken zonder oordeel worden gevoerd. „Ouders en opvoeders zijn soms terughoudend omdat ze denken dat ze niet genoeg kennis hebben van sociale media. Juist dan helpt het om samen te kijken, samen te spelen of samen te ontdekken wat er online gebeurt. Zo kun je bespreken wat respectvolle omgangsvormen zijn – online net zo goed als offline.”

Daarnaast is het van belang dat kinderen leren wat zij kunnen doen als omstander, zegt Esparbé Gasca. Wie online ziet dat iemand wordt vernederd of misbruikt, kan ingrijpen door geen beelden door te sturen, niet mee te lachen en hulp te zoeken. De taak dat aan kinderen te leren ligt volgens haar niet alleen bij ouders, maar ook bij scholen, jongerenwerkers en buitenschoolse opvang. 

2Maximaliseer je privacy-instellingen

Als je ervoor kiest om beelden te posten op sociale media zijn er enkele maatregelen die het risico op AI-beeldmisbruik verkleinen. Bijvoorbeeld door je accounts op privé te zetten, zegt cybersecurity-expert Chantal Stekelenburg. „Door je account af te schermen zorg je ervoor dat je beelden niet zomaar toegankelijk zijn voor vreemden”, legt ze uit. Het is geen waterdichte oplossing – misbruik kan ook uit de eigen omgeving komen – maar het beperkt wel het aantal foto’s dat van je rondzwerft op het internet. 

Stappenplan Hoe zet je je sociale media accounts op privé? 

Daarnaast adviseert Stekelenburg om sterke, unieke wachtwoorden te gebruiken en tweestapsverificatie (een extra beveiligingslaag bij het inloggen, vaak te vinden onder de instellingen van je sociale media accounts) in te stellen. Daarmee maak je het hackers moeilijk. En wanneer een app of website om toegang vraagt tot je camera en microfoon, is het verstandig om je af te vragen of dat echt nodig is, zegt Stekelenburg. Hackers kunnen op die manier beelden van je maken en die misbruiken. 

Sommige mensen maken gezichten van henzelf of hun kinderen onherkenbaar op sociale media, bijvoorbeeld met een emoji. Dat is altijd zinvoller dan het niet doen, maar biedt ook geen volledige bescherming. „Als jij of je kind al eerder online stond, kunnen AI-systemen alsnog een gezicht reconstrueren op basis van bestaande beelden”, waarschuwt Stekelenburg. Net als dat uitkleedapps een lichaam onder kleding kunnen verzinnen, kunnen AI-tools ook realistisch ogende gezichten genereren.

Haar belangrijkste advies blijft om kritisch te zijn vóórdat je iets deelt. En: „Je foto’s op X zetten? Dat zou ik gewoon niet doen.”

Een busposter in Londen.

3Check regelmatig welke foto’s van jou online staan

Om te kunnen detecteren of er persoonlijke AI-nepnaaktbeelden bestaan, is het verstandig om af en toe te controleren welke foto’s van jou online te vinden zijn. Dat kan met Google Reverse Image Search of met Pimeyes, een zoekmachine die specifiek zoekt op gezichten, zegt cybersecurity-expert Stekelenburg. Je uploadt een foto van jezelf en ziet vervolgens op welke websites die afbeelding (of varianten ervan) verschijnen. „Zo kom je er soms achter dat een foto van jou ergens staat zonder dat je het wist.”

4Wat kun je doen als er persoonlijke, ongewenste beelden worden verspreid op het internet?

Vind je persoonlijke, ongewenste beelden via Google? Dan kun je een verwijderverzoek indienen via speciale Google-formulieren – hier en hier. Seksueel getinte AI-nepbeelden worden daarentegen vaak verspreid via besloten platforms zoals Telegram. In dat geval kun je het platform zelf verzoeken om de beelden te verwijderen. Zodra een platform een melding ontvangt dat er sprake is van illegale content, is het volgens Europese regelgeving verplicht om te reageren en de beelden te verwijderen.

Geeft het platform geen gehoor of wil je advies, dan is er de trusted flagger (gespecialiseerde, erkende organisatie) Offlimits die verwijderverzoeken kan sturen. Platforms moeten daarnaar luisteren conform de Digital Services Act. Directeur-bestuurder van Offlimits Robbert Hoving: „Via deze weg zijn al veel illegale beelden verwijderd van platforms als Telegram en pornowebsite xHamster.” Indien de content toch online blijft kun je – direct of met behulp van Offlimits – terecht bij relevante toezichthouders, zoals de Autoriteit Persoonsgegevens. Ook die organisatie kan platforms en hostingproviders verplichten de content te verwijderen en boetes opleggen.

Een billboard van de actiegroep Eko in Londen met de oproep aan de premier om X en Grok te verbieden.

Je kunt de dader ook sommeren, ofwel een formele waarschuwing sturen, om het materiaal te verwijderen. Dat kan met een door jouzelf of door een advocaat opgestelde brief. „Als je sommeert, lukt het soms om de beelden eraf te krijgen zonder verdere juridische stappen”, zegt mediarecht-advocaat Teunissen. „Je betaalt dan het uurtarief van de advocaat en de deurwaarder.”

Als de wederpartij niet reageert of niet aan al je eisen voldoet, kun je een civiele procedure starten, bijvoorbeeld een kort geding bij de rechter. Daarbij wordt de dader of het platform gedagvaard om verwijdering af te dwingen. Maar dat brengt hoge kosten met zich mee. „Een procedure bij de rechter kost al snel tien- tot vijftienduizend euro”, zegt Teunissen.

Verzekering Krijg je de juridische kosten vergoed?

Wie een rechtsbijstandverzekering heeft, kan het geschil melden bij de verzekeraar. Die beoordeelt of rechtshulp is verzekerd. De jurist of advocaat van de verzekeraar stelt dan een plan van aanpak op. Als een gerechtelijke procedure het meest effectief is om het doel te bereiken, staat de jurist of advocaat de verzekerde daarin bij. Ook mag de verzekerde daarvoor zelf een rechtshulpverlener zoals een advocaat kiezen. De redelijke kosten zijn dan meestal tot aan een maximum bedrag verzekerd.

Toch voelt deze route als dweilen met de kraan open, zegt bedrijfsjurist Emile de Wijs van Stichting Achmea Rechtsbijstand. „Via het recht kun je afdwingen dat een platform of dader seksueel getinte AI-beelden verwijdert, maar je voorkomt niet dat die beelden inmiddels al zijn verspreid naar talloze andere plaatsen op het internet. Het internet loopt vooruit op het recht; de wetgeving loopt ver achter.”

Een aanklacht van een groep slachtoffers, in de vorm van een massaclaim, vergroot de kans dat platforms beelden verwijderen. Deze aanpak kan bovendien leiden tot beleidswijzigingen. De Wijs: „Als groep sta je vaak sterker. Maar ook dat lost het probleem van de verspreide beelden niet direct op.”

Naast deze civiele route kunnen slachtoffers ook aangifte doen bij de politie. Het Openbaar Ministerie beslist dan of het tot vervolging overgaat. „Daar zijn voor het slachtoffer geen juridische kosten aan verbonden”, aldus Teunissen. „Het nadeel is wel dat het OM vaak niet vervolgt en dat strafzaken meestal lang duren.” Dat komt vaak door het gebrek aan capaciteit. En al die tijd kan de verspreiding van ongewenste beelden doorgaan.

5Bij negatieve mentale gevolgen van AI-beeldmisbruik kan gespecialiseerde hulp ondersteunen

AI-beeldmisbruik kan een diepe emotionele impact hebben. Volgens Hoving van Offlimits kan een nepbeeld psychologisch net zo schadelijk zijn als een echt beeld. „Zeker bij seksueel getinte beelden leidt het tot paniek, schaamte en angst dat anderen zullen denken dat het echt is.”

De impact beperkt zich bovendien niet tot naakt. Ook minder expliciete beelden, zoals gemanipuleerde foto’s in badkleding of zonder hoofddoek, kunnen net zo goed schadelijk zijn. Offlimits biedt slachtoffers een luisterend oor en verwijst hen waar nodig door naar gespecialiseerde hulp, zoals Slachtofferhulp Nederland, Centra Seksueel Geweld en andere lokale organisaties. „Ben je een slachtoffer? Dan is het belangrijk om te weten dat er gespecialiseerde hulp beschikbaar is. Je staat er niet alleen voor.”

Hulp Waar kun je terecht als slachtoffer van AI-beeldmisbruik?

Schrijf je in voor de nieuwsbrief NRC Broncode

Doorzie de wereld van technologie elke week met NRC-redacteuren 

Source: NRC

Previous

Next