Interview AI en mensenrechten Volgens Bruna Santos en Shirin Anlen, die zich bezighouden met de gevolgen van kunstmatige intelligentie (AI) voor mensenrechten, moet er snel veel meer aandacht komen voor veiligheid en privacy. „De grenzen tussen ironie, vermaak en misbruik dreigen weg te vallen”.
Op een bushalte in Londen, Groot-Brittannië, hangt een poster van de protestgroep Everyone Hates Elon, die oproept tot een boycot van Elon Musks socialemediaplatform X, op 14 januari 2026.
Het had niemand hoeven verbazen, het nieuws dat een AI-chatbot massaal gebruikt wordt om beelden van bestaande mensen zo aan te passen dat hun kleding geheel of gedeeltelijk wordt verwijderd, en ze in seksueel suggestieve houdingen verschijnen. Dat zeggen Bruna Santos en Shirin Anlen, die zich bij de internationale organisatie Witness onder meer bezighouden met de gevolgen van kunstmatige intelligentie (AI) voor mensenrechten.
„Je kon het zien aankomen”, verzucht Anlen, via een videoverbinding. „Sterker nog: het gebeurt al jaren.”
Internationaal ontstond afgelopen weken grote verontwaardiging over de enorme aantallen seksueel getinte afbeeldingen van vooral vrouwen en kinderen die verspreid werden op X, het sociale medium van Elon Musk. De beelden waren gemaakt met de chatbot Grok (eveneens van Musk), zonder toestemming van de afgebeelde slachtoffers.
Indonesië en Maleisië stelden een tijdelijk verbod in tegen Grok. De Britse premier Starmer noemde de Grok-beelden „walgelijk en beschamend” en beloofde maatregelen. De Britse toezichthouder op de media kondigde een onderzoek aan, net als de Europese Commissie, die moederbedrijf xAI alvast opdracht gaf documenten die betrekking hebben op Grok te bewaren.
Commissie-voorzitter Von der Leyen zei: „We zullen de bescherming van onze kinderen niet uitbesteden aan Silicon Valley. Als zij niet optreden, zullen wij het doen.” Musk had aanvankelijk alleen gereageerd door een met AI-gemaakt plaatje van zichzelf in bikini te verspreiden. Hij klaagde dat maatregelen tegen zijn chatbot neerkomen op censuur.
„Al jaren wordt ervoor gewaarschuwd dat deep fake-beelden voor negentig procent gemaakt worden voor pornografie”, zegt Anlen. „De afgelopen drie jaar hebben we een toename gezien van zogeheten nudify apps (waarmee mensen op een foto schijnbaar uitgekleed worden). Ook groeit het aantal klachten van jongeren die hiervan het slachtoffer zijn, niet alleen in de VS maar over de hele wereld. Dit soort beelden wordt gebruikt om vrouwen, non-binaire personen en andere minderheden het zwijgen op te leggen. In 2024 bleek uit een onderzoek dat één op de zes vrouwelijke leden van het Amerikaanse Congres slachtoffer was van met AI gemaakte seksuele deepfake-beelden.”
Dat alles is verhevigd door opkomst van zogeheten generatieve AI, waarbij beelden gemaakt of gemanipuleerd kunnen worden door een simpele opdracht in een zoekvenster te tikken, zegt Santos. „De haat tegen vrouwen en minderheden, die ook online allang bestaat, kan door de AI nu veel sneller ontwikkeld en op grotere schaal verspreid worden. En vaak zien de beelden er heel realistisch uit.”
„Het interessante, tussen aanhalingstekens, aan Grok is dat de chatbot geïntegreerd is in X. Alle X-gebruikers kunnen er daardoor heel makkelijk mee aan de slag, om beelden die ze op X tegenkomen te bewerken en meteen ook te verspreiden. Daar komt nog bij dat X heel weinig toezicht houdt op wat er op het platform verschijnt. Daardoor zijn er amper obstakels voor wie dit wil doen.”
Anlen: „Je hoeft alleen maar te schrijven: Hey Grok, wil je de kleren uit dit plaatje verwijderen? Je kan er zelfs heel eenvoudig bewegend beeld van maken.”
Anlen: „Eén op de vier mensen ziet er geen kwaad in om deepfakes van iemand te maken, volgens een onderzoek waarover The Guardian vorig jaar schreef. Iemand kwetsen met een synthetisch gemaakt beeld zien ze niet als écht kwetsen. En misschien is hun bedoeling ook niet om iemand pijn te doen en denken ze: het is maar een grapje.
„Daar komt bij dat de online-wereld toch al guur kan zijn voor vrouwen en minderheden. In Zuid-Korea worden naaktbeelden gedeeld als memes (grappig bedoelde plaatjes), daar heeft een ‘memificatie van het naakt’ plaatsgevonden.”
Santos: „Meerdere studies laten zien dat vrouwen en sommige jongeren zich minder vrij voelen op internet, en zelfcensuur toepassen omdat ze beducht zijn slachtoffer te worden van dit soort praktijken.”
Santos en Anlen schreven vorige week voor de website TechPolicy.Press een vlammend artikel over Grok en de deepfakes, waarin ze betogen dat „de grenzen tussen ironie, vermaak en misbruik dreigen weg te vallen” door de realistisch ogende beelden die generatieve AI voortbrengt. „Als platforms voorrang geven aan het snel uitrollen van apps en het trekken van grote aantallen gebruikers boven het ontwikkelen van veilige systemen”, schrijven de twee, „dan legitimeren ze praktijken die ooit marginaal waren en versnellen ze hun opname in de mainstream.”
Santos zegt: „Als je kijkt hoe nieuwe technologieën gebruikt worden, dan zie je vaak dat mensen proberen de grenzen op te zoeken van wat de bedoeling is, en er soms ook overheen gaan. Dat kan op een creatieve en artistieke manier gebeuren. Maar hier wordt schade aan mensen toegebracht, en ze worden niet beschermd. De platforms verzaken hier hun verantwoordelijkheid.”
Anlen: „Vaak zeggen de AI-bedrijven dat het zo ingewikkeld is om aan te pakken. Maar bij de bestrijding van online kinderporno hebben de platforms laten zien dat ze wel degelijk voortuitgang kunnen boeken en beelden voordat ze openbaar worden, kunnen verwijderen.
„Het meest duistere van de afgelopen weken vond ik dat een belasterend AI-beeld van Renee Good werd verspreid, kort nadat zij in Minneapolis was doodgeschoten door een agent van de immigratiedienst ICE. Er is altijd een donkere kant van het internet geweest, maar nu komt dat aan de oppervlakte.”
Santos: „Waar het ons om gaat is dat al bij het ontwerpen van dit soort systemen gezorgd moet worden dat ze veilig zijn. Daar zouden regels voor moeten zijn. Dat bepaalde beelden, zoals van minderjarigen, er gewoon niet meer mee gemaakt kunnen worden.”
Anlen: „Je kan nooit alles voorzien en voorkomen, en daarom is ook moderatie belangrijk (het verwijderen van content of blokkeren van accounts). Maar bij moderatie glipt er altijd nog veel doorheen. En als dit soort beelden eenmaal is verspreid, dan is de schade al aangericht. Alles wat je daarna nog doet zal minder effectief zijn, dan wanneer je het in de ontwerpfase al onmogelijk maakt.
„Alleen verzetten de AI-bedrijven zich tegen regulering van de ontwerpfase, want dat zien ze als een rem op innovatie. Bij die bedrijven werken heus aardige mensen. Maar hun prioriteiten liggen ergens anders: meer bij groei dan bij veiligheid, meer bij experimenteren dan bij privacy of consent.
„Slachtoffers klagen er vaak over hoe moeilijk het is om beelden te laten verwijderen. Ze moeten een verzoek indienen, dan reageert er niemand, dan nog eens een verzoek, het hele proces is al slopend. Stel je voor waar slachtoffers doorheen gaan, de stress en angst die een tiener voelt omdat ze bang is zichzelf weer naakt te zien als ze gewoon een app opent.”
Santos: „AI-bedrijven weten dat een deel van hun publiek belangstelling heeft voor dit soort toepassingen. En terwijl we dit probleem nog niet hebben opgelost dient het volgende zich al aan. OpenAI heeft aangekondigd dat ChatGPT zijn activiteiten voor meerderjarigen zal uitbreiden naar erotica.”
In reactie op de recente golf van kritiek en verontwaardiging over de beelden van Grok, bepaalde Musk een week geleden dat alleen betalende gebruikers Grok hiervoor nog konden inzetten. Deze week ging hij een stap verder en liet hij via X weten dat het nu voor iedereen, ook voor betalende gebruikers, onmogelijk is beelden van echte mensen te bewerken door ze bijvoorbeeld in bikini of in andere weinig verhullende kleding te laten verschijnen.
Santos: „Ik zie het als een begin. Maar er is meer nodig, meer richtlijnen voor Grok dan alleen: je mag geen beelden meer maken van bestaande mensen in bikini. Want dat soort beperkingen kunnen altijd weer omzeild worden. Als je alle beelden met bikini’s eruit filtert, blijft de vraag: en kan je doorzichtige kleren er ook uit filteren? Als je niet in de ontwerpfase al voor een veilige omgeving hebt gezorgd, blijf je aan de gang met dit soort later ingevoerde filters.
„Bij Sora, de video-app van OpenAI, zag je vorig jaar wat er dan gebeurt: OpenAI sloot de mogelijkheid af om er seksuele afbeeldingen mee te maken – toen begonnen mensen beelden te maken waarop vrouwen worden gewurgd.”
Europaredacteuren praten je bij over de belangrijkste ontwikkelingen in de EU
Source: NRC