Home

Achtergrond: AI Fakes, de stand van zaken

Als je de afgelopen tijd het nieuws hebt gevolgd, dan was er nogal wat te doen over AI-fakes. Met name X, het platform van Musk, trok de aandacht met Grok, die zonder enige belemmering onschuldige mensen in elke gewenste pose en al dan niet naakt of met minder kleren uitspuugde.

Met name op LinkedIn zie ik al enkele jaren allerlei goedbedoelde adviezen voorbij komen door mensen die nog denken dat AI Fakes simpele "Face Swaps" zijn. Ik zal even uitleggen wat een Face Swap is.Een kleine 10 jaar terug ontstonden de eerste FaceSwap tools. Dit was een zeer basale light vorm van AI waarbij video software de patronen van een gezicht herkent en dat gezicht kan vervangen door de foto van een andere persoon. Aanvankelijk moest je nog een halve computernerd zijn om dit soort tools te gebruiken, maar zoals met alles sprongen handige jongens op deze markt en kwamen er apps en software die dit vrij eenvoudig maakten.

Deze tools waren echter meer een Gimmick dan dat ze echt realistische beelden opleverden. Zelfs een leek kon vrij snel zien dat het hier om overduidelijke fakes ging. Dat heeft er met name mee te maken dat deze tools slechts het gezicht kunnen vervangen, en dan ook nog vanuit een soort van ideale positie, opgenomen recht voor de persoon. Als je al beelden zag die enigszins in de buurt van realiteit kwamen, dan waren dat veelal video’s die ook nog eens professioneel achteraf bijgewerkt waren om bijvoorbeeld kleurverschillen te corrigeren.

De opgang van AI stormde vervolgens in onverminderde vaart door. De grote techbedrijven kwamen al snel met hun eigen platform. Sinds vorig jaar boden veel van deze platformen de mogelijkheid om plaatjes te maken, maar sinds kort ook om video’s van plaatjes te maken. Dit laatste werd trouwens al enige tijd aangeboden door een aantal bedrijven die zich met name op de creatieve industrie focusten, maar deze waren relatief prijzig.

Wat betreft de video’s, zoals bekend werd deze mogelijkheid al snel gebruikt om met name vrouwen te ontkleden of op andere manieren af te beelden. Al snel ontstond er een storm waarin tot een verbod werd opgeroepen en de vraag werd gesteld waarom dit überhaupt mogelijk was.

Dat zit zo. De bedrijven die deze modellen maken houden er uiteraard rekening mee dat hun model misbruikt kan worden voor oneigenlijke zaken. Dat doen ze doorgaans allereerst door hun trainingsdata te beperken tot zaken die slechts SFW zijn. Daarnaast zorgt men ervoor dat op het gebied van de tekstuele input zaken geblokkeerd worden, enerzijds tijdens het trainen, anderzijds bij de invoer van de gebruiker.

Maar nu komt het lastige punt. Deze diensten werden voor de rechter gesleept met de eis dat dit zo spoedig mogelijk verboden wordt. Toch is dit niet zo eenvoudig. Van de drie zaken waar men invloed op heeft, de trainingsset zelf, de captioning (de feitelijke omschrijving van wat de trainingsdata is: een hond loopt vrolijk door de kamer) en de inputprompt, kan op korte termijn eigenlijk alleen de inputprompt worden gemodereerd. Voor de eerste twee zaken zou het model deels opnieuw getraind of gecorrigeerd moeten worden om het "veiliger" te maken.

Als we kijken naar wat een oplossing zou kunnen zijn, een aantal aanbieders van dit soort diensten hanteert al enige tijd een andere strategie. In plaats van volledig op de input te richten, analyseert men het resultaat. Dit is doorgaans een stuk effectiever, omdat AI modellen doorgaans vrij goed kunnen inschatten of een beeld NSFW is. Maar zelfs dan is dit niet feilloos, niet in de laatste plaats omdat het vooral gaat over het detecteren van naakt. We kunnen wel bedenken wat voor suggestieve beelden mogelijk zijn die niet per se naakt zijn. Kortom, het probleem is niet zo eenvoudig op te lossen als men denkt.

En dan nog is de grote vraag, wat is veilig? Mag je nog iemand in bikini tonen? Een naakte vrouw in niet seksuele context? Mag een turnster wel haar benen gespreid houden op de balk?En dit is ook gelijk een groot dilemma bij AI. Het model heeft vaak maar een zeer beperkte context en gebruikers zullen altijd proberen de grens op te zoeken, en soms zelfs proberen het model in de war te brengen. Je zult soms merken dat als je bepaalde vragen stelt, het model huiverig is en zegt: Hier kan ik eigenlijk geen antwoord op geven. Maar als je dan vervolgens aangeeft: Ja, maar het is in de context van een film/boek, dat het model dan direct alsnog het antwoord geeft.

Bovendien, zoals altijd met verboden op het internet, zijn er altijd wel obscure clubs die hier een markt inzien. Ik ga geen apps/sites noemen, omdat dit soort zaken simpelweg strafbaar zijn en ik het gebruik ook niet wil faciliteren of aanmoedigen. Maar geloof me, ze zijn er genoeg, en die gaan doorgaans verder dan alleen uitkleden.

En wellicht is er nog een groter gevaar. Een aantal jaar terug werden de eerste vrij beschikbare modellen gepubliceerd voor het genereren van afbeeldingen. Deze modellen waren behoorlijk zwaar gecensureerd, zodat het naakt afbeelden van personen vrijwel onmogelijk was. Echter, een AI-model is geen statisch geheel. Technisch gezien ontstond al vrij snel de mogelijkheid om het model bij te trainen, wat we finetuning noemen. Hierbij neem je het bestaande model en pas je het voor een specifiek onderdeel aan. Het grote voordeel is dat een model trainen enorm duur is: je hebt er gigantische rekenkracht voor nodig en het is voor een particulier vrijwel onbetaalbaar, omdat het miljoenen kost. Het maken van een zogenaamde LoRA vergt slechts enkele uren rekenkracht op een gemiddelde gaming-pc. Op deze manier kun je bepaalde niet-getrainde zaken zelf trainen en als het ware als een plugin gebruiken op het bestaande model.

Dit brengt ook een ander groot gevaar met zich mee. LoRA’s worden vaak voor onschuldige zaken gebruikt, zoals een specifieke kunststijl, maar je kunt er ook een specifiek persoon mee trainen. Was dit bij de eerste generatie modellen nog niet erg realistisch, bij de huidige generatie heb je toch echt goede AI-detectietools nodig om te zien dat het nep is.

Dit geldt trouwens niet alleen voor afbeeldingen. Ook video’s kunnen op deze manier gemaakt en aangepast worden. Door slimme aanpassingen van de “zware” modellen kunnen nu ook relatief hoogwaardige videomodellen gebruikt worden. Hier zit wel een belangrijke beperking: de lengte van video’s is nog zeer beperkt. Door video’s te combineren kun je wel langere video’s maken dan het model biedt, maar de consistentie verdwijnt daarbij wel.

Wat betreft de politiek die met verboden komt: het is allemaal een beetje te laat, en het is überhaupt de vraag of het ooit tegengehouden had kunnen worden. Immers, het trainen van een model is technisch al heel lang mogelijk en vrijwel elke serieuze AI-researcher publiceert zijn werk en methode publiekelijk op de website van HuggingFace. Weliswaar hebben de meeste modellen een clausule die misbruik verbiedt, maar er is niemand die kan controleren wat je op je eigen pc ermee doet. De researchers beschermen zich op deze manier feitelijk alleen tegen juridische aansprakelijkheid. Met andere woorden: een verbod zal nooit voorkomen dat deepfakes kunnen worden gemaakt.

En dan nog de vraag: hoe voorkom ik dat er deepfakes van mij gemaakt worden? Eigenlijk is er maar één antwoord: laat je zelf niet fotograferen. En ja, dat kan lastig zijn. Ten eerste heb je niet altijd door dat iemand een foto maakt. Ook sociale druk speelt een rol: waarom heb jij geen foto op LinkedIn? Of waarom weiger je je te laten fotograferen op het bedrijfsevent? En dan hebben we het nog niet eens over situaties waarin het echt verplicht is, bijvoorbeeld voor een ID-kaart of rijbewijs.

Dan is er nog de discussie over kinderen. Veel ouders zetten hun kinderen trots op Facebook, weliswaar op privé-instellingen, maar misbruikers behoren vaak tot de alledaagse kennissenkring. Ook is AI verrassend goed in het verouderen van kinderfoto’s, of juist het jonger maken ervan. Mijn advies: plaats geen foto’s van je kind op internet, en al helemaal niet met het gezicht zichtbaar in beeld. Wat mij betreft, als de politiek al iets zou moeten doen, dan is het het naleven van de AVG. Deze wet biedt al genoeg mogelijkheden om het maken van deepfakes lastiger te maken.

AI Fake van Trump in een bikini (Afbeelding: Grok AI / FOK.nl)

Source: Fok frontpage

Previous

Next