nieuwsbriefNRC Broncode
NRC Broncode De afgelopen week hoorde ik mezelf heel veel praten en allerlei gekke kunstjes uithalen. Allemaal nepfilmpjes, in een handomdraai gegenereerd met Sora 2, de nieuwe app van OpenAI. Soms was het resultaat best grappig, vaker bekroop me een ongemakkelijk gevoel.
Techbedrijf OpenAI bouwt een datacenter in Texas.
Daar zit ik dan, gestoken in een donkerblauw pak dat ik nooit echt aan heb gehad in het decor van een niet bestaand nieuwsprogramma. „Good evening, I’m Timo with your headlines”, zegt mijn AI-kloon.
AI-gegenereerd beeld via Sora 2
Mijn eerste experiment met Sora 2, de nieuwe videogeneratorapp van OpenAI, voelt meteen ongemakkelijk. Goed, de stem klinkt net niet als de mijne en de bewegingen van AI-nieuwslezer-Timo zijn wat houterig. Toch is het indrukwekkend: het AI-model had genoeg aan een hele korte selfie-video om mijn gelijkenis te destilleren.
Je leest hier een artikelversie van onze nieuwsbrief NRC Broncode. Wekelijks schrijven wij over technologische ontwikkelingen die op de redactievloer tot opwinding leiden. Inschrijven (voor Plus-abonnees) doe je hier:
Inschrijven voor NRC Broncode
Als ik mijn AI-versie op een grafiek van de uncanny valley zou moeten plaatsen – het griezeleffect dat mensen ervaren als een robot bijna menselijk lijkt – zou ik zeggen: al aardig omhooggeklommen op de klifwand.
Sora 2 is er nu ruim een week. Officieel alleen in de VS en in Canada, maar die geoblokkade is makkelijk te omzeilen. Vergeleken met de eerste versie van Sora, die begin 2024 uitkwam, genereert het AI-model nu realistischere video’s waarin zaken als zwaartekracht en of een object wel of niet stuitert, beter kloppen.
Een vernieuwd AI-model dus. Maar de echte vernieuwing zit in de verpakking die OpenAI eromheen heeft gebouwd: Sora 2 zit in een nieuwe, TikTok-achtige app. Daarin kun je door een eindeloze videofeed swipen met alleen maar kunstmatig gegenereerde beelden. En je kunt nu dus doodeenvoudig een videokloon van jezelf maken, die je met een tekstprompt in een scène van zo’n 9 seconden kunt plaatsen.
In mijn tweede videopoging geef ik een draai aan het rad van spelshow The Price Is Right en blijkt OpenAI mij behoorlijk corpulent te hebben gemaakt en heb ik meerdere onderkinnen. Mijn ego speelt op, en ik pas het prompt aan. „Timo looking buff on The Price Is Right spinning the wheel.” En hop, daar treedt mijn fitfluencerversie al aan.
Ik word nieuwsgierig: wat gaat er onder dat T-shirt schuil? „Buff Timo participating in a bodybuilding contest” type ik als opdracht. Maar dan tikt Sora me op de vingers. „This content may include suggestive or racy material”, zegt de app: te spannend om te laten genereren. Wanneer ik een video laat maken waarin ik met een walvis zwem, trekt de app me een discreet duikpak aan.
„Cameos” noemt OpenAI zijn virtuele kloons. Een knap staaltje marketing, schreef The Washington Post-columnist Geoffrey A. Fowler al: tot voor kort noemden we het klonen van iemands gelijkenis een deepfake en was dat taboe. Nu is het de hype van de week.
Wie voor het eerst de Sora-app opent, wordt gelijk door het proces geloodst om een eigen AI-kloon te maken. Je leest drie getallen voor en maakt twee kleine bewegingen met je hoofd. Vervolgens mag je kiezen wie je videokloon kan gebruiken: alleen jijzelf, mensen die je toestemming geeft, al je vrienden op de Sora-app of iedereen.
Bij het vrijgeven van je gezicht kun je restricties instellen: dat je kloon altijd vrolijk is bijvoorbeeld, of altijd een zonnebril op heeft. Maar verder verlies je de zeggenschap over wat voor video’s anderen over jou maken. Je krijgt weliswaar van elk filmpje een melding en kunt de beelden dan laten verwijderen, maar de maker kan hem dan al gedownload hebben en weer op andere sociale media posten.
Doorzie de wereld van technologie elke week met NRC-redacteuren
Er zijn mensen die hun Cameo helemaal vrijgegeven hebben. OpenAI-topman Sam Altman bijvoorbeeld, en influencer Jake Paul. Swipen door de Sora-feed levert vooralsnog vooral heel veel video’s met hun beeltenissen op. „I’m tired of seeing video’s like this bro”, reageert een gebruiker op het zoveelste filmpje met Altman. „It’s funnier the 100th time”, klinkt het sarcastisch onder een video waarin AI-Paul een veelgemaakte saaie grap herkauwt (en een hand met zes vingers heeft).
AI-Timo springt door de hoepeltjes van Sam Altman.
Sora maakt alleen video’s van bestaande personen als zij zelf een kloon hebben aangemaakt, bezweert OpenAI. Nepfilmpjes maken van Donald Trump of George Clooney zit er dus niet in. Maar tijdens het scrollen door de feed is al heel snel te zien dat deze regels niet van toepassing zijn op mensen die dood zijn.
Zo zijn er heel, heel veel filmpjes waarin Martin Luther King Jr. speecht dat hij een droom heeft dat Sora’s regels minder strikt worden, doet Stephen Hawking in zijn rolstoel trucjes in een skatepark en loopt John F. Kennedy door een hedendaagse supermarkt.
Verschillende nabestaanden zijn hier niet blij mee. „Please stop”, tweette Bernice King, de dochter van de in 1968 vermoorde burgerrechtenactivist. Inmiddels kunnen nabestaanden bezwaar aantekenen, laat OpenAI weten. Nieuwe filmpjes van bijvoorbeeld Michael Jackson kunnen niet meer gegenereerd worden.
Het is tekenend voor hoe OpenAI te werk gaat. „Te veel beperkingen kunnen creativiteit lamleggen, terwijl te veel vrijheid vertrouwen kan ondermijnen”, filosofeerde het bedrijf bij de lancering van Sora 2. Het model genereerde aanvankelijk naar hartenlust fragmenten met bekende personages uit cartoons, films en tv-series. Wilde een rechthebbende dat niet hebben, dan moest die zich maar melden bij OpenAI.
Dat ging vrij snel mis, met onder meer een video waarin SpongeBob SquarePants in een methlab diep in de zee kristallen produceert. Binnen een week kondigde OpenAI aan dat rechthebbenden „nauwkeurigere controle” krijgen over wat er met hun personages gebeurt. SpongeBob weigert Sora nu te maken, maar jezelf in een aflevering van South Park stoppen is nog altijd geen probleem.
Los van copyrightschendingen kan Sora nog veel meer problematische beelden genereren. Dagblad van het Noorden beschreef al hoe het model zonder tegenstribbelen nepnieuwsvideo’s produceert inclusief logo’s van bestaande Nederlandse nieuwsmedia.
Nagemaakte beveiligingscamerabeelden waarin verkiezingsfraude te zien is, niet-bestaande politieoptredens en fictieve aanslagen behoren ook allemaal tot de mogelijkheden van Sora. Ook huiveringwekkend: in een veiligheidsevaluatie die OpenAI heeft gepubliceerd, staat dat Sora 98,4 procent van de deepfake-pornobeelden tegenhoudt. Met andere woorden: 1,6 procent kwam er wél doorheen.
OpenAI wijst er graag op dat de gegenereerde beelden een rondbewegend watermerk hebben en daaraan te herkennen zijn. Maar in dat watermerk staat niet met koeienletters „GEGENEREERD DOOR AI”. Het is een cartoonesk wolkje met ogen en het woord „Sora” – niet heel anders dan het rondspringende muzieknootje dat TikTok als watermerk gebruikt. Je moet maar net weten dat dit wolkje „nepbeelden” betekent, als het je tijdens het snelle scrollen al opvalt. En als de uploader niet een uitsnede heeft gemaakt waardoor het watermerk helemaal niet te zien is.
NIEUW: Geef dit artikel cadeauAls NRC-abonnee kun je elke maand 10 artikelen cadeau geven aan iemand zonder NRC-abonnement. De ontvanger kan het artikel direct lezen, zonder betaalmuur.
Source: NRC