Alle tools die hiervoor nodig zijn, zijn openbaar beschikbaar en gemakkelijk te gebruiken, zelfs voor amateurs. Allerlei soorten filmscènes kunnen worden gemanipuleerd en de gezichten van de acteurs kunnen worden verwisseld. Een Reddit-gebruiker heeft de Leia-scène uit Rogue One opnieuw gemaakt zonder een budget van $ 200 miljoen. De technologie kan ernstige gevolgen hebben.
Nadat een enkele Redditor twee maanden geleden voor opschudding zorgde met zijn bedrieglijk echte porno-namaakproducten van Gal Gadot en andere sterren en sterretjes, ontstond er een hele scène op Reddit. De subreddit r/deepfakes heeft nu ruim 38 leden, van wie velen zelf porno manipuleren door met behulp van AI willekeurige gezichten aan een bestaande film toe te voegen. Het enige dat ze nodig hebben zijn voldoende foto's van hun nietsvermoedende doelwit en een paar openbaar beschikbare hulpmiddelen. Eén Redditor heeft zelfs een app gemaakt die zelfs complete beginners kunnen gebruiken om AI-aangedreven porno te maken.
Redditor deepfakeapp ontwikkelde de zogenaamde fakeapp, een eenvoudig te gebruiken applicatie waarmee iedereen porno kan manipuleren. “Ik denk dat de huidige versie van de app een goed startpunt is, maar ik hoop deze de komende dagen en maanden nog verder te verbeteren”, zei hij. “Ik wil dat gebruikers simpelweg een video op hun computer selecteren, een neuraal netwerk downloaden dat een specifieke reeks afbeeldingen uit een openbaar archief krijgt, en vervolgens met een druk op de knop van gezicht in de video wisselen.”
Redditor UnobtrusiveBot plaatste bijvoorbeeld het gezicht van Jessica Alba op het lichaam van pornoactrice Melanie Rios met behulp van FakeApp. “Het ging supersnel – ik leer momenteel hoe ik het model opnieuw kan trainen. Het duurde ongeveer vijf uur – niet slecht voor het resultaat”, schreef hij in een commentaar. Redditor nuttynutter6969 gebruikte de nep-app ook om Star Wars-actrice Daisy Ridley in een onwillige pornoster te veranderen.
De meeste berichten op r/deepfakes zijn pornografisch van aard, maar sommige gebruikers maken ook video's die bewijzen dat er eigenlijk geen grenzen zijn aan de technologie als je maar over de juiste ruwe data beschikt. Redditor Z3ROCOOL22 combineerde bijvoorbeeld beelden van Hitler met de Argentijnse president Mauricio Macri. Luidruchtig deepfakeapp Iedereen die FakeApp downloadt en een of twee video's van hoge kwaliteit van zijn doelwit heeft, kan realistische films maken.
Het enige dat je nodig hebt is een goede grafische processor met CUDA-ondersteuning. Gebruikers die niet over de juiste processor beschikken, kunnen ook gebruik maken van cloudgebaseerde diensten zoals Google Cloud Platform. Het hele proces, van data-extractie tot conversie tot full face swapping, duurt naar verluidt ongeveer acht tot twaalf uur als het correct wordt uitgevoerd. Sommige gebruikers melden dat het veel langer duurde, soms met rampzalige gevolgen.
Deepfakeapp noemt een bijzonder succesvol voorbeeld Video van gebruiker derpfake, die een FaceSwap van prinses Leia van Rogue One heeft gemaakt. “Hierboven zie je de originele Rogue One met een vreemde computergeanimeerde Carrie Fisher. Budget voor de film: 200 miljoen dollar,” beschrijft derpfake zijn video. Hieronder staat de 20 minuten durende manipulatie die gemaakt zou kunnen zijn met een actrice die op Carrie Fisher lijkt. Mijn budget: $ 0 en een paar Fleetwood Mac-albums. In plaats van het gezicht van prinses Leia duur op de computer te animeren, voedde derpfake de software met echte shots van de jonge Carrie Fisher en voegde deze in de filmscènes.
Een technologie waarmee iedereen zo gemakkelijk bedrieglijk echte video's kan vervalsen, en die zich zo snel ontwikkelt, kan ernstige gevolgen hebben. Want aan je fantasie bestaan geen grenzen: of het nu gaat om wraakporno, gemanipuleerde opnames van sterren of politieke toespraken, met de nodige ruwe data en een paar open source tools kan elke opname worden nagebootst. Binnenkort zal de technologie zo goed zijn dat we het verschil niet meer kunnen zien tussen een echte video en een door AI gegenereerde nep. Mensen vinden het nu al steeds moeilijker om onderscheid te maken tussen de waarheid en nepnieuws, en allerlei soorten nieuws verspreiden zich snel via sociale media. Nieuw is dat de technische middelen nu voor iedereen beschikbaar zijn. Dit ligt ten grondslag aan het hele beginsel van vertrouwen en geloofwaardigheid. We zullen waarschijnlijk moeten wennen aan een wereld waarin dergelijke video-fakes steeds beter en dus moeilijker te detecteren zijn. Inclusief de daarmee gepaard gaande conflicten met de persoonlijke rechten van de betrokkenen. In de toekomst zouden dergelijke vervalsingen kunnen worden gebruikt als basis voor propaganda of opzettelijk misleidend nieuws.