Wat zijn deepfakes en hoe gevaarlijk zijn ze?

Vrouw kijkt naar twee gezichten op een smartphone en weet niet welke de echte is
Klik hier voor een samenvatting
Wat zijn deepfakes? Een korte uitleg

Deepfakes zijn een soort synthetische media – video of audio – die de gelijkenis van een echt persoon hebben gekoppeld aan een ander persoon. Deepfakes zijn steeds gemakkelijker te creëren, wat zorgwekkend is. Dit kan ernstige gevolgen hebben voor het leven van gewone mensen, aangezien deepfakes kunnen worden gebruikt om nietsvermoedende slachtoffers te chanteren. Ze worden bovendien gebruikt om nepnieuws te verspreiden door misleidende video’s van bekende personen te maken.

Je kunt jezelf beschermen tegen deepfakes. Dit zijn de maatregelen die je kunt nemen:

  • Lees je in over deepfakes en hoe je ze kunt herkennen.
  • Plaats zo min mogelijk foto’s van jezelf op openbare sociale media-accounts.
  • Beveilig je apparaten zodat foto’s van jezelf niet worden gestolen en gebruikt voor boosaardige doeleinden.
  • Als je gelijkenis wordt gebruikt in een deepfake medium, meld dit dan aan het platform waarop het is gedeeld en neem contact op met de lokale autoriteiten.

Lees ons volledige artikel om meer te weten te komen over deepfakes en hoe je je ertegen kunt beschermen.

In de tweede Terminator-film kon de T-1000-robot zijn uiterlijk veranderen om eruit te zien als wie het maar wilde. In dit opzicht komen deepfakes heel dicht in de buurt van een T-1000-robot. Het zijn misleidende media die hun uiterlijk kunnen ‘vervormen’ om eruit te zien en te klinken als iedereen, zowel levend als dood.

De techniek blijkt succesvol te zijn: in april 2021 vergaderden Nederlandse Kamerleden met een deepfake-imitatie van de stafleider van Aleksej Navalny. Zij waren onder de impressie met de echte stafchef (Leonid Volkov) van de Russische oppositieleider te praten. Volgens Volkov zat de regering van Poetin achter de gesprekken en gebruikt het Kremlim Zoom als wapen om desinformatie te verspreiden, waarmee ze de oppositie aanvalt.

Deepfake is dus een machtig middel voor manipulatie. In dit artikel leggen we uit wat het precies is, waar criminelen het voor gebruiken en hoe je jezelf tegen deepfakes kunt beschermen.

Wat is een deepfake?

Een deepfake is een nep stukje media, meestal een video, dat er heel echt uitziet. AI-technologie en machine learning (oftewel, machinaal leren) worden samengevoegd om video en stemgeluid te manipuleren. Een voorbeeld is deze deepfake van Mark Zuckerberg, de CEO van Meta. De video, gepost op Instagram, liet ‘nep Mark’ zien die de volgende onheilspellende woorden sprak:

Stel je dit even voor: één man, met totale controle over de gestolen gegevens van miljarden mensen, al hun geheimen, hun levens, hun toekomst… Ik heb het allemaal te danken aan Spectre. Spectre liet me zien dat wie de gegevens beheerst, de toekomst beheerst.

Deepfakes zijn relatief moeilijk te maken. Machinaal leren vereist zeer grote datasets om neurale netwerken te trainen. Een deepfake maken vereist meestal data met vele duizenden beelden van twee mensen die met behulp van specialistische software worden samengevoegd. Vervolgens wordt de spraak eroverheen gelegd en worden de lippen gesynchroniseerd.

Deepfakes van beroemdheden zijn voor sommigen misschien grappig -denk bijvoorbeeld aan de onderstaande kerstvideo van Mark Rutte, Hugo de Jonge, Diederik Gommers en Jaap van Dissel- maar de technologie erachter is angstaanjagend. Het kan bovendien gevaarlijk zijn. Korte videoclips van beroemdheden die schandalige dingen zeggen zijn slechts het topje van de ijsberg.

Zo worden deepfakes gebruikt

Er bestaan heel wat deepfakes. In juni 2020 heeft Facebook er alleen al 100.000 verzameld om zijn algoritme te leren hoe het deepfakevideo’s kan herkennen. Deze toename in het gebruik van deepfake-technologie toont aan dat het steeds toegankelijker wordt. Een grotere toegankelijkheid leidt tot meer nieuwe toepassingen, zowel ten goede als ten kwade. Hieronder leggen we een paar van de nieuwste toepassingen van deepfakes uit.

Hollywood films

Eerst staan we stil bij een positieve toepassing waarbij deepfake-technologie onmisbaar is. In Hollywood gebruiken CGI- en special effects artiesten deze techniek al jaren om acteurs er jonger te laten uitzien. Dat gebeurde bijvoorbeeld met Samuel L. Jackson in de film Captain Marvel, met Will Smith in Gemini Man en Robert DeNiro, Al Pacino en Joe Pesci in The Irish Man.

Ook in het Star Wars wordt deepfake-technologie volop gebruikt. Mark Hamill, de acteur die Luke Skywalker speelt in de originele trilogie, is inmiddels de 70 jaar gepasseerd. In de laatste aflevering van het tweede seizoen van The Mandalorian zagen we een jonge Luke Skywalker voorbijkomen. De filmmakers huurden hiervoor een acteur in die op grote lijnen op de jonge Mark Hamill leek en hebben vervolgens het gezicht van de oorspronkelijke acteur op zijn hoofd ‘geplakt’. Voor het eindresultaat zijn computers wekenlang bezig geweest met berekeningen maken.

Om in het Star Wars universum te blijven: de regisseurs hebben hetzelfde gedaan met de overleden actrice Carrie Fisher en acteur Peter Cushing. Om prinses Leia Organa en Grand moff Tarkin opnieuw op het doek te krijgen, zijn beelden van de acteurs minutieus geanalyseerd door superkrachtige computers en vervolgens op de gezichten van de nieuwe acteurs geplakt.

Nepnieuws

In een tijd waarin nepnieuws bij lijkt te dragen aan een groot deel van de ellende in de wereld, hebben deepfakes de rol van propaganda-instrument op zich genomen.

Een video van NOS laat zien hoe deepfakes gebruikt kunnen worden om de waarheid te manipuleren. Uit onderzoek van de Universiteit van Amsterdam (UvA) in 2020 blijkt dat deepfakes daadwerkelijk de meningen van mensen over een bepaald persoon beïnvloeden. Het onderzoek van de UvA bevatte een gemanipuleerde video over een politicus. De groep die de video had gezien dacht na afloop negatiever over de politicus dan de groep die de oorspronkelijke -onbewerkte- video had bekeken.

In de Verenigde Staten vreesde men voor het effect van deepfakes op de verkiezingen van 2020. Uiteindelijk bleken deze de uitslag niet te hebben beïnvloed. De belangrijkste reden hiervoor: het was nog steeds lastig deepfakes te maken op zo’n manier dat ze bijna niet van echt te onderscheiden zijn.

In de toekomst kunnen deepfakes steeds vaker voor massaal gebruik beschikbaar komen, en ook toekomstige verkiezingen bedreigen.

Cybercrime

Deepfakes hebben de potentie om online criminaliteit naar een hoger niveau te brengen. Cybercriminelen kunnen deepfakes gebruiken om mensen te chanteren. Dit kan op verschillende manieren; denk bijvoorbeeld aan phishing-aanvallen of sextortion. Sinds het uitbreken van de coronapandemie gebruiken cybercriminelen steeds vaker deepfakes om geld te stelen bij bedrijven en organisaties. Oplichters doen zich bijvoorbeeld als de algemeen directeur of de financiële topman en geven werknemers in een digitale vergadering de opdracht om bepaalde facturen te betalen. Als iemand een opmerking maakt over de kwaliteit van de video of audio? Dan zeggen de fraudeurs dat de verbinding of audio niet goed werkt.

Naarmate deepfake-technologie steeds toegankelijker wordt, is het waarschijnlijk dat dit ook gebruikt zal worden voor social engineering. Dit is een tactiek die cybercriminelen vaak gebruiken om menselijk gedrag te manipuleren door onder andere iemands vertrouwen te winnen.

Sextortion en wraakporno

Een goed voorbeeld van hoe deepfakes in het echte leven aanzienlijke schade kunnen aanrichten, is sextortion. Sextortion is een scam waarbij cybercriminelen mensen chanteren om geld te sturen, onder de dreiging dat ze compromitterende video’s van de persoon in kwestie vrijgeven. De scam kan plaatsvinden zonder dat er een echte video bestaat. Met deepfake kan echt compromitterend materiaal gecreëerd worden. Een voorbeeld is een filmpje van Dionne Stax, dat een aantal jaar geleden rondging op een pornosite.

Zelfs als het slachtoffer weet dat de video niet echt is, kan het voelen alsof er geen andere keuze is dan te betalen. De video kan namelijk erg realistisch zijn. Sextortion is een groot probleem. In januari 2021 heeft het antivirusprogramma Avast wereldwijd meer dan 500.000 gevallen van sextortion tegen hun klanten geïdentificeerd, onderzocht en geblokkeerd.

Deepfake-software wordt ook gebruikt om wraakporno te maken. Vooral vrouwen zijn er slachtoffer van.

Phishing

Phishing IcoonDezelfde technologie die voor sextortion wordt gebruikt, kan ook voor phishing worden gebruikt. Bij phishing doen cybercriminelen zich voor als iemand anders om tot actie aan te zetten. Ze kunnen je bellen en de stem van je baas gebruiken om naar bedrijfsgegevens te vragen. Stemgeluid kan via deepfake worden gemanipuleerd.

Dit is geen hypothetisch voorbeeld. Een paar jaar geleden werd een Britse CEO overgehaald om ruim 200.000 euro over te maken naar een fraudeur. De CEO dacht dat hij tijdens een telefoongesprek aan het praten was met het hoofd van het moederbedrijf, die hem vroeg het geld direct over te maken. De CEO zou zijn misleid door een deepfake-stem.

Het Internet Crime Complaint Center (IC3) van de FBI bevestigt dat cybercriminelen steeds vaker met gemanipuleerde videobeelden en audio mensen in het bedrijfsleven proberen op te lichten.

Deepfakes maken met behulp van apps

Zao App was de eerste software die het maken van deepfakes op grote schaal toegankelijk maakte voor mensen. Het gebruik ervan is sindsdien in de meeste landen beperkt, maar het is nog steeds beschikbaar vanuit sommige delen van de wereld, bijvoorbeeld India.

Zao is niet de enige deepfake-app die je kan helpen video’s te maken. Sindsdien zijn er nog veel meer van dergelijke apps uitgebracht, waaronder:

  • Deepfakesweb: Dit is een betaalde browser-app waarmee je afbeeldingen en video’s kunt samenvoegen.
  • DeepFaceLab: Een complexer programma gebouwd door Microsoft. Het is vooral bedoeld om studenten en onderzoekers te helpen deepfake producties beter te begrijpen. Mensen kunnen het echter ook gebruiken om hun eigen video’s te maken. DeepFaceLab is iets moeilijker in gebruik dan Deepfakesweb. Bovendien vereist het een grotere dataset van media om overtuigend materiaal te creëren.
  • Wombo: Dit is een lipsynchronisatie-app waarmee je gezichten kunt plakken op muziekvideo’s.

Met de meeste deepfake-apps die op grote schaal beschikbaar zijn, krijg je onrealistische resultaten. De technologie blijft zich echter ontwikkelen en kan in de toekomst veel beter zijn. Het is daarom zaak om te leren hoe je jezelf ertegen beschermt.

Hoe bescherm je jezelf tegen deepfakes?

In een poging om deepfakes tegen te gaan, gaf Google in 2019 een opslagplaats van deepfake-gegevens vrij. De gegevens uit deze database worden gebruikt om tools te ontwikkelen waarmee nepvideo’s kunnen worden opgespoord en verwijderd. Facebook, tegenwoordig Meta, geeft aan een deepfake AI (artificial intelligence) te hebben ontwikkeld. De technologie kan deepfakes identificeren en terugleiden naar hun oorsprong door middel van reverse engineering. Microsoft heeft een volledig uitgewerkte deepfake-detectietool ontwikkeld.

De vraag is of deze inspanningen voldoende zijn om je te beschermen tegen de gevaren van deepfakes. Op dit moment is het verstandig om extra veiligheidsmaatregelen te treffen als je geen slachtoffer van deepfakes wilt worden.

Deel je foto’s niet publiekelijk

Het delen van sommige foto’s online is op zichzelf geen probleem. Als je echter veel foto’s van jezelf maakt en deze openbaar deelt, ben je een gemakkelijk doelwit voor cybercriminelen die deepfake-software gebruiken.

Houd hier dus rekening mee. In de instellingen van de meeste sociale-mediaplatforms kun je ervoor kiezen om je account op privé te zetten. De meest realistische deepfake video’s kunnen alleen worden gemaakt met een grote dataset van iemands foto’s. Als je het aantal foto’s van jezelf dat openbaar beschikbaar is, kunt beperken, val je minder snel ten prooi aan cybercriminelen die deepfakes gebruiken.

Verbeter de beveiliging van je apparaat

VPN Schild IcoonNaast bewust omgaan met de foto’s die je post, kun je er ook voor zorgen dat je apparaten goed beveiligd zijn. Zo lekken je gegevens – inclusief foto’s en video’s – minder snel uit. Gebruik hiervoor een VPN (Virtual Private Network). Een VPN wijzigt je IP-adres en zorgt ervoor dat je online anoniem bent. Ook anti-malware software geeft een betere beveiliging. Tweefactorauthenticatie creëert een extra beschermingslaag. Zelfs als gevoelige data in de verkeerde handen belanden, kunnen de oplichters er niets mee omdat ze niet over de toegangscode beschikken.

Laat de persoon tegenover je een rondje draaien

Twijfel je of degene tegenover je daadwerkelijk de persoon is die hij zegt dat hij is? Er is een eenvoudige manier om daarachter te komen. Vraag deze persoon of hij een rondje kan draaien waarbij zijn gezicht de hele tijd in beeld is. Als een gezicht met deepfake-technologie is gemaakt, dan zie je dat snel. De achterzijde van iemands hoofd wordt vaak vergeten om na te maken, wat je direct terugziet als iemand een rondje draait. Vaak wordt dit bewust achterwege gelaten: wie kijkt er nu immers naar de achterkant van iemands hoofd? Daarnaast is er vaak geen gedetailleerd beeldmateriaal beschikbaar van iemands achterkant.

Als de Tweede Kamerleden aan stafchef Leonid Volkov van de Russische oppositieleider Aleksej Navalny hadden gevraagd een rondje te draaien, dan was de acteur hoogstwaarschijnlijk door de mand gevallen en een schaamteloze vernedering voorkomen.

Neem contact op met de autoriteiten

Als je toch slachtoffer wordt van cybercriminaliteit met betrekking tot deepfakes; meld dit dan. Maak een melding van het materiaal dat met jouw foto’s is gemaakt bij het platform waarop het is gedeeld. Neem daarnaast contact op met de lokale autoriteiten en dien een formele klacht in. Als je voorkomt in media-inhoud dat aan de hand van deepfake is gemaakt, kan dat worden beschouwd als smaad of laster. Je kunt zelfs contact opnemen met een advocaat om je juridische opties te analyseren.

Het toekomstbeeld van deepfake

Je kunt deepfakes gebruiken voor je plezier. Cybercriminelen gebruiken de technologie echter ook om ernstige schade aan te richten. Bekende mensen zijn het makkelijkste doelwit voor deepfakes, vooral als het gebruikt wordt om nepnieuws te verspreiden. De gevaren van deepfakes kunnen echter iedereen raken.

Onderzoekers van de Tilburg University of Law, Technology and Secoiety (TILT) voorspellen dat binnen nu en vijf jaar 90 procent van alle content op internet geheel of gedeeltelijk gemanipuleerd is. Onderzoekers waarschuwen voor de negatieve uitwassen die we in dit artikel uitgebreid hebben besproken. Volgens privacy- en big data-expert Bart van der Sloot kunnen zelfs kleine manipulaties grote gevolgen hebben. “Je weet op een gegeven moment niet meer wat echt is en wat nep is, en als iets nep is: wat precies? Dat kan veel problemen opleveren voor journalisten of rechters”, zo voorspelt hij. De onderzoekers pleiten voor meer regulering en bewustwording om een vuist te vormen tegen deepfakes.

Het belangrijkste als het gaat om online veiligheid en het gebruik van het internet, is om kritisch te zijn over alles wat je online ziet. Nu je afweet van het bestaan van deepfakes, denk je misschien wel twee keer na voordat je een video gelooft waarin een overheidsfunctionaris een schandalige bewering doet.

Lees onze artikelen over WhatsApp-scams en wraakporno als je meer wilt weten over hoe je jezelf kunt beschermen tegen cybercriminaliteit.

Wat zijn deepfakes? Veelgestelde vragen

Deepfakes worden steeds gemakkelijker beschikbaar en eenvoudiger om te verspreiden. Heb je nog een vraag over deepfakes? Bekijk deze FAQ-sectie voor onze antwoorden op de meest gestelde vragen.

 

Een deepfake-video is een met deepfake-technologie gemaakt stukje media dat video- en audio-elementen bevat. Deepfake-technologie maakt gebruik van kunstmatige intelligentie en machinaal leren om bestaande video’s aan te passen en nieuwe gezichten of stemmen toe te voegen over het originele bestand. Meer informatie vind je in ons artikel over deepfakes.

Je kunt online apps gebruiken om deepfake video’s te maken, bijvoorbeeld Deepfakesweb. Dit is echter niet gratis; het maken van een video kost tussen de 5 en de 70 euro. Andere opties zijn Wombo en DeepFaceLab.

Let wel: het maken van een deepfake video en deze publiekelijk delen, kan worden beschouwd als smaad en zelfs als afpersing als je contact zoekt met de persoon in de video. We raden het dan ook streng af om deepfakes voor kwaadaardige doeleinden te gebruiken.

Het is lastig om te bepalen wanneer de eerste deepfake video is gemaakt. Dat komt omdat deepfakes niet ‘ineens’ verschenen, dus er is geen duidelijke lijn tussen handmatige videobewerking en AI-gestuurde bewerking. In werkelijkheid begonnen de twee vormen van mediamanipulatie zich te vermengen, totdat de door AI aangedreven videomanipulatie als het ware ‘autonoom’ werd.

De term ‘deepfake’ heeft wel een duidelijke oorsprong. Het werd voor het eerst gebruikt door een Reddit-gebruiker met dezelfde naam in 2017. Het is hierom veilig om aan te nemen dat de eerste echte deepfakes niet veel ouder zijn dan dat.

Techredacteur
Emi heeft een achtergrond in internationale betrekkingen en veiligheid en is met name geïnteresseerd in overheidscensuur en internetvrijheid. Vraagstukken over online privacy en vrijheden worden door de digitalisering namelijk steeds vaker een politieke kwestie.
Plaats een reactie
Een reactie plaatsen