‘Het is moeilijk een goede deepfake-video te maken’

Nepvideo’s Aanvankelijk schreven media dat een video van de nepstafchef van Navalny een deepfake was. Nu blijkt het mogelijk om een imitator te gaan.

Op de linkerfoto de echte Leonid Volkov, stafchef van Navalny, rechts de vermeende deepfake, gespeeld door Aleksej Stoljarov.
Op de linkerfoto de echte Leonid Volkov, stafchef van Navalny, rechts de vermeende deepfake, gespeeld door Aleksej Stoljarov.

Virtuele ontmoetingen zijn de norm tijdens de coronapandemie, maar daardoor zijn ook de mogelijkheden om te misleiden toegenomen. Dat ondervonden vorige week verschillende Europese parlementariërs die om de tuin werden geleid door Russische bedriegers die zich voordeden als naaste medewerkers van de Russische oppositieleider Aleksej Navalny. Ook leden van de Vaste Kamercommissie voor Buitenlandse Zaken voerden afgelopen woensdag een videogesprek met onder anderen een nepversie van Navalny’s stafchef Leonid Volkov. Vier vragen.

1 Hoe had het ministerie deze ‘prank’ kunnen voorkomen?

De woordvoerder van de Tweede Kamer wil niets kwijt over de toedracht van het incident, omdat er nog onderzoek naar wordt gedaan. Het ging om een digitaal besloten gesprek via vergaderdienst Pexip.

Meer in het algemeen zijn er wel methodes om in een videogesprek na te gaan of de persoon op het scherm is wie hij zegt te zijn, stelt technologie-expert Jarno Duursma. „Je kunt controleren of het e-mailadres op de vergaderuitnodiging overeenkomt met het adres van de persoon die je wil spreken”, zegt hij. Daarvoor moet je wel in het bezit zijn van een geverifieerd e-mailadres van de persoon die je wilt spreken.

Daarnaast kun je live controleren of je te maken hebt met een digitaal gemanipuleerd beeld door te kijken of er vlekken, gekke trillingen of andere onregelmatigheden te zien zijn in het gezicht. Gek vallende schaduwen duiden op digitale manipulatie.

2 Ging het om een deepfake of om een imitatie?

De echte stafchef Volkov suggereerde op Facebook slachtoffer te zijn geworden van deepfake-technologie. Deze technologie maakt het met kunstmatige intelligentie mogelijk pratende en bewegende gezichten op video’s te vervangen. Ook Baltische parlementariërs die om de tuin zijn geleid door de nep-Volkov stelden dat het om een deepfake-video ging. De Britse krant The Guardian schreef aanvankelijk dat het „ogenschijnlijk” om een deepfake ging. Die terughoudend verdween in de dagen daarna in de berichtgeving van veel binnen- en buitenlandse media.

Het duo achter de prank beweert zelf géén deepfake-technologie te hebben gebruikt, maar zegt Volkov te hebben geïmiteerd met schmink. Dat is ook het eerste wat Jan Broersen, hoogleraar kunstmatige intelligentie aan de Universiteit Utrecht, dacht. „Het is heel moeilijk om een overtuigende deepfake-video te maken. De logische keuze in deze context is een imitator: Volkov is niet heel bekend, en dus zijn mensen makkelijker om de tuin te leiden. Waarom dan het risico nemen van een haperende deepfake?”

Bovendien was het een livegesprek en Broersen betwijfelt of deepfaketechnologie daar goed genoeg voor is. „In een livegesprek moet direct, in ‘realtime’, gereageerd worden op gesprekspartners. Op het juiste moment de juiste gezichtsuitdrukkingen vertonen - zoals een grimas of een glimlach - is extreem moeilijk voor een computer.”

Giorgio Patrini, CEO van Sensity.ai dat deepfakes opspoort, stelt dat de huidige technologie daar wel al bij in de buurt komt. „Het bestaat eigenlijk al: denk aan faceswap-applicaties op je telefoon. Je plakt een ander gezicht op jouw gezicht, waardoor het geïmiteerde gezicht jouw gezichtsuitdrukkingen overneemt.” Toch denkt hij niet dat daar hier sprake van was: „Dat soort deepfakes zijn kwalitatief nog niet erg geloofwaardig.”

3 Waarom trok men zo snel de conclusie dat het om een deepfake ging?

Volgens Broersen is er sprake van een „hype” rondom deepfakes en kunstmatige intelligentie. „Mensen denken dat je daar alles mee kunt en wijzen er daardoor snel naar. Onterecht, dus.” In werkelijkheid zijn politieke toepassingen van deepfakes nog zeldzaam. Sensity.ai, het bedrijf van Patrini, becijferde vorig jaar dat 96 procent van de deepfakes op internet van pornografische aard zijn, met vrouwen als voornaamste slachtoffers.

4 Kan deepfake-technologie gedetecteerd worden?

Ja, speciale herkenningssoftware, gebaseerd op zelflerende algoritmes, kan vaststellen of een video is gemanipuleerd met deepfake-technologie. Patrini denkt dat iedere webbrowser uiteindelijk wordt uitegerust met zulke herkenningssoftware zal, waardoor deepfakes ook live gedetecteerd kunnen worden.

5 Wat betekent de opkomst van deepfakes voor de toekomst?

Ten eerste dat er meer, en makkelijker, nepinformatie verspreid kan worden. Maar een tweede gevolg is dat alles wat op beeld staat straks ontkend kan worden door te zeggen dat het een deepfake is, zegt Broersen. „Het onderscheid tussen echt en nep wordt steeds lastiger.”

Een ander gevolg is wantrouwen in media en autoriteiten. „Voor sommige mensen zal de opkomst van deepfakes een voedingsbodem zijn om veel dingen niet meer te geloven. Of om alleen te geloven, wat ze wíllen geloven."

Lees ook dit artikel over de Russische pranksters en wat er gezegd is tijdens het videogesprek: Spraken Kamerleden met een deepfake of met een komiek in badjas?