Opinie

Zij was te mooi om waar te zijn

Marc Hijink

De snelste manier om iemand dronken te voeren? Daar komt geen druppel alcohol aan te pas. Je filmt een toespraak van een bekende politica, vertraagt de video tot 75 procent en schroeft de toonhoogte van de verlaagde stem iets op. De spreker lijkt zwaar aangeschoten.

Dat overkwam Nancy Pelosi, de Democratische voorzitter van het Amerikaans Huis van Afgevaardigden. Het bewerkte filmpje was gemaakt en verspreid door politieke tegenstanders, als bewijs van haar zogenaamde aftakeling.

Pelosi’s video was een ‘cheapfake’, een variant op de ‘deepfake’ video’s. Deep learning is een manier om algoritmes te trainen met data. Die wordt toegepast om gezichten op realistische wijze over andermans hoofd te plakken. Eerst in de vorm van Hollywoodsterren die in pornofilms opdoken, maar beeldmanipulatie gaat verder en wordt geloofwaardiger.

Op Instagram rouleert een nep-video van Mark Zuckerberg, waarin hij aankondigt met gestolen data de wereld te veroveren. Het beeld oogt echt, zijn stem is nep. Maar ook dat kan al beter. Wetenschappers van de Stanford Universiteit werken aan een manier die aanpassing van gesproken tekst in video’s zo simpel maakt als het bewerken van een Word-document.

Er is wel veertig minuten aan beeldmateriaal nodig om de algoritmes zo te trainen dat je het onopvallend kunt doen. Vandaar dat deepfake video’s vooral bekende personen treffen: van hen is genoeg videomateriaal beschikbaar. De Israëlische start-up Canny AI maakte al een filmpje waarin de wereldleiders samen Imagine van John Lennon playbacken. Mooi gemaakt, maar veel te mooi om waar te zijn.

Ik kan me herinneren dat we de nep-kandidaten uit tv-kwis Wie van de drie al een geloofwaardige verschijning vonden. De werkelijkheid – en vooral de schijnwerkelijkheid – is een stuk ingewikkelder nu iedereen de middelen en de rekenkracht ter beschikking heeft om beeld en geluid te bewerken en vervolgens te distribueren.

Automatische filters van sociale media zien nog geen onderscheid tussen echt en nep. Met wat pijn en moeite en een hoop data is er wellicht een algoritme te fabrieken dat bewerkingen van openbare video’s traceert, zoals YouTube’s Content ID jaagt op hergebruik van audio en video’s.

Of je zo’n nep-video dan weghaalt of voorziet van een ‘Kijk uit, nep!’ sticker, is weer een ander verhaal. Zo besloot Facebook, de eigenaar van Instagram, de nepvideo van Zuckerberg online te laten staan.

Beeldmanipulatie treft niet alleen bekende mensen, maar ook niet-bestaande personages. Algoritmes creëren op basis van een database vol echte gezichten nieuwe gezichten van denkbeeldige mensen. Althans, wij mensen zien er mensen in. Voor een computer is een gezicht niet meer dan een verzameling pixels. Kijk maar op thispersondoesnotexist.com of doe de test op whichfaceisreal.com.

Zulke nepgezichten zijn niet te herleiden tot echte personen, bijvoorbeeld via Google Image Search. Daar maken oplichters graag gebruik van. AP bracht het spannende verhaal over een niet-bestaand LinkedIn-personage, Katie Jones, die door buitenlandse spionnen geknutseld zou zijn om te infiltreren in politieke kringen in Washington. Haar profielfoto toont een knappe vrouw die volgens experts door computers in elkaar geschroefd was. Katies oor leek wat kunstmatig aangenaaid, was hun conclusie. Zij was te mooi om waar te zijn.

Foto: A{

Marc Hijink is redacteur technologie

Correctie (18 juni 2019): In een eerdere versie van deze column stond dat de video van Pelosi was vertraagd met 75 procent. De video is vertraagd tót 75 procent. Dit is hierboven aangepast.

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.