Ook Nederlandse kijkers trappen in nepvideo met politicus

Kunstmatige intelligentie Realistisch gemanipuleerde beelden van Nederlandse politici kunnen kiezers beïnvloeden, ontdekten onderzoekers aan de Universiteit van Amsterdam. Zeker als de inhoud aan specifieke kiezers wordt gericht.

De Amerikaanse oud-president Barack Obama (links) in een deepfake, een gemanipuleerde video, van acteur en scenarioschrijver Jordan Peele (rechts).Beeld YouTube
De Amerikaanse oud-president Barack Obama (links) in een deepfake, een gemanipuleerde video, van acteur en scenarioschrijver Jordan Peele (rechts).Beeld YouTube

„Donald Trump is een complete idioot”, aldus Barack Obama. Niet woorden die je uit de mond van een voormalige Amerikaanse president verwacht tijdens een nationale toespraak vanuit het Witte Huis.

De beelden waren dan ook gemanipuleerd. Met het betreffende filmpje, een zogeheten deepfake, probeerde de Amerikaanse acteur en scenarioschrijver Jordan Peele aan te tonen hoe realistisch bestaande beelden gemanipuleerd kunnen worden. De boodschap: geloof niet alles dat je op internet ziet.

Zou het geloofwaardig manipuleren van beeldmateriaal van Nederlandse politici ook invloed hebben op kiezers hier? Ja, schrijven onderzoekers aan de Universiteit van Amsterdam onlangs in het wetenschappelijke tijdschrift The International Journal of Press/Politics. Zéker wanneer de beelden bij specifieke doelgroepen terecht komen.

Onderzoeker politieke communicatie Tom Dobber verzamelde uren aan beeldmateriaal van toenmalig CDA-leider Sybrand Buma. Met kunstmatige intelligentie trainde hij een algoritme, dat van de oude beelden leerde over Buma’s stem en gezichtsbewegingen. De software manipuleerde vervolgens een bestaande video van de politicus, door lipbewegingen en audio uit andere beelden in het betreffende filmpje te plakken.

Kruisiging

In de 5 seconden durende nepvideo maakt Buma een woordgrap over de kruisiging van Jezus. „Van de ethische commissie mochten we Buma niet iets heel grofs laten zeggen. Het werd daarom een licht grapje, maar alsnog iets waarvan we verwachtten dat gelovigen zouden schrikken”, zegt Dobber. Vanwege de validiteit van toekomstig onderzoek staat de video niet online en wil Dobber de inhoud niet in de krant delen.

„Het was een realistische video, al zag ik dat de lipbewegingen soms niet helemaal goed gingen”, zegt hij. Maar van de 140 participanten die de video te zien kregen, vermoedden er slechts acht manipulatie. „Daar stonden we echt van te kijken.”

Bovendien beïnvloedde de video hun mening over Buma in negatieve zin. Een even grote groep, 140 mensen, kreeg alleen de oorspronkelijke video te zien. Alle participanten vulden na het zien van de beelden een vragenlijst in, onder meer over Buma’s betrouwbaarheid, authenticiteit en vriendelijkheid. De deepfake-groep scoorde een gemiddelde van 4,31 uit een totaal van zeven, ruim 0,3 lager dan de controlegroep. Dobber: „Dat is best significant.”

Bumafans

Nog groter was het verschil onder de ‘echte Bumafans’, de mensen die zichzelf als strenggelovig kenmerkten en eerder op het CDA hadden gestemd. In de controlegroep kreeg de politicus van hen een gemiddelde score van 5,43, tegenover 4,72 van de Bumafans uit de experimentele groep. „Het verschil zal waarschijnlijk groter zijn wanneer zo’n filmpje langer duurt, of de uitspraken extremer zijn”, zegt Dobber.

Lees ook: De deepfake rukt op in porno en politiek

De UvA-onderzoeker maakt zich zorgen over de technologie achter deepfakes, die de afgelopen jaren sterk verbeterde. „Het is zorgwekkend dat je zo’n video kunt maken die niet perfect is, maar waar mensen alsnog intrappen.” Zeker wanneer de makers een video goed timen en met slechte bedoelingen verspreiden.

„Stel je voor dat zo’n video grootschalig wordt uitgesmeerd vlak voor de verkiezingen. Dan komen factchecks en correcties veelal te laat”, zegt Dobber. „Waardoor zo’n video potentieel veel schade kan aanrichten.” Deze schade is mogelijk nog groter wanneer zo’n video specifiek aan een kleine groep gericht is. „De kans dat de video dan aan het licht komt bij de media en dus gecorrigeerd wordt, is kleiner.”

Archieffoto Sybrand Buma; de onderzoekers willen niet dat hier een beeld uit de door hen gemaakte deepfake-video van Buma of de hele video wordt getoond want dan kunnen ze die niet meer gebruiken voor vervolgonderzoek. Foto ANP

Waarom kozen de onderzoekers uitgerekend Sybrand Buma als onderwerp? Het algoritme dat de video maakt heeft veel beeldmateriaal nodig, daarbij kwam zijn lange staat van dienst als politicus goed van pas. Het onderwerp mag bovendien niet te veel van uiterlijk veranderen om het algoritme goed te laten werken. Dobber: „Mark Rutte is er over de jaren vlotter uit gaan zien, maar Sybrand Buma’s hoofd en haar zijn nagenoeg hetzelfde gebleven.”