Facebook doet zijn best, maar niet genoeg, vindt de Senaat

Radicalisering

Sociale-mediabedrijven doen te weinig tegen extremistische propaganda, vindt de Amerikaanse Senaat, zo bleek tijdens een hoorzitting woensdag.

Hoorzitting van de Amerikaanse Senaat met sociale-mediabedrijven over extremistisch materiaal op de platforms. Foto Tasos Katopodis/Getty Images/AFP

De 29-jarige bewakingsbeambte Omar Mateen liep op 12 juni 2016 een gayclub in Orlando binnen en schoot daar vijftig mensen dood. Het was één van de dodelijkste schietpartijen ooit in de Amerikaanse geschiedenis. Omar Mateen was geen islamitische vluchteling, hij was geen lid van een terreurorganisatie, maar werd uitsluitend geïnspireerd door extremisten op internet.

De Republikeinse senator John Thune, voorzitter van de Amerikaanse Senaatscommissie voor Handel, bracht de radicalisering van Mateen deze woensdag in herinnering tijdens een hoorzitting in Washington over terreurpropaganda op internet. Techbedrijven Facebook, Google en Twitter moesten zich voor de commissie verantwoorden voor extremistisch materiaal op hun platforms. Het soort materiaal dat mensen als Mateen aanzet tot hun bloedige daden. Thune onderstreepte dat ook buiten Amerika talrijke jonge mannen radicaliseren door berichten die ze vinden op sociale media. Thune: „Laat dit een wake-upcall zijn.”

De hoorzitting komt op een moment waarop de internetbedrijven zwaar onder vuur liggen. Sociale media worden deels verantwoordelijk gehouden voor polarisering in de samenleving en bedrijven als Facebook en Twitter hebben een grootschalige Russische desinformatiecampagne toegelaten tijdens de Amerikaanse verkiezingen.

‘U moet beter uw best doen’

Begin november moesten dezelfde bedrijven zich tegenover de Amerikaanse Senaat en twee Congrescommissies verantwoorden voor de Russische inmenging. Ze kregen het zwaar te verduren. De voorzitter van de inlichtingencommissie van de Senaat: „U moet beter uw best doen om het Amerikaanse volk te verdedigen.”

Ditmaal onderstreepten de bedrijven, vertegenwoordigd door de directeuren die over beleid, richtlijnen en veiligheid gaan, dat ze hun uiterste best doen om extremistisch materiaal te verwijderen. Sinds juni vorig jaar heeft YouTube 160.000 video’s verwijderd en 30.000 kanalen beëindigd op grond van gewelddadig extremisme, bleek op de hoorzitting. Twitter verwijderde 1,1 miljoen terreuraccounts sinds midden 2015. De bedrijven, die voorheen veelal afhankelijk waren van gebruikers voor het melden van extremistisch materiaal, vinden de video’s, foto’s en berichten nu steeds vaker zelf. 99 procent van het verwijderde materiaal van Al-Qaeda en IS vond Facebook dankzij kunstmatige intelligentie, zelflerende algoritmes en samenwerking met andere platforms. Vorig jaar identificeerden Twitter meer dan 90 procent van de verwijderde extremistische berichten dankzij vergelijkbare hulpmiddelen.

Lees het NRC-onderzoek over hoe Nederlandse media werden misleid door Russische trollen

Mooie cijfers, maar de meeste senatoren vonden het niet voldoende. Ze wezen op de explosie van racisme op sociale media. Op antisemitische films die nog steeds op YouTube te vinden zijn. Op de video’s van islamitische terreurorganisaties die aan het toezicht van bedrijven ontglippen. Tv-zender CNBC vond vorige week nog tientallen pagina’s met extremistisch materiaal op de platforms, waaronder rekruteringsfilms en de instructie voor het maken van een geïmproviseerd explosief.

Terreurexpert Clint Watts, opgeroepen als getuige, sloeg tijdens de hoorzitting een ongekend kritische toon aan: „De platforms zijn te laat geweest met het erkennen van het probleem en zien de problemen die op hen afkomen nauwelijks.” Terroristen gebruiken in toenemende mate diensten met end-to-end-encryptie, zoals WhatsApp en Telegram, waardoor derde partijen niet mee kunnen kijken. Ook valt te verwachten dat kunstmatige intelligentie door terroristen gebruikt gaat worden om detectie door de platforms te omzeilen.

Geen anonieme accounts

Alleen Watts kwam met verrassende oplossingen: laat geen anonieme accounts meer toe, zorg dat bots (geautomatiseerde nepgebruikers) niet meer kunnen opereren, neem meer cybersecurity-experts aan, en vertrouw minder op technologie voor het vinden van extremistisch materiaal.

De hoorzitting waaierde al snel uit naar andere onderwerpen. Het ging over nepnieuws tijdens de schietpartij in Las Vegas, over bots die tijdens het debat over netneutraliteit actief waren, over beïnvloedingtactieken van de Russen.

De bedrijven lieten zich telkens van hun meest welwillende kant zien. „We zien ernaar uit om daarover door te praten”, aldus een Facebookwoordvoerder na de zoveelste confronterende vraag.

Kunnen de bedrijven ooit echt alle terreurpropaganda van hun platforms weren? „Het is wat je noemt een wicked problem”, zegt de Leidse terrorisme-onderzoeker Jelle van Buuren over de telefoon. Het soort taaie problemen dat je niet even oplost met logisch nadenken. „Twitter en YouTube kunnen wel accounts afsluiten, maar dan verhuizen de terroristen naar andere kanalen. Een gedeelte van de communicatie verloopt nu al via WhatsApp en het Russische Telegram.”

„Bedenk ook dat deze platforms zijn ontworpen om ze snel mogelijk zoveel mogelijk informatie te verspreiden. Vragen om dat in te perken raakt dus aan het wezen van de bedrijven, én hun verdienmodel.”

„Wat ook wringt is dat we nu particuliere bedrijven laten bepalen of uitlatingen dermate extreem zijn dat ze moeten worden verwijderd. In een rechtsstaat hoop je dat rechters zich met het zweet in de handen buigen over uitlatingen die misschien extremistisch zijn maar ook onder de vrijheid van meningsuiting vallen. Door het volume van de berichten is daar natuurlijk geen beginnen aan. Toch zetten overheden nu internetbedrijven onder druk om dan maar zelf materiaal te verwijderen, in Duitsland zelfs op straffe van hoge boetes. Moet je dat willen? Nee, lijkt me.”

    • Reinier Kist