Opinie

Big Tech moet zijn algoritmes openbaren

Terreurvideo’s laten noodzaak openheid zien, schrijft .

Foto Richard Drew/AP

Na de terroristische aanslag in Christchurch sprak de Nieuw-Zeelandse premier Jacinda Ardern in het parlement over de dader: „Hij is een terrorist, een crimineel, een extremist, maar zolang ik spreek zal hij naamloos blijven.” Door geen naam uit te spreken op het moment dat miljoenen ogen op haar gericht waren, ontzegde Ardern ‘hem’ de faam. Het doden van mensen is immers niet het enige waar terroristen op uit zijn. Beruchtheid vergaren is net zozeer het doel.

Dat maakte de aanslag in Christchurch wel duidelijk. De terrorist had naast vuurwapens namelijk nog een wapen: een camera waarmee hij 17 minuten lang live heeft kunnen uitzenden via Facebook live. Vuurwapens doden daadwerkelijk, maar ook de camera was een hoofdinstrument voor de terreur. Dankzij de camera en live-verbinding kon terreur met hoge snelheid over het internet razen.

Overgeleverd aan platformen

Vanaf dat moment zijn we overgeleverd aan zogenaamde ‘poortwachters’ van het internet, zoals Facebook. Grote bedrijven die bepalen wat wij wel en niet zien. Het heeft geleid tot de online bubbels die soms doen denken aan een nieuwe digitale verzuiling. Facebook, Google, YouTube en andere platforms bepalen hoe de lens waardoor wij de (online)wereld zien is vormgegeven. Die vormgeving gebeurt niet handmatig, maar met algoritmes. Wiskunde doet grotendeels het werk.

Zondag berichtte Facebook dat de video van de aanslag in Christchurch 1,5 miljoen keer is verwijderd. Het grootste gedeelte hiervan gebeurde automatisch, met behulp van de genoemde algoritmes. Zo’n 300.000 video’s hebben echter langere tijd online gestaan, voor ze handmatig van het platform zijn gehaald. Hoewel de algoritmes het gros van de beelden kon detecteren, lukte het niet alles te onderscheppen. Facebook claimt dat het dankzij algoritmes met 90 procent zekerheid onderscheid kan maken tussen broccoli en marihuana. Als het goed is, komt broccoli wel, en marihuana niet door de zeef. Naakt mag ook niet op Facebook; soms wordt ook Rubens geblokkeerd.

Dit soort keuzes is arbitrair. Het is naïef om te denken dat techplatforms neutraal zijn. Niet zelden versterken algoritmes het wereldbeeld van hun makers, wat kan leiden tot preutsheid, maar ook tot bedoelde of onbedoelde discriminatie op grote schaal. Tegenover het razendsnel verwijderen van filmpjes van aanslagen, staat dat hate speech slechts in 51,6 procent van de gevallen wordt verwijderd. Gevolg is dat extreem gedachtegoed individuen bereikt waarvan we niet willen dat ze radicaliseren. Het indammen van terreurvideo’s gebeurt succesvoller dan het indammen van video’s die terreur aanwakkeren.

Ondoorzichtige algoritmes

Waarom dat is, dat weten we niet. We hebben immers geen inzage in de algoritmes. Die ondoorzichtigheid is niet meer acceptabel. Niet alleen omdat dit raakt aan onze veiligheid, maar ook omdat het principe moet gelden dat de politiek de regels maakt en niet het bedrijfsleven. Algoritmes zijn ook regels. Dat principe mogen we niet uit het oog verliezen, zelfs niet als Facebook met groot succes de verspreiding van een filmpje weet te beperken. Wie garandeert dat we op een dag niet achter de feiten aanlopen?

Om deze reden moet er een wettelijke verplichting komen om het Europees Parlement en de Commissie inzicht te geven in deze algoritmes en dient er door middel van regulering, een einde te worden gemaakt aan de huidige wetteloosheid. Een Europese aanpak is nodig omdat het internet geen grenzen kent. Dit gaat inmiddels over veel meer dan schilderijen van Rubens en broccoli.

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.