Moord en doodslag blijft op Facebook

Aanstootgevende beelden

Een man uit Cleveland zette een video van een moord op Facebook. De site lijkt er weinig tegen te kunnen doen. Artificiële intelligentie is nog geen oplossing.

Kunstmatige intelligentie wordt een steeds belangrijker poortwachter op internet. Bedrijven als Facebook en YouTube gebruiken de technologie om aanstootgevend materiaal zoals video’s van moorden, verkrachtingen en extremistische groeperingen te verwijderen.

Maar de technologie staat nog in de kinderschoenen. Geen zelflerend algoritme kon voorkomen dat deze zondag – niet voor de eerste keer – een video van een moord op Facebook werd geplaatst. Op de video is te zien hoe een man uit Cleveland een willekeurige voorbijganger neerschiet. De video stond twee uur op Facebook voordat een (menselijke) moderator de video verwijderde.

Als het aan Facebookbaas Mark Zuckerberg ligt herkennen slimme algoritmes in de toekomst zo’n video automatisch. Momenteel vertrouwt Facebook nog vooral op haar gebruikers, die geacht worden aanstootgevend materiaal te rapporteren, en op een onzichtbaar leger van duizenden moderatoren, die toetsen of gerapporteerde berichten in overeenstemming zijn met de huisregels.

Toch maakt het algoritme een opmars als de Robocop van internet. Een derde van de berichten die Fabooks moderatoren beoordelen zijn aangeleverd door kunstmatige intelligentie, schreef Zuckerberg eind vorig jaar in een manifest. Ook YouTube investeert in de techniek.

Had kunstmatige intelligentie de verspreiding van de moordvideo uit Cleveland kunnen tegenhouden?

Arnold Smeulders, hoogleraar informatica aan de Universiteit van Amsterdam, en gespecialiseerd in beeldherkenning geeft antwoord.

Hoe ver is de techniek?

„Best ver. Moderne computers zijn in staat zo’n vijftienduizend unieke voorwerpen redelijk van elkaar te onderscheiden, evenveel als mensen.

„Maar met acties hebben computers veel meer moeite. Lopen lukt omdat het een unieke en goed gedefinieerde beweging is. Maar het onderscheid tussen een schop tegen een bal of een lichaam, is al best lastig.”

Vanwaar dat grote verschil tussen acties en dingen?

„Dingen hebben een beperkte vormentaal. Een mens heeft twee ogen, een neus en een mond. Dat zijn allemaal aanknopingspunten. Een actie heeft veel minder vormvaste elementen. Zelfs het vloeren van de tegenstander in voetbal is aanzienlijk gevarieerder dan het herkennen van een krop sla.”

Hoe lang duurt het voordat Facebook het onder de knie heeft?

„Dat is moeilijk te zeggen, ik heb geen toegang tot Facebooks research-afdeling. Facebook heeft wel een goede uitgangspositie omdat het veel datasets heeft. Maar de algoritmes moeten worden gevoed. Dat betekent dat mensen heel nauwkeurig aan de zelflerende systemen moeten uitleggen wat er in talloze video’s gebeurt: dit is schoppen tegen een lijf, dit is niet schoppen, maar ballet.”

Voorlopig is zo’n moordvideo dus niet tegen te houden?

„Je kunt zulke video’s nu alleen tegenhouden als je bereid bent een factor tien aan video’s onterecht af te wijzen. Als je het net wijd genoeg maakt zul je de ergste video’s wel meepakken. Maar dat wil Zuckerberg waarschijnlijk niet.”

Dus we moeten eraan wennen dat moorden en verkrachtingen voorlopig bij het nieuwe medium horen?

„Ik vrees van wel. Dit is het gevolg van het medium dat Zuckerberg heeft gecreëerd. Bedenk ook dat er altijd een kat-en-muis-spel zal ontstaan tussen de gekken die een publiek zoeken voor hun misdaad en de programmeurs die hun video’s proberen op te sporen. Je kunt als je een moord pleegt je bewegingen zodanig camoufleren dat het algoritme de video over het hoofd ziet. Aanstootgevende beelden helemaal uitsluiten zal dus altijd onmogelijk zijn.”