Werk van moderator is loodzwaar, velen stoppen

Modereren

Moderatoren van sociale media als Facebook krijgen maar enkele seconden om foto of video te beoordelen. Hun werk blijkt stressvol.

Een Facebook-logo in een datacentrum van Facebook in Zweden. Foto Bloomberg / Simon Dawson

„Vooral wreedheden tegen kinderen raken me diep”, zei een Filippijnse moderator tegen technologietijdschrift Wired . „Ik moet stoppen. Ik neem een pauze en ontspan, misschien loop ik naar een Starbucks om een kop koffie te drinken.”

Het citaat uit oktober 2014 geeft een zeldzame inkijk in het loodzware werk van de moderator, de beroepsgroep die ervoor zorgt dat een bezoek aan een internetplatform als Facebook of YouTube verschoond blijft van schokkend materiaal zoals onthoofdingsvideo’s, verkrachtingen en kinderporno.

Uit de ‘Facebook Files’, honderd interne documenten over het censuurbeleid van Facebook gelekt aan het Britse dagblad The Guardian, blijken moderatoren vaak last te hebben van stress en zelden lang in dienst blijven. Ook de telkens veranderende regels van sociale netwerken veroorzaken volgens The Guardian veel stress bij werknemers en dragen daardoor bij aan het hoge personeelsverloop.

Interviews met moderatoren, die zelden met de pers mogen praten, gaven afgelopen jaren een alarmerend beeld van hun werk. Ze krijgen vaak maar een paar seconden om een foto of video te beoordelen – bij Facebook gemiddeld tien seconden, blijkt uit de documenten van The Guardian – en hup, ze moeten door naar de volgende verkrachtingsscène of terreurvideo.

Trauma veroorzaakt door beelden

Langdurige blootstelling aan schokkende beelden kan volgens experts een posttraumatischestress-stoornis (PTSS) veroorzaken. Ruud Jongedijk, psychiater en directeur van het landelijke traumacentrum Centrum 45, zegt dat PTSS regelmatig voorkomt bij agenten van de zedenpolitie die op internet naar kinderporno speuren. „Aanvankelijk dachten we dat trauma alleen kon worden veroorzaakt als iemand een traumatische gebeurtenis had meegemaakt, maar in de DSM-5, het handboek voor psychiatrische diagnosen, is het traumacriterium aangepast voor hulpverleners die langdurig worden blootgesteld aan afschuwwekkende beelden.”

Met het toenemende aantal gebruikers van diensten als Facebook groeit ook het aantal moderatoren. Facebook heeft er 4.500 in dienst en kondigde onlangs aan 3.000 extra beoordelaars aan te nemen.

De meeste moderatoren van Facebook werken voor onderaannemers, meldt The Guardian op basis van de gelekte documenten. Ze krijgen een opleiding van twee weken. „Het is de vraag of ze in die korte periode even goed voorbereid worden op de gevaren van het werk als bijvoorbeeld een zedenrechercheur die kinderporno moet opsporen”, zegt psychiater Jongedijk. Bovendien besteden grote techbedrijven moderatiewerk vaak uit aan bedrijfjes in lagelonenlanden, waarop weinig toezicht is.

Verwarrend en tegenstrijdig

De regels zijn verwarrend en tegenstrijdig, klagen anonieme moderatoren tegen The Guardian. Beelden van abortussen zijn toegestaan, zolang er geen naaktheid is te zien. Geweld is in veel gevallen niet toegestaan, maar zelfverminking juist wel omdat het bedrijf „mensen in nood niet wil censureren of bestraffen”.

Kunstmatige intelligentie speelt een steeds belangrijkere rol bij het modereren, maar wordt door Facebook vooral ingezet tegen kinderporno en terreurpropaganda. Hoogleraar informatica Arnold Smeulders zei onlangs tegen deze krant dat de technologie nog niet ver genoeg is om alle nuances in bewegingen van elkaar te kunnen onderscheiden. Het verschil tussen een schop tegen een bal of een lichaam is voor een computer bijvoorbeeld vaak slecht te beoordelen.

Totdat computers het werk van de menselijke beoordelaars overnemen, is het voor Facebook onmogelijk om alle berichten te controleren. Ga maar na: wereldwijd plaatsen Facebookgebruikers elke minuut 1,3 miljoen berichten. Daarom vertrouwt het netwerk voornamelijk op door gebruikers gerapporteerde berichten. Het betekent ook dat wat niet wordt gerapporteerd op het netwerk blijft staan. Zo stond onlangs een video waarop te zien was hoe een Thaise vader zijn 11 maanden oude baby vermoordde een dag lang op Facebook omdat niemand hem had gerapporteerd.

Facebook erkent tegenover The Guardian dat moderatoren een „uitdagende en moeilijke baan” hebben. „Het materiaal is vaak verontrustend. We proberen ervoor te zorgen dat beoordelaars met vertrouwen de juiste beslissing kunnen maken en de emotionele kracht bezitten om gezond te blijven. Dat is ook een grote uitdaging voor ons.”