Sjarrel de Charon, werkte vanaf de zomer van 2017 acht maanden voor Facebook en Instagram in Berlijn. Foto Roger Cremers / ANP

Deze Facebook-moderator trok de eindeloze stroom van schokkende beelden niet meer

Facebook-moderators Van pesterijen, kinderporno tot IS-executies. Wat Facebook-gebruikers als ongepast rapporteren, krijgen moderatoren op hun scherm. Sjarrel de Charon ging eraan onderdoor en schreef daar een boek over.

‘Je shift eindigt om tien uur ’s avonds. Tijdens je werk heb je al een halve liter wijn gedronken en kalmeringstabletten geslikt. Vervolgens ga je nog een halve liter bier halen en een klein flesje wodka. Zo deden de meesten het op kantoor. Je wil jezelf verdoven.”

Kalm vertelt Sjarrel de Charon (57) op het balkon van een Amsterdams café over zijn werk als ‘content moderator’ voor Facebook. Content moderatoren toetsen de door gebruikers (of kunstmatige intelligentie) gerapporteerde berichten aan de huisregels van Facebook. Verontrustende beelden en teksten flitsten dag in dag uit over zijn scherm. Zelfmoordpogingen, IS-executies, wraakporno, kindermisbruik, zelfmutilatie, racisme, scheldpartijen. Het systeem gaf hem telkens vier keuzes: laten staan, verwijderen, aanmerken als zelfbeschadiging, of voor een second opinion doorsturen naar het hoofdkantoor in Dublin. En dat tweeduizend keer per dag.

Af en toe, nauwelijks merkbaar, slaat zijn stem over. Een overblijfsel van de posttraumatische stressstoornis (PTSS) die hij overhield aan de acht maanden die hij zelf als „nachtmerrie” omschrijft. Natuurlijk moest hij eerder stoppen. En natuurlijk was het alcohol- en drugsgebruik op de werkvloer een teken aan de wand. „Maar als je een dag lang de meest gruwelijke beelden voorbij hebt zien komen ga je echt niet een sollicitatiebrief schrijven. Het zuigt alle energie uit je, alle inspiratie. Ik was al blij dat ik af en toe naar de film kon. Liever fictie dan de realiteit.”

Lees ook: de tv-recensie over de documentaire The Cleaners

Geen psychiatrisch verleden

De Charon, een kleurrijke verschijning die houdt van uitgaan en zijn outfits modelleert naar Super Mario, begint langzaam op te krabbelen uit een diep dal. Mede dankzij zijn Duitse psychiater. „Op een gegeven moment hoorde ik kinderstemmen in mijn hoofd. Dat is best verontrustend, zeker als je geen psychiatrisch verleden hebt.” De meeste collega’s hielden het werk maar een paar maanden vol. Toen De Charon eindelijk naar de bedrijfspsycholoog ging – de enige op zeshonderd werknemers – raadde hij hem yoga-oefeningen aan.

In zijn pas uitgekomen boek De achterkant van Facebook (Prometheus), doet Charon verslag van zijn werkzaamheden voor Facebook. De geboren Hagenees leeft al jaren van baantje naar baantje als hij in 2015 besluit naar Berlijn te vertrekken. Na een tijdje als call center-medewerker bij PlayStation te hebben gewerkt, komt hij terecht bij Arvato Bertelsmann, onderdeel van een groot Duits mediaconglomeraat dat inmiddels is omgedoopt tot Majorel. Bij het bedrijf, gevestigd op een desolaat Berlijns industrieterrein, werken op dat moment zeshonderd content moderators voor Facebook. De Charon gaat aan de slag bij het achtkoppige Nederlandstalige team.

Politieagenten die vergelijkbaar werk doen – langdurig naar schokkende beelden kijken – krijgen daarvoor uitgebreide training, (na)zorg, en doen het werk hooguit twee uur per dag ter bescherming van hun mentale gezondheid. De Charon werd na twee weken training voor het minimumloon van 8,90 euro per uur te werk gesteld. Nadat een paar Nederlandse collega’s ontslag hadden genomen werd hij soms acht uur lang blootgesteld aan schokkende beelden. Er was niemand anders om het werk te doen.

De Charon gebruikt zijn moeders achternaam, omdat hij met die van zijn vader makkelijk is te herleiden. Zijn vaders achternaam is wel bekend bij de redactie. Hij vreest vijanden gemaakt te hebben onder de mensen die hij heeft geblokkeerd op Facebook. Die zouden hem of familie weleens iets aan kunnen doen.

„Eén van de zwaarste aspecten aan het werk is dat je je eigen moraal moet uitschakelen”, zegt hij. „Je bent een machine in dienst van Facebook. Het Facebookbeleid is heilig, hoe tegenstrijdig het soms ook lijkt.” Hij verbaast zich over het feit dat scheldwoorden als ‘neger’ en ‘kanker’ zijn toegestaan. Hij ziet hoe Sylvana Simons constant racistische haat over zich heen krijgt. De meest vuile taal moet De Charon laten staan, omdat Simons een publiek figuur is en daarom volgens de huisregels minder recht heeft op bescherming dan reguliere gebruikers. Pas als ze maanden later door Facebook als activist wordt aangemerkt, biedt het beleid De Charon de mogelijkheid haar te beschermen tegen de ergste bedreigingen en haatberichten.

Een schokkende passage in het boek gaat over een jongen die keer op keer wordt gerapporteerd omdat hij zichzelf in zijn armen snijdt. Als een content moderator zo’n bericht aanmerkt als ‘zelfbeschadiging’ krijgt het slachtoffer een mail waarin hij of zij wordt aangespoord hulp te zoeken. De jongen in kwestie reageert door bij elke mail van Facebook meer in zichzelf te snijden. „Who has reported me?! 5 cuts! Stop reporting me you bastards! 10 cuts! 10 more cuts! Stop reporting idiot!” De regels schrijven voor dat hij bij elke melding weer zo’n mail van Facebook moet krijgen. De Charon wil dit niet op zijn geweten hebben en vraagt raad bij zijn leidinggevende. Het antwoord: nooit afwijken van de regels. „Let him cut”, zegt ze ijskoud.

Geheimhoudingsverklaring

Met de opkomst van sociale media groeide de moderatie-industrie uit tot een branche waarin wereldwijd tienduizenden mensen werken. Een branche die door de platforms zoveel mogelijk buiten het zicht van het brede publiek wordt gehouden. Moderatoren tekenen strenge geheimhoudingsverklaringen en worden er constant aan herinnerd dat niets van hun werk naar buiten mag komen. Op het Berlijnse kantoor van De Charon mochten aantekeningen het pand niet verlaten. Met een smoes kreeg De Charon toestemming een aantekeningenboekje op zijn bureau te hebben. Daarin schreef hij stiekem op wat hij op zijn scherm voorbij zag komen. Tegelijk stuurde hij zichzelf via een nepaccount op Facebook geheime bedrijfsdocumenten op.

Door klokkenluiders als De Charon komen steeds meer verhalen naar buiten over de omstandigheden waarin moderatoren dagelijks de onderbuik van het internet schoonvegen. De onthullende documentaire The Cleaners volgde vorig jaar een aantal van deze ‘digitale schoonmakers’ in Manilla. Zij mogen maar drie fouten per maand maken, krijgen nauwelijks training of psychische ondersteuning, en moeten hun werk in het opperste geheim doen: erover praten kan een boete van 10.000 dollar opleveren. Hoewel veel werknemers trots halen uit het ‘schoon’ houden van sociale netwerken, hebben ze ook last van psychische klachten. Een Filipijnse moderator die zelfmutilatievideo’s als specialiteit had pleegde zelfmoord, vertelt de documentaire.

Interview met regisseur Hans Block: ‘Facebook verdient aan haat en woede’

Toezicht op arbeidsomstandigheden is er bijna niet. Sociale netwerken maken gebruik van onderaannemers gevestigd in landen waar de regels soepel zijn en de lonen laag. Verandert de regelgeving, dan vertrekken de bedrijven naar een ander land. „Facebook zegt het welzijn van moderatoren serieus te nemen”, zegt De Charon. „Maar je vraagt je af waarom ze het werk dan uitbesteden. Houd het bij jezelf, zodat je goed voor je werknemers kan zorgen.”

Excuses

Iedereen reageert anders op het werk, vertelt De Charon. Sommigen lukt het de beelden als computergame te zien, als iets wat zich buiten de werkelijkheid afspeelt. Hij werd paranoïde. „Ik vertrouwde niemand meer. Als iemand naast me in de metro ging zitten werd ik ongemakkelijk. Het nam mijn hele wereldbeeld over. Als je de hele dag door kinderporno ziet, verlies je je vertrouwen in de mensheid. Ik keek naar de gevels en aangeharkte tuintjes in de stad en vroeg me af wat zich daar allemaal achter afspeelde, met papa op zolder achter de laptop. Mensen zijn niet zo fatsoenlijk als ze zich voordoen. Dat gevoel heb ik nog steeds weleens.”

Dat hij over zijn ervaringen vertelt en zo de strijd aangaat met Facebook en Arvato, helpt bij de traumaverwerking. De Charon deed zijn verhaal eerder in Nederlandse media, onder andere bij De Wereld Draait Door en in de radiodocumentaire Facebook, een nachtmerrie (VPRO). En nu is er een boek. Voor de juridische gevolgen is hij niet bang, ook al schendt hij zijn geheimhoudingsovereenkomst, die werd ingezien door deze krant. „Laat ze maar komen. Ik kijk ernaar uit. Dan wordt alles openbaar.”

Hij eist excuses van Facebook en Arvato Bertelsmann. „Niet alleen naar mij, maar naar alle content moderatoren wereldwijd. Ze moeten toegeven het verkeerd te hebben aangepakt en beloven het anders te doen.” Er valt zoveel te verbeteren, zegt hij. Beperk de hoeveelheid schokkende beelden per werknemer. Organiseer goede psychische zorg. Zórg voor je werknemers. „Zoiets simpels dat iemand af en toe vraagt: hoe gaat het met je?” Aankomende content moderatoren moeten ook beter doorgelicht worden. „Nu is de enige vereiste dat je de taal spreekt. Ze moeten vragen of je iets ernstigs hebt meegemaakt, een verkrachting in de familie bijvoorbeeld.” Dergelijke voorzorgsmaatregelen ontbreken. „Je bent gewoon kanonnenvoer.”

Kunstmatige intelligentie

Het is de vraag of sociale netwerken ooit zonder content moderatoren kunnen. In theorie kan kunstmatige intelligentie (AI) het werk overnemen, maar experts zijn het erover eens dat zelflerende software nog lang niet in staat is dezelfde nuances in tekst en beeld te herkennen als mensen van vlees en bloed. „Het zal nooit een volledige oplossing zijn”, zegt De Charon. „Mensen vinden altijd manieren om computersystemen te omzeilen, bijvoorbeeld door een letter toe te voegen aan een woord waarop het systeem aanslaat. De software leert van beslissingen van mensen. Maar er komen constant nieuwe scheldwoorden bij en Facebook verandert zijn beleid om de twee weken. Hoe gaan we AI dat telkens bijbrengen?”

Column van Marc Hijink: ‘De vuilnismannen van Facebook’

De Charon eindigt zijn boek met een open vraag: blijven we als samenleving de troep op sociale media accepteren? Zijn acht maanden in de onderbuik van het internet gaf hem een unieke inkijk in hoe mensen er dagelijks pesterijen, haat, discriminatie en wraakporno ondervinden. Al die persoonlijke ervaringen vormen een collectief probleem, zegt De Charon. „Maar wat haatzaaien is, en wat niet, wanneer bij zelfmutilatie wordt ingegrepen en wanneer niet, wordt nu overgelaten aan een bedrijf ergens in het noorden van Californië.”

Hij hoopt dat de samenleving zelf verandert, dat mensen fatsoenlijker worden op internet. En dat zijn boek daar een beetje aan bijdraagt. Maar zolang dat niet gebeurt pleit hij voor meer toezicht. „Waarom is er geen supranationale overheid die extreem-rechtse propaganda op internet aanpakt? Waarom laten we belangrijke beslissingen over de vrijheid van meningsuiting over aan een commercieel bedrijf? Laat tenminste ngo’s meekijken.” Als het aan De Charon ligt, slaat de geheimzinnigheid van bedrijven als Facebook om naar volledige transparantie. „Met mijn twee weken training moest ik beslissen over de meest ingrijpende gebeurtenissen. Pesterijen, misbruik, noem maar op. Dat geloof je toch niet? Overheden en burgerrechtenorganisaties moeten met internetbedrijven om de tafel om te bedenken hoe het beter kan. Laten we hier alsjeblieft iets van leren.”