Hoe Nederlandse complotdenkers en virussceptici sociale media telkens te slim af zijn

Data-onderzoek bestrijding misinformatie Terwijl socialemediabedrijven misinformatie over corona proberen te weren, vinden Nederlandse complotdenkers en virussceptici steeds nieuwe wegen.

De moeizame strijd tegen misinformatie

Of het nu komt doordat overheden het internet strenger dreigen te reguleren, het imago op het spel staat, of adverteerders steeds vaker naar een boycot grijpen - vast staat dat bij de grote socialemediaplatforms een omslag heeft plaatsgevonden in de omgang met misinformatie en complottheorieën die schade kunnen veroorzaken.

Nog maar een paar maanden geleden konden antivaxers op Facebook ongestoord zeggen dat je van vaccins autisme krijgt, nu zijn de meeste valse claims over (corona)vaccins op de grote platforms verboden. Complottheorie QAnon, geassocieerd met gewelddadige acties, groeide op YouTube en Facebook uit tot een miljoenenbeweging, nu proberen diezelfde bedrijven QAnon-aanhangers van hun platforms te weren. Hadden de grote techplatforms een paar jaar geleden nauwelijks beleid om valse informatie aan te pakken, nu omvat hun veelzijdige arsenaal onder andere het tijdelijk in quarantaine zetten van een gevoelig onderwerp en het minder vaak tonen van kanalen die misschien de regels niet direct overtreden, maar toch vaak onjuiste berichten delen.

Maar terwijl de platforms met grote regelmaat nieuwe maatregelen aankondigen, en op sommige dagen in één klap duizenden accounts schrappen, is nauwelijks bekend hoe effectief deze maatregelen zijn, en wat de (onbedoelde) gevolgen zijn.

Illustratie Tjarko van der Pol

Om daar achter te komen keek NRC samen met de Universiteit van Amsterdam (UvA) naar het effect van het moderatiebeleid van de grote techplatforms op het Nederlandse milieu van complotdenkers en coronasceptici, van juli tot en met december 2020. We zagen dat de platforms hier en daar een slag winnen, maar door een combinatie van te softe regels, gebrekkige handhaving en het gemak waarmee gebruikers de regels kunnen omzeilen, winnen de platforms de oorlog tegen misinformatie nog lang niet.

Door gericht data te verzamelen bracht NRC op zes socialemediaplatforms groepen veelverspreiders van misinformatie over corona en bekende complotthema’s in kaart. Hieronder vallen de accounts van bekende organisaties als Viruswaarheid, van BN’ers als rapper Lange Frans en oud-RTL-presentator Robert Jensen, maar ook van personen en actiegroepen die alleen onder complotdenkers bekend zijn. Er zitten ook alternatieve media bij, zoals de online talkshow Café Weltschmerz, die regelmatig video’s over corona verwijderd zien worden.

Je zou verwachten dat omdat de platforms hun strijd tegen misinformatie het laatste half jaar steeds verder opvoeren, de interacties met deze groep gebruikers (de views, likes en reacties die ze vergaren) geleidelijk afnemen. Maar dat was niet het geval. Zo kregen berichten op Instagram van de onderzochte groep in juli ongeveer 15.000 likes per dag, in december 30.000.

Ook het áántal berichten dat de populaire complotdenkers en virussceptici plaatsen werd nergens significant minder. Zo bleef op Twitter het aantal tweets van de onderzochte groep stabiel op ruim 2.000 per maand. Op Facebook neemt de dagelijkse activiteit zelfs toe in de loop van 2020: het aantal dagelijkse posts groeit van een kleine 900 in juli, tot zo’n 1500 in december.

Ondanks de maatregelen is op Facebook, Instagram, Twitter en YouTube, en binnen de onderzochte groepen, nog volop informatie over het coronavirus en complotten te vinden die volgens de regels van de platforms geblokkeerd of van een waarschuwing voorzien had moeten worden. Denk aan het aanprijzen van hydroxychloroquine als coronamedicijn op Instagram of een Facebook-filmpje waarin het coronavirus wordt voorgesteld als onderdeel van een vooropgezet plan om de mensheid te onderdrukken. Deze observaties zijn in lijn met de uitkomsten van internationaal onderzoek. Zo ontdekten de BBC en The New York Times dat Engelstalige antivaccinatie-content op Facebook en Instagram eerder toe- dan afneemt.

Twitter verwijderde honderden QAnon- profielen. Maar via de hashtag ‘wwg1wga’ zijn dit soort berichten volop te vinden

Ook gaan nog altijd openlijk berichten rond van Nederlandse aanhangers van de populaire complotbeweging QAnon, die stelt dat er een wereldwijde, satanische schaduwregering heerst die kinderen misbruikt. Dit terwijl alle grote platformen beleid hebben gemaakt om QAnon uit te roken. Uit eerder onderzoek door NRC bleek dat Twitter in januari enkele honderden Nederlandse QAnon-profielen had verwijderd. Maar via de hashtag met de QAnon-leus ‘wwg1wga’ (‘Where we go one, we go all’) zijn nog altijd volop QAnon-berichten te vinden. Ook behield de Nederlandse QAnon-activist Janet Ossebaard, wier filmpjes miljoenen views behaalden , na de opschoonactie van januari haar account. Op 4 maart, een dag nadat NRC hier bij Twitter naar had geïnformeerd, werd Ossebaards account alsnog opgeschort.

YouTube zegt content rond QAnon die aanzet tot schade in de „echte” wereld te verwijderen. Toch is daar onder andere het kanaal van de groep Wees de Weerstand (ruim 1.700 abonnees) actief. Nieuwsuur ontdekte dat deze groep achter het plaatsen van bloemen op graven van vermoorde kinderen als Marianne Vaatstra en Nicky Verstappen zit, met daarbij linten met teksten over pedofilie en satanisme. Wees de Weerstand is ook op Facebook nog actief, op Twitter is het account wél opgeschort.

Inhoud die eerder verwijderd is, komt soms als een boemerang terug: zo worden verwijderde video’s van Lange Frans en Viruswaarheid door andere kanalen opnieuw geüpload. Op die manier komen bannelingen via een achterdeurtje alsnog binnen.

Werken de maatregelen dan helemaal niet? Ook dat is niet waar. Het is aannemelijk dat door de maatregelen die de platforms wél hebben getroffen (en vervolgens hebben gehandhaafd), ook veel is voorkomen. Zo heeft Facebook volgens een woordvoerder sinds maart 2020 wereldwijd 12 miljoen berichten verwijderd „die tot dreigende schade zouden kunnen leiden, waaronder beweringen dat Covid-19 een hoax is en dat het Covid-19-vaccin autisme veroorzaakt”. Ook heeft het sociale netwerk bij 167 miljoen berichten of pagina’s waarschuwingslabels aangebracht met betrouwbare informatie over Covid-19.

Socialemediabedrijven plaatsen steeds vaker waarschuwingslabels bij misleidende informatie - zo doen ze de vrijheid van meningsuiting geen geweld aan, maar nemen ze wel een zekere verantwoordelijkheid voor onjuiste berichten op hun platforms. Maandagavond voorzag Twitter een tweet van Thierry Baudet van een waarschuwing. De lijsttrekker van Forum voor Democratie trok daarin de werking van coronavaccins in twijfel.

Illustratie Tjarko van der Pol

Ook hebben Facebook en Instagram het moeilijker gemaakt om via de zoekfunctie complottheorieën als QAnon te vinden. Twitter scherpte onlangs de maatregelen tegen coronamisinformatie aan – na vijf overtredingen wordt een account permanent geblokkeerd. YouTube verwijdert accounts na drie overtredingen en blokkeerde onder meer het kanaal van Lange Frans.

Maar het is niet genoeg om de stroom misinformatie in te dammen. Dat komt aan de ene kant door gebrekkige handhaving. Corona een hoax noemen is bijvoorbeeld verboden op Facebook, maar typ ‘coronahoax’ in het zoekveld en je vindt tientallen berichten waarin precies dat gebeurt, plus de suggestie om op ‘corona hoax’, met een spatie ertussen, te zoeken. Aan de andere kant zijn complotdenkers steeds beter geworden in het omzeilen van de regels – daarover straks meer. Dat alles roept de vraag op hoe ver socialemediabedrijven willen en kunnen gaan om werkelijk een vuist te maken tegen schadelijke misinformatie op hun platforms.

Waterbedeffect

NRC onderzocht ook in hoeverre het probleem door de maatregelen verschuift: als gebruikers niet meer welkom zijn op Facebook en Twitter kunnen ze verhuizen naar platforms met coulantere gebruikersrichtlijnen, zoals Telegram, Parler, Gab en BitChute. Zo meldde Janet Ossebaard donderdag in een QAnon-groep op chat-app Telegram (ruim 9.000 leden) dat dit voortaan haar primaire communicatieplatform zal zijn. Als dergelijke acties de nieuwe standaard worden, zou het probleem voor de grote platforms verholpen zijn, maar niet voor de maatschappij.

NRC bracht met de UvA de activiteit binnen complotmilieus op Telegram en videosite BitChute in kaart. Inderdaad winnen deze kleinere alternatieven aan populariteit: er wordt binnen Nederlandse complotmilieus massaal naar verwezen („volg ons op Telegram, voor als we op Facebook verwijderd worden”) én ze maken groeispurts door. Zo vond NRC op Telegram 56 grote chatgroepen waar doorlopend complottheorieën in rondgaan, waarvan meer dan de helft in het afgelopen half jaar werd opgericht. Groepen met vijf- tot tienduizend leden zijn geen uitzondering.

Maar dat de geanalyseerde gemeenschappen op de grote platforms eerder groeien dan krimpen, nuanceert het idee dat hun alternatieve broertjes hét nieuwe front vormen in de misinformatie-oorlog. In elk geval in Nederland. Zo zagen we op het sociale medium Parler, dat wereldwijd miljoenen gebruikers heeft, weinig Nederlandse activiteit.

Illustratie Tjarko van der Pol

Censuur omzeilen

Wie handig is in het omzeilen van de ‘censuur’ heeft weinig te vrezen van de techplatforms. Op allerlei manieren blijven verspreiders van misinformatie op de grote platformen zichtbaar, ook wanneer ze deels hun toevlucht tot alternatieve oorden zoeken.

Online talkshowkanaal Café Weltschmerz ontplooit verschillende tactieken om de steeds strengere regels van YouTube te ontlopen. Zo plaatsten de makers onlangs een één minuut durende versie van een videocolumn op YouTube, met in de beschrijving een linkje naar de volledige versie op BitChute. Dat lijkt op YouTube, maar voert geen beleid om misinformatie tegen te gaan. De video geheel op YouTube uploaden zou „te gevaarlijk” zijn, meldde het bijschrift. Elke keer als de redactie een video heeft opgenomen met uitspraken „waarop ze ons kunnen pakken” kiest Café Weltschmerz voor „andere routes, die vrij zijn van censuur”, vertelt oprichter Max von Kreyfelt. „Bijvoorbeeld als we iets over het vaccin zeggen wat tegen het overheidsbeleid ingaat.”

YouTube haalt regelmatig video’s van Café Weltschmerz offline, zegt Von Kreyfelt. Het verbaast hem niet. „Toen we in 2013 begonnen, wisten we dat er vroeg of laat een enorme censuurgolf zou plaatsvinden.”

Als je gecensureerd wordt, ga je niet op je handen zitten. Je neemt toch geen genoegen met het feit dat je niet mag berichten wat je wil?

Max von Kreyfelt oprichter Café Weltschmerz

Café Weltschmerz is niet het enige kanaal dat een omweg toepast om video’s ongehinderd aan de man te brengen. Robert Jensen, met 115.000 abonnees een van Nederlands populairste complotdenkers op YouTube, plaatste in november het filmpje ‘Bye bye, YouTube’ op zijn kanaal De Jensen Show. Hij was de censuur zat – zo was in mei een video waarin hij verschillende onjuiste uitspraken over de lockdown deed verwijderd. „F. YouTube”, zegt de presentator aan het einde van de video, voordat hij met een afstandsbediening het beeld op zwart zet. Maar Jensen verliet YouTube niet. Alleen waar zijn filmpjes voorheen een half tot anderhalf uur duurden, is dat nu enkele minuten, met daaronder een link naar de hele versie op zijn persoonlijke site. Daar plaatst hij ook filmpjes van andere „gecensureerden”, zoals een 2,5 uur durend interview met complotdenker David Icke dat door YouTube werd verwijderd.

Opvallend is dat Jensen het onzin vindt dat YouTube mensen als hem „monddood” zou maken. „YouTube mag doen wat [het wil]. Het is hún platform”, zegt hij in de video. Ook Von Kreyfelt koestert geen wrok. „Die bedrijven staan onder politieke druk en daar moeten ze iets mee. De politiek heeft ze in hun macht.”

Coconnetje

Activisten hebben er baat bij om actief te blijven op de grote platformen. Zo is het voor vaccinscepticus Frank Ruesink van belang dat hij aan zijn ruim 10.000 Facebook-volgers zijn artikelen over de „schadelijkheid” van vaccinaties kwijt blijft kunnen. Iets als een nieuwsbrief is geen volwaardig alternatief, vertelt hij. „Dan blijf je in een coconnetje.”

Illustratie Tjarko van der Pol

Toen onlangs een post van hem over de Wereldgezondheidsorganisatie (WHO) door Facebook was verwijderd, leerde Ruesink daarvan: kennelijk was hij Facebooks grens overgegaan. In het bericht zei hij dat de Nederlandse regering niet zelf mag beslissen over quarantainemaatregelen. Facebook had het bericht laten factchecken en oordeelde: op meerdere punten onjuist. Hij screent zijn Facebook-berichten nu zorgvuldig voordat hij ze plaatst. Hij denkt bijvoorbeeld goed na wat voor linkjes hij plaatst. „Soms blijf ik net zo lang naar een bron bij een verhaal zoeken, tot ik een artikel vind uit de reguliere media. Dat vergroot de geloofwaardigheid.” Ook vindt hij het niet nodig om informatie te delen die Facebook zou kunnen censureren. „Dat vullen mijn volgers zelf wel aan in de reacties onder mijn berichten.”

Café Weltschmerz heeft juist steeds minder het gevoel dat het de reguliere sociale media nodig heeft. En er vooral ook steeds minder zin in. „We willen niet steeds de hete adem van YouTube en Facebook in onze nek voelen. Er zijn zóveel alternatieven: we zitten op Telegram, Signal en als experiment nu ook op Parler. We beproeven alles.”

‘Vakzineren’ en ‘corina’

Einddoel: alles op de eigen website doen. Daarvoor vraagt het platform om donaties, in video’s als ‘Is dit de laatste video van Café Weltschmerz?’ Ook actiegroep Viruswaarheid van Willem Engel, regelmatig te gast bij Café Weltschmerz, riep toen haar YouTube-kanaal vorige maand werd verwijderd op tot donaties. De gemiddelde donatie aan Café Weltschmerz is 30 euro en sinds corona krijgt het platform er duizenden, zegt Von Kreyfelt. Komt de censuur wat dat betreft wel goed uit? Tja, zegt hij, „als je gecensureerd wordt, ga je niet op je handen zitten, dan ga je dat uitbuiten. Je neemt toch geen genoegen met het feit dat je niet mag berichten wat je wil?”

Het grote publiek heeft de alternatieve sociale media evenwel nog niet gevonden. Zo worden de filmpjes van Lange Frans meestal maar een paar honderd keer bekeken op zijn BitChute-kanaal – dat haalt het lang niet bij zijn YouTube-kijkcijfers. Ook voor Café Weltschmerz zijn de kijkcijfers en het aantal volgers (meer dan 100.000) op YouTube veel hoger dan op bijvoorbeeld het BitChute-profiel (ruim 1.300 volgers). Maar volgens Von Kreyfelt is het een kwestie van tijd tot alternatieve sociale media ingeburgerd zijn. Hoe dan ook vindt de boodschap zijn doelgroep wel. „Onze video’s worden continu door anderen op hun kanalen doorgedeeld. Rondom ons is een zwerm van alternatieve kanalen ontstaan. Als Weltschmerz offline gehaald wordt, gaat het elders door.”

Er zijn meer tactieken om censuur te omzeilen, zoals woorden bewust verkeerd spellen. Activist Isa Kriens gebruikt „vakzn” in plaats van „vaccin” en heeft het over de „Willem Hendrik Onno” (WHO). QAnon-aanhangers gebruiken „Q-and-on”; komiek Jay Francis, beter bekend als Tisjeboy Jay, rept van „c-orona” en „vakzineren”; en Café Weltschmerz heeft het over „C-vaccinaties” en „corina”. „Het is een soort kat-en muisspel”, zegt Von Kreyfelt.

Met deze neologismen trachten gebruikers zand in de ogen van de moderatoren te strooien – en in de raderen van de algoritmes. Omfloerste taal helpt ook, bijvoorbeeld door meningen als retorische vraag te formuleren. Andere truc: tekst in de vorm van een plaatje delen. Zo geeft de spirituele complotsite Transitieweb.nl bezoekers de tip om artikelen van de site als schermafbeelding te delen, zodat Facebook minder snel lont ruikt.

‘Vijandig speelveld’

Facebook beseft dat er een „vijandig speelveld is en desinformatie over Covid-19 snel kan evolueren”, zegt een woordvoerder in een reactie, „met als resultaat dat die opzettelijk in enigszins verschillende vormen kan verschijnen om detectie door onze systemen te vermijden.” Het sociale netwerk vindt dat de bevindingen van NRC en de UvA niet „de agressieve maatregelen die we hebben genomen” weerspiegelen.

Illustratie Tjarko van der Pol

Het nieuwe beleid van de techplatformen zorgt er dus niet zozeer voor dat de verspreiders van misinformatie massaal vertrekken, maar leidt eerder tot iets dat simpele data niet laten zien: het gebruik van omwegen, die leiden naar schaduwkanalen op alternatieve apps. De reguliere sociale media krijgen zo een extra rol als afslag naar vrijere oorden.

Uit door NRC en de UvA geanalyseerde data blijkt dat bijna 40 procent van alle links naar een ander sociaal medium in de onderzochte Facebookposts naar Telegram verwijst. Ook is in de onderzochte Facebookgroepen te zien dat er vaker links worden gedeeld. Het percentage van dit soort berichten ten opzichte van andersoortige posts (pure tekst; video; foto) neemt tussen juli en december toe van bijna 28 procent tot ruim 34 procent.

Anticiperend op meer censuur hebben veel complotdenkers en virussceptici backup-kanalen en -profielen. Zo maakte de ‘coronasceptische’ influencer Jay Francis, in september een backupaccount. „De censuur op mijn pagina is echt niet meer te doen”, zei hij in een video. Maar die backupkanalen worden lang niet even intensief gebruikt, zo blijft Francis verreweg het meest actief op zijn originele pagina, met tegen de 280.000 volgers. QAnon-groep Wees de Weerstand plaatste in mei op Facebook de tekst: „Volg ons op TELEGRAM voordat we hier verwijderd zijn!” Maar dat blijkt vooralsnog voorbarig. Wel heeft het kanaal op Telegram inmiddels meer dan 2.200 volgers.

‘Het interview dat je niet mag zien’

Gecensureerd worden, of het hebben van een backupkanaal, lijkt ook een vorm van geloofwaardigheid op te leveren. Robert Jensen bedenkt steeds nieuwe variaties op de titel ‘Het interview dat je niet mag zien van YouTube’. ‘Dan zal het wel een ongemakkelijke waarheid bevatten’, kan de doelgroep daar zelf achteraan denken. De term complotdenker wordt een geuzennaam. Zo noemt Flavio Pasquino van het alternatieve nieuwskanaal Black Box News zich een trots complotdenker en noemen coronademonstranten zich „proud wappie”.

Waar het beleid soms te soft lijkt, is het andere keren te hardvochtig. De afgelopen maanden ontstond meermaals ophef omdat LinkedIn kritische posts over het coronabeleid van artsen en een hoogleraar had verwijderd. NRC ontdekte dat Bilderberg-hotels in Rotterdam, Amsterdam en de Veluwe hun Twitterprofiel was afgenomen (‘Bilderbergers’ zijn een onderdeel van veel complottheorieën, waaronder QAnon). Inmiddels zijn de accounts teruggegeven.

Zij die de grenzen opzoeken van wat de platforms toelaatbaar vinden, tasten ondertussen soms in het duister over wat ze wel en niet kunnen zeggen. Von Kreyfelt: „Het is absoluut niet helder voor ons wat de regels zijn. Het wordt ongeveer elke week aangepast. Je loopt altijd achter de feiten aan.”

Illustratie Tjarko van der Pol

Fundamentele vragen

De bevindingen van NRC en de UvA roepen fundamentele vragen op over wat wijsheid is in de omgang met complottheorieën, misinformatie en radicalere vormen van coronakritiek.

Socialemediabedrijven zijn tot hun strengere beleid gekomen mede omdat complottheorieën steeds meer schade veroorzaken. Ook in Nederland. Er werden zendmasten in brand gestoken nadat een verband was gelegd tussen corona en 5G. Demonstrerende complotdenkers botsen met de politie. Ziekenhuizen worden regelmatig lastiggevallen door complotdenkers, net als journalisten.

Hoogleraar Richard Rogers doet aan de UvA onderzoek naar ‘deplatforming’, het blokkeren van bepaalde groepen of personen door socialemediabedrijven en stelt dat streng beleid absoluut kan werken. Zo bleek in de VS dat het blokkeren van de socialemedia-accounts van de uiterst rechtse provocateur Milo Yiannopoulos en later Alex Jones, een bekende complotdenker die onder meer beweerde dat een schietpartij op een basisschool in scène was gezet, bijdroeg aan het verminderen van zijn invloed en zeggenschap.

„Maar het blokkeren van een persoon is iets heel anders dan een telkens veranderende theorie als QAnon proberen aan te pakken, of een enorm grote categorie als coronamisinformatie”, zegt Rogers. Een idee proberen weg te modereren kan zelfs averechts werken, zegt hij, omdat dat nieuwsgierigheid opwekt.

Deplatforming blijkt een proces vol kinderziektes en ogenschijnlijk arbitraire keuzes. Er duikt continu nieuwe informatie op. Hierbij ontbreekt de tijd om na te denken wat wel en niet door de beugel kan. Bedenktijd die wel gepast lijkt, ook omdat de grens tussen faire kritiek op coronabeleid en misinformatie niet altijd helder is. Hoe harder de machtige techplatforms ingrijpen, hoe meer de vraag zich opdringt of zij het vrije debat niet onevenredig inperken.

Nog harder ingrijpen brengt bovendien nieuwe risico’s met zich mee, zoals een waterbedeffect naar alternatieve platformen zonder moderatie. Er zijn aanwijzingen dat in dat ondergrondse online circuit sneller radicalisering plaatsvindt, omdat gebruikers er minder tegenspraak krijgen.

Ondanks deze risico’s hebben de techplatforms vooralsnog gekozen voor de aanval. „Dat werkt voor hen qua imago en business case”, zegt Rogers. „Zo proberen ze te voorkomen dat ze gereguleerd worden door overheden die vinden dat ze te weinig doen.”

Alle maatregelen ten spijt veranderen Facebook, Twitter en YouTube weinig aan hoe ze in de kern werken. Berichten die veel reacties en likes ontvangen worden door de algoritmes beloond met meer zichtbaarheid. Dat zorgt dat schattige hamsterfoto’s snel viral gaan, maar óók sensationele complottheorieën.

Vooralsnog voeren de platforms een beleid dat op papier streng is, maar er in de praktijk meer uitziet als een gedoogbeleid. Hierbij houden Facebook, Twitter en YouTube regelmatig trots een grote vangst omhoog: kijk, weer duizenden ‘foute’ accounts verwijderd. Maar het uitroeien van schadelijke misinformatie blijft op deze manier een illusie.

Evolutie van maatregelen techplatforms tegen coronamisinformatie en schadelijke complottheorieën

Facebook verwijdert berichten „met onjuiste beweringen of complottheorien die door toonaangevende en lokale gezondheidsorganisaties zijn aangemerkt als schadelijk”, zoals schadelijke behandelingsmethoden. Ook beperkt Facebook de verspreiding van misleidende informatie over het virus. Bron
Facebook weert alle content waarin onwaarheden worden verspreid over Coronavaccinaties. Bron
Facebook weert advertenties die genezing van het coronavirus beloven. Bron
Facebook gaat onjuiste beweringen over de veiligheid, de werkzaamheid, de ingrediënten of de bijwerkingen van coronavaccins verwijderen. Bron
Facebook toont berichten met informatie over coronamythes aan mensen die op het platform in aanraking zijn gekomen met misleidende informatie over COVID-19.
22 april 2020
YouTube weert video’s die adviezen van de Wereldgezondheidsorganisatie direct tegenspreken. Bron
Facebook schrapt alle Facebookgroepen, -pagina’s en Instagramaccounts die QAnon „representeren”, afgaand op de namen of beschrijvingen. 27.000 accounts, pagina’s of groepen worden gewist. Bron
Facebook verwijdert een bericht verwijderd waarin de Amerikaanse president Donald Trump claimt dat het coronavirus minder dodelijk is dan een gewone griep. Bron
Twitter verwijdert voortaan „aantoonbaar onjuiste of misleidende” beweringen over COVID-19 „die schadelijk kunnen zijn”. Bron
Een brede „crackdown” van Twitter op QAnon, omdat die beweging in het verlengde zou liggen van „gedrag dat mogelijk leidt tot offline geweld „, waarbij 7.000 accounts worden geschrapt. Bron
Facebook schrapt of beperkt zo’n12.500 Facebookgroepen, -pagina’s en Instagramaccounts „geassocieerd met QAnon”, waarin op geweld wordt gezinspeeld. Uiteindelijk worden er maar 1.500 écht verwijderd. Bron
14 oktober 2020
YouTube verwijdert misleidende video’s over coronavaccinaties. Bron
15 oktober 2020
Vanaf deze datum verbiedt YouTube „materiaal dat mensen of groepen aanvalt met complottheorien die zijn gebruikt om offline geweld te rechtvaardigen”. Bron
Twitter verwijdert berichten die „schadelijke of misleidende narratieven over COVID-19 vaccinaties” promoten en voorziet tweet die „mogelijk misleidende vaccininformatie” bevatten van een waarschuwingslabel. Bron
Twitter verwijdert 70.000 QAnon-accounts.

Dit artikel is mede tot stand gekomen met steun van het Fonds Bijzondere Journalistieke Projecten.

Met medewerking van nieuwe media-onderzoekers aan de UvA dr. Stijn Peeters en dr. Daniël de Zeeuw en UvA-studenten New Media & Digital Culture en Journalistiek & Nieuwe Media: Victor van den Berg, Lindy Blommestein, Maurice Dharampal, Mattanja Ewida, Buddy Oosterman, Jesper Lust, Sophie Letschert, Maarten Middelkoop, Juliëtte Molenaars, Puck Sie, Katja Sobot, Christian Ran, Sara Getz, Esmée Koeleman, Roos Beentjes, Doortje Nipius, Jamila Meischke, Tobiah Palm, Josien Beekers en Lonneke van Kampen.

Illustraties Tjarko van der Pol.

Update (9 maart 2021): Dit artikel is dinsdagochtend aangevuld met het nieuws dat Twitter een bericht van FvD-leider Thierry Baudet van een waarschuwingslabel heeft voorzien.