Facebook geeft gebruikers score voor betrouwbaarheid

Gebruikers maken misbruik van de mogelijkheid om nepnieuws te melden. Om de strijd tegen desinformatie efficiënter te maken, kijkt Facebook naar meldgedrag.

Foto Dado Ruvic/Reuters

In de strijd tegen nepnieuws is Facebook het afgelopen jaar begonnen om gebruikers een soort score te geven voor hun betrouwbaarheid. Dat schrijft The Washington Post op basis van een interview met een hooggeplaatste medewerker van de Amerikaanse techgigant.

Facebookgebruikers kunnen sinds 2015 eenvoudig via een link rechtsboven een post een melding maken als ze denken dat bepaalde content nepnieuws bevat. Als er meerdere meldingen, zogeheten flags binnenkomen over een bericht, dan onderzoeken factcheckers of de post verwijderd moet worden. Maar tegelijkertijd wordt deze mogelijkheid ook misbruikt: bepaalde berichten worden bewust onterecht als nepnieuws bestempeld.

“Het is niet ongebruikelijk dat mensen zeggen dat iets onjuist is simpelweg omdat ze het niet eens zijn met de inhoud van het verhaal, of omdat ze doelbewust een organisatie willen treffen”, zegt Facebook-chef Tessa Lyons, die binnen het bedrijf verantwoordelijk is voor de strijd tegen desinformatie. Daarom krijgen gebruikers volgens The Washington Post een rating tussen de 0 en 1 voor hun betrouwbaarheid.

Precieze aanpak onduidelijk

Het is verder onduidelijk wat voor criteria het techbedrijf precies aanhoudt om tot een score te komen. Ook is niet bekend of alle gebruikers dit hebben en op wat voor manier het cijfer gebruikt wordt. Facebook wil niet te veel openheid geven in zijn aanpak van nepnieuws, om te voorkomen dat gebruikers met kwade bedoelingen weten hoe zij maatregelen kunnen omzeilen.

Een woordvoerder van Facebook Nederland zegt tegen NRC echter dat de uitleg van The Washington Post niet klopt en misleidend is: “Het idee dat we een gecentraliseerde ‘reputatie’-score hebben voor mensen die Facebook gebruiken, is simpelweg onjuist.” Ze nuanceert dat het bedrijf duizenden verschillende gedragspatronen onderzoekt in de strijd tegen nepnieuws:

“We hebben een proces ontwikkeld om ons te beschermen tegen mensen die - zonder onderscheid te maken - nieuws als ‘nep’ markeren en die zo proberen het systeem voor de gek te houden. We doen dit om ervoor te zorgen dat onze aanpak van misinformatie zo effectief mogelijk is.”

Sinds de onthullingen rondom het databedrijf Cambridge Analytica eerder dit jaar - die de informatie van miljoenen Facebookgebruikers bleek te hebben misbruikt - eisen instanties van het populaire platform juist meer openheid over de manier waarop het omgaat met privacy.

“Dat wij niet weten hoe wij beoordeeld worden, voelt niet prettig”, reageert directeur Claire Wardle van First Draft - een onderzoeksbureau van de Amerikaanse universiteit Harvard - tegenover The Washington Post. “Maar de ironie is dat ze niet kunnen zeggen hoe ze ons beoordelen, want als ze dat doen worden de algoritmes omzeild.”

Te veel onterechte meldingen van nepnieuws

Facebook werkt sinds december 2016 met externe partners om berichten te factchecken, waaronder First Draft. In totaal helpen 25 partners in veertien landen daaraan mee. In Nederland werkt de techgigant met de Universiteit Leiden om nepnieuws te bestrijden, hoewel vorige maand bleek dat deze samenwerking al maanden stil lag. Omdat er volgens Facebook te veel meldingen binnenkomen, wil het bedrijf sneller onterechte meldingen eruit kunnen pikken om tijd te besparen.

“Als iemand bijvoorbeeld melding doet dat een bericht nepnieuws bevat en dat daadwerkelijk ook zo is”, stelt zegt Facebook-chef Lyons tegen de krant, “dan kunnen we feedback van die persoon in de toekomst eerder gebruiken dan van iemand die klakkeloos nepnieuws-feedback geeft, ook over artikelen die uiteindelijk als waar worden beordeeld.”

    • Christiaan Paauwe