Stemmen omdat Facebook het wil

Miljoenen Amerikanen keken deze week met argwaan naar Facebook. Zou het sociale netwerk net als in 2010 en 2012 hun tijdlijn ongevraagd manipuleren – en zo misschien wel de verkiezingsuitslag beïnvloeden?

Illustratie Roel Venderbosch

Hoe meer mensen gaan stemmen, hoe beter. Daar kun je het moeilijk mee oneens zijn.

Afgelopen dinsdag werd er gestemd in de Verenigde Staten. „Today is election day”, zagen Amerikanen die Facebook bezochten. Daaronder een afbeelding met ‘vote’, een link naar een tool waar je stemlocaties kunt zoeken en de knop ‘I voted’. Een vriendelijk duwtje in de rug om vooral de moeite te nemen om een stem uit te brengen. Prima.

Op de dag van de verkiezingen in 2012 en 2010 was de knop er ook al. Niet voor alle Amerikanen, want Facebook was nog aan het testen wat het beste werkte, of de knop überhaupt verschil maakte. In de maanden ervoor testte Facebook hoe het de betrokkenheid van gebruikers bij de verkiezingen kon vergroten.

Maar hoe werken die experimenten eigenlijk? En hoeveel invloed hadden ze op de uitslag? Daar is Facebook niet open over, merkten journalisten van het Amerikaanse tijdschrift Mother Jones. Verdacht. Vlak voor de verkiezingen van afgelopen dinsdag publiceerde Mother Jones wat het er wél over te weten is gekomen.

In het najaar van 2012 experimenteerde een data-analist van Facebook met de tijdlijn van 1,9 miljoen willekeurige Amerikaanse Facebookers. De analist veranderde (ongevraagd) de tijdlijn van de gebruikers, zodat nieuwsberichten die hun vrienden deelden verder bovenaan in de tijdlijn terechtkwamen dan normaal gesproken het geval zou zijn. Een andere data-analist van Facebook vertelde erover op een conferentie.

Het aangepaste algoritme had effect gehad. Uit een enquête na de verkiezingen van 2012 bleek dat de mensen bij wie het nieuws hoger in de tijdlijn terechtkwam meer aandacht hadden besteed aan politiek. Het (zelfgerapporteerde) opkomstpercentage onder die groep was 67 procent, terwijl het gemiddelde op 64 procent lag.

Deze conclusies zijn (nog) niet openbaar. Een video van de presentatie op de conferentie is offline gehaald. Facebook wil de resultaten bewaren voor een wetenschappelijke publicatie die nog moet verschijnen, gaf een woordvoerder als verklaring.

61 miljoen proefpersonen

Over de experimenten van Facebook rond de verkiezingen van 2010 verscheen al wel een wetenschappelijk artikel, in het gerenommeerde tijdschrift Nature: ‘A 61-million-person experiment in social influence and political mobilization’. Een team van wetenschappers en data-analisten van Facebook schreef daarin dat 20 procent van de mensen die zagen dat hun vrienden op de knop ‘I Voted’ hadden gedrukt ook op de knop drukte. Van de groep die niet zag dat hun vrienden hadden gedrukt, had 18 procent op ‘I Voted’ gedrukt.

De opkomst in 2010 was hoger dan bij dezelfde verkiezingen in 2006. „Het is mogelijk”, schreven de onderzoekers, „dat die groei is veroorzaakt door een bericht op Facebook”.

In 2012 werd er , naast de experimenten met de nieuwsstroom, ook weer geëxperimenteerd met de ‘I Voted’-knop. Wederom zonder Facebookgebruikers erover te informeren.

Niet ‘slechts’ 61 miljoen, maar bijna alle Amerikaanse Facebookers zagen nu een versie van de ‘I Voted’-knop. Sommigen zagen de knop de hele dag, anderen alleen laat in de middag. Sommigen lazen ‘I Voted’, anderen ‘I’m a voter’. En sommige gebruikers rapporteerden volgens Mother Jones dat ze zelf wel op de knop klikten maar geen meldingen zagen van vrienden die dat ook hadden gedaan. Anderen wel.

Details over de effecten ontbreken, maar Facebook benadrukt dat het de verschillende experimenten niet heeft toegespitst op specifieke groepen gebruikers. Alles ging volkomen lukraak. Want Facebooks doel is nobel: de algehele opkomst voor de verkiezingen vergroten, zeggen ze.

Iedereen doet het

Als dat zo is, wat maakt het dan uit dat we onderdeel zijn van een experiment?

A/B-testen, zoals het uitproberen van verschillende versies heet, is standaard voor iedereen met een website. Webwinkels, diensten als Spotify, zelfs NRC doet het. Kijken welke knop of kop een beter effect heeft op verkoop, gebruikers of abonnees. Die bedrijven moeten ervan leven, logisch dat ze zulke dingen testen. Amper verontwaardiging.

Zo niet bij Facebook. Afgelopen juni was er ook al gedoe. Toen verscheen in het wetenschappelijke tijdschrift PNAS een verslag van een ander Facebook-experiment. Ze hadden onderzocht of mensen meer negatieve berichten plaatsen als ze meer negatieve berichten te zien krijgen in hun tijdlijn. (Ja, dat is zo). Ook hierbij had Facebook met de tijdlijn van gebruikers gespeeld zonder dat die dat wisten. ‘Facebook speelt met onze emoties!’, klonk het.

Vinden we het van Facebook ineens erg omdat het een (belangrijk) onderdeel van ons sociale leven is? Of schrikken we van de macht van de algoritmes? Dringt ineens door welke invloed die onzichtbare algoritmes hebben op ons als individu en onze kijk op de wereld?

De potentiële macht is enorm. De ongrijpbaarheid eng. Ga maar na: op basis van de enorme berg gegevens die Facebook van z’n gebruikers heeft, weet het bedrijf waarschijnlijk precies wie Democraat is en wie Republikein. Stel ze zouden de knoppen wél toespitsen op bepaalde groepen, dan kunnen ze verkiezingen maken of breken.

Jammer, Republikeinen

Of is dat per ongeluk al gebeurd? Want hoe lukraak de verschillende knoppen en tijdlijn-algoritmes ook voorgeschoteld worden, grote kans dat het effect uitpakt in het nadeel van de republikeinen, schrijft Mother Jones.

Uit cijfers van onder meer PEW Research blijkt dat meer vrouwen dan mannen op Facebook zitten, meer jonge mensen dan 65-plussers en meer stedelingen dan mensen uit een dorp. Die groepen zijn overwegend Democraat. De ‘nudge’ van Facebook heeft in 2012 dus vermoedelijk vooral extra Obama-stemmers een duwtje in de richting van de stembus gegeven.

Bij de verkiezingen van deze week is er trouwens niet geëxperimenteerd. Tenminste, dat zegt Facebook. Controleren kunnen we het niet.