Column

Als Facebook uitmaakt wie verkiezingen wint

Iedere keer weer zijn mensen verbaasd over de macht van sociale media. Je vertrouwt ze allerlei gegevens toe over je leven, je werk, je vrienden en familie. Je maakt er intensief gebruik van en betaalt er niets voor. En wat denk je? Ze komen van alles over je te weten en gebruiken die kennis om je nog beter te leren kennen en daar geld mee te verdienen. Of, zoals ze zelf liever zeggen, ‘om een betere service te kunnen bieden’.

Afgelopen week ontstond, niet voor het eerst, internationale verontwaardiging over de digitale grootmacht Facebook (ruim 1,2 miljard actieve gebruikers, volgens het jaarverslag over 2013). Facebook bleek in 2012 een psychologisch experiment uitgevoerd te hebben, waarbij de emoties van bijna 700.000 gebruikers gemanipuleerd werden zonder dat hun om toestemming was gevraagd. Heimelijk rommelde Facebook met de Newsfeed, de reeks berichten van vrienden en bekenden die gebruikers op hun scherm krijgen. Onderzocht werd of de stemming van de menselijke proefkonijnen veranderde als Facebook opgewekte danwel sombere berichten tegenhield. En zowaar: wie vooral vrolijks voorbij zag komen ging zelf ook positieve berichten schrijven, wie meer negatief gestemde berichten kreeg schreef zelf ook negatiever. Het effect was niet heel groot, maar er was wel degelijk sprake van ‘emotionele besmetting’.

Een storm van verontwaardiging stak op. Facebook zou onethisch gehandeld hebben door niet expliciet om toestemming te vragen. Het experiment zou de autonomie en waardigheid van mensen hebben geschonden, door hun stemming in een bepaalde richting te sturen. Wat als je toch al depressief was, en nu nog een extra zetje kreeg?

Facebook en de onderzoekers verontschuldigden zich. In Groot-Brittannië stelde de onafhankelijke privacy waakhond een onderzoek in. En wie nog illusies had over zijn privacy in het digitale tijdperk, had weer een lesje geleerd.

Maar het manipuleren van wat we op internet te zien krijgen is niets nieuws. Google en Yahoo maken ook selecties van wat ze ons voorschotelen, gebaseerd op wat ze van ons weten. En Facebook manipuleert voortdurend wat gebruikers te zien krijgen – afhankelijk van waar je belangstelling lijkt te liggen: bij filmpjes van dansende eekhoorns, foto’s van je nichtje of artikelen over politiek.

Wie de afgelopen jaren een beetje heeft opgelet, weet dat er bij alles wat we op het internet doen iemand over je schouder meekijkt: inlichtingendiensten, zoekmachines, websites, adverteerders en ook sociale media. Het Facebook-experiment laat zien dat je als gebruiker ook makkelijk tot marionet gemaakt kunt worden.

Media hebben altijd geprobeerd de stemming of het gedrag van mensen te beïnvloeden. De hele reclame-industrie is erop gebaseerd. Nieuw is vooral dat Facebook zo groot is en zo veel weet van zijn individuele gebruikers. Daardoor dreigt machtsmisbruik.

Over een minder bekend experiment van Facebook verscheen vorige maand een stuk in de New Republic, onder de kop: ‘Facebook kan de doorslag geven bij verkiezingen – zonder dat iemand er achter komt’. Bij de Congresverkiezingen van 2010 plaatste Facebook bij miljoenen Amerikaanse gebruikers een knop op hun pagina, waarmee je kon aangeven of je gestemd had. Klikte je daarop, dan kregen je Facebook- vrienden een melding: een aanmoediging zelf ook te gaan stemmen. Wat bleek: gebruikers die deze service hadden gekregen, gingen vaker stemmen dan de groep die niet zag welke van hun vrienden gestemd hadden.

Zo kan Facebook, dat zonder veel moeite de politieke voorkeur van gebruikers kan achterhalen, zorgen dat kiezers van een bepaalde kleur net iets vaker naar de stembus gaan. Dat kan bij een spannende verkiezing de doorslag geven.