Filter van vrienden, voorkeuren en verleden

Auteur: Eli Pariser

Titel: The Filter Bubble, what the internet is hiding from you

Uitgeverij: Penguin

ISBN: 978 0 670 92038 9, 294 blz.

Prijs:€ 16,- , ook als audioboek.

Eli Pariser maakt zich zorgen. Hij weet dat de meeste informatie die hij online leest, beluistert of bekijkt, gefilterd wordt door ongrijpbare algoritmes. Webdiensten als Facebook en Google personaliseren pagina’s die we bekijken. Ze laten informatie weg waarvan ze denken dat die niet relevant is. Maar daar heb je als bezoeker amper controle over.

Zo laten de bijna 300 pagina’s The Filter Bubble zich in een paar zinnen samenvatten. Er zit dan ook veel herhaling in het boek – de TED-lezing die Pariser eerder dit jaar gaf is net zo’n krachtig statement en duurt tien minuten. Maar in de VS, waar The Filter Bubble al een tijdje te koop is, is het een hit.

En dat zou het ook in Nederland moeten zijn. The Filter Bubble sluit goed aan bij de felle discussie over third party cookies die dit jaar in Europa gevoerd werd. Dit zijn verborgen bestandjes op de pc die een website gebruikt om bezoekers te herkennen en advertenties op maat voor te schotelen. Zo kan het dat wie gisteren bij een online schoenenwinkel rondneusde, dezelfde schoenen vandaag weer ziet, op een andere website. De handel in zulke data is de stuwende economische kracht van het web.

Tegelijkertijd groeit het aantal webdiensten waarvoor je moet inloggen, ook een manier om persoonlijke voorkeuren te gebruiken om informatie op maat te leveren. Bekende voorbeelden zijn Google en Facebook. Zelfs als je niet inlogt, verwerkt Google verborgen aanwijzingen in je browser. Daardoor ziet de lijst met zoekresultaten er voor iedereen anders uit.

Ook elk van de 800 miljoen Facebook-gebruikers heeft zijn eigen blik op het web, mede gevormd door vrienden. Erg adequaat werkt dat niet, zegt Eli Pariser. Hij merkte dat Facebook zijn conservatieve vrienden, op wie hij minder actief reageerde, ongevraagd uit de newsfeed verwijderde.

Boekenwinkels (Amazon) en videosites (Netflix) gebruiken algoritmes om op basis van je voorkeuren en eerdere beslissingen artikelen te presenteren. Bijvoorbeeld: wie op Netflix een hoge waardering geeft aan een romantische komedie, krijgt automatisch meer van hetzelfde voorgeschoteld. „Maar als het systeem echt zeker wil zijn dat ik niets anders leuk vindt, moet het me eigenlijk ook een actiefilm als Blade Runner voorschotelen”, schrijft Pariser.

Terwijl tv (in de VS) vaak een te gewelddadig beeld van de werkelijkheid schetst omdat ‘bloed scoort’, leidt het gepersonaliseerde web eerder tot een friendly world syndrome. Om relevant te zijn wordt informatie geselecteerd om te plezieren, niet om iemand te verontrusten, ergens mee te confronteren of op andere gedachten te brengen.

Vooraan in het boek staat een beroemd citaat van Facebook-oprichter Mark Zuckerberg, die zegt dat een dooie eekhoorn in je eigen voortuin relevanter kan zijn dan een ramp in Afrika. Eli Pariser legt uit dat er twee soorten nieuwsgierigheid zijn: de impulsieve neiging om op alles te klikken wat leuk lijkt – ‘informatie junkfood’. Maar er zijn ook dingen die je moet weten omdat ze belangrijk zijn – de ‘groente’ onder de informatie. Anders leid je aan informatie ‘obesitas’.

In de vorige eeuw waren mediaconsumenten afhankelijk van de manier waarop redacteuren en journalisten informatie filterden. Nu is deze poortwachtersfunctie overgenomen door algoritmes. Pariser wil niet terug naar het eenrichtingsverkeer van oude media, maar hij pleit wel voor transparantie van de algoritmes, zodat webbezoekers zelf kunnen bepalen of en hoe ze door een bepaalde bril naar de wereld willen kijken.

Facebook en Google zijn bang dat ze met hun algoritmes ook kostbare bedrijfsgeheimen prijsgeven. Maar dat is een te makkelijk verweer, oordeelt Pariser. Volgens hem doet Twitter het beter met zijn doorzichtig systeem van volgelingen. En een lesje transparantie dat de moderne webbedrijven van ouderwetse kranten kunnen leren: neem een ombudsman in dienst.

Marc Hijink