Lees en voed ons algoritme

Gepersonaliseerde media Welk nieuws je ziet, is steeds vaker gepersonaliseerd. Hoogleraar Natali Helberger: „Maar als algoritmes tot filterbubbels leiden, is het slecht ontworpen.”
Illustratie Martien ter Veen

Jules Verne voorzag het in 1889 al. In zijn verhaal In the Year 2889 beschreef hij een toekomst waarin je de krant niet leest, maar belt, waarna journalisten, politici en wetenschappers je persoonlijk bijpraten. Vernes voorspelling was een van de vroegste concepties van nieuwspersonalisatie, oftewel: het op de individuele lezer afstemmen van online nieuwsaanbod. Natali Helberger verwijst naar In the Year 2889 om duidelijk te maken dat het vroegste denken over personalisatie positief was. Ja, er zijn risico’s, erkent de hoogleraar informatierecht aan de Universiteit van Amsterdam (UvA), zoals privacyschending. Maar ze kijkt liever naar kansen. „Er is een overload aan nieuws. Als algoritmes een selectie maken, heb je meer tijd om je te verdiepen in plaats van erdoorheen te kammen.”

Algoritmische personalisatie is gebaseerd op klikgedrag. Voorbeeld van personalisatie op nieuwssites is dat mensen die veel op stukken over wetenschap klikken, meer wetenschapsnieuws te zien krijgen. Het algoritme kan ook vernuftiger worden ingesteld. Blijken deze lezers relatief vaak ook volgers van de politiek? Dan kun je onder wetenschapsnieuws politieke analyses aanraden. Volgens een rapport van het Reuters Institute aan Oxford uit 2019 beschouwen nieuwsmedia personalisatie als de meest veelbelovende toepassing van kunstmatige intelligentie op hun redactiewerk. Netflix en Spotify passen algoritmische personalisatie al langer toe (‘Aanbevolen voor jou’).

Lees ook: Spreek eens iemand met een totaal andere mening

Personalisatie wordt geassocieerd met ‘filterbubbels’, waarbij mensen op basis van eerdere keuzes steeds weer dezelfde berichten voorgeschoteld zouden krijgen. Onder meer om te onderzoeken of nieuwsbubbels een gevaar van nieuwspersonalisatie zijn, begon Helberger in 2015 een onderzoeksproject aan de UvA, dat inmiddels zijn afronding nadert. Het team – met onder andere juristen, een kunstmatige intelligentie-onderzoeker en een mediawetenschapper – interviewde nieuwsgebruikers en -makers en voerde tests uit op redacties van onder andere de Volkskrant en RTL Nieuws. Helberger: „De vragen die mediabedrijven hebben zijn dezelfde vragen die wij hebben. We willen niet vanuit een ivoren toren fancy wetenschappelijke artikelen publiceren die niemand leest.”

Toen het onderzoek begon, werd over nieuwspersonalisatie vooral nog gespeculeerd. Inmiddels passen veel grote Nederlandse media het toe. Het doel was aanvankelijk: meer clicks binnen harken. Dat verandert, zegt Helberger. Websiteverkeer wordt minder belangrijk omdat kranten in de eerste plaats (online) abonnementen willen verkopen. „En mensen betalen niet voor nieuws omdat ze de hele dag door willen lezen, maar omdat ze een afgewogen selectie willen. Een selectie die ze kunnen vertrouwen.”

Vertrouwt de gemiddelde nieuwsgebruiker de selectie als deze niet door professionele journalisten, maar door algoritmes wordt gemaakt?

„Uit ons onderzoek blijkt dat Nederlanders redactionele selectie waarderen, maar óók dat ze algoritmische selectie waarderen. Velen denken: ‘Het algoritme houdt rekening met mij’. Algoritmen passen in onze individualistische samenleving waarin mensen hun behoeften vervuld willen zien.”

U noemde het idee van de filterbubbel eerder te simplistisch. Waarom?

„Over nieuwe technologie wordt aanvankelijk vaak ofwel utopisch, ofwel dystopisch gesproken. De filterbubbel was een doembeeld over het einde van het publieke debat. Dat is goed voor het verkopen van boeken. Maar als onderzoekers moeten we verder kijken.

„Personalisatie hoeft er niet toe te leiden dat mensen meer van hetzelfde krijgen. Het hangt er maar net vanaf hoe je het algoritme instelt. Je kunt ook instellen dat gebruikers diverser nieuws te zien krijgen. Als een algoritme tot een filterbubbel leidt, is het slecht ontworpen. Van steeds hetzelfde soort nieuws zullen mensen verveeld raken. Algoritmes vervangen het beoordelingsvermogen van journalisten niet. Zij kunnen de technologie juist gebruiken om beter te doen wat ze willen. Nieuwsredacties moeten zich daarom afvragen: wat is onze missie in dit digitale tijdperk, waar staan we voor, en hoe kunnen we algoritmes daarbinnen toepassen. Willen we alleen dat mensen langer op de site blijven, of ook dat ze meer divers nieuws lezen?”

Denkt u dat nieuwsmedia ooit hun hele aanbod gaan personaliseren?

„Het beste is een balans tussen dat wat iedereen moet weten en dat wat lezers helpt om zich meer te verdiepen in bepaalde onderwerpen. Er staat heel veel in een krant wat je niet per se hoeft te weten. Als een algoritme helpt vinden wat je interessant vindt, vermoed ik dat mensen bereid zijn daar extra voor te betalen.”

Botst personalisatie niet frontaal met het groeiend privacybewustzijn? Mensen willen niet zomaar hun data delen.

„Er zijn grote privacykwesties in het spel. Wat iemand leest, kan een heel intiem inzicht in diens politieke en religieuze overtuigingen geven. Als je die informatie als krant wilt gebruiken, moet je een morele standaard ontwikkelen in de verantwoordelijke omgang met data. Daarmee laat je als nieuwsorganisatie ook zien dat je je onderscheidt van bedrijven als Facebook, die je data delen met bedrijven of politieke partijen. Uit ons onderzoek blijkt dat mensen nu weinig verschil zien tussen personalisatie bij nieuwsmedia en bij Facebook. Media missen kansen om zichzelf te onderscheiden. Geef gebruikers controle over hun data, geef ze de mogelijkheid om personalisatie uit te schakelen en anoniem te blijven.”

Niet alle media zullen die mate van verantwoordelijkheid aan de dag leggen. Hoe groot is het gevaar dat personalisatietechnologie wordt misbruikt door staatsmedia in autoritaire landen?

„Potentieel enorm. Staatskanalen kunnen het misbruiken om agenda’s te pushen en mensen te beïnvloeden. En om op basis van data politieke tegenstanders te identificeren. Ik maak me geen zorgen over Nederland, maar ik weet niet wat er zou gebeuren als dit in Rusland of Turkije zou worden toegepast.”