Algoritmes, wiskundige formules, besturen ons dagelijks leven. Ze sturen ons mediagebruik, bepalen de prijzen, speuren fraudeurs op en beslissen wie er voorrang krijgt. NRC gaat op zoek naar de formules achter de schermen. Wie bedenkt die regels, en hoe werken ze?
Vanaf volgende maand, zodra de nieuwe Europese privacyregels gelden, hebben we het recht om niet maar zo meer beoordeeld of geprofileerd te worden door een computer. Want al sta je er misschien niet bij stil, je wordt de hele dag door gemeten en ingedeeld op basis van het dataspoor dat je achterlaat. Niet alleen online, bij Facebook, Google of Netflix. Ook in de echte wereld – de supermarkt, de auto, je bankrekening – stoppen algoritmes je in hokjes en proberen je gedrag te sturen. Bij drie Nederlandse gemeenten levert de computer inmiddels automatisch een top-10 van verdachten van uitkeringsfraude.
Wie bedenkt deze formules en hoe werken ze? In een eerste reeks van vijftien artikelen gaat NRC op zoek naar de regels achter de schermen. Het project is gebaseerd op gesprekken met zo’n zeventig experts van bedrijven, instellingen en hun leveranciers. Als bedrijven niet meewerkten, deden we zelf onderzoek om toch een blik onder de motorkap te kunnen werpen. Zo bleek een steekproef de enige manier om erachter te komen hoe Apple News de Nederlandse nieuwsdistributie in korte tijd naar zijn hand zette.
De verhalen richten zich op vier thema’s: vervoer, mediagebruik, shopping en fraudebestrijding. Het zijn geen scenario’s uit een verre toekomst – als een supermacht van intelligente robots de wereld verovert – maar voorbeelden uit de dagelijkse praktijk. Bijvoorbeeld, hoe booking.com je sneller een hotelkamer laat boeken. Hoe je in de Limburgse rimboe belandt als je braaf naar je Tomtom blijft luisteren. Hoe Google weet hoe lang je op een tafeltje moet wachten in een restaurant. Hoe Blendle je met algoritmes probeert uit je bubbel te halen. En waarom het ab-so-luut geen zin heeft om een tweede keer op het knopje van de lift te drukken als je haast hebt.
Wat is een algoritme eigenlijk? In deze animatie leggen we het uit.
De regels zijn verborgen
Bij zo’n liftknopje ontstond het idee voor De Formule. Wat nou als iemand anders op een andere verdieping precies tegelijk een knop indrukt? Wie krijgt er voorrang? Achter die ene knop schuilt een systeem: je vertrouwt erop dat de lift de slimste, meest efficiënte beslissing neemt. Controle is onmogelijk, tenzij je belt met een liftproducent en de Britse professor Richard Peters – zijn software legt de basis voor bijna alle liften ter wereld.
Niet elke bedrijfstak is zo transparant. Winkels en banken houden liever verborgen hoe hun algoritmes diefstal bestrijden. Ze willen criminelen niet wijzer maken, ook niet bij de zelfscankassa. Albert Heijn onthoudt of je ooit betrapt werd op diefstal en koppelt je betrouwbaarheid aan je bonuskaart. Andere supermarkten beloven een ‘willekeurige steekproef’ bij de zelfscankassa. Die steekproef wordt minder willekeurig als het systeem de tijd beoordeelt die je in de winkel doorbrengt of de artikelen in je mandje vergelijkt met die van betrapte winkeldieven. De controles zijn ook niet té talrijk, want in een winkel waar iedereen verdacht is wil niemand komen.
Sommige bedrijven promoten juist graag hun algoritmes. Zo raakt Netflix niet uitgepraat over zijn personalisatie-mechanismes die het aanbod ‘perfect’ op jouw smaak afstellen. Dat is begrijpelijk: hoe meer je vertrouwt op de keuze die Netflix voor je maakt, des te kleiner de kans dat je zelf op zoek gaat naar iets anders en erachter komt dat het Netflix-aanbod vrij beperkt is. Het is, zoals bij alle algoritmes, een formule met een bedoeling.
Al neemt een computer de beslissing, het zijn mensen die de regels bepalen
Al neemt een computer de beslissing, het zijn mensen die de regels bepalen. Dat blijkt bijvoorbeeld uit de drie autoverzekeringen die je rijgedrag controleren. Wie veilig rijdt, betaalt minder premie. De ene verzekeraar vindt te snel rijden een ernstige overtreding, de ander let juist op telefoongebruik of abrupt remmen. De signalen zijn identiek, de wegingen verschillen.
Ook algoritmes die ‘getraind’ worden op historische data, zijn gebaseerd op menselijke keuzes. Alles staat of valt met de selectie van de gegevens. De fraudeherkenningssoftware waarmee Nederlandse gemeenten experimenteren, analyseert data van de afgelopen 25 jaar en wordt gevoed met reeds bekende fraudegevallen. Het risico bestaat dat vooroordelen uit het verleden – sociaal rechercheurs die vaker controleren in één bepaalde wijk of bij mensen met een etnische achtergrond – weer opduiken in het wiskundig model. Aan de andere kant: een algoritme kan ook juist zulke vooroordelen blootleggen en ze corrigeren.
De macht van big data
Kunstmatige intelligentie of AI (artificiële intelligentie) is een verzamelbegrip voor de wetenschap die probeert apparaten slim te maken. De computer heeft geen bewustzijn als een mens, maar AI krijgt een menselijk tintje door toepassingen als chatbots (software doet zich voor als mens), robots en ‘begrip’ van spraak, taal en muzieksmaak.
Statistiek, rekenkracht of opslagruimte zijn allang geen schaarse goederen meer; iedereen kan machine learning toepassen om patronen uit data te destilleren. De kwaliteit van algoritmes hangt vooral af van de hoeveelheid data en de mogelijkheid om die goed te testen. Dat onderscheidt de kleintjes van de groten, de amateurs van de professionals. Je ziet het bij de financiële sector – een extreem datarijke branche – maar ook bij booking.com, een Nederlands bedrijf dat kan testen op miljoenen gebruikers. Zo leggen gedragswetenschappers en data-analisten de menselijke psyche bloot: als individu heb je misschien het gevoel dat je zelfstandig beslissingen neemt, als groep blijkt ons gedrag behoorlijk voorspelbaar en manipuleerbaar.
Een andere datakampioen, Google, gebruikt geanonimiseerde locatiegegevens van honderden miljoenen smartphones om drukte in winkels en restaurants te publiceren op Google Maps en in de zoekmachine. Het is een handige functie met één nadeel: ondernemers die huiverig zijn om bezoekdata of wachttijden met de buitenwereld te delen, kunnen niet onder publicatie uit. Ze maken opeens onderdeel uit van een systeem waarvoor ze zelf niet zouden kiezen.
Zolang bedrijven niet transparant zijn, kunnen we de verantwoordelijkheid niet volledig in handen van software leggen
Een grens aan datagebruik
Alle data zijn bruikbaar, maar niet alles is toegestaan. Zo zou het fraude-algoritme van gemeenten veel efficiënter zijn als het ook energie- of waterrekeningen mag doorspitten. Dat is een duidelijk signaal of mensen met elkaar samenwonen. De nieuwe Europese privacywet stellen echter dat computers je alleen mogen profileren met gegevens die daarvoor bestemd zijn, of waarvoor je expliciet toestemming hebt gegeven. Dat ene zinnetje voorkomt dat je data tegen je gebruikt kunnen worden, zonder dat je er erg in hebt.
Er moet volgens de nieuwe Europese privacywet altijd een menselijke beoordelaar zijn die je ter verantwoording kunt roepen als een beslissing ingrijpende (juridische) gevolgen voor je heeft. Die menselijke tussenstap is hard nodig. Want zolang bedrijven niet transparant zijn over de manier waarop ze ons behandelen, kunnen we de verantwoordelijkheid niet volledig in handen van software leggen.
De techniek maakt het mogelijk dat algoritmes zichzelf trainen, zonder enig menselijk toezicht. Het zal daarom niet de laatste keer zijn dat we hun werking zullen onderzoeken. In een wereld waarin elke handeling een dataspoor oplevert, worden je gegevens steeds vaker gebruikt voor automatische analyse. Voortdurend doet de computer een gok, een educated guess, over ons gedrag. Dat is geen absolute waarheid; algoritmes zijn rekbaar, hun formules vaag. Die geheimzinnigheid is onterecht – we moeten weten wat de regels van het spel zijn.
Hoe algoritmes ons dagelijks leven bepalen
Ons leven wordt bestuurd door algoritmes, regeltjes achter de schermen. Deze wiskundige formules, gevoed door grote hoeveelheden data, filteren verdachten uit de massa, bepalen wat we zien op het web en hoe we ons gedragen in winkels en in het verkeer.
Vervoer
Techbedrijven zijn dol op locatiedata en bewegingsgegevens, hoe gedetailleerder hoe beter. Zo ‘ziet’ Google hoelang mensen op zoek zijn naar een parkeerplaats en leert Apple van je iPhone waar je werkt. Je kunt bewijzen dat je veilig rijdt en erop vertrouwen dat je om de file geleid wordt, of de snelste liftcabine voorgeschoteld krijgt. Maar welke algoritmes bepalen wat veilig is of wie er voorrang krijgt in de de file of in lift?
Lees ook:
Media
Kun je smaak in statistiek vatten? De grote streaming-diensten doen niet anders. Ze proberen een breed publiek inhoud op maat aan te bieden met behulp van algoritmes. Spotify en Netflix doen het door mensen met dezelfde voorkeuren te clusteren. Nieuwsdienst Blendle probeert er juist voor te zorgen dat je andere dingen ziet dan je zou verwachten. Apple laat personificatie grotendeels achterwege: Apple News is gebaseerd op locatie, niet of nauwelijks op je klikgedrag.
Lees ook:
Shoppen
Amazon is de webwinkel die groot werd met het doen van aanbevelingen op basis van wat anderen kochten. Wat zijn de trucs waarmee online winkels en reisbureaus je tot een aankoop verlokken? Achter de schermen wordt consumentengedrag in datapatronen gegoten, om beter in te schatten wat je wilt of hoe je te beïnvloeden bent. Ieder mens is uniek, maar bij elkaar zijn we toch redelijk voorspelbaar.
Lees ook:
- Hoeveel kost het laden van een elektrische auto?
- Hoe verleidt Booking.com je snel een hotelkamer te boeken?
- Hoe weet Bol.com wat je wilt kopen?
- Retargeting: Hoelang blijven mijn schoenen me achtervolgen?
- Hoe Facebook advertenties héél precies op maat maakt
- Hoe wordt je kredietscore berekend?
- Hoe passen winkels automatisch hun prijzen aan?
- Hoe wordt de prijs van je vliegticket bepaald?
Fraude
Algoritmes zijn bij uitstek geschikt om conclusies te trekken uit grote hoeveelheden data. Daardoor kunnen ze sneller ‘verdachte’ elementen opsporen, of het nou gaat om betalingsverkeer, uitkeringsgerechtigden of winkeldiefstal. De regels voor wat nou eigenlijk verdacht gedrag is, worden echter wel door mensen bepaald.
Lees ook:
Redactie Marc Hijink en Eva de Valk, animatie Midas van Son, Harrison van der Vliet en Elze van Driel, illustraties Midas van Son, vorm Koen Smeets.
Naar aanleiding van deze productie organiseerde NRC op donderdag 12 april 2018 een avond in Pakhuis de Zwijger in Amsterdam. Terugkijken kan hier.