Dit is een artikel uit het NRC-archief De artikelen in het archief zijn met behulp van geautomatiseerde technieken voorzien van metadata die de inhoud beschrijven. De resultaten van deze technieken zijn niet altijd correct, we werken aan verbetering. Meer informatie.

Wees niet bang voor big data

Om onze privacy te beschermen, zijn we geneigd het verzamelen van gegevens te beperken. Sander Klous en Nart Wielaard vinden dat je beter af kunt spreken wat je met grote verzamelingen persoonlijke gegevens mag doen.

Illustratie Anne van Wieren
Illustratie Anne van Wieren Illustratie Anne van Wieren

In 2011 liet Anders Breivik een bom ontploffen in Oslo en schoot enkele uren later tientallen mensen dood op een eiland voor de kust. Achteraf bleek dat de bom was vervaardigd met kunstmest. Maar wat kun je met die wetenschap achteraf? Moeten we kunstmest verbieden? Een controlesysteem opzetten om de verkoop van kunstmest te monitoren? Een verbod instellen op het publiceren van handleidingen over hoe je met kunstmest een bom kunt maken?

Deze vragen zijn niet of nauwelijks aan de orde gekomen. We willen normaal gebruik van kunstmest niet onmogelijk maken uit angst voor een gek die er iets anders mee gaat doen.

Maar als het gaat over privacy en big data (grote verzamelingen informatie op internet) is het precies dat wat er gebeurt. Dit is een van de weinige maatschappelijke domeinen waar het normale gebruik (wettelijk) aan banden wordt gelegd, uit angst voor misbruik. Wetgeving richt zich op het beperken van het verzamelen van gegevens in plaats van het voorkomen van onjuist gebruik.

Het gaat in deze discussie nauwelijks over privacy, maar vooral over informatiebeveiliging. Er is niets mis met informatiebeveiliging, maar daarmee raken we niet de kern. Waar we het over moeten hebben is hoe we de basiswaarden van het individu beschermen in een wereld waarin steeds meer over ons bekend is.

Als we alleen over beveiliging van persoonlijke data praten, zien we andere aspecten over het hoofd. Vaak zijn er namelijk helemaal geen persoonlijke data nodig om inbreuk te maken op iemands privacy.

Een analogie: als Piet drie keer per week aanschuift bij de buurtsnackbar, weet de uitbater waarschijnlijk precies dat Piet zijn joppiesaus graag apart wil. Zonder dat hij weet hoe Piet heet of waar hij woont. So far so good. Geen privacyproblemen. Als Piet met zijn kinderen de snackbar binnenkomt, wil hij misschien liever niet dat zijn kinderen merken dat de uitbater Piet best goed kent. Als hij vraagt: „Joppiesaus weer apart?” voelt dat al snel als een inbreuk op zijn privacy.

Big data zijn vaak pas waardevol als door combinaties van verschillende bronnen een nieuw inzicht ontstaat. Een meubelketen kan wifi- en bluetoothsignalen oppikken van smartphones en vaststellen dat een klant deze week al drie keer bij een bank heeft gekeken. Zo kan de winkel korting aanbieden zonder dat de naam of andere persoonlijke gegevens van de telefooneigenaar bekend zijn. Vergelijkbaar met hoe de snackbareigenaar Piet een keer een gratis blikje cola geeft, al heeft hij daar geen geavanceerde technologie voor nodig. Het verschil is: de snackbareigenaar heeft normen en waarden voor zijn omgang met klanten. Informatieverwerkende systemen hebben dat niet vanzelf. Het gaat dus om de ontwerpers van de systemen en de analisten die met de data werken: zij moeten ethische normen hanteren bij het gebruik van data en daar toezicht op houden.

Wat zijn persoonsgegevens eigenlijk?

De discussie gaat bij deze zogeheten impliciete identifiers – denk bijvoorbeeld ook aan cookies die je surfgedrag bijhouden – echter niet of nauwelijks over het gebruik ervan, maar vooral over de mogelijkheid om deze informatie te herleiden naar persoonsgegevens: re-identificatie . De vraag is dan: wat zijn persoonsgegevens? Wanneer is een gegeven herleidbaar tot een persoon? Welke combinaties zijn er te maken met andere gegevens? Kan de snackbareigenaar de naam en het adres van Piet herleiden uit wat hij al weet?

Privacyvoorvechters richten zich vaak op het zo veel mogelijk beperken van het vastleggen van alles wat riekt naar een persoonsgegeven. Hoewel de intenties goed zijn is deze denkwijze niet houdbaar in een wereld die meer en meer gedreven wordt door data. En het kan zelfs bijzonder schadelijk zijn, bijvoorbeeld voor grootschalig onderzoek naar allerlei ziektebeelden. Die onderzoeken worden waardevoller naarmate meer data gebruikt kunnen worden.

De werkelijkheid is dat organisaties vaak helemaal niet geïnteresseerd zijn in persoonsgegevens en in veel gevallen zelfs alleen maar geaggregeerde (verzamelde) en statistische gegevens willen, zoals het gemiddelde aantal bezoekers per dag. De angst voor het onbekende blijkt ook uit een pamflet van honderd Europese wetenschappers, die onder meer zeggen: „Economisch gezien kan het zo zijn dat de identificatie van individuen nu niet een prioriteit van het bedrijfsleven is. Echter, potentieel is re-identificatie aantrekkelijk, en dus kan niet worden uitgesloten dat dit in de toekomst alsnog gebeurt.”

We moeten een ethische discussie voeren

Dat is een gekke redenering, zeker als we nog een keer de vergelijking met kunstmest maken. Het beperken van het verzamelen van gegevens uit vrees voor re-identificatie, is zoiets als de aanschaf van kunstmest verbieden omdat er mensen als Breivik bestaan. We kunnen toch niet alle vormen van misbruik uitbannen door op voorhand normaal gebruik te verbieden? Beter zouden we een ethische discussie kunnen voeren om onwenselijk gebruik te definiëren en op basis daarvan toezicht organiseren, niet alleen op de opslag, maar vooral op datagebruik en -analyse. We kunnen dan bijvoorbeeld enkele principes definiëren die gerespecteerd moeten worden voor het gebruik van data.

Nieuwe technologie biedt oplossingen, maar creëert tegelijkertijd bijna altijd ook problemen. Toen de mens voor het eerst een hamer van steen wist te maken, bracht dat geweldige mogelijkheden met zich mee om bijvoorbeeld hout te bewerken – maar ook om elkaar nog beter de hersens in te slaan. Technologie kan dus altijd zowel het goede als het kwade in de mens dienen. De uitdaging is om de negatieve aspecten te kanaliseren zonder het fundament aan te tasten dat nodig is voor maatschappelijke vooruitgang. Dat is waar het privacydebat over zou moeten gaan.