Opinie

Nederland heeft een algoritmewaakhond nodig

Privacy Ondanks de toeslagenaffaire blijft de overheid dubieuze algoritmes gebruiken, ziet . Tijd voor een toezichthouder.
Auto’s schuiven aan richting het Designer Outlet Centre in Roermond.
Auto’s schuiven aan richting het Designer Outlet Centre in Roermond. Marcel van Hoorn / ANP

Volhardende journalisten en Kamerleden hebben ervoor gezorgd dat onschuldige burgers die slachtoffer waren van de toeslagenaffaire van de Belastingdienst eindelijk gehoord werden. Begin dit jaar dwong een groep burgerrechtenactivisten via de rechter af dat de overheid moet stoppen met het omstreden gebruik van algoritmes om uitkeringsfraude op de sporen. We kunnen er als samenleving echter niet op vertrouwen dat journalisten, Kamerleden en activisten ons beschermen tegen de risico’s van het gebruik van algoritmes door de overheid. Daarom is het hoog tijd voor een algoritmewaakhond die de overheid controleert.

Uit een nieuw onderzoek van Amnesty International blijkt dat de Nederlandse politie al meer dan anderhalf jaar Roermond onder massasurveillance heeft. Iedere autobeweging wordt minutieus vastgelegd, geanalyseerd en bewaard. Dat de meeste bestuurders van de auto’s niets met criminaliteit te maken hebben, lijkt de politie niet uit te maken. Door het verzamelen van al die gegevens worden op grote schaal de privacyrechten geschonden van inwoners van Roermond en bezoekers aan de stad.

Dit zogenaamde Sensing-project is onderdeel van een politieproject om zakkenrollers aan te pakken in een winkelcentrum in Roermond. Door massasurveillance worden veel gegevens verzameld die de politie gebruikt om voorspellingen te doen over deze vorm van criminaliteit. Op deze enorme hoeveelheid data, die de politie illegaal en zelfs met medeweten van het OM verzamelt, worden algoritmes losgelaten – sets van regels die conclusies trekken uit gegevens.

Deze leiden tot resultaten die bepalen of de politie wel of niet ingrijpt in een bepaalde situatie. Volgens de politie is deze vorm van optreden ‘objectief’ en ‘neutraal’, omdat het systeem is gebaseerd op ‘objectieve’ criminaliteitscijfers. Maar onder andere door de gekozen cijfers en het gebruik van algoritmes zijn de resultaten bij dit project discriminerend: vooral mensen uit Oost-Europa komen naar boven en hebben dus een grotere kans om door de politie te worden gecontroleerd.

Discriminerende uitkomsten

Algoritmes lijken objectief, maar software is door mensen gemaakt en de systemen zijn afhankelijk van de gegevens die mensen erin stoppen. Die gegevens kunnen berusten op vooroordelen en dus kunnen de conclusies tot discriminatie leiden.

Als er altijd al veel politieaandacht was voor criminaliteit begaan door een bepaalde bevolkingsgroep, zal het algoritme op basis van die gegevens voorspellen dat deze groep zich in de toekomst ook schuldig zal maken aan criminaliteit: dat blijkt immers uit de gebruikte en vertekenende data. En dit kan weer leiden tot discriminerende uitkomsten voor bepaalde groepen, bijvoorbeeld in het geval van Roermond Oost-Europeanen.

Lees ook dit interview met de Nationale Ombudsman: „De overheid moet zich van vooroordelen bewust zijn.”

Bij het project in Roermond speelt discriminatie ook een rol door het gebruik van nationaliteiten in risicoprofielen, net als bij de toeslagenaffaire van de Belastingdienst gebeurde. Dat is verboden. Maar niemand bij de politie, het Openbaar Ministerie of de gemeente Roermond greep in. Ook de toezichthouder (de Autoriteit Persoonsgegevens) deed niets want deze putte uit één informatiebron met betrekking tot dit experiment: de politie zelf – en die bleef stil.

Mensenrechtentoets

Het feit dat de politie onder het mom van ‘een experiment’ onze privacy op grote schaal heeft kunnen schenden, zegt veel over de politie en andere overheidsorganen die betrokken zijn bij het project, maar zegt nog meer over het gebrek aan heldere regels voor het gebruik van algoritmes. Dat overheden algoritmes kunnen misbruiken wanneer ze niet zijn gebonden aan heldere regels, weten we. Een goed voorbeeld hiervan is de toeslagenaffaire van de Belastingdienst.

Op dit moment weet niemand welke instanties algoritmes gebruiken en op welke manier, en of er sprake is van discriminatie of geautomatiseerd etnisch profileren. En dat is zorgwekkend. Daarom is het hoog tijd dat de Tweede Kamer in actie komt. Want iedereen is gebaat bij de bescherming van onze privacy.

Lees ook ons Commentaar: Schimmige algoritmes bij UWV en SyRI zijn topje van de ijsberg

Om massasurveillance en discriminatie met algoritmes te stoppen, moet het hele proces transparanter worden. Er moet een bindende mensenrechtentoets komen die instanties verplicht zijn uit te voeren voorafgaand en tijdens het gebruik van algoritmes. Voor geslaagd toezicht op het gebruik van algoritmes is het belangrijk dat een toezichthouder bij de data, de gebruikte risicoprofielen en algoritmes kan om er verder onderzoek naar te doen. Het Sensing-project in Roermond moet per direct worden gestaakt.

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.