Opinie

Algoritmes discrimineren niet

Algoritmes werken per definitie amoreel, maar de data waarop zij zich baseren, kunnen wel met vooroordelen geselecteerd zijn, schrijft .
Foto Stellan Stephenson

Voor sommigen was het verontrustend nieuws: de overheid gebruikt algoritmes om fraude en criminaliteit op te sporen.

Gefeliciteerd! zou ik zeggen, we hebben een overheid die efficiënter wordt en met haar tijd meegaat. Het bericht dat de overheid nog steeds geen gebruik maakt van voorspellende algoritmes, zou veel verontrustender zijn.

Maar in de media werd dit gegeven vanuit een heel ander perspectief belicht. Zo publiceerde de NOS het artikel ‘Overheid gebruikt op grote schaal algoritmes, risico op discriminatie’, waarin de stelling werd geponeerd dat het gebruik van voorspellende algoritmes een groot risico op discriminatie met zich meebrengt. Dit artikel leidde tot verontwaardigde reacties van lezers, en maakte duidelijk dat de discussie over het gebruik van algoritmes voor een belangrijk deel geleid wordt door emoties. Daarmee werd voorbij gegaan aan het feit dat de titel van het artikel op zijn zachtst gezegd tendentieus, en wat mij betreft ook onjuist is.

De letterlijke betekenis van het woord discriminatie is ‘het maken van onderscheid’. En dat is precies wat een algoritme doet. Het classificeert data op basis van verwantschap in kenmerken. En het doet dat beter en sneller dan mensen. Maar als je uitgaat van de letterlijke betekenis van het woord discriminatie, is de stelling dat het gebruik van voorspellende algoritmes een groot risico op discriminatie met zich meebrengt, onzinnig. Je zou dan moeten stellen „Algoritmes discrimineren, daar zijn ze voor gemaakt”.

Discriminatie heeft meerdere betekenissen

Maar in maatschappelijke context staat discriminatie voor iets heel anders. Daar gaat het over onrechtmatig onderscheid maken (op basis van zaken als geslacht, religie, overtuiging, geaardheid etcetera).

En dat is nou precies wat een algoritme níet doet. Een algoritme produceert bij dezelfde input steeds dezelfde output. Het is amoreel en kan dus per definitie geen onrechtmatig onderscheid maken. Populair gezegd; een algoritme heeft geen last van een nacht weinig slaap of een vervelende ervaring met de benedenbuurman. Mensen hebben dat wel. Toch is de verwarring begrijpelijk. Een algoritme wordt gemaakt – en leert – aan de hand van data. En daar ligt de moeilijkheid. Data zijn niet vrij van menselijke invloed en kunnen op veel manieren ‘biased’ zijn. Het kan dus wel degelijk voorkomen dat er aspecten in data verborgen liggen, die leiden tot discriminatie.

Lees ook: wie zijn de mensen achter de algoritmes

Het grote verschil is echter dat discriminatie in het menselijk proces erg moeilijk te ontdekken en te corrigeren is. Tv-programma Radar toonde bijvoorbeeld hoe hardnekkig het probleem van discriminatie door medewerkers van uitzendbureaus is. Discriminatie in data daarentegen blijkt eenvoudiger te ontdekken, en bovendien veel makkelijker te corrigeren. Het ministerie van Sociale Zaken en Werkgelegenheid wil met behulp van algoritmes discriminatie in vacatureteksten opsporen.

Vandaar dat ik, uitgaande van de maatschappelijke betekenis van het woord discriminatie, durf te stellen dat algoritmes niet discrimineren. Mits door mensen gecontroleerd, kunnen ze bijdragen aan een samenleving waarin iedereen in gelijke gevallen gelijk wordt behandeld.

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.