Brieven

Brieven

Peter de Kock volgt een vreemde redenatie in Algoritmes discrimineren niet (26/8). Hij suggereert dat er twee processen zijn: de regels die het algoritme volgt en de data waarop de regels losgelaten worden. De suggestie is dat regels neutraal zijn, maar de data niet. Hij verzuimt te benoemen dat de regels van veel algoritmes tegenwoordig voor 100 procent door data gedreven worden. Dit leidt wel degelijk tot discriminatie. Alleen al zijn eigen voorbeeld: een eenvoudig algoritme kan op basis van cv en brief voorspellen wie de meeste kans maakt op een baan. Maar we weten ook dat mensen met een buitenlandse achternaam minder vaak op gesprek worden uitgenodigd, ook bij gelijke geschiktheid. Als we dus brieven en cv’s aan het algoritme geven en daarbij aangeven welke mensen uiteindelijk aangenomen zijn en welke niet, zal het algoritme deze voorkeur overnemen, zonder dat we dat doorhebben. Het anonimiseren van cv’s en brieven biedt geen soelaas, omdat algoritmes beter dan mensen in staat zijn etniciteit te identificeren – door schrijfstijl of woordkeuze. Verder suggereert hij dat dergelijke problemen bij algoritmes „eenvoudig” te ontdekken en „makkelijker” te corrigeren zijn. Dit toont stuitend onbegrip van het onderliggende probleem. Mensen zijn zich vaak niet bewust van hun voorkeuren en gedrag. Zonder dat inzicht valt er niets te corrigeren. Klakkeloos zal het algoritme dezelfde discriminatie vertonen als mensen. Het gebruik van algoritmes leidt dan tot verdere institutionalisering van menselijke discriminatie. Dat zou niet gebagatelliseerd mogen worden door een dataspecialist.


cognitief neurowetenschapper op het gebied van bewuste en onbewuste hersenprocessen