Brieven

Brieven

Net als mensen kunnen algoritmes, patroonherkenning en kunstmatige intelligentie onbedoelde effecten hebben (Wat zullen we eens doen met het Facebookfeest, 21/1). Zo kunnen bepaalde groepen benadeeld worden, of er kan sprake zijn van ongelijke behandeling van sociale groepen. Dat is soms lastig achteraf vast te stellen. Maar dat moet ook niet achteraf. Dat moet vooraf. Algoritmes moeten vóór gebruik getoetst worden op ‘onbedoelde effecten’ waaronder discriminatie. De gebruiker zal dan vooraf moeten aantonen dat algoritmes op geen enkele wijze belangen schaden van groepen in de samenleving. Daarbij kan de vraag of een specifieke groep nadeel ondervindt een criterium zijn. Een criterium kan ook zijn dat slechts een te beperkte groep voordeel ondervindt van de toepassing, of als er sprake is van een moeilijk verdedigbare verdeling van lasten en lusten. Het is op de lange duur onverstandig dat de overheid het argument van bedrijven – dat de precieze werking van het algoritme bedrijfsgeheim is – geldig acht. Transparantie is de enige weg die zal leiden naar verantwoord gebruik van deze nieuwe technieken.


psycholoog
    • Godfried Westen