Opinie

Een nieuwe algoritmewet is overbodig

Kunstmatige intelligentie Tegen misbruik van AI biedt de huidige wet voldoende bescherming, mits die maar goed wordt gehandhaafd, betogen Elisabeth Thole en Özer Zivali.

Als het aan de VVD ligt, moeten er nieuwe regels komen om mensen te beschermen tegen oneerlijke algoritmes. Hoewel de intenties van het voorstel goed zijn, is een algoritmewet overbodig. De Algemene verordening gegevensbescherming (AVG) biedt voldoende mogelijkheden om het toezicht op algoritmes effectief te regelen. Wel zal de Autoriteit Persoonsgegevens forse boetes moeten gaan opleggen om ervoor te zorgen dat de regels ook worden nageleefd.

De achterliggende intentie van het VVD-voorstel, en vergelijkbare initiatieven op EU-niveau, is om de samenleving te beschermen tegen misbruik van algoritmes en kunstmatige intelligentie (AI).

Ook wij onderkennen het maatschappelijk belang, maar we zien geen heil in de VVD-plannen, omdat zij onnodig zijn. De bestaande AVG biedt immers al een oplossing, mits de Autoriteit Persoonsgegevens stevig inzet op handhaving.

Steeds vaker leunen bedrijven en overheden op voorspellende algoritmes, bijvoorbeeld bij sollicitatieprocedures, voor het opsporen van fraude of het beoordelen van een kredietaanvraag. Algoritmes lijken daarbij een goede uitkomst te bieden, maar er schuilen grote risico’s in. Ineens komt iemand niet meer in aanmerking voor een verzekering of hypotheek, of kan hij een felbegeerde baan vergeten – „Computer says no”. Gebruikmaken van algoritmes kan leiden tot vooringenomenheid, discriminatie en oneerlijke benadeling. De veelal ondoorzichtige inzet van algoritmes versterkt dat schrikbeeld.

De drang naar nieuwe regelgeving om de negatieve effecten van algoritmes aan te pakken, is op zichzelf begrijpelijk, maar getuigt van onvoldoende kennis. De AVG, die technologie-neutraal is opgesteld, biedt voldoende handvatten om discriminerende algoritmes aan te pakken. Belangrijke kernverplichting van de AVG is dat organisaties controleerbaar moeten laten zien dat ze verantwoordelijk omgaan met algoritmes.Nog te vaak wordt deze verantwoordingsplicht onderschat.

Eisen omzeilen

Je hoort ook vaak als bezwaar dat organisaties de transparantie-eisen van de AVG makkelijk kunnen omzeilen. Bijvoorbeeld door het uiteindelijke besluit door een persoon of door een andere organisatie te laten nemen met behulp van een algoritme. Dit is onjuist. Maar al zou het je lukken die eis te omzeilen, dan nog moeten organisaties altijd op eenvoudige en duidelijke wijze alle informatie verschaffen die nodig is voor een eerlijke verwerking van de gegevens.

Dit betekent dat organisaties steeds ruime openheid moeten geven over het gebruik en de logica van algoritmes. De vraag is wel of transparantie alleen afdoende is. Vergelijken we dit met de discussie rond de zogeheten cookie pop-ups – met de vraag of en zo ja welke cookies je als webbezoeker wilt toestaan – dan zien we dat iedereen deze zonder te lezen wegklikt, laat staan dat een toelichting over ingewikkelde algoritmes effect zal sorteren. Wat in ieder geval geen zin heeft, is het vragen van toestemming van een betrokkene. Neem het voorbeeld van de sollicitant: die zal klakkeloos instemmen om kans te maken op de baan.

Lees ook: 85 procent van de mensen klikt toch op OK

Als het gaat over de controle van algoritmes legt de Autoriteit Persoonsgegevens alleen de nadruk op meer transparantie. Maar volgens de AVG komt er veel meer bij kijken om te komen tot „eerlijke algoritmes”, zelfs meer dan de eis dat algoritmes niet discrimineren. Eerlijkheid staat immers ook voor sociale rechtvaardigheid, zoals gelijke kansen voor iedereen en om niet eindeloos te worden achtervolgd door fouten uit je verleden. In individuele gevallen mag een algoritme evenmin tot onbillijke negatieve gevolgen leiden of misleidend zijn. ‘Eerlijkheid’ biedt daarmee een effectievere bescherming dan alleen transparantie.

Goede voorlichting

De Autoriteit Persoonsgegevens zou, samen met de andere Europese privacy toezichthouders, moeten zorgen voor goede voorlichting over wat de AVG beschouwt als eerlijke algoritmes. Daarnaast zal zij stevig moeten inzetten op de handhaving tegen oneerlijke algoritmes, zodat de AVG-regels beter worden nageleefd.

De aanpak moet daarbij niet zozeer gericht zijn op de transparantieregels, maar op de plaats waar de schadelijke effecten het meest worden gevoeld, de oneerlijke benadeling. Alleen zo kunnen de negatieve gevolgen van oneerlijke algoritmes in de ban worden gedaan. Op hun beurt doen organisaties er goed aan om hun algoritmes tegen de AVG-eisen aan te houden.

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.