De risicovolle verleiding van nieuwe technologie

Shafi Goldwasser De EU staat in de digitale strategie stil bij de risico’s van AI. Informaticus Shafi Goldwasser over de gretigheid waarmee nieuwe technologie wordt omarmd.

Ursula von der Leyen tijdens de AI Xperience in Brussel.
Ursula von der Leyen tijdens de AI Xperience in Brussel. Foto Stephanie Lecocq / Reuters

Vorige maand werd onthuld dat de telefoon van Amazon-oprichter Jeff Bezos mogelijk gehackt is via de telefoon van de Saoedische kroonprins Mohammad bin Salman. Bezos zou via WhatsApp een filmpje van MbS hebben ontvangen waarin een schadelijk programma was verstopt. Een populaire app was mogelijk niet waterdicht.

Voor Shafi Goldwasser, wereldberoemd informaticus en gespecialiseerd in cryptologie, is het een sprekend voorbeeld van de naïeve omgang met nieuwe technologie. Nieuwe technologie is zó aantrekkelijk, „so cool”, dat we het eerst in gebruik nemen en dan pas nadenken over de risico’s, zegt ze. Dat geldt voor sociale platformen, voor lerende machines, voor artificiële intelligentie (AI).

„Technologie maakt zoveel mogelijk wat we tot voor kort niet konden: communiceren via apps, rekenwerk, informatie verzamelen. We zijn er daarom zó op gebrand de nieuwste vindingen in gebruik te nemen dat we helemaal niet stilstaan bij de risico’s. We gaan ermee aan de slag zonder na te denken. Pas als er iets mis gaat, realiseren we ons dat we aandacht hadden moeten besteden aan de risico’s.”

Dat klinkt niet slim…

„Ik snap niet dat mensen daar verbaasd over zijn. Zo is de wereld! Mensen ontdekken en gebruiken drugs en komen er dan pas achter dat het leidt tot hersenbeschadiging. Mensen rijden te snel en komen pas later op het idee dat veiligheidsgordels noodzakelijk zijn: o jee, er zijn wel heel veel auto’s die veel te hard kunnen rijden.”

Goldwasser sprak vorige maand op het World Economic Forum in Davos over dual use, over het feit dat je technologie goedaardig én kwaadaardig kunt gebruiken. Tijdens een interview daar vertelde ze dat ze zich steeds meer bezighoudt met de gevolgen van nieuwe vindingen, onder andere aangemoedigd door een zoon die zich op Harvard toelegt op de maatschappelijke kanten van technologie. „We moeten weten wat betrouwbaar is en wat niet. Wat waar is en wat niet.” Op Berkeley maakten medewerkers een Deep Fake van haar: op basis van tien minuten video-opnames van de echte Goldwasser ontstond een video van een levensechte Goldwasser als gracieuze ballerina. „Ik hou van ballet, maar geloof me, ik ben geen ballerina”, zegt ze schaterend. Dan, serieuzer: „We moeten kunnen vertrouwen op wat we geloven te zien”.

Hoe kun je voorkomen dat de vindingen misbruikt worden?

„Dat is niet altijd eenvoudig. De FBI wil producenten van kinderporno opsporen en daartoe de versleuteling van programma’s doorbreken. Maar wij willen onze communicatie afschermen. Ik begrijp het belang van opsporing, maar ik wil niet dat Facebook mijn sleutels aan de overheid geeft. Je kunt zeggen: dat is oplosbaar, je kunt ook technologische oplossingen zoeken.”

Er wordt op dit moment op veel plekken gewerkt aan slimme manieren om te voorkomen dat technologie schadelijk wordt ingezet. De eenvoudigste oplossing lijkt het beter beheren van belangrijke software zodat deze niet in verkeerde handen valt. Dat, zegt Goldwasser, is moeilijk te voorkomen.

Lees ook: Wat wil Europa met AI en gezichtsherkenning?

Wel is het mogelijk software en databestanden te beveiligen. Software die gebruikt wordt voor doeleinden waarvoor het niet bedoeld was, kan zichzelf dan blokkeren, bijvoorbeeld door zoveel computercapaciteit te gaan gebruiken „dat het programma zich opblaast”. Ook wordt geprobeerd algoritmes zo te schrijven dat je de exacte werking ervan niet kunt doorgronden, waardoor je het ook niet kunt manipuleren.

Inmiddels is het ook mogelijk om algoritmen een ‘watermerk’ mee te geven zodat je altijd kunt bewijzen wie de eigenaar is. Maar ook die techniek is nog volop in ontwikkeling. Volgens Goldwasser is nog niet bewezen dat je een watermerk ook zo kun installeren dat het niet weggehaald kan worden. „Ik ben een wiskundige. Ik kan niet zeggen dat het al werkt voordat bewezen is dat het werkt.”

Er is één theoretisch simpele oplossing voor het gevaar dat anderen het algoritme dat je ontwerpt misbruiken: niet publiceren. Maar daar is Goldwasser op tegen. „Het slechtste idee is het beknotten van academische vrijheid. Je moet geen deuren sluiten of ideeën beknotten. Maar je kunt wel je verantwoordelijkheid nemen door te proberen veilige code te schrijven.”

Nieuwe technologie zoals AI roept ook beangstigende toekomstvisioenen op. Volgens de historicus Yuval Harari is AI een van de grote bedreigingen voor de 21ste eeuw.

„Er kunnen altijd catastrofes gebeuren. Maar we moeten ook zien dat er tegenmaatregelen mogelijk zijn. We hebben allang nucleaire wapens, we hebben gevaarlijke virussen in laboratoria, maar we zijn er nog steeds.”