Opinie

Autonome wapens moeten sciencefiction blijven

Kunstmatige intelligentie

Commentaar

Automatische gezichts- en objectherkenning voor wapensystemen. Augmented reality-brillen waarmee militairen informatie over de omgeving en de vijand te zien krijgen. Drones en andere schietmachines die deels autonoom doelwitten uitzoeken. Het rapport Don’t be evil?, over het gevaar van kunstmatige intelligentie (AI) als militaire technologie, dat vredesorganisatie PAX (voorheen Pax Christi) deze dinsdag aan de Verenigde Naties presenteert, leest bij vlagen als sciencefiction.

Alleen is er steeds minder fictie aan de genoemde technieken. Ze worden bovendien snel verfijnder, mede dankzij de betrokkenheid van technologiereuzen Microsoft en Amazon, blijkt uit het rapport. Techonderzoeker Liz O’Sullivan sprak maandag in NRC terecht haar zorg uit dat „autonome besturing van wapens een software-update van ons verwijderd is”.

Het rapport toont weer eens het urgente gevaar van de technologiewedloop tussen grootmachten als China en de Verenigde Staten. Daarbij zijn de private sector en de staat in allebei deze landen ondoorzichtig met elkaar vervlochten. In de VS gaan bovendien al jaren stemmen op voor een ‘Manhattan Project’ voor AI, vergelijkbaar met het geheime project waarmee de atoombom werd ontwikkeld. Het zou niet verbazen als dergelijke projecten met AI in diverse landen allang lopen.

De vergelijking met nucleaire wapens is vooralsnog overdreven, maar de retoriek wijst op het strategische belang van kunstmatige intelligentie voor grootmachten – en op de veiligheidsrisico’s van een wedloop.

Beslissingen over leven en dood van mensen mogen nooit aan machines overgelaten worden

De geschiedenis van biologische en chemische wapens laat zien dat internationale afspraken verdere escalatie van de wedloop kunnen voorkomen. De oproep van PAX aan de VN om snel wapenbeheersingsafspraken over AI te maken, is daarom zinnig. Voor een totaalverbod op autonome wapens, zoals PAX en inmiddels dertig landen willen, is ook veel te zeggen. Beslissingen over leven en dood van mensen mogen nooit aan machines overgelaten worden. Maar de haalbaarheid is sterk afhankelijk van de handhavingsmechanismen. Naïviteit is ook gevaarlijk.

De betrokkenheid van private ondernemingen aan zowel Chinese als Amerikaanse zijde vraagt bovendien dringend om een groter ethisch besef van deze bedrijven. Zij zullen zich meer moeten verantwoorden voor het feit dat zij de (mede dankzij hun monopoliepositie verkregen) datavoorsprong nu benutten om militaire wapens te ontwikkelen. Google laat hierin sinds kort het goede voorbeeld zien. Nadat het bedrijf eerst te maken kreeg met grote kritiek vanwege samenwerking met het Amerikaanse leger, besloot het tot nieuwe interne richtlijnen die zulke samenwerkingen in de toekomst moeten uitsluiten. Maar aan de welwillendheid van techbedrijven kan de beheersing van militaire technologie niet worden overgelaten.

De Nederlandse regering heeft eerder het standpunt ingenomen dat alle nieuwe wapens, en hun inzet, moeten voldoen aan internationaal recht. Dat standpunt verdient nadere uitwerking en opvolging. Europa kan een bijzondere rol vervullen. De EU heeft grote achterstand opgelopen in de ontwikkeling van kunstmatige intelligentie. Maar wat betreft regels en ethische standaarden loopt Europa voorop.

De aanstaande voorzitter van de Europese Commissie, Ursula von der Leyen, heeft AI benoemd als een van de speerpunten voor haar eerste jaar. Zij wil snel regels aankondigen over de „menselijke en ethische implicaties van kunstmatige intelligentie”. Daarbij hoort zeker een Europese strategie over autonome wapens en het deëscaleren van deze riskante wedloop.