‘Stop de killerrobot, nu het nog kan’

Wetenschappers roepen op tot een internationaal verbod op het ontwikkelen van robots die zelfstandig kunnen doden.

Een machine die op het slagveld beslist over leven en dood, zonder menselijke interventie. Dat is het schrikbeeld van ten minste duizend wetenschappers en ondernemers op het gebied van kunstmatige intelligentie (AI): robots die, eenmaal geactiveerd, zelfstandig de vijand zoeken, identificeren en zo nodig aanvallen.

Ze vrezen dat deze ‘offensieve en dodelijke autonome wapens’ (lethal autonomous robotics, afgekort LARs) al over enkele jaren in gebruik kunnen worden genomen. In een gisteren gepresenteerde open brief roepen ze op tot een internationaal verbod. De brief is ondertekend door onder meer kosmoloog Stephen Hawking, ondernemer Elon Musk (Tesla, SpaceX) en mede-oprichter van Apple Steve Wozniak.

Hoe snel de LAR onder ons zal zijn, is lastig te bepalen. „Want dit onderzoek is zelden openbaar”, laat Raja Chatila via e-mail weten. Hij is directeur van het Instituut voor intelligente systemen en robotica aan de Université Pierre et Marie Curie in Parijs en heeft de open brief ook ondertekend. Bekend is volgens Chatila dat in elk geval de Verenigde Staten, het Verenigd Koninkrijk, Frankrijk, Israël en Zuid-Korea gerobotiseerde wapens ontwikkelen. Ook de namen van China en Rusland duiken op. Maar bij veel van de bekende projecten gaat het om semi-autonome robots (zie inzet), waarbij de mens in the loop zit. De open brief richt zich juist op compleet autonome, offensieve robots.

De open brief stelt dat zodra één grote militaire mogendheid de ontwikkeling van dit soort wapens gaat pushen, een nieuwe wapenwedloop onvermijdelijk is. Op den duur zullen de wapens ook in handen komen van terroristen en dictators. Ze zullen gebruikt worden voor moordaanslagen, etnische zuivering, onderdrukking van het eigen volk.

Het is niet de eerste keer dat zulke zorgen worden geuit. In 2013 adviseerde Christof Heyns, de speciale rapporteur voor buitengerechtelijke executies, de Mensenrechtenraad van de VN al op te roepen tot een moratorium op het inzetten van LARs. Zijn voorganger Philip Alston waarschuwde twee jaar eerder voor „de wettelijke, ethische en morele implicaties” van de robottechnologie.

Een van de kernproblemen is die van de aansprakelijkheid. Wie is er aansprakelijk te stellen als een robot – en niet langer een mens – besluit de trekker over te halen. Volgens internationaal recht is een robot geen ‘natuurlijk persoon’.

Tegelijkertijd is de druk groot om wapensystemen autonomer te maken. Het wordt, bijvoorbeeld door het Amerikaanse ministerie van Defensie, gezien als dé manier om de stijgende kosten aan mankracht te drukken. Het kan de reactietijd bekorten op inkomende raketten. En de blootstelling aan levensbedreigende risico’s wordt beperkt. Maar dat laatste is ook weer een vrees. Omdat er minder gevaar is eigen levens te verliezen, zou de drempel worden verlaagd om een oorlog te starten.

Er zijn zeker voordelen aan robots, schreef VN-rapporteur Christof Heyns twee jaar geleden. Ze handelen niet uit wraak, paniek, angst, vooroordeel. Robots verkrachten niet. Maar aan de andere kant missen ze compassie en inlevingsvermogen. Hoewel sommigen van mening zijn dat je ook ‘een ethische gids’ in de software moet kunnen programmeren.

De VN hebben vorig jaar voor het eerst opgeroepen actie te ondernemen tegen volledig autonome wapens. De VS hebben in 2012 een tienjarig moratorium afgekondigd (richtlijn 3000.09) op dodelijke, volledig autonome wapens. Maar volgens Human Rights Watch kent die allerlei mazen.

Helemaal uitbannen van autonome wapens zal niet lukken, schrijft Chatila in zijn e-mail. Dat laten de conventies voor landmijnen en clusterbommen wel zien. „Maar via verdragen en conventies kun je de capaciteit beperken dat zulke wapens worden ontwikkeld, en de technologie zich verspreidt.”