Niet elke killer robot is een bedreiging

Industrie

Wapens die zelf doelen selecteren en op eigen houtje de trekker overhalen worden gebruikt ter verdediging. Voor aanvallen is de killer robot nog te onberekenbaar.

Onbemande drone van de Amerikaanse wapenproducent Northrup Grumman. Foto John B. Carnett/Bonnier Corporation via Getty Images.

Afvuren en vergeten, dat is het motto van de Harpy. Deze 2,10 meter lange raket uit Israël draait rondjes in de lucht met 32 kilogram aan explosieven in zijn neus, wachtend tot zijn sensoren een verdacht radarsignaal detecteren. Dan stort deze kamikazedrone zich volautomatisch op het vijandelijke radarstation.

Zelfstandig handelende wapens als de Harpy zijn, na het buskruit en de kernbom, de derde revolutie van de oorlogsvoering. Als niet de mens maar de computer – in de vorm van geavanceerde software – zelf bepaalt wanneer de trekker wordt overgehaald wordt, is het met de mensheid snel gedaan.

Video over de Harpy:

Deze waarschuwing werd zondag rondgestuurd door een groep bedrijven en wetenschappers in de robotica en kunstmatige intelligentie. De brief, ondertekend door onder meer Elon Musk van Tesla en Googles DeepMind-tak, riep op tot een ban van killer robots in de Verenigde Naties. Musk waarschuwde al vaker voor de risico’s van al te slimme robots.

In de defensie-industrie zijn wapens die zelf over leven en dood beschikken al in gebruik: autonome verdedigingssystemen doen aan grensbewaking (de automatische mitrailleurs langs de Koreaanse grens) of beschermen tegen raketaanvallen, zoals de Patriot-luchtverdedigingssystemen van Raytheon. Dit Amerikaanse bedrijf staat op nummer 4 van de ranglijst van grootste wapenproducenten.

Raytheon produceert ook geautomatiseerde snelvuurkanonnen die volgens de schrijvers van de brandbrief eigenlijk op lijst van gevaarlijke killer robots zouden moeten staan.

Onvoorspelbaar in de aanval

Verdedigingssystemen die zelf een voorgeprogammeerd doelwit selecteren en uitschakelen worden al tientallen jaren gebruikt, zegt Merel Ekelhof. Zij is onderzoekster bij de Vrije Universiteit, gespecialiseerd in kunstmatige intelligentie en oorlogsvoering.

Raytheon Phalanx

Volgens Ekelhof zijn de stationaire verdedigingssystemen geprogrammeerd om alleen onder vaste omstandigheden te werken. Als niet aan de regels – de juiste parameters – wordt voldaan, werkt het apparaat domweg niet: het systeem kan niets buiten de vastgestelde kaders.

Anders is het als autonome wapens voor de aanval gebruikt worden, en in onbekend terrein op zoek gaan naar mogelijke vijanden. Volgeladen met sensoren en zelflerende software zouden zulke wapens in theorie een eind komen. Volgens Ekelhof is een offensief systeem dat zonder menselijke inmenging leert op het slagveld, in de praktijk echter onvoorspelbaar. „Het onderscheid tussen een strijder of een burger is niet eenvoudig te maken. De kans op burgerslachtoffers is te groot.”

Zodra zelflerende software fouten maakt als het gaat om leven en dood, is aansprakelijkheid onduidelijk. Was het de leverancier van de raket die verkeerd programmeerde of degene die de raket op pad stuurde? In de strenge militaire hiërarchie kunnen verantwoordelijkheden niet afhangen van ondoorgrondelijke software.

Ekelhof: „Het oorlogsrecht is ook niet in een paar regels computercode te verwerken in de algoritmes van autonome wapens. Er is te veel grijs gebied.”

Complexere technologie

Kunstmatige intelligentie mag dan schakers en go-spelers kunnen verslaan, in de hypercomplexe werkelijkheid tast de computer nog te vaak in het duister. Je zou het kunnen vergelijken met de huidige beperkingen van de zelfrijdende auto: je kunt op de snelweg (zonder tegenliggers of overstekend verkeer) prima het stuur overlaten aan een computer. In de stad is het verkeer echter te complex, de omstandigheden te onvoorspelbaar en de kans op een misser te groot.

De wapenindustrie is wel gebaat bij meer complexere technologie; het maakt de raketsystemen en onbemande minitankjes duurder en dwingt andere partijen te investeren in modernere verdedigingsmiddelen. Dat stuwt de omzet.

De Verenigde Staten domineren – als grootste afnemer van wapentuig – de internationale wapenindustrie, samen met het Verenigd Koninkrijk, Frankrijk en Israël. Boeing, Lockheed Martin en het Britse BAE Systems vormen de top 3 in de wapenindustrie, en ontwikkelen allemaal hun eigen autonome wapensystemen.

In 2016 werd volgens het Zweedse onderzoeksinstituut Sipri wereldwijd voor 1.700 miljard dollar aan militaire doeleinden uitgegeven, inclusief personeel.

De Amerikaanse defensie doet zelf onderzoek: het Defence Advanced Research Projects Agency (Darpa) stond aan de wieg van grote uitvindingen als het internet en gps. Darpa – met een jaarbudget van 3 miljard dollar – legde ook de basis voor autonoom rijdende auto’s en verrichte fundamenteel onderzoek naar kunstmatige intelligentie en robotica.

Als het gaat om de toepassingen lopen de militairen toch achter op de reguliere techsector, denkt Ekelhof. „Toen ik dit jaar bij het Pentagon op bezoek was, hoorde ik dat generaals inspiratie op gingen doen in Silicon Valley. Met kunstmatige intelligentie lopen militairen wel tien jaar achter op de commerciële techsector.”