Hoewel beweerd wordt dat in Libië het tijdperk van de ‘killer robot’ al is betreden, blijven we in Nederland doen alsof de geest nog altijd net niet uit de fles is. En of kunstmatige intelligentie (AI) hetzelfde als ‘autonoom’ is, wat geenszins het geval is. Bij ‘killer robots’ of autonome wapens moet u denken aan de drone die zonder menselijke bemoeienis zelf doelen in een oorlog uitkiest en vernietigt. Bij AI-wapens aan iets dat ooit door de mens bedacht is, maar vervolgens op grond van een algoritme op slachtoffers wordt losgelaten. Een menselijke noodrem is er dan niet meer, of het zou een voorzichtig algoritme zelf moeten zijn. Intussen hollen we achter de (technische) feiten aan en onderhandelen we over de gouden formule over de omgang met dit type wapens.
De Adviesraad Internationale Vraagstukken, en in zijn voetspoor onze regering, heeft meerdere keren geconcludeerd dat zolang deze wapens maar een ‘betekenisvolle menselijke controle’ kenden, er nog wel mee te leven viel. Afgezien van de goede definitie van het woord ‘betekenisvol’ was aldra duidelijk dat de technologie zich weinig aantrok van het geleerde debat: beheersing is een illusie.
De mij laatst bekende ‘betekenisvolle’ controle die een nucleaire catastrofe heeft voorkomen was die op 26 september 1983 van luitenant-kolonel Stanislav Petrov van de Sovjet-raketverdediging. Petrov besloot om tegen alle regels in een rood noodsein van Amerikaanse lancering van atoomraketten te negeren en calculeerde een vergissing in. De hoopvolle uitleg aan het woord ‘betekenisvol’, namelijk die van ‘verantwoord’ of ‘moreel goed’, kreeg met deze werkweigering van Petrov de lading die we nu aan killer robots en AI-gedreven wapens willen geven. Daarmee denken we van het probleem van onstuitbaar geweld af te zijn. Alsof menselijk oordeelsvermogen per definitie een ethische waarborg is. Met enig cynisme zou je het Russische gedreig met de inzet van nucleaire wapens ook ‘betekenisvol’ kunnen noemen, want het effect was schrik en controle aan westerse kant.
In de ontwikkeling van autonome wapens is de term ‘betekenisvol’ slechts een retorisch geitenpaadje geweest, het toverwoord dat de mogelijke inzet ervan eerder heeft gefaciliteerd dan tegengehouden.
Drie voorbeelden kunnen dit illustreren. Ten eerste is de laatste tijd in de Verenigde Staten gebleken dat de ontwikkeling van ‘zelfdenkende’ wapens daar blijft toegestaan, er wordt niet in termen van productieverboden gedacht. Een maand geleden publiceerde het Pentagon een update van een oud document uit 2012, waarin werd verduidelijkt hoe er in de VS met autonome wapens zou worden omgegaan. Wapenbeheersingsexperts zien in deze ‘verduidelijking’ een versoepeling. Wapens mogen volgens de nieuwe regeling vrij worden ontwikkeld, maar nog niet opgesteld; als zij uit zelfverdediging tegen dingen in plaats van tegen mensen opereren, mogen ze wél gebruikt worden. ‘Mensen’ hoeven daarbij niet lijfelijk aanwezig te zijn.
Men kan zich de verwarring, dan wel tolerantie, voorstellen bij het begrip zelfverdediging. Een tank die misschien onbemand is (of toch niet), en een beoordelaar die ergens ver weg op een beeldscherm mee tuurt naar de buitenkant van iets dat op een tank lijkt. Inzet van een antitankwapen tegen een bemand voertuig wordt dan een gok op afstand. Met die gebruiksaanwijzing verliest het inzetcriterium ‘betekenisvolle menselijke controle’ zijn bruikbaarheid. Op afstand groen licht voor een dodelijke drone: wel ‘betekenisvolle menselijke controle’, maar jammer voor de inzittenden. Of burgers.
Kijk ten tweede naar kernwapens. In het nucleaire domein zal de toepassing van AI in de sfeer van aanval en verdediging uitgesproken riskant worden. Ik doel vooral op systemen die een atoomaanval ‘signaleren’. Als bijvoorbeeld een algoritme een op handen zijnde atoomaanval van Noord-Korea ontwaart, zouden de VS atoomraketten preventief op Pyongyang kunnen afvuren. Uit de duim gezogen? De Amerikaanse commandant van het Noord-Amerikaans-Canadese waarschuwingssysteem Norad en NorthCom Glen VanHerck heeft eind maart gezegd dat de bescherming van zijn homeland deels autonoom zal zijn, ook omdat er plekken zijn die te gevaarlijk voor militairen zijn om in persoon te bemannen.
De modernisering van Amerikaanse atoomraketten, onlangs nog door onze minister Wopke Hoekstra (Buitenlandse Zaken, CDA) een uitstekend idee genoemd, is door deskundigen in de VS al afgeraden, omdat de nieuwe raketten wellicht gevoelig voor hacks door digitale inbrekers zullen zijn.
Tot slot is er ChatGPT. Met geavanceerde versies van AI-chatbots als ChatGPT kunnen beleidsnota’s gefingeerd worden en ook bijvoorbeeld de gefotoshopte arrestatie van Zelensky door Russische soldaten in omloop worden gebracht. De eventuele gevolgen laten zich raden. De rol van desinformatie in oorlog en vrede zal groeien, en de militaire misverstanden navenant.
AI-toepassingen brengen nog meer mondiale veiligheidsvraagstukken met zich mee, schreven de door mij hooggeachte WRR-experts Corien Prins en Haroon Sheikh onlangs in NRC (14/4). Ze spraken echter nog van „hype” en „waanbeelden”. Ik vrees dat dat onterecht is. De doos van Pandora is al open.