Opinie

Verbied preventief het gebruik van ‘killer robots’

Technologie Laat beslissingen over het doden van mensen niet over aan machines, schrijven op het gebied van kunstmatige intelligentie.
Foto Eyevine

Het onderzoek naar kunstmatige intelligentie (KI) en robotica heeft de afgelopen tien jaar spectaculaire vooruitgang geboekt. Deze technologieën kunnen een positieve en belangrijke bijdrage aan onze samenleving leveren. Maar, zoals dat geldt voor de meeste technologische ontwikkelingen, kunnen ze ook negatieve of zelfs zeer gevaarlijke toepassingen hebben.

De meeste zorgen gaan uit naar de ontwikkeling van dodelijke autonome wapens, ook wel ‘killer robots’ genoemd. Dat zijn wapens die, zonder dat er nog een mens aan te pas komt, doelen kunnen selecteren en aanvallen. Nu zijn het nog mensen die militaire robots van afstand bedienen, maar technisch gezien zijn deze robots wel degelijk al in staat zonder menselijke inmenging het besluit te nemen om te doden. Zo is het technisch al mogelijk dat grensbewakingsrobots een ‘illegale passant’ kunnen doden en dat drones op basis van bijvoorbeeld nummerbordherkenning automatisch voertuigen kunnen bombarderen. Bovendien gaan de ontwikkelingen snel: er is een heuse wedloop gaande op het gebied van autonome wapens. Deze wedloop zal niet tot meer veiligheid leiden, maar juist tot een toename van regionale en mondiale spanningen.

Onethisch

Een probleem met dodelijke autonome wapens is dat wanneer ze eenmaal ontwikkeld zijn, het zeer moeilijk zal zijn om er weer vanaf te komen. Ook zal het ontbreken van menselijke inzet ervoor zorgen dat de drempel om oorlog te voeren veel lager wordt. Zo ligt een snellere escalatie van conflicten op de loer.

De inzet van autonome wapens roept ook aansprakelijkheidsvragen op, omdat het vaak onduidelijk zal zijn wie verantwoordelijk is voor onbedoelde of onwettige schade of andere negatieve gevolgen. Deze wapens mogen nooit de mens ontheffen van zijn verantwoordelijkheid om ethische beslissingen te nemen in een tijd van oorlog. Daarbij is het ook in strijd met het internationale humanitaire oorlogsrecht, omdat het noodzakelijk is om een mens verantwoordelijk te kunnen houden voor eventuele ongewenste gevolgen. Het is onethisch als autonome wapens de mens als doelwit hebben, omdat hierdoor de beslissing om een mens te doden wordt gereduceerd tot slechts een algoritme.

Doos van Pandora

Binnenkort zal de Nederlandse regering haar positie rond autonome wapensystemen opnieuw bezien, op basis van een evaluatie die de Adviesraad Internationale Vraagstukken en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken momenteel uitvoeren.

Lees ook: Niet elke killer robot is een bedreiging

Het is van het grootste belang dat Nederland zich hard maakt voor internationale juridisch bindende afspraken. Hierin moet worden vastgelegd dat er altijd betekenisvolle menselijke controle moet zijn over het gebruik van geweld. Er is dringend actie nodig om een toekomst met dodelijke autonome wapens te voorkomen. Want zodra deze doos van Pandora is geopend, zal hij heel moeilijk weer te sluiten zijn. De Nederlandse regering moet zich aansluiten bij internationale inspanningen om dergelijke wapensystemen preventief te verbieden. Het is simpelweg onmenselijk om het doden van mensen aan machines over te laten.

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.