Vier argumenten tegen killer robots

Juridische witte vlek

De beslissing over laten leven en doodschieten toevertrouwen aan robots is moreel verwerpelijk aangezien er – zoals met dronepiloten die vanuit de Verenigde Staten Talibaan in Afghanistan bestoken – een grote afstand bestaat tussen degene die de lethal autonomous robotics (LAR’s) ontketent en tegenstanders van vlees en bloed. Wie is verantwoordelijk als er wat misgaat, bijvoorbeeld door een programmeerfout? De producent, de softwareschrijver, de generaal die LAR’s inzet? Oorlogsrecht dekt de kwestie niet. Eigenlijk zijn alle implicaties van het inzetten van LAR een witte vlek op de juridische kaart.

Drempelverlagend

Robots, civiele en militaire, zijn ontwikkeld om taken uit te voeren die mensen dirty, dangerous or dull vinden. Je zet dus eerder LAR’s in, dan dat je je eigen mensen blootstelt aan ‘smerige, gevaarlijke of saaie’ opdrachten. De mogelijkheid om LAR’s hiervoor in te zetten kan de drempel verlagen om militair in te grijpen. Ze werken gewapende conflicten in de hand.

Geen inlevingsvermogen

Robots kunnen dan wel over betere cognitieve capaciteiten beschikken, dan mensen, maar ze missen ook typisch humane zaken zoals empathie, inlevingsvermogen. LAR’s zijn mogelijk superieure number crunchers, maar schatten of een gewapende strijder in een spannende situatie bluft en zich eigenlijk wil overgeven, is iets waartoe mensen uiteindelijk beter psychologisch zijn geoutilleerd dan een per definitie niet invoelende robot.

Verdragen helpen beetje

Het verschijnen van LAR’s is geen vaststaand feit als er nu een internationaal moratorium komt. Er valt te discussiëren over de effectiviteit, maar verdragen op het terrein van clustermunitie en biologische en chemische wapens zijn op zijn minst een gedeeltelijk succes.