Wetenschappers tegen robotwapens - Hawking antwoordt op Reddit

Het gebruik van automatische wapens moet verboden worden. Dat stellen honderden wetenschappers op het gebied van kunstmatige intelligentie in een open brief, waaronder Stephen Hawking, Tesla-topman Elon Musk en Apple-medeoprichter Steve Wozniak. Hawking beantwoordt ondertussen vragen op website Reddit.

Een Jemenitische man kijkt naar een graffititekening van een Amerikaanse drone. Onbemande vliegtuigjes worden al ruim ingezet bij luchtaanvallen. Foto EPA / Yahya Arhab

Het gebruik van volledig automatische wapens moet voorkomen en zelfs verboden worden. Dat stellen honderden wetenschappers op het gebied van robotica en kunstmatige intelligentie (KI) in een open brief tijdens een belangrijk internationaal wetenschappelijk congres. Ze pleiten voor een verbod op autonome wapens die buiten menselijke controle staan, bijvoorbeeld militaire drones die zonder menselijke aansturing een doelwit kunnen selecteren en uitschakelen.

Onder de ondertekenaars zitten grote namen als de gerenommeerde wetenschapper Stephan Hawking, Tesla-topman Elon Musk en Apple-medeoprichter Steve Wozniak. Ook de CEO van Google DeepMind, de KI-afdeling van Google, Demis Hassabis ondertekende de brief.

Derde revolutie in oorlogsvoering

In de brief stellen de wetenschappers dat de ontwikkeling van automatische wapens al vergevorderd is:

Kunstmatige intelligentie heeft een punt bereikt waar het mogelijk is om dit soort systemen binnen enkele jaren, zo niet decennia, mogelijk te maken, en de inzet is hoog: automatische wapens worden beschouwd als de derde revolutie in oorlogvoering, na buskruit en kernwapens.

Als één wereldmacht begint met de ontwikkeling van autonome wapens zal de rest volgen, inclusief terroristen en dictators, aldus de wetenschappers. Automatische wapens zullen dan namelijk goedkoop te produceren zijn, schrijven ze. Anders dan bij kernwapens, zijn geen dure of schaarse materialen nodig.

De experts zien ook zeker het nut van kunstmatige intelligentie, maar:

er zijn meerdere manieren waarop kunstmatige intelligentie het slagveld veiliger kan maken voor mensen, vooral burgers, zonder nieuwe wapens te ontwikkelen die mensen kunnen doden.

Conferentie

De open brief werd gisteravond gepubliceerd door het Future of Life-instituut. De experts waarschuwen voor de gevaren van een wapenwedloop met kunstmatige intelligentie. De metafoor in de brief:

Automatische wapens zullen de kalasjnikovs van morgen worden.

Op dit moment vindt de belangrijkste internationale wetenschappelijke conferentie over kunstmatige intelligentie plaats, de International Joint Conference on Artificial Intelligence, IJCAI 2015, in Buenos Aires, die elke twee jaar wordt gehouden. Op dit evenement komen meer dan duizend experts op het gebied van KI bijeen om de laatste ontwikkelingen in hun vakgebied te bespreken.

Technisch zijn volledig automatische wapens al bijna mogelijk, volgens de wetenschappers. Hoogleraar Informatica Arnold Smeulders van de Universiteit van Amsterdam beaamde dat vandaag in het NOS Radio 1 Journaal [vanaf 15:00]. Films gebruiken al decennia lang voorbeelden van artificial intelligence gone wrong, zoals de onheilspellende scène uit 2001: A Space Odyssey uit het jaar 1968:

Eerdere waarschuwingen

De waarschuwing van de wetenschappelijke gemeenschap staat niet op zichzelf. Tesla-oprichter Elon Musk waarschuwt al langer voor de gevaren van kunstmatige intelligentie en noemde ze gevaarlijker dan kernwapens. Ook Steve Wozniak spreekt regelmatig over de gevaren, net als Stephen Hawking.

De Verenigde Naties hebben al enkele keren vergaderd over de gevaren van kunstmatige intelligentie en autonome wapens. In 2014 bespraken zij al een mogelijk verbod op ‘killerrobots’.

Stephen Hawking op Reddit

Stephen Hawking beantwoordt momenteel vragen op Reddit, in zijn eerste ‘Ask Me Anything’ (AMA). De internetgemeenschap kan op communitysite Reddit vragen stellen aan de bekende wetenschapper, die hij de komende weken zal selecteren en beantwoorden. Dat kan een tijdje duren, aangezien de professor lijdt aan een zeldzame vorm van de zenuwziekte ALS, waardoor hij over grote delen van het lichaam is verlamd.

De vragen zijn zeer divers:

If we aim to create an artificially intelligent machine, should we filter the behavioral inputs to what we believe to be ideal, or should we give the machines the opportunity to learn unfiltered human behavior?

Also, what are two books you think every person should read?

How much of your fear of the potential dangers of A.I. is based around the writing of noted futurist and inventor Ray Kurzweil?

Hawking maakte onlangs een omvangrijk ruimteproject bekend, waarin voor de komende tien jaar een miljoen sterren gescand worden op signalen die kunnen duiden op intelligent leven. De Russische miljardair Joeri Milner stelde 100 miljoen dollar (92 miljoen euro) ter beschikking voor het onderzoek naar buitenaards leven.

De trailer van I, Robot (2004):