Het vijfde gevaar: de computer zegt ‘nee’

Het lijkt weggelopen uit een roman van Isaac Asimov, maar het Future of Humanity Institute bestaat echt. Ook de waarschuwing van directeur Nick Bostrom is geen fantasie van een science fiction-schrijver. Want als we maar doorbouwen aan kunstmatige intelligentie: wat gaan we doen als de computers ineens slimmer zijn dan wij? Rostroms belangrijkste argument voor voorzichtigheid is de onmenselijke logica die zo’n machtige computer zal tentoonspreiden. Zoiets kennen we nu echt niet.

Er zijn niet veel gevaren die een einde kunnen maken aan de mensheid. Oké, er is de kans op een totale atoomoorlog. Of een kilometers grote komeet slaat met 50 km/s in op onze mooie aarde. Of een gruwelijk biowapen loopt uit de hand (zie daarover de column van Piet Borst rechtsonder). En misschien moeten we bang zijn voor een volledige ineenstorting van plantenleven door klimaatchaos – zoals nu in de film Interstellar wordt verbeeld. Het kan gebeuren.

Maar er is dus een vijfde gevaar: de superintelligentie. Onze interesse in dit gevaar ontstond toen de natuurkundige Gerard ’t Hooft onlangs in een interview zei dat hij niet over 200 jaar wilde leven. Want dan zouden computers alle macht hebben. Hè? We kunnen dan toch de stekker eruit trekken!? Maar Margriet van der Heijden hoorde meer fysici erover somberen en inmiddels verscheen Bostroms boek Superintelligence.

Het lijkt dus wijsheid om van de huidige enorme investeringen in kunstmatige intelligentie tenminste een klein deel te besteden aan een paar zinnige toekomstscenario’s en misschien wat voorzorgsmaatregelen. Wat we nu bouwen kan straks misschien niet meer veranderd worden. De banken draaien nog altijd op kernsoftware uit de jaren zeventig. Geen mens durft dat te veranderen.

Bij het tweede stuk in deze ‘minispecial’ – door Bruno van Wayenburg – kan de lezer weer opgelucht ademhalen. Want wat kunnen de knapste robots van nu? Best veel, maar het moet echt niet te ingewikkeld worden.

Dus och, het zal onze tijd wel duren ...