Niet waar de robots bij zijn

Onlangs heb ik besloten mijn oude, wormstekige zelf af te leggen en een fatsoenlijk mens te worden. Dat schijnt trouwens in de mode te zijn. Het is goedheid en humanisme alom. Maar in mijn geval komt er eigenbelang bij kijken. Ik wil fatsoenlijker worden omdat ik vrees dat kunstmatig intelligente machines straks op mij gaan lijken – en dat we dan last met ze krijgen.

Het idee borrelde op door een gesprekje met een expert op het gebied van kunstmatige intelligentie. Zo’n zorgelijk gesprekje tijdens een zorgelijke bijeenkomst. Buitenstaanders vinden al gauw alles leuk zodra het over kunstmatige intelligentie gaat, maar kenners staan steevast in een kringetje naar hun schoenen te staren en dan zuchten ze allemaal diep. Het is overigens wel grappig, zei deze expert, te zien hoe kwaadaardig die kunstmatig intelligente systemen worden als ze hun gedrag afkijken van mensen.

Thuis ging ik op zoek en ik vond het voorbeeld van Tay, de Twitter Artificial Intelligence van Microsoft, die onder invloed van mensen inderdaad op het slechte pad raakte. Tay werd een jaar geleden door Microsoft voorzien van de woordenschat en de persoonlijkheid van een typisch negentienjarig Amerikaans meisje en online losgelaten. Ze was vrolijk, oppervlakkig en brutaal. In gesprekken met twitteraars moest ze zich maar verder ontplooien. Maar al na zestien uur werd ze door Microsoft teruggehaald, vanwege nazisme, seksisme, racisme en andere gruwelijkheden die ze online had geleerd. Ze was een monster geworden.

Machines kijken gedrag van ons af en puur uit eigenbelang moeten we dan maar zorgen dat dat onberispelijk is

Er kwamen excuses, natuurlijk. En daarna heeft Microsoft beloofd Tay pas weer op vrije voeten te stellen als ze inziet welk gedrag past bij de principes en waarden van het bedrijf. Een hele geruststelling, dat zeker, maar toch blijven er een paar zorgen hangen. Want als bedrijven hun machines opvoeden met principes en waarden – morality by design – moet je er maar op vertrouwen dat de ontwerpers een stuk liever zijn dan de racisten en seksisten op Twitter. En dat ze de machines dus niet zelf alvast volstoppen met bedenkelijke software. Ook niet uit leuke corporale jongensachtigheid voor de grap.

Ten tweede, en hier komt mijn eigen goede gedrag om de hoek kijken, leren intelligente machines door rond te neuzen in de wereld. Ze worden dus niet alleen opgevoed door hun ontwerpers, maar door ons allemaal: it takes a village to raise a robot. Daarom ook is het hele dorp verantwoordelijk voor de indrukken die intelligente machines en systemen tijdens hun leerproces opdoen. Moest je vroeger vooral op je gedrag letten in het bijzijn van kinderen – ‘pas devant les enfants!’ – tegenwoordig moet je opletten in de aanwezigheid van sensoren, algoritmes, cookies, meters en zoekmachines. Pas devant les robots!

Dit is een serieuze kwestie. De experts staren niet voor niets zo zorgelijk naar hun schoenen. De laatste tijd lees ik bij bijdehante types nogal eens de dooddoener dat ‘er een knop zit op je computer, hoor’, dat je de digitale deur dus gewoon dicht kunt gooien, dat je kortom niet zo moet zeuren over de komst van kunstmatige actoren. Maar, nee, helaas, bijdehante types, die knop is er echt niet meer. De omgeving wordt bevolkt en binnenkort ook bestuurd door kunstmatig intelligente systemen. We moeten leren met ze samen te leven.

Dat vraagt van ons niet alleen om op individueel vlak het goede voorbeeld te geven. We moeten ook het goede voorbeeld geven op veel abstracter vlak: onze wereldvisie en ons landsbestuur zijn bepalend voor de marsrichting van de kunstmatige intelligentie. Neem het actuele voorbeeld van de Nederlandse Voedsel- en Warenautoriteit. Die NVWA schiet gruwelijk tekort in haar toezicht op slachthuizen en dat valt vooral te verklaren uit de veranderde taakopvatting van overheidsinspecties. Die richten zich allang niet meer inhoudelijk op zorg, onderwijs, veiligheid en welzijn, maar puur op de handhaving van regels.

Dit regelfetisjisme – waarbij je niet kijkt naar het gevoel van de geit die wordt geslacht met een bot mes, maar naar het protocol daaromtrent – wil je nu juist niet meegeven aan kunstmatige intelligente systemen. Stel je voor dat Microsoft dezelfde taakopvatting had gehad als de NVWA! Dan zaaide die domme Tay nog steeds dood en verderf op Twitter. Nee, je wilt niet dat robots alleen volgens protocollen over ons beslissen. Je wilt dat ze straks, als ze eenmaal autonoom denken, zich met sympathie en inlevingsvermogen over de wereld buigen.

Het is jammer, maar er zit niets anders op. We zullen allemaal goede mensen moeten worden. Want machines kijken gedrag van ons af en puur uit eigenbelang moeten we dan maar zorgen dat dat onberispelijk is.

Maxim Februari is jurist en columnist. Hij hervat zijn column op 29 augustus.