Perfectie is maar onbetrouwbaar

Voordat mensen en robots effectief kunnen samenleven, is moet er eerst vertrouwen zijn. Aan beide kanten. Maar kunnen we elkaar wel begrijpen?

illustratie emmelien stavast

HitchBOT is op zijn bestemming aangekomen, hoera. De Canadese robot op gele regenlaarsje moest van zijn makers helemaal van het oosten naar het westen van Canada liften. Om daar te komen, vroeg hij aan iedereen om ‘m mee te nemen en verderop weer af te zetten. Van zijn ontmoetingen deed hitchBOT, uitgerust met spraakherkenning en camera, verslag op Twitter en Instagram.

HitchBOT is gebouwd om te onderzoeken of robots mensen wel kunnen vertrouwen. Nemen ze hem mee? Laden ze hem op? Houden ze hem heel?

Het antwoord was een hartverwarmend ja. Je ziet foto’s van hitchBOT op de veranda, in een roeiboot, op de camping, op het podium van een festival. Niemand die hitchBOTs plastic beentjes afbrak, of obscene handelingen met ‘m uitvoerde – tenzij die foto’s er zorgvuldig uit zijn gefilterd.

Vertrouwen is niet een term die je tegenkomt in technische verhandelingen over robotica. En toch is dat wat we nodig hebben om met ze samen te leven. De robots moeten erop kunnen rekenen dat wij ze de juiste input geven en niet slopen. En wij, op onze beurt, moeten op het inzicht van de autonome machines leren vertrouwen. Want als we niet in zelfrijdende auto’s willen rijden, ook niet als ze bewezen minder verkeersslachtoffers maken dan mensen, dan wordt het nooit wat met die techniek. Zonder vertrouwen wordt het niks.

Hele vakgroepen zoeken nu uit hoe je het vertrouwen van mensen in robots kunt opkrikken. Moeten ze meer op mensen lijken, met een gezicht en een stem, of juist minder? Moeten ze een ‘lijf’ met armen en benen hebben, of is een beeldscherm genoeg? Moeten ze heel slim overkomen, of juist niet? Moeten ze soepel bewegen, of komt een schokkerige robot ook betrouwbaar over? We hebben geen idee, het is allemaal nog zo nieuw.

Wat vertrouwen in robots lastig maakt, is dat ze een black box zijn. We snappen niet hoe ze denken. En dat vinden we eng. Stel je een drone voor die op eigen houtje onbegrijpelijke doelen neerschiet. Voer voor een sf-thriller.

Hoe los je dat op?

In technologieblad Wired werd een interessant onderzoek aangehaald. De onderzoekers lieten een robot z’n weg door een doolhofje zoeken. Het ding was geprogrammeerd om een paar fouten te maken, maar dat wisten de proefpersonen niet. Zij konden de robot helemaal zelf laten rijden, of ingrijpen met een joystick. Heel wat proefpersonen kozen al snel voor de handmatige bediening, ook al ging dat supertraag. Het ding maakte toch fouten?

Maar toen haalden de onderzoekers een foefje uit. Als de robot geen fouten maakte, dan zag je een groen lampje branden op z’n rug. Nam hij de verkeerde afslag, dan zag je een rood lampje. De proefpersonen werd verteld dat dit ‘robottwijfel’ betekende, bijvoorbeeld dat hij zijn sensoren niet goed kon aflezen.

Wat bleek? Een robot die twijfel over zijn eigen beoordelingsvermogen kon uitdrukken, werd veel meer vertrouwd. Was hij groen, dan lieten de proefpersonen hem in autonome modus staan. Werd hij rood, dan namen zij het even over. Met als gevolg dat de robot met lampjes veel sneller door het doolhof navigeerde dan de robot zonder.

De les: mensen vinden perfectie niet betrouwbaar, ze geloven het – terecht – niet. Laat een robot vertellen wat hij allemaal niet kan, en we geloven ‘m wel. Net als bij mensen.