Opinie

Een mens is geen emoji

Marc Hijink

Je gezicht spreekt boekdelen, maar de computer heeft geen benul van wat er zich in je hoofd afspeelt. Toch proberen technologiebedrijven daar een vinger achter te krijgen, met onderzoek naar emotieherkenning. Microsoft en Amazon werken daaraan, net als een reeks marketingbedrijfjes.

Zulke software deugt niet, vindt het AI Now Institute uit New York, experts in kunstmatige intelligentie. Deze week deden ze een dringende oproep om geen algoritmes te gebruiken die pretenderen emoties te herkennen of uitspraken te doen over je persoonlijkheid en geestelijke gezondheid.

Als je snelle computers maar lang genoeg laat kauwen op miljoenen plaatjes, leert software konijnen en katten te onderscheiden en gezichten van mensen te herkennen.

Het ligt voor de hand te denken dat je op die manier ook patronen in bewegingen van gezichtsspieren kunt classificeren: mensen indelen als personen die woede, afkeer, angst, geluk, verdriet of verrassing ervaren. Net als emoji’s, opgedeeld in duidelijk afgebakende categorieën.

Alleen... het werkt niet. Een recente metastudie van experimenten naar emotieonderzoek maakt gehakt van alle pretenties op dat gebied. Er is geen objectieve, betrouwbare en repliceerbare manier om op basis van foto’s of korte video’s ‘echte’ gevoelens te herkennen.

Gezichten gebruiken we om te bepalen van wie houden, wie we vertrouwen, wie we helpen of wie we verdenken. Maar gezichten liegen, of ze overdrijven. Zelfs bij zuigelingen die beroofd worden van een koekje – in hun experimenten schuwen emotieonderzoekers geen enkel middel – kun je niet concluderen dat een gezicht een betrouwbare indicatie geeft van de achterliggende emotionele toestand.

Er wordt in emotieonderzoeken weinig rekening gehouden met culturele verschillen. De nadruk ligt op ‘WEIRD’ (westernized, educated, industrialized, rich, and democratic). Wat de op westerse data gebaseerde algoritmes als ‘angstig’ interpreteren (ogen wijd open) wordt door inwoners van Papoea-Nieuw-Guinea als ‘bedreigend’ ervaren. Soms geeft een glimlach geluk weer, soms is dat een signaal van onderdanigheid.

De context ontbreekt: gezichten die worden beoordeeld zijn onder perfecte omstandigheden gefotografeerd of gefilmd. Een ander zwak punt van emotieherkenning is dat de accuratesse van de software meestal getoetst wordt op basis van menselijke beoordelaars. Dat werkt culturele vooroordelen nog meer in de hand.

De metastudie is, kortom, snoeihard: het is misleidend om bewegingen of patronen van bewegingen in je gezicht een ‘emotionele expressie’ te noemen.

De huidige emotieonderzoeken verpakken een menselijke eigenschap – anderen beoordelen op hun buitenkant – in algoritmes. Daarom raakt die oproep van het AI Now Institute bij mij een snaar. Een gevoelige zelfs. We hoeven niet bang te zijn voor kunstmatige intelligentie omdat software menselijke vermogens kan overstijgen. Het wordt pas gevaarlijk als de computer menselijke tekortkomingen uitvergroot, automatiseert en als een platgeslagen waarheid presenteert.

Marc Hijink schrijft over technologie

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.