Mag Google uw gezicht scannen, ook als u het wilt?

Gebruikers en makers willen niets weten over de effecten van gezichtsherkenning. Wie niet meedoet, heeft er ook last van, vindt Evgeny Morozov.

Is Google eindelijk volwassen geworden? De zorgvuldigheid waarmee het de techniek van de gezichtsherkenning heeft benaderd, lijkt deze stelling te staven. Vergelijk het eens met Facebook. Dat bedrijf kreeg in juni, na de presentatie van zijn eigen gezichtsherkenningstechniek, te maken met mondiale privacytegenwind.

Google had meer geluk. Een paar weken geleden onthulde het een techniek om automatisch je vrienden te herkennen op foto’s die op het sociale netwerk Google+ zijn gezet. Bijna niemand had hier erg in.

Het verschil in reacties is eenvoudig te verklaren. Facebook stelde deze functie aan alle gebruikers ter beschikking zonder hun toestemming te vragen. Google maakte zijn tool optioneel. Misschien zal Facebook nu ook meer voelen voor die beleefdere aanpak. Een schikking die het onlangs met de Amerikaanse Federal Trade Commission heeft getroffen, bepaalt dat alle toekomstige wijzigingen in de bestaande privacywaarborgen toestemming vereisen van de gebruiker.

Het internet lijkt af te stappen van de ‘opt-out-mentaliteit’ van de hooghartige bullebak (zoals ‘wij weten dat je deze functie prachtig zal vinden, dus stellen we die standaard voor je in!’) en over te gaan op de ‘opt-in-mentaliteit’ van de gladde diplomaat (‘hé, moet je deze nieuwe functie eens kijken, maar alleen als je wilt, hoor’).

Zoals de omarming door Facebook van het ‘delen zonder wrijving’ toont, is het één ding om ons gedwongen te laten delen welke muziek we luisteren door aan de privacyinstellingen te sleutelen, maar iets heel anders om ons ervan te overtuigen dat het goed – en cool! – is om dit te doen. Het eerste is een ergernis, het laatste reden voor een feestje.

Toch is deze overwinning van de opt-in niet helemaal wat ze lijkt. Hoewel beslist minder dwingend, doet elke opt-in de onderliggende techniek – in dit geval automatische gezichtsherkenning – nog altijd normaal en aanvaardbaar lijken, maar geen enkel technologiebedrijf zal dit toegeven. ‘De beslissing ligt geheel bij de gebruiker.’ ‘De essentie is dat de gebruikers meer zeggenschap krijgen.’ ‘Wij dwingen niemand – mensen hóéven niet mee te doen.’

Dit soort futloze retoriek over de ‘mondigheid van de gebruiker’ is al tientallen jaren het vaste evangelie van Silicon Valley. Het berust op het naïeve geloof dat technieken gewoon functies zijn en dat hun uitwerking instrumenteel is. Als gebruikers functie X voor de vervulling van taak Y willen gebruiken, is het enige dat ter discussie staat de wenselijkheid van taak Y. Dat de brede toepassing van functie X ook een onverwacht effect Z kan teweegbrengen, maakt de instrumentalisten nooit iets uit. Desnoods doen ze het af als iets wat niet te overzien is.

Helaas gaat een dergelijke redenering voorbij aan het gegeven dat technieken niet alleen hun onmiddellijke functie dienen, maar ook een ecologische voetafdruk hebben – in de zin dat ze omgevingen, ideologieën, gebruikers, machtsrelaties en zelfs andere technieken kunnen veranderen. Auto’s kunnen een volmaakt doeltreffend middel zijn om van A naar B te komen, maar we mogen niet voorbijgaan aan de effecten van auto’s op bijvoorbeeld het milieu. Een gerichtheid op het directe gebruik van een hulpmiddel – ongeacht of dit opt-in of opt-out is – lijkt een slechte manier om het ‘autovraagstuk’ te benaderen.

Het lijkt eveneens misplaatst om aan te nemen dat een bepaalde techniek niet problematisch is omdat de gebruikers deze kunnen uitschakelen. Als genoeg mensen voor de opt-in kiezen, zal de sociale omgeving zo ingrijpend veranderen dat er steeds meer zullen volgen. Ze willen niet buiten de collectieve toepassing van deze techniek vallen. Hiermee houden de makers geen rekening.

Neem de openbare ruimte in Californië. Toen genoeg Californiërs voor het gebruik van de auto kozen, veranderde er iets – in de openbare infrastructuur, maar ook in de normen – waardoor een groot deel van Californië volstrekt onherbergzaam werd voor een autoloos leven. De auto brengt ons nog steeds van A naar B, maar zou de kwaliteit van ons leven niet veel hoger zijn als we probeerden te anticiperen op de neveneffecten door een veelzijdiger visie te ontwikkelen op de autotechniek?

Om op het onderwerp van de techniek van de automatische gezichtsherkenning terug te komen – deze techniek is eenvoudig te misbruiken. Een zoekmachine die de naam van mensen uit hun gezicht afleidt, zou zeer geliefd zijn bij dictators die maar al te graag volksprotesten willen neerslaan. We weten ook dat de techniek van de gezichtsherkenning al is doorgedrongen in vele lagen van de maatschappij. Het is een geliefde manier om onze smartphones en laptops te beveiligen en ongeoorloofd gebruik te voorkomen. In spelcomputers wordt ze gebruikt om een persoonlijker game-ervaring te creëren. Ze wordt gebruikt om (ook realtime) het aantal bezoekers van een bepaald geslacht – man of vrouw – in cafés bij te houden. Dit is nog lang niet alles.

Zulk schijnbaar onschuldig gebruik creëert een nieuwe generatie ondernemers die nieuwe toepassingen voor deze techniek zoekt – niet altijd onschuldig, maar vaak wel voorzien door de critici. Voordat het grote publiek wakker wordt, is de techniek natuurlijk zo diep in onze cultuur verankerd dat het te laat is om nog iets te doen.

In zekere zin hebben we met een proces te maken dat kwaadaardiger is dan de gangbare opvatting over het ‘vlindereffect’ – het idee dat de vleugelslag van een vlinder in Brazilië het begin van een tornado in Texas kan zijn. Noem dit het ‘Palo Alto-effect’. Een zorgeloze gebruiker in Palo Alto die tot een opt-in besluit en Google’s techniek van de gezichtsherkenning gaat gebruiken, versterkt uiteindelijk de positie van een dictator in Damascus. Waarom ‘kwaadaardig’? Omdat de gebruiker in Palo Alto, anders dan de vlinder, wel twee stappen vooruit kan denken – maar dat liever niet doet.

Wat te doen? We kunnen de ethische verantwoordelijkheid gewoon bij de internetgebruikers leggen en hen doordringen van de uiteindelijke – ook indirecte – gevolgen van hun keuzen. Hiervan zijn talloze precedenten. Groeiende bezorgdheid over economische ongelijkheid, klimaatverandering en kinderarbeid heeft geleid tot de opkomst van de ‘ethische consumptie’-beweging. Deze beoogt de consument te laten stilstaan bij de ethische gevolgen van zijn gedrag op de markt.

In diezelfde geest zouden we kunnen nadenken over de toepassing van soortgelijke ideeën op onze omgang met het internet. Wat zou ‘ethisch browsen’ of ‘ethisch sociaal netwerken’ inhouden? Nooit sites gebruiken die zich bedienen van gezichtsherkenningstechniek? Weigeren zaken te doen met internetbedrijven die samenwerken met de geheime dienst? Dit zijn de keuzen die we zullen moeten maken als we niet willen dat het internet een ethiekloos gebied wordt. Een goede burger winkelt immers niet gedachteloos. Dit geldt ook voor gedachteloos gebruik van de techniek.

Laten we ook internetbedrijven niet vrijuit laten gaan. Natuurlijk verschillen Google en Facebook van de roofzuchtige bedrijven die arme boeren of minderjarige kinderen uitbuiten. Geen van beide bedrijven bouwt bewakingsapparatuur die bruikbaar is voor dictators, maar ze dragen wel bij aan de technische en ideologische infrastructuur waarbinnen dergelijke apparatuur zich kan ontwikkelen, langs schijnbaar natuurlijke weg. Dit biedt geen sterke grond voor regelgeving, maar het opent wel de deur voor burgeractivisme, boycots en – als verder alles faalt – burgerlijke ongehoorzaamheid.

Internetbedrijven weten heel goed dat ze verantwoordelijkheden hebben. Eerder dit jaar noemde bestuursvoorzitter Eric Schmidt van Google de techniek van de gezichtsherkenning „eng”. Hij sprak zijn zorgen erover uit. Toch heeft Google deze techniek onlangs onderschreven, zij het met het voorbehoud van een opt-in. Daarmee denkt Google te zijn beschermd tegen elke beschuldiging van onethisch gedrag. De keus is tenslotte geheel aan de gebruiker!

Zouden oliemaatschappijen ons overtuigen als ze beweerden dat niemand die zich bekommert om de klimaatverandering in een Humvee hoeft te rijden? Vermoedelijk niet. De voornaamste ethische blunder van de technologiebedrijven is dat ze net doen of ze niet weten hoe deze trieste film zal aflopen.

Evgeny Morozov is auteur van The Net Delusion: The Dark Side of Internet Freedom. Hij bekleedde de Yahoo!-leerstoel aan het Institute for the Freedom Study of Diplomacy aan Georgetown University en is nu gastdocent aan Stanford University. Ook schrijft hij een blog voor Foreign Policy.

    • Evgeny Morozov