Opinie

    • Marc Hijink

De zeven geloftes van Google

Google belooft geen technologie te ontwikkelingen die voor kwaadaardige doeleinden kan worden ingezet. Maar het is moeilijk te voorspellen hoe anderen je gereedschap gaan gebruiken, schrijft Marc Hijink.

Mozes hakte de tien geboden in steen, Maarten Luther spijkerde 95 stellingen aan de kerkdeur. Google-topman Sundar Pichai schreef ‘Googles zeven principes van kunstmatige intelligentie’ in een blogpost en drukte op publish.

Afgelopen week nam het grootste databedrijf ter wereld, toonaangevend in zelflerende software, zich voor om alleen technologie te ontwikkelen die nuttig is voor de maatschappij, niet bevooroordeeld is en ook goed te controleren door mensen. Zodat de algoritmes niet met ons op de loop gaan.

Prachtige plechtige beloften, zeven in totaal. Minder prachtig was de aanleiding: Googles betrokkenheid bij Project Maven, dat videobeelden onderzoekt voor het Amerikaanse leger. Google levert – publiek beschikbare – infrastructuur voor beeldanalyse en enkele experts om de software te finetunen.

Het leidde tot een kleine opstand onder het Google-personeel, waarbij mensen demonstratief hun baan opzegden. Project Maven brengt namelijk menselijke gedragspatronen in kaart om verdachte bewegingen op de grond te voorspellen. Het is de basis voor targeted killing, de dodelijke variant van targeted advertenties.

Weliswaar haalt Google niet zelf de trekker over, maar het werkt wel mee aan de technologie. Stop ermee, eisten 3.100 Google-medewerkers in een open brief aan hun leiders. Dat gaat gebeuren: in 2019 wil Google het contract beëindigen.

Volle parkeerplaatsen

Pichais goede voornemens borduren voort op Googles oude Don’t be Evil-motto, maar ze zijn ‘werk in uitvoering’ en grondig schoongewassen door advocaten. Google neemt zich voor geen technologie te ontwikkelingen die ‘primair’ voor kwaadaardige toepassingen gebruikt kan worden. Het is moeilijk te voorspellen hoe anderen je gereedschap gaan gebruiken. Bijvoorbeeld: Googles algoritmes tonen nu drukke winkels of volle parkeerplaatsen – heel handig als je haast hebt. Die expertise zou ook gebruikt kunnen worden om juist verdachte bewegingen er uit te lichten.

De verontruste Googlers en een groep sympathiserende wetenschappers waarschuwen in hun brief voor een ‘cambrige-analyticaatje’: Facebook dacht dat het de wereld beter maakte met zijn sociaal netwerk, maar zag de kwade bedoelingen van datamakelaars als Cambridge Analytica over het hoofd. Of wilde ze niet zien.

Pichai belooft dat Google geen wapens zal bouwen, toch blijft het bedrijf andere software leveren aan het leger. Een radicale keuze, zoals in 2010, blijft uit. Toen trok Google zich uit principe terug uit China, terwijl Microsoft en Apple zich schikten naar de Chinese censuur – handel is handel.

Googles eigen personeel is helder: techbedrijven die groot werden met consumentendata horen geen allianties met het militaire apparaat te sluiten. Daar is geen woord Frans bij.

Nog zo’n helder standpunt: algoritmes horen niet over leven en dood te beslissen. Zelfs al worden menselijke beoordelaars ingeschakeld als tussenstation, dan nog stuurt de automatisch gegenereerde voorselectie de menselijke keuze.
Gelukkig heeft Google mensen in dienst die hardop discussies aangaan met hun leiders. Dat is het beste principe.

Marc Hijink is techredacteur.

Update 11/6: link aangepast naar brief van ondersteunende wetenschappers.

    • Marc Hijink