Opinie

Wij zijn racisten, daarom Google ook

Klaag niet bij Google over bevooroordeelde treffers. Die zijn een reflectie van onszelf, aldus de informatici Maarten de Rijke en David Graus.

Een zoekopdracht naar ‘drie zwarte mannen’ levert relatief veel arrestatiefoto’s op. Wat zegt het algoritme daarachter over ons?
Een zoekopdracht naar ‘drie zwarte mannen’ levert relatief veel arrestatiefoto’s op. Wat zegt het algoritme daarachter over ons?

Een zoekopdracht naar ‘drie zwarte tieners’ levert arrestatiefoto’s op, terwijl een zoekopdracht naar ‘drie blanke tieners’ stockfoto’s met vrolijk lachende jongeren teruggeeft. Ophef alom, en dat is niet de eerste keer. Het vermeend gebrek aan neutraliteit van algoritmen is omstreden. Onze stelling, als informatici: dat gebrek aan neutraliteit is zowel noodzakelijk als wenselijk. Het is wat de zoek- en aanbevelingssystemen in staat stelt ons toegang te geven tot de bergen informatie, en ons nieuwe muziek of films te laten ontdekken. Met objectieve, neutrale algoritmen zouden we niets meer kunnen vinden.

Dit heeft twee redenen. Allereerst is het nut van informatie persoonlijk en contextgebonden. Hoe goed een filmaanbeveling van Netflix is, of hoe interessant een Facebookbericht is, zelfs hoe nuttig een zoekresultaat van Google is, verschilt per persoon en context. Zonder contextuele informatie, zoals de locatie van de gebruiker, het tijdstip, of de taak die de gebruiker uitvoert, lukt het zelfs experts niet om het eens te worden over het nut van een zoekresultaat.

Een tweede reden is de enorme hoeveelheid informatie waartoe zoek- en aanbevelingssystemen ons toegang geven. Beslissen wat (niet) te tonen, het filteren van informatie, is daarmee een noodzaak. Het alternatief is ‘een facebook’ dat iedere dag duizenden nieuwe berichten toont, waardoor elk bezoek aan de site een nieuwe stortvloed aan berichten toont. Of ‘een netflix’ dat alleen willekeurige films aanbeveelt, waardoor je de films die je werkelijk interesseren niet kunt vinden. Kortom, zoek- en aanbevelingssystemen moeten subjectief, contextafhankelijk, en aangepast aan onszelf zijn. Die subjectiviteit, dat gebrek aan neutraliteit, leren ze van ons, hun gebruikers. De uitkomsten van deze systemen zijn een reflectie van onszelf, onze voorkeuren, opvattingen, meningen, en gedrag. Nooit een ‘absolute waarheid’.

Het idee van een algoritme als een statische verzameling instructies die door een machine wordt uitgevoerd is misleidend. In de context van, bijvoorbeeld, Facebooks nieuwsfeed, Googles zoekresultaten, of aanbevelingen van Netflix wordt een machine niet verteld wat te doen, maar verteld om te leren wat te doen. De systemen leren van subjectieve bronnen: onszelf, onze voorkeuren, ons interactiegedrag. Het leren van subjectieve bronnen zorgt vanzelfsprekend voor subjectieve uitkomsten. Om te kiezen welke resultaten te tonen, leert een zoek- of aanbevelingssysteem de voorkeuren of smaak van een gebruiker in te schatten. Hiervoor doet het wat computers het best doen: dingen tellen. Door bij te houden welke berichten likes ontvangen, of hoeveel tijd men besteedt aan het lezen, meet het systeem verschillende kenmerken van berichten. Likes of leesduur zijn slechts twee voorbeelden: in werkelijkheid worden honderden kenmerken meegenomen.

Om vervolgens te leren wat nuttig is voor een individuele gebruiker, moet zo’n systeem bepalen welke kenmerken van berichten de gebruiker belangrijk vindt. Essentieel hierbij is het bepalen van de effectiviteit van de getoonde informatie. Hiervoor krijgt het systeem een doel, zoals, zorg ervoor dat de gebruiker meer tijd doorbrengt op de site. Door berichten met verschillende kenmerken te tonen (meer of minder likes, langere of kortere leestijd), en bij te houden hoe lang of vaak de gebruiker de site bezoekt, kan het systeem leren wat voor kenmerken van berichten ervoor zorgen dat mensen meer tijd doorbrengen op de site. Simpel meetbare dingen (clicks, likes, of leesduur) worden zo gebruikt om diepere gedragsveranderingen tot stand te brengen (long term engagement). Onderzoek laat zien dat het opvolgen van gepersonaliseerde aanbevelingen tot een breder keuzeaanbod leidt en een hogere waardering oplevert.

Het succes van moderne zoek- en aanbevelingssystemen is dus voor een belangrijk deel te danken aan hun gebrek aan neutraliteit. Zie het daarom als een gepersonaliseerde informatietussenpersoon. Net als traditionele informatietussenpersonen (journalisten, artsen, opiniemakers) geeft het een standpunt weer door informatie te filteren en te rangschikken. En net als bij traditionele tussenpersonen doet men er verstandig aan om een tweede of derde mening te vragen als het er werkelijk toe doet.