WSJ: ‘Facebook-top negeerde signalen over polarisatie’

„Onze algoritmen buiten uit hoe het menselijke brein wordt aangetrokken door verdeeldheid.” Facebook-onderzoekers trokken de voor het bedrijf pijnlijke conclusie in 2016 na een intern data-onderzoek. Maar de studie en andere interne onderzoeken met vergelijkbare resultaten werden grotendeels door de bedrijfstop genegeerd, blijkt uit een reconstructie van The Wall Street Journal (WSJ).

Onderzoekers buigen zich al langer over de vraag of platforms zoals Facebook door de manier waarop ze zijn ontworpen polariserend en ‘tribaal’ gedrag stimuleren. Een reeks interne onderzoeken, uitgevoerd tussen 2016 en 2018, bevestigden die hypothese.

Een studie liet zien dat meer dan eenderde van de Duitse politieke Facebookgroepen overspoeld raakten met extremistische berichten. Racisme, complottheorieën en pro-Russische inhoud werden door een klein groepje hyperactieve gebruikers rondgepompt. Bovendien bleek dat „64 procent van alle nieuwe deelnames aan extremistische groepen plaatsvinden door onze aanbevelingsmechanismen”, aldus de onderzoekers in een interne presentatie.

Ingrepen die polarisatie op het platform moesten verminderen werden uiteindelijk door de bedrijfstop tegengehouden. Deels, schrijft WSJ, omdat ze conservatieve gebruikers onevenredig hard zouden treffen. Facebook lag destijds onder vuur omdat het conservatieve stemmen zou censureren. Facebook zegt in een reactie niet meer het bedrijf te zijn „dat we in 2016 waren”. In februari doneerde het 2 miljoen dollar aan onafhankelijk onderzoek naar polarisatie. (NRC)