Wie het verschil niet ziet tussen een schietpartij en een bezoekje aan een wasstraat is waarschijnlijk… een algoritme. Een mens kan zich ook wel eens vergissen, maar niet zo erg als de geautomatiseerde systemen waarmee Facebook bepaalt welke berichten van het platform verwijderd moeten worden en welke niet.
Een filmpje van een wasstraat kan op Facebook weinig kwaad. Als het sociale medium het tafereel aanziet voor een schietpartij, kunnen er hoogstens vervelende misverstanden ontstaan. Maar levensgevaarlijk wordt het als een terrorist het vuur opent, zijn actie tegelijkertijd filmt en streamt, maar de algoritmes van Facebook er niets dramatischers in zien dan de confrontatie van een vieze auto met een paar grote draaiende borstels en harde stralen overvloedig zeepsop. Lekker laten staan, zo’n filmpje.
Dit soort verwarring komt voor. Facebook zelf stelde vast dat zijn systemen niet alleen autowasserettes en actieve schutters door elkaar halen, maar ook bijvoorbeeld hanengevechten en auto-ongelukken, een spelletje paintball en, opnieuw, een schietpartij.
/s3/static.nrc.nl/bvhw/files/2021/10/data77203350-e3cf36.jpg)
En het zijn geen incidentele missers. Dat onthulde The Wall Street Journal, op basis van de grote hoeveelheid interne stukken die een voormalige medewerker de krant heeft toegespeeld, met een reeks primeurs tot gevolg.
De artificiële intelligentie waarmee Facebook zijn platform probeert vrij te houden van geweld, racisme en andere giftige uitingen blijkt over de hele linie gebrekkig te functioneren. Daardoor verwijdert het sociale medium slechts enkele procenten van de berichten, plaatjes en filmpjes die, bijvoorbeeld vanwege haatzaaierij, in strijd zijn met de huisregels.
Briljante pupil
Technologiebedrijven over de hele wereld beschouwen artificiële intelligentie als hun briljante pupil, waarvan we nog veel kunnen verwachten. Maar het jochie blijkt nog veel te moeten leren.
Toch heeft Facebook de controle van geplaatste berichten op zijn site de afgelopen jaren juist steeds meer toevertrouwd aan die geautomatiseerde systemen. In principe zouden die sneller kunnen werken dan menselijke controle, die ook nog steeds op grote schaal plaatsvindt. Bovendien besparen de algoritmes een hoop geld.
In 2019 spendeerde Facebook aan mensen die controleren op haatzaaierij meer dan 100 miljoen dollar (86 miljoen euro). Zou het niet mooi zijn als het bekijken en beoordelen van gruwelijke en gore foto’s en filmpjes, dreigende en racistische teksten, helemaal kan worden uitbesteed aan software-robots, die de mens dat vuile werk uit handen nemen?
Voor de profeten van de technologische vooruitgang in Silicon Valley is dat vast een heerlijk vooruitzicht. Maar het kan ook uitlopen op een nachtmerrie. Zal een robot die al moeite heeft met het verschil tussen een ongeluk en een hanengevecht, ooit kunnen inschatten wat racistisch is en wat juist kritiek op racisme is? Moeten we echt hopen op een robot die de grenzen bepaalt van wat we wel en niet kunnen zeggen op sociale media? Een robot die handelt op basis van opdrachten die hij gekregen heeft van de grote techbedrijven? Moet die inschatten wat ernstig gemeend is en wat humor of ironie?