Alex Stamos: „De klachten over big tech gaan vaak over de problemen die veroorzaakt worden doordat miljarden mensen nu online met elkaar kunnen praten. Het maakt het slechtste in de mens los.”

Foto Rod Searcey

‘De meeste nepinformatie is helemaal niet nep’

Alex Stamos De Amerikaanse presidentsverkiezingen worden de wereldkampioenschappen hacken, waarschuwt Alex Stamos, tot vorig jaar de veiligheidsbaas van Facebook.

‘We kunnen de wereld dichter bij elkaar brengen.” Met die zin besloot Mark Zuckerberg afgelopen week een speech voor Georgetown University. De Facebook-oprichter positioneert zich graag als voorvechter van de democratie. Dat Russische hackers onder meer zijn netwerk misbruikten om Amerikaanse kiezers tegen elkaar op te hitsen, noemde hij een tijdelijk „stapje terug”.

Facebook hoort de vrijheid van meningsuiting niet te beknotten, vindt Zuckerberg. Daarom wil hij in de aanloop naar de Amerikaanse verkiezingen van 2020 politieke advertenties toestaan en niet controleren of hun inhoud wel klopt.

Facebook kan zijn borst nat maken, waarschuwt Alex Stamos, de voormalige veiligheidsbaas van het sociale netwerk. „De verkiezingen van 2020 worden de wereldkampioenschappen hacken. Nu de Russen bewezen hebben dat ze onze verkiezingen kunnen verpesten, zullen andere landen dat ook proberen. Noord-Korea, China, Iran: ze zijn allemaal afhankelijk van de Amerikaanse politiek.”

Tot vorig jaar was Alex Stamos verantwoordelijk voor de beveiliging van Facebook (2,4 miljard gebruikers). Hij werkte er toen een groep Russische trollen via Facebook opruiende berichten verspreidden. Hij zat middenin de publicitaire storm nadat in 2017 uitlekte dat het Britse bedrijf Cambridge Analytica data van 87 miljoen Facebookgebruikers had misbruikt voor politieke advertenties.

„Cambridge Analytica was geen veiligheidsprobleem, maar een app die zich niet aan Facebooks voorwaarden hield. Dat was niet mijn verantwoordelijkheid. De verspreiding van Russische politieke propaganda, in 2016, was wel een blinde vlek van ons. Noch Facebook, noch andere bedrijven in Silicon Valley hadden daar oog voor.”

Stamos stapte in de zomer van 2018 op bij Facebook toen zijn veiligheidsteam werd uitgedund. „Het lukte me niet langer om daadwerkelijk van binnenuit nog iets te veranderen.”

Hij werd directeur van het Internet Observatory van de Stanford Universiteit in Californië. Zijn instituut probeert online veiligheid en betrouwbaarheid van informatie te vergroten. Het lijkt onbegonnen werk in een wereld waarin media volop gemanipuleerd worden en ‘desinformatie’ zich razendsnel verspreidt.

NRC sprak de 40-jarige Stamos vorige maand op een conferentie van de MIT-universiteit in Cambridge, Massachussets. Al verruilde hij de techwereld voor de wetenschap, hij heeft nog het verbale spervuur van een Silicon Valley-manager. Met één verschil: „Ik werk niet meer voor een groot bedrijf, dus ik kan nu zeggen wat ik wil.”

U zei eerder dat Zuckerberg de dagelijkse leiding uit handen moest geven. Bent u weggegaan uit teleurstelling over zijn aanpak?

„Zo simpel was het niet, al had ik meningsverschillen over hoe Facebook sommige problemen aanpakte. Ik ging vooral weg om persoonlijke redenen. Silicon Valley heeft een ongezonde levensstijl. Je werkt non-stop en dat is loodzwaar. Ik wilde nog van mijn kinderen genieten voordat ze het huis uit waren. De cultuur in Silicon Valley is, net als op Wall Street, dat je leven volledig in het teken van je werk staat. Dat maakt je kortzichtig. Er is bijna geen tijd om afstand te nemen, naar het grotere plaatje te kijken.”

Is de universiteit wel de juiste plek om problemen bij sociale media op te lossen?

„Natuurlijk moeten er bij de techbedrijven mensen zijn die hieraan werken. Maar politiek en publiek snappen niet altijd wat het echte probleem is. Ik heb van dichtbij gezien wat er werkelijk speelt. Dat kan ik rechtzetten nu ik niet meer bij Facebook werk.

„De term ‘nepnieuws’, bijvoorbeeld, heeft de discussie over informatie-aanvallen verpest. De meeste nepinformatie is niet nep. De informatie die de Russen in de aanloop naar de verkiezingen van 2016 naar buiten brachten, waren meestal geen verzonnen feiten, maar niet te controleren uitspraken in politieke discussies. Ze werden verspreid om Democratische kiezers thuis te houden en de krantenkoppen te domineren. Zo werd Trump, die seksueel wangedrag toegaf in de media, even belangrijk als Clinton die mail verstuurde van een privé-account. De beste desinformatie is de waarheid.”

Vindt u het terecht dat ‘big tech’ nu als ‘bad tech’ wordt afgeschilderd?

„Voor elke tien artikelen waarin traditionele media Silicon Valley de schuld geven voor Trumps verkiezing, zouden ze er eentje aan hun eigen rol kunnen wijden. De Russen hadden niet als doel om Facebook en Twitter om de tuin te leiden, maar om de conversatie te beïnvloeden in de traditionele media zoals CNN, The New York Times en NBC. En dat lukte.

„Er zijn legitieme klachten over big tech, maar vaak gaat dat over de onvermijdelijke maatschappelijke problemen die veroorzaakt worden doordat miljarden mensen nu online met elkaar kunnen praten. Het maakt het slechtste in de mens los. Je moet techbedrijven niet beoordelen omdat ze dat maatschappelijk probleem gecreëerd zouden hebben, maar hoe ze ermee omgaan.”

Wat ging er mis met Cambridge Analytica?

„Rondom 2009 onderzocht Facebook manieren om geld te verdienen. Eén mogelijkheid was een plek te bouwen waar je spelletjes kon spelen en dingen kon kopen bij andere winkels. Facebook zou daarvan een percentage krijgen. Om zo’n platform te realiseren was het nodig om apps van derden veel data te geven.

„De andere optie was: advertenties verkopen. Dat bleek veel lucratiever. Want de manier waarop mensen Facebook gebruikten, veranderde. Ze stopten met gamen en gebruikten Facebook alleen voor het product zelf: om te communiceren en foto’s te delen.

„ Zodra Facebook een machtig communicatieplatform werd, was het risicovol om zoveel data met apps te blijven delen. Het duurde te lang, tot 2014, voordat Facebook zich dat realiseerde en maatregelen nam. Cambridge Analytica had al misbruik van de data gemaakt. In 2017 speelde dat opnieuw op, omdat verondersteld werd dat dit invloed had op de verkiezing van Trump en het Brexit-referendum.”

Sindsdien lijkt Facebook continu in crisismodus te staan en vooral zijn best te doen om de omvang van problemen te verbloemen.

„Dat klopt, er was nooit ‘geen crisis’. Altijd moest er snel ingegrepen worden. Je moet echter tijd hebben om de oorzaak te zoeken. Of over de maatschappelijke gevolgen na te denken. Dat gebeurde bijna nooit, omdat de volgende crisis zich dan alweer aandiende.”

Het gevaar van het chatnetwerk

Facebook nam meer mensen in dienst om de problemen op te lossen. Maar het aantal crises lijkt net zo snel toe te nemen als het personeelsbestand.”, zegt Stamos. Facebook worstelt bijvoorbeeld met de aanpak van deepfakes, filmpjes waarin de gezichten van bekende personen bewerkt worden. Zo veranderen acteurs in pornosterren en worden politici woorden in de mond gelegd. Stamos: „De hype rond zo’n sexy, nieuwe technologie als deepfakes leidt af van het werkelijke probleem. Een politicus die gedeepfaked wordt, krijgt hulp van technische experts of media die op zoek gaan naar bewijs. Maar dat geldt niet voor de 17-jarige scholiere van wie nep-naaktfoto’s rondgestuurd worden via een chatnetwerk. Terwijl in haar geval de menselijke impact veel groter is. Deepfakes zullen eerder individuen treffen dan politici.”

In India wordt WhatsApp – een dochter van Facebook – vaak misbruikt om opruiende video’s te verspreiden. Dat leidde al tot lynchpartijen. Het is lastig zulke berichten te stoppen in een compleet versleuteld netwerk als WhatsApp, waarbij de beheerder geen enkel inzicht heeft in de inhoud.

Facebook nam beperkende maatregelen, maar kan meer doen, stelt Stamos. „Je zou informatie aan gewelddadige video’s kunnen toevoegen, waardoor WhatsApp zegt: dit kun je niet nog eens doorsturen. Zo heb je nog altijd privacy binnen het netwerk, en wordt alleen de video geblokkeerd.”

De balans tussen privacy en veiligheid is niet goed, vindt Stamos. Hij waarschuwt voor Facebooks plan om Facebook Messenger, met WhatsApp en Instagram samen te voegen tot één groot versleuteld chatnetwerk. Deze ‘supermessenger’ levert volgens hem nieuwe problemen op.

„WhatsApp heeft nu geen telefoonboek of centraal register; niemand kan zoeken op je naam en je een bericht sturen. Daardoor blijft het misbruik beperkt. Maar bij Facebook en Instagram kun je wel mensen opzoeken. Combineer je deze netwerken, dan kun je een vreemde benaderen in een versleutelde omgeving. Dan maak je allerlei nieuwe vormen van misbruik mogelijk.”

Facebook heeft een systeem om kinderlokkers op te sporen: software waarschuwt als een volwassene probeert veel kinderen tegelijk te bereiken, vervolgens kan een menselijke beoordelaar dat controleren en eventueel ingrijpen. „Bij Whatsapp werkt het niet zo”, aldus Stamos.

Dus moet WhatsApp straks beperkt worden?

„Er zijn opties om een chat-app te beveiligen zonder meteen de versleuteling te verbreken. Neem de verspreiding van dick pics. Als je een nieuw bericht krijgt, kan software van tevoren automatisch controleren of het een foto is van mannelijke genitaliën. Je kunt dat rapporteren zonder dat je de foto hoeft te zien. Vervolgens kun je veilig verder met een versleuteld gesprek. Zulke technieken bestaan. Maar dan moet Facebook er wel snel aan gaan werken.”

Facebook meldt alleen dat de ‘ supermessenger’ volledig versleuteld wordt – met optimale privacy.

„Ja, zo reageren ze op de publieke druk. Er is veel meer aandacht voor privacyproblemen dan voor veiligheidsproblemen. Terwijl die laatste categorie meer leed berokkent. De schade die Cambridge Analytica veroorzaakte is uiterst vaag – het leed door sextortion is veel ernstiger.”

Kunnen Facebook, Youtube en Twitter zichzelf reguleren om de verspreiding van haat, terrorisme en desinformatie tegen te gaan?

„Als mensen Facebook willen reguleren, bedoelen ze meestal: ik wil reguleren wat mijn medeburgers op Facebook mogen zeggen. Maar bijna alles wat Amerikanen niet prettig vinden om te lezen op Facebook, wordt beschermd door het first amendment. Haatzaaien is beschermd. Misleidende video’s over politici zijn beschermd. Russische advertenties: wettelijk beschermd. Veel materiaal is legaal, toch willen we het liever niet zien.”

Facebook belooft naar een externe raad van toezicht te luisteren die bepaalt wat er gefilterd moet worden. Is dat een oplossing?

„Facebook loopt wat dat betreft voorop in vergelijking met andere sociale media. Maar ik denk dat de NetzDG-wet, de Duitse netwerkhandhavingswet, een grotere impact heeft. Sociale media zijn in Duitsland verplicht om binnen 24 uur haatzaaiende en opruiende berichten en video’s te verwijderen. Bedrijven moeten die beslissing zelf nemen en voorspellen wat een Duitse rechter zou doen. Dat is controversieel. Je legt de macht die bij een democratisch instituut ligt in handen van een bedrijf dat niet eens uit Duitsland afkomstig is.

„Ook Australië heeft na de aanslag in Christchurch [die live op Facebook te zien was, red.] snel een sociale mediawet ingesteld, zonder duidelijke standaarden. Dus niemand weet hoe je de wet moet toepassen. Dat was een overdreven reactie.”

Hoe moet je dan met haatzaaiers omgaan?

„Het meest doordachte plan komt volgens mij uit Frankrijk: daar werken ze een centrale toezichthouder voor sociale media. De opzet doet denken aan de waakhonden die de financiële markt in de gaten houden. Maar dan moeten techbedrijven wel inzage kunnen geven in hun data. De strenge Europese privacyregels verhinderen dat nu. Na Cambridge Analytica durft geen bedrijf data te delen, uit angst voor een miljardenboete van de EU.”

„Als ze willen meekijken over de schouders van de techbedrijven, moeten Europeanen een keuze maken: wil je koste-wat-kost volledige privacy of wil je wetenschappers, ook in Europa, toestaan het misbruik van Facebook te bestuderen?”

Wat zijn we opgeschoten sinds 2016?

„In 2016 stond politieke propaganda niet op de agenda. We dachten dat de bad guys mensen waren die ons probeerden te hacken. We letten niet op ranzige grappen die via nep-accounts de wereld in gestuurd werden.

Lees ook: ‘We stevenen af op een informatie-apocalyps’

„Dat is nu beter in beeld. Twitter, Google, Facebook, Reddit en Pinterest zitten er bovenop om de Amerikaanse verkiezingen te controleren. Maar er zijn wereldwijd tientallen verkiezingen. In Zuid-Oost Azië of in Afrika – Libië bijvoorbeeld – waar politieke propaganda verspreid wordt via sociale media. De methodes die Russische trollen gebruikten zijn nu te huur als een onlinedienst. Al zet je de techbedrijven zwaar onder druk, ze kunnen niet overal tegelijk hun netwerk controleren. Ze richten hun aandacht op de VS, ondertussen gaat het mis in andere landen.”

Kunnen we de techsector nog vertrouwen?

„Er werken veel goede mensen – nu nog een manier vinden om deze goede mensen aan de macht te helpen. Silicon Valley moet volwassen worden, ophouden elkaar verwijten te maken en dezelfde fouten telkens opnieuw te maken.”

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.