Opinie

Een Turingtest voor Trump

Marc Hijink

Nee, ik ben geen robot. Dit stuk is niet geschreven door een taalmodel gebaseerd op kunstmatige intelligentie. Ik zeg het er maar even bij, want er rouleren de laatste tijd nogal wat artikelen die bedacht zijn door GPT-3. Dat is software die menselijke taal genereert en schrijfstijl kan nabootsen. Getraind op 570 gigabyte aan boeken en online teksten en eng realistisch.

Je hoeft het algoritme maar een klein voorzetje te geven - het begin van een brief, de intro van een artikel, de omschrijving van een webpagina of app - en het algoritme komt zelf met een bruikbaar vervolg of code op de proppen.

Sinds GPT-3 deze zomer deels beschikbaar werd gesteld aan een select groepje wetenschappers, regent het verzinsels die door kunstmatige intelligentie zijn voortgebracht. The Guardian publiceerde een opinieartikel waarin GPT-3 de menselijke angst voor robots probeert weg te nemen.

Een op GPT-3 gebouwde chatbot kon honderden commentaren op sociaal netwerk Reddit plaatsen voordat ‘het’ ontmaskerd werd. Een blog op Hacker News, ook door GPT-3 gegenereerd, werd grif aangeklikt omdat het algoritme uitstekende clickbait kan schrijven.

De robotrage is ook in Nederland beland. In hun podcast ‘Een podcast over Media’ lazen presentatoren Ernst-Jan Pfauth en Alexander Klöpping deze week een script voor dat GPT-3 schreef. Het taalmodel was gevoed met een (menselijke) selectie van vertaalde fragmenten uit oude afleveringen.

Het resultaat was een bevreemdende dialoog met zinnen als „Weet je nog, toen ik je vertelde over mijn betovergrootvader die uit de lucht viel. Ja, hij was een astronaut.”

Lees ook: Nu ook in Nederland: de robotjournalist.

Je zou dat algemeen beschaafd koeterwaals kunnen noemen: realistische taal, zonder al te veel samenhang. En toch: „55 procent van onze luisteraars had pas op de helft van het gesprek of later door dat het geen echt gesprek was”, schrijft Alexander Klöpping achteraf.

In de klassieke Turingtest, genoemd naar de Britse computerpionier Alan Turing, moeten mensen beoordelen of ze converseren met een mens of met een machine. Deze test toont niet perse aan hoe krachtig kunstmatige intelligentie is – wel hoe makkelijk mensen te misleiden zijn.

De natuurlijke tongval van GPT-3 is een test voor Google, Facebook en Twitter. Die bedrijven hebben door corona en de Amerikaanse verkiezingen al hun handen vol aan het filteren van door mensen gegenereerde onzin. Als kunstmatige intelligentie ook op grote schaal desinformatie en alternatieve feiten genereert is er helemaal geen houden meer aan. Om misbruik te voorkomen geeft OpenAI, de ontwikkelaar van GPT-3, het model daarom niet beschikbaar voor algemeen gebruik.

Een Trump twitterbot, met voorganger GPT-2 getraind op tweets van de Amerikaanse president, was nog niet erg geloofwaardig en telt maar 62 volgers. GPT-3 zou ongetwijfeld een betere Trump kunnen nabouwen. Want zoals een echt algoritme betaamt, zit dit taalmodel vol vooroordelen, opgepikt van bestaande websites. GPT-3 genereert dan ook schaamteloos racistische en seksistische uitspraken.

Daar kan @realDonaldTrump nog een puntje aan zuigen.

Marc Hijink schrijft over technologie

Reageren

Reageren op dit artikel kan alleen met een abonnement. Heeft u al een abonnement, log dan hieronder in.