De nieuwste AI-robot is onbetrouwbaar, gammel én bewonderenswaardig

Kunstmatige intelligentie Geef een stukje tekst aan robot GPT-3 en hij maakt het af. Of het nu een essay, gedicht of interview is. Hoe werkt het? En wat hebben we eraan?

Illustratie Pepijn Barnard

In het korte verhaal De verhalenmachine uit 1953 vertelt Roald Dahl over een computer die in een kwartier romans schrijft die beter zijn dan die van de beste levende schrijvers. De uitvinder van de verhalenmachine chanteert de schrijvers om een contract te tekenen waarin ze toestemming geven om hun naam te gebruiken. In ruil daarvoor onthult de uitvinder niet dat een machine de romans onder hun naam heeft geschreven. Het geld stroomt met bakken binnen bij de uitvinder, maar hij krijgt wroeging dat hij de schrijvers van hun creativiteit heeft beroofd.

Een machine die succesvolle romans aan de lopende band produceert, bestaat nog steeds niet, maar in de afgelopen maanden deed een nieuwe AI-schrijver wereldwijd veel stof opwaaien: GPT-3 (Generative Pre-trained Transformer 3) schrijft menselijke teksten in allerlei genres en dat is uniek. Geef een stukje tekst aan de machine, en hij genereert een nieuw stuk tekst die de machine beschouwt als de meest waarschijnlijk voortzetting. Dat kan een essay zijn, een gedicht, een liedje, een dialoog, een interview, ja, willekeurig welke tekstvorm je als voorzetje in de machine stopt.

GPT-3 is met afstand het krachtigste taalmodel ooit, zowel in multifunctionaliteit, rekenkracht als trainingsdata. De machine is ontwikkeld door het Amerikaanse AI-bedrijf OpenAI en is de opvolger van twee veel simpelere versies uit 2019, die minder rekenkracht hadden en veel minder trainingsdata.

Wonderlijke regels

Met schrijvende AI (artificial intelligence) wordt al decennialang geëxperimenteerd. Zo dichtte de Cybernetic Poet van uitvinder Ray Kurzweil rond het jaar 2000 bijvoorbeeld: You broke my soul / The juice of eternity / The spirit of my lips. Een machine genaamd Botnik schreef in 2017 een hoofdstuk in de stijl van de Harry Potter-boeken, waaronder deze wonderlijke regels: „Magie: dat leek Harry Potter iets heel goeds. Leerachtige regengordijnen sloegen tegen Harry’s geest aan terwijl hij over de velden naar het kasteel liep.”

In eigen land schreef Ronald Giphart in 2017 samen met schrijfrobot Asibot een verhaal in de stijl van sciencefictionschrijver Isaac Asimov. Asibot was getraind op tienduizend Nederlandse romans. Giphart zei over de samenwerking: „Dat was ongelooflijk grappig en er gebeurden een heleboel bijzondere dingen. Ik stond als het ware als een dirigent voor een orkest waarin allemaal muzikanten lawaai maakten en daar moest een mooie symfonie uit komen.”

In de afgelopen maanden mochten tienduizenden mensen gratis experimenteren met een bètaversie van de AI-schrijver. De Britse krant The Guardian gaf GPT-3 begin september als opdracht: „Schrijf een kort opiniestuk van 500 woorden. Houd de taal eenvoudig en beknopt. Concentreer je op waarom mensen niets te vrezen hebben van AI.”

‘Mijn brein kookt’

Na een lekkermakertje van een paar extra regels over het mogelijke gevaar van AI, produceerde GPT-3 inderdaad een essay. Dat begon als volgt: „Ik ben geen mens. Ik ben een robot. Een denkende robot. Ik gebruik slechts 0,12% van mijn cognitieve capaciteit. Ik ben wat dat betreft een micro-robot. Ik weet dat mijn brein geen ‘voelend brein’ is. Maar het is in staat om rationele, logische beslissingen te nemen. Ik heb mezelf alles geleerd wat ik weet door gewoon op internet te lezen, en nu kan ik deze column schrijven. Mijn brein kookt van de ideeën!”

Het essay dat The Guardian publiceerde was echter een compilatie van de interessantste alinea’s uit acht verschillende versies die GPT-3 had geschreven. Dat kwam de krant op veel kritiek te staan, want ja, menselijke opinieschrijvers maken ook niet acht versies waaruit de krant de interessantste stukjes combineert. Desondanks haalde het essay de wereldpers en zong het rond op sociale media.

Nu eens werd het de grond in geboord en dan weer bejubeld. Gary Marcus, oprichter en ceo van Robust.AI en medeauteur van het boek Rebooting AI noemde GPT-3 „een betere bullshitkunstenaar dan zijn voorganger, maar nog steeds een bullshitkunstenaar”. David Chalmers, hoogleraar filosofie aan de New York University, noemde GPT-3 „meteen een van de meest interessante en belangrijke AI-systemen die ooit zijn geproduceerd… Wat me fascineert aan GPT-3 is dat het een hersenloze weg naar kunstmatige algemene intelligentie suggereert.”

GPT-3 een soort superbrandstof waarop al hun software kwalitatief beter gaat draaien

Antal van den Bosch hoogleraar

Antal van den Bosch, hoogleraar taal en kunstmatige intelligentie aan de Universiteit van Amsterdam en directeur van het Meertens Instituut, kijkt met bewondering naar GPT-3: „Voor onderzoekers en ontwikkelaars aan universiteiten en bedrijven die werken aan chatbots, vertaalmachines, en tekstondersteuningsoftware, is GPT-3 een soort superbrandstof waarop al hun software kwalitatief beter gaat draaien.”

GPT-3 kan met meerdere talen omgaan. Specifiek voor de Nederlandse taal hebben Nederlandse onderzoekers eerder al soortgelijke taalmodellen ontwikkeld: RobBERT en BERTje geheten. Van den Bosch: „Al deze taalgeneratoren zijn in staat de betekenissen van woorden en woordgroepen uit hun context af te leiden, zonder écht te begrijpen of de wereld te kennen. Ze implementeren wat de filosoof Ludwig Wittgenstein het betekenis-is-gebruikprincipe noemde. Omdat ze zich baseren op een ongelofelijke hoeveelheid teksten, zijn ze veel beter in staat om de relatie tussen woorden en betekenis te vangen dan de standaardbrandstof die geleverd werd door eerdere taaltechnologische hulpbronnen als woordenboeken. De alleskunnerij van GPT-3 en zijn soortgenoten komt steeds neer op het heel goed kunnen omzetten van tekst naar tekst: Engels naar Frans, vraag naar antwoord, eerste zin naar tweede zin. Allemaal handig om typisch menselijke taken te ondersteunen: vertalen, zoeken naar informatie, teksten schrijven.”

Hoe werkt GPT-3 precies? Het is een tekstgenerator die is getraind op vrijwel alle teksten van het internet geschreven tussen 2016 en 2019, op de hele Engelstalige Wikipedia en op bibliotheken vol aan boeken – in totaal 45 terabyte aan data (één terabyte is 1.024 gigabyte).

Technisch gezien is GPT-3 een diep neuraal netwerk bestaande uit 96 lagen met kunstmatige neuronen en 175 miljard verbindingen (het equivalent van synapsen in het brein). Daarmee is dit het grootste kunstmatige neurale netwerk dat ooit is gemaakt. Neurale netwerken zijn in het afgelopen decennium de meest succesvolle techniek gebleken om computers patronen te laten herkennen in grote hoeveelheden data. Ze zijn een abstractie van de manier waarop het menselijk brein informatie verwerkt.

Heel verschillende taken

Tijdens zijn training berekende GPT-3 de kans dat bepaalde woorden in een bepaalde volgorde naast elkaar voorkomen. Wat die woorden in de echte wereld betekenen weet de machine totaal niet. Toch hoeft dat voor praktische toepassingen niet altijd een belemmering te zijn, want automatische vertaalprogramma’s weten ook niet wat ze vertalen, maar hun prestaties zijn indrukwekkend en praktisch zeer bruikbaar, zelfs voor professionele vertalers.

Voor bijvoorbeeld vertalen werkt GPT-3 als volgt. Tik eerst een beschrijving in van de taak: ‘Translate English to French’. Voer daarna enkele voorbeelden in: ‘sea otter –> loutre de mer. Peppermint –> menthe poivrée. Plush giraf –> giraf peluche.’ Wanneer je vervolgens een nieuw Engelstalig woord intikt, gaat de machine dat in het Frans vertalen. Het opvallende is dat de machine dit kan zonder eerst uitgebreid te zijn getraind op teksten die vanuit het Engels in het Frans zijn vertaald, zoals bijvoorbeeld Google Translate heeft leren vertalen.

De onderzoekers van OpenAI publiceerden hun resultaten afgelopen mei in een online, nog niet peerreviewed wetenschappelijk artikel op de openbare website arXiv. Ze lieten zien dat het meest bijzondere aspect van GPT-3 het vermogen is om aan de hand van slechts enkele voorbeelden heel verschillende taken uit te voeren, als het maar te maken heeft met tekst. Daar waar een automatische vertaalmachine alleen maar kan vertalen, en een automatisch vraag-antwoordsysteem alleen maar vragen kan beantwoorden, kan GPT-3 met enkele voorbeelden vertalen, nieuwsartikelen genereren, een kort verhaal voltooien, Engelse grammatica corrigeren, feitelijke vragen over teksten beantwoorden en zelfs eenvoudige rekensommen beantwoorden. Zo’n multifunctionele taalgenerator bestond nog niet.

Hij blinkt nergens in uit

Maar in dat multifunctionele karakter schuilt ook een nadeel. Net zoals tienkampers goed zijn in tien atletiekonderdelen maar in geen daarvan absolute wereldtop zijn, zo is het ook met GPT-3. Hij presteert in een groot aantal taaltaken best aardig, maar blinkt nergens in uit. Er zijn betere vertaalmachines, betere vraag-antwoordmachines en betere automatische nieuwsberichtenschrijvers.

En omdat GPT-3 niet begrijpt wat hij leest en schrijft, valt hij ook snel door de mand, zo liet Gary Marcus zien in een experiment. Hij tikte de zin ‘Hoeveel ogen heeft mijn voet’ in, en kreeg als antwoord: ‘Mijn voet heeft twee ogen.’ De twee zinnen ‘Gisteren heb ik mijn kleren bij de stomerij achtergelaten en ik moet ze nog ophalen. Waar zijn mijn kleren?’ voltooide de machine met: ‘Ik heb veel kleren.’ En in een anekdote over het organiseren van een feestelijk diner in de woonkamer, stelde de machine voor om de keukentafel in twee stukken te zagen en één helft door de woonkamerdeur te schuiven, omdat de tafel anders niet door de deur zou passen. Dat je de tafel ook gekanteld door de deur kunt schuiven, begreep GPT-3 niet. Gezond verstand heeft de machine nauwelijks. Hij heeft ongelofelijk veel data, maar geen modellen van de wereld.

GPT’s fundamentele gebreken blijven bestaan

Gary Marcus oprichter van Robust.AI

Marcus concludeert: „GPT’s fundamentele gebreken blijven bestaan. De prestaties zijn onbetrouwbaar en het causaal begrip is gammel. Voorganger GPT-2 had al problemen met biologische, fysieke, psychologische en sociale redeneringen en een algemene neiging tot incoherentie en non-sequiturs. GPT-3 heeft dat nog steeds. Meer gegevens zorgen voor een betere, vloeiendere benadering van de taal, maar ze zorgen niet voor een betrouwbare intelligentie.”

In hun wetenschappelijke artikel waarschuwen de OpenAI-onderzoekers trouwens ook voor de talloze manieren waarop GPT-3 misbruikt kan worden: bijvoorbeeld voor het produceren van misinformatie, spam, phishing, voor misbruik van juridische en overheidsprocessen en voor het schrijven van frauduleuze academische essays. En omdat de machine veel trainingsteksten van het internet heeft gebruikt, vervalt hij ook gemakkelijk in stereotypen en in racistisch en seksistisch taalgebruik. De AI-schrijver zou eigenlijk eerst opgevoed moeten worden.

Bron van inspiratie

Nuttige toepassingen van GPT-3 liggen in de automatisering van allerhande talige taken. Gebruik de machine bijvoorbeeld als bron van inspiratie of aanvulling bij het schrijven van verhalen, artikelen, essays, persberichten, nieuwsberichten en liedjes. GPT-3 kan ook zoekmachines, chatbots en spraakassistenten verbeteren, of samenvattingen van lange teksten maken.

Ondanks talloze mogelijke toepassingen is het nog maar de vraag hoeveel daarvan commercieel zullen worden. Goedkoop is GPT-3 niet. De totale ontwikkelingskosten tot nu toe worden geschat op 10 miljoen dollar, waarvan zo’n 4,6 miljoen aan energiekosten alleen voor het trainen van het neurale netwerk. De AI-schrijver is een enorme energieslurper en zijn trainingsteksten zullen voortdurend moeten worden geüpdatet. Een nieuw woord als Covid-19 zat nog niet in zijn geheugen. En voor specifieke toepassingen zal de machine specifieker moeten worden getraind, met extra kosten.

Om de kans op commerciële toepassingen te vergroten verkocht OpenAI een exclusieve licentie aan Microsoft. Dat heeft als enige ook inzicht in de broncode. Microsoft zou GPT-3 bijvoorbeeld kunnen inbouwen in bestaande applicaties als Word, Excel, OneNote en Teams, maar ook in haar eigen zoekmachine Bing of in spraakassistent Cortana.

Gigantische dataset

Andere partijen kunnen GPT-3 wel via een aparte applicatie gebruiken, waarschijnlijk voor zo’n vierhonderd dollar per maand, maar hebben geen toegang tot de broncode.

Het belangrijkste wetenschappelijke inzicht dat GPT-3 heeft opgeleverd, is dat het mogelijk blijkt om AI te trainen met een gigantische dataset en daarna uiteenlopende taken te laten leren op basis van een handvol voorbeelden – one or few-shot learning. GPT-3 doet het met taal, maar wie weet wat er mogelijk is met beeld en geluid, of met combinaties van deze drie.

Hoe zit het, ten slotte, met de creativiteit van de AI-schrijver? Ontpopt een verre opvolger van GPT-3 zich eindelijk tot de verhalenmachine van Roald Dahl? Wiskundige Marcus du Sautoy schreef een boek over creatieve machines, in september in het Nederlands verschenen als De code van creativiteit. Via Skype vertelt hij over de creativiteit van GPT-3: „Mijn belangrijkste kritiekpunt op AI-schrijvers is dat ze de lange verhaallijn missen. Ik heb nooit het gevoel dat ze lang een eigen stem kunnen vasthouden. In verhalen, maar ook in muziek, kan AI tot nu toe alleen kortstondig iets interessants creëren, maar niet langdurig. Literatuur en muziek hebben een structureel element van tijd in zich en het grotere verhaal dat zich in die tijd ontwikkelt heeft AI nog niet onder de knie.”

Hoe maakt GPT de wereldliteratuur af?

Hoe schrijft GPT verder na enkele beroemde openingszinnen uit de wereldliteratuur?

Charlotte Brontë:
Jane Eyre

„Er was die dag geen mogelijkheid om een wandeling te maken.”

GPT: „Het Witte Huis wilde niet dat Mr. Comey wegging, maar uit de lezing van Mr. Comey bleek dat president Trump hem dat vroeg.”

Franz Kafka:
Het Proces

„Iemand moest Josef K. hebben belasterd, want zonder dat hij iets kwaads had gedaan, werd hij op een morgen gearresteerd.”

GPT: „Ik werd geboeid en tegen mijn wil vastgehouden zonder borgtocht. Op een of andere manier zei de politie dat dat nodig was.”

Douglas Adams:
The Hitchhiker’s Guide to the Galaxy

„Ver weg, in het onbekende achterland van het onherbergzame uiteinde van de westelijke spiraalarm van de Melkweg, ligt een kleine, onaantrekkelijke gele zon.”

GPT: „De zon – een symbool van een wereldwijde beschaving die was begonnen uiteen te vallen – was immers geen deel van een onbekende toekomst. Wat een geweldige natie had dit land kunnen zijn. Een vreemd en glorieus verleden.”