Jan Broersen onderzoekt of je moreel gedrag kunt programmeren. Zelfrijdende auto’s zijn zover nog lang niet.

Foto Dieuwertje Bravenboer

Interview

‘Er blijft in AI toch altijd iets ontbreken’

Jan Broersen | hoogleraar kunstmatige intelligentie Computers kunnen morele keuzes leren maken, maar dat doen ze niet uit zichzelf. „Zo’n systeem zal altijd iets missen.”

Kun je een computer leren dat hij niet mag liegen, behalve als de Gestapo voor de deur staat? En hoe weet een machine dat het dan niet gaat om ‘gewone’ agenten, die in democratische samenlevingen juist je beste vriend heten te zijn?

Nou, dat moet nog wel kunnen, zegt hoogleraar kunstmatige intelligentie Jan Broersen. Het is eigenlijk een vrij simpel voorbeeld van een uitzondering die boven de algemene regel gaat. „Je hebt nu al formele redeneersystemen die kunnen omgaan met regels die je in bepaalde situaties ook moet kunnen overtreden. Er zijn veel ingewikkelder voorbeelden, hele stelsels van regels die op elkaar inwerken. Maar dat is in theorie allemaal in te programmeren.”

In hoeverre dat ‘morele’ computers mogelijk maakt, geautomatiseerde systemen die leren om zelf keuzes te maken – en verantwoordelijkheid te dragen – is de inzet van het onderzoek van Broersen, die eind maart zijn oratie hield aan de Universiteit Utrecht. Opgeleid als wiskundige in Delft, wil hij met logica proberen een morele calculus te ontwikkelen voor AI-systemen.

Zulke ‘deontische logica’ (van het Griekse deon: dat wat passend of verplicht is) is hard nodig, vindt hij, voor een samenleving die steeds meer gebruik maakt van kunstmatige intelligentie. „Iedereen heeft het over AI en ethiek, maar bijna niemand doet er wat aan. Althans, het wordt meestal benaderd als een sociaal of juridisch probleem. Moeten we zelfrijdende auto’s eigenlijk wel op de weg willen? Hoe moeten we dat juridisch inpassen? Wanneer zijn fabrikanten aansprakelijk?”

Allemaal heel belangrijk, zegt Broersen, maar waarom wordt er niet gekeken of morele verantwoordelijkheid in AI-systemen zelf te programmeren is? „Ik wil weten: hoe operationaliseer je bestaande theorieën over ethiek en hoe stop je die in een machine zodat die weet hoe hij moet omgaan met situaties waarin morele overwegingen belangrijk zijn.”

Stel dat je die tien mensen kunt redden door één ander de rails op te dúwen

Legt u maar uit, hoe stop je dan ethiek in machines?

„Het begint er natuurlijk mee dat je sterk uiteenlopende morele theorieën hebt. Filosofen zijn daar al eindeloos mee bezig. Van sommige theorieën kun je je makkelijker voorstellen dat ze te automatiseren zijn dan andere. Neem het utilisme, grof gezegd de opvatting dat je datgene moet doen wat het grootste nut of geluk voor zoveel mogelijk mensen oplevert. Dat is een vrij kwantitatieve benadering die je best goed in een programma kunt vatten. Het sluit aan bij hoe informatici toch al nadenken over intelligentie: als een procedure om acties te kiezen uit een reeks opties met een eenduidig doel.”

Dan doemt wel het ‘trolleyprobleem’ op. Moet je een losgeslagen trolley op tien mensen laten afrazen zodat ze zeker worden doodgereden, of moet je de wissel omgooien naar een andere rails waar maar één mens slachtoffer wordt?

„Ja, daar zijn heel veel varianten van. Je ziet er al aan dat het utilisme voor veel mensen een onbevredigende morele theorie is. Is moraal echt zo’n simpel rekensommetje: tien slachtoffers of één? Mensen maken ook verschil tussen niets doen en actief ingrijpen, zoals die wissel overhalen. Dat heeft gevolgen voor hoe wij verantwoordelijkheid opvatten. En stel dat je die tien mensen kunt redden door één ander de rails op te dúwen. Dat is nog weer iets anders. Dat voelen wij intuïtief aan – en nee, een computer niet.”

Regels geven richting, maar je moet ze ook afhankelijk van de context kunnen overtreden

Wat kan dan wel?

„De morele calculus die ik bepleit denkt niet allereerst in gewenste uitkomsten – zoals: het minste aantal slachtoffers – maar in het volgen van regels. Moreel handelen is regelgeleid gedrag. Welke regels zijn van toepassing in een situatie en welke regel moet boven de andere gaan? Zo leren wij kinderen ook hoe ze zich moeten gedragen. Regels geven richting, maar je moet ze ook afhankelijk van de context kunnen overtreden. Dat moet te operationaliseren zijn in een formeel systeem.”

Toch bent u in uw oratie sceptisch over de mogelijkheid van sterke AI, machines ‘echt’ menselijke intelligentie aanleren. Waarom? U haalt als steun Wittgenstein aan. Maar die zegt ook: wij volgen regels blind, zonder erbij na te denken. Dat kan een computer toch ook?

„Ik denk dat er toch iets blijft ontbreken, namelijk de morele bron. Bij ons zijn dat de rede en de gemeenschap, beide maken ons tot mens. We leren en toetsen onze morele inzichten en intuïties aan elkaar, we interpreteren regels, we nuanceren ze. Dat hebben machines niet. Je kunt veel programmeren, maar zulke morele intuïties niet.”

Kunnen ze die ook niet al lerend zelf ontwikkelen?

„Nee, in mijn ogen zal zo’n systeem altijd iets missen. Wij blijven degenen die bepalen hoe een regel moet worden geïnterpreteerd. Een machine doet uiteindelijk niets anders dan instructies volgen die wij erin hebben gestopt. Overigens, dit geldt voor de machines die we nu gebruiken. Het is niet uitgesloten dat het ooit wél zal kunnen. Neem quantum computing, automatisering met inzichten uit quantummechanica. Als je intelligentie en morele keuzes gaat opvatten op een quantummanier wordt het andere koek. Maar dat is wel heel speculatief. Dat terrein ligt open, daar begrijpen we nog heel weinig van. Ik ben persoonlijk een niet-determinist, ik denk dat de werkelijkheid ten diepste niet compleet wetmatig vastligt. Maar ik geloof wel dat wij uiteindelijk machines zijn. Alleen niet het soort machines dat we nu computers noemen.”

Die auto zal niet begrijpen wat hij moet doen als medeweggebruikers toeteren

Even praktischer: hoe kan deontische logica de Belastingdienst helpen om een nieuw toeslagenschandaal te voorkomen?

„Dat heeft denk ik niet zoveel met AI te maken. Daar zijn gewoon statistische verbanden gelegd op een manier die we niet wenselijk vinden. Je voert casussen in, ‘wel/geen fraude’, en dan gaat zo’n computer leren. Die zoekt vervolgens correlaties tussen kenmerken van mensen of dossiers, en dat kun je niet meer uitzetten. Je zou het ook anders kunnen doen en van tevoren al regels opstellen hoe een computer mag zoeken. Dan kun je die zo programmeren dat ze bepaalde kenmerken wegen of niet meenemen. Zoals het nu gaat wéét je niet hoe het systeem leert – en kun je dat ook niet corrigeren. Ja, achteraf in de Tweede Kamer.”

De zelfrijdende auto heeft ogen, een geheugen, kan keuzes maken. Is dat dan geen sterke AI?

„Nee, ik vind van niet. Die auto kan geen emoties hebben of betekenis zien zoals wij dat doen, niet met onze huidige computers. Hij zal niet begrijpen wat hij moet doen als medeweggebruikers toeterend beginnen te reageren op een bordje met ‘honk if you’re happy‘ erop, zoals je in Amerika wel ziet. Je kunt er natuurlijk wel iets inprogrammeren, maar het gedrag zal toch anders zijn. Niet bumperkleven, ja dat kan je hem wel leren.”