Een kind óf een bejaarde doodrijden. Wat doe je?

MIT zette een test online waarin je voor enkele lastige ethische vraagstukken wordt gezet.

Foto vanuit een zelfsturende auto van Nissan. Foto Shizuo Kambayashi / AP

Zou je een zelfsturende auto met bestuurder en al laten verongelukken als je daarmee de levens van twee kinderen kan redden? En als het nou eens om twee honden ging? Over dergelijke morele dilemma’s zijn boeken volgeschreven en niet op alle vragen is zomaar een “juist” antwoord te geven.

Om mensen uit te dagen om over dit soort moeilijke ethische vraagstukken na te denken, ontwierp het befaamde Massachusetts Institute of Technology (MIT) de Moral Machine. Daarin worden dertien dilemma’s voorgeschoteld met een zelfsturende auto, waarbij het voertuig hoe dan ook een ongeluk veroorzaakt en de persoon op de bestuurdersstoel kan ingrijpen en bepalen wie het slachtoffer wordt.

Bekijk hier een korte demonstratievideo:

1 versus 5 mensenlevens

De vraagstukken zijn niet nieuw. Een zeer bekende variant is het treindilemma: duw je een man van een brug voor de trein als je vijf kinderen die verderop staan te spelen daarmee kan redden? Belangrijk hierbij is niet alleen het utilitaristische standpunt of je één leven belangrijker vindt dan vijf andere. Ook doet het ertoe of je bereid bent om op te treden als de levens van onschuldigen in gevaar zijn. Maar dan wel door het offeren van één ander onschuldig leven. Bij niets doen gaan vijf kinderen dood - maar jij hebt daar dan geen hand in gehad (tenzij je de keuze om niets te doen ziet als een gelijkwaardige keuze).

De meeste mensen kiezen ervoor om niets te doen, bleek uit herhaalde tests. Uit een andere proef bleek dat mensen vinden dat een zelfrijdende auto altijd voor de manoeuvre moet kiezen die de minste slachtoffers oplevert. Maar op de vraag of iemand dan zelf in zo’n auto wilde rijden, werd dan toch doorgaans ontkennend gereageerd.

In de test van MIT krijg je telkens de mogelijkheid om rechtdoor te blijven rijden of een bocht naar links te maken, hoewel beide opties als een keuze worden aangemerkt (in tegenstelling tot “nietsdoen” versus “ingrijpen”). Aan het einde krijg je een keurig overzicht van welke “karakters” (oude mensen, huisdieren, etc.) je het meeste hebt gered of geofferd vergeleken met hoe andere respondenten het gemiddeld gedaan hebben.

Uitslag

Wat jammerlijk ontbreekt, is wat de door jou ingevulde keuzes betekenen. Wat zegt een bepaald besluit over jou? Indiceert het offeren van twee dikke mensen voor twee slanke een persoonlijkheidsstoornis? Wat is het “juiste” antwoord? Daaraan doet het MIT niet:

“Ons doel is niet om iemand te veroordelen, maar om het publiek te laten reflecteren op belangrijke en moeilijke beslissingen.”

Doe hier de test van de Moral Machine op de website van MIT.