De morele bijsturing van de zelfrijdende auto

Weinig innovaties spreken vandaag zo tot de verbeelding als de zelfrijdende auto. De potentiële voordelen lijken legio.

Ze kunnen veiliger zijn doordat ze perfect op hun omgeving zijn afgestemd, ze kunnen tijdwinst opleveren omdat we onze aandacht niet langer op de weg moeten houden, en extra mobiliteitskansen bieden voor slechtzienden, ouderen, mindervaliden, en wie weet zelfs kinderen…

Artificiële intelligentie

Google experimenteert met een Driverless Car die al meer dan 1 miljoen km aflegde in het verkeer. Ongevalvrij. Ze mikken op 2018 voor een doorbraak met deze technologie. We moeten dus dringend gaan nadenken over de consequenties van een wereld waarin artificiële intelligentie (AI) steeds complexere taken van ons overneemt.

Toch houdt de mens, die qua rekenkracht het onderspit moet delven voor computers, nog een streepje voor op het vlak van creativiteit of moraliteit. Oxfordfilosoof Nick Bostrom en auteur van Superintelligence (2014) waarschuwt dat AI inzake mentale flexibiliteit vandaag ‘het niveau van een dorpsidioot nog niet overstijgt’. Machines of voertuigen autonoom laten functioneren op basis van eenzijdige rekenkracht is daarom allerminst zonder risico.

Neem een bal die plots over de rijbaan stuitert. Een menselijke autobestuurder zal indien mogelijk vertragen. Net als een zelfrijdende auto, maar zal die laatste er ook rekening mee houden dat achter de bal misschien nog een kind aankomt? Als mens zien we dat potentiële gevaar door onze eigen ervaringen. En zelfs indien een computer hierop voorzien is, kan hij dan ook het onderscheid maken met een laagvliegende vogel of een overwaaiend stuk karton en inschatten dat hij niet hoeft te remmen? Remmen voor elk bewegend voorwerp kan immers vervelend en gevaarlijk zijn.

Morele afwegingen

Zelfs als een computer contexten kan ‘lezen’ zoals een mens, betekent dit niet noodzakelijk dat hij ook op een menselijke manier zal reageren. Een zelfrijdende auto zal bijvoorbeeld geprogrammeerd zijn om de verkeerswetgeving te volgen. Mensen echter zullen de regels soms doelbewust overtreden: je wagen doen uitwijken over een volle witte lijn of bruusk remmen, is te verantwoorden als je daarmee een mensenleven redt. Om een dier of een overwaaiende tak te ontwijken, kan dat een zware prijs zijn.

Dergelijke morele afwegingen kan een computer voorlopig niet maken. Ethische besluitvorming doet een beroep op empathisch vermogen en intrinsiek menselijke waarden. Die zijn moeilijk in computertaal om te zetten. Alle ontwikkelingen in de AI ten spijt blijft de computer een ‘rekenaar’ zoals de Zuid-Afrikanen zeggen. Zijn acties zijn het gevolg van calculatie en logaritmes. Ethiek daarentegen betekent dat we soms ingaan tegen juridische of rekenkundige wetmatigheden, zoals de snelheidsbeperking overtreden bij een noodgeval of het bannen van kinderarbeid ondanks het kostenvoordeel.

Diverse experts breken zich vandaag het hoofd over de juridische consequenties van de zelfrijdende auto (bijvoorbeeld inzake aansprakelijkheid bij een ongeval). Daarnaast is echter ook zorgvuldige reflectie nodig over de ethische omkadering. De hamvraag daarbij is: hoe zorgen we ervoor dat autonome toestellen zonder moreel besef toch binnen menselijke ethische standaarden functioneren? Zo kunnen AI-gestuurde wagens zodanig geprogrammeerd worden dat zij in elke situatie handelen met de minste menselijke schade tot gevolg. Maar hoe gesofisticeerd ook, het moge duidelijk zijn dat zij die morele bijsturing niet uit zichzelf kunnen genereren. Alleen een menselijk doordacht wettelijk én ethisch kader laat toe dat zij zichzelf in goede banen leiden.