-X
NIEUWS 15
Vijftig
zelfrijdende
auto's op
de A2
Puur technisch gezien kunnen auto's
al zelf rijden. Maar wie bepaalt wat het
ding doet in een noodsituatie?
Het lijkt onvermijdelijk:
de zelfrijdende auto
komt eraan. Vandaag
wordt er een proef
mee gedaan op de Ai.
Behalve veel techni
sche vragen roept deze ontwikkeling
ook filosofische vragen op.
Een goed voorbeeld is een gebeurte
nis op 14 februari van dit jaar in Moun
tain View, Californië: Een automobi
list sorteert rechts voor. Als hij zand
zakken op de rijbaan ziet liggen, stopt
hij en wil terug naar de rijbaan links.
Er valt een gaatje en hij trekt op. Maar
de bus die eraan komt, mindert geen
vaart, zoals de automobilist wél ver
wachtte. Een kras op de bus en een
deuk in het voorspatbord van de auto.
Een ongelukje van niks, dat wereld
nieuws werd, omdat de auto werd niet
bestuurd door een mens. Het was een
zelfrijdende auto van Google.
Deze machine, die al miljoenen
schadevrije kilometers had afgelegd,
had wel iemand dood kunnen rijden!
„Gaan we accepteren dat zelfrijdende
auto's, geprogrammeerd door fabrikan
ten, fatale fouten kunnen maken ma
ken?" vraagt universitair hoofddocent
Jan Broersen. Hij doet aan de Universi
teit Utrecht onderzoek naar de ethiek
van kunstmatige intelligentie, onder
meer bij zelfrijdende auto's.
Broersen is informaticus én filosoof:
„De verantwoordelijkheid van kunst
matige intelligentie, zoals die wordt
toegepast in zelfrijdende auto's is uit
eindelijk een filosofisch onderwerp. In
formatici hebben hun focus op de
vraag hoe je de machines maakt, niet
op de vragen die ze oproepen. Hoe zit
het als er iets fout gaat? Die vragen ko
men nu bovendrijven. Ethici en filoso
fen denken daarover na."
Levensreddend
Die volledig zelfrijdende auto's krijgen
het nog moeilijk als ze beslissingen als
een mens moeten nemen. Wat doet de
auto als een jongetje plots de weg op
rent en de enige manier om het kind te
ontwijken, leidt tot een frontale bot
sing met een tegenligger? Misschien
redt de zelfrijdende auto zo het leven
van het kind en behoedt de airbag jou
voor een akelige dood. Maar wat doet
de auto als hij weet dat je drie kinde
ren ook in de auto zitten en de tegen
ligger een vrachtauto is?
„De vraag is hoe we dat in een auto
moeten programmeren, zodanig dat
het door ons allemaal wordt geaccep
teerd. Je kunt systemen maken die re
deneren in de context van morele re-
T
PI
'Zelfrijdende
auto is nooit
moe en maakt
geen ruzie met
de bijrijder'
gels en wetten. En met andere technie
ken kun je een auto ook een soort nor
matief'besef geven, zodat die afwegin
gen worden gemaakt, door hem heel
veel voorbeelden te geven van wat
goed en fout is. Wat een auto met dat
overstekende kind moet doen? Wat
vind je dat een mens zou moeten
doen? Als je daar uit bent, kun je het in
de auto programmeren."
Groot probleem daarbij is dat we
een auto niet het voordeel van de twij
fel zullen gunnen, vindt Broersen: „Als
wij mensen een keuze maken in zo'n
moreel dilemma moeten we dat in een
split second doen. Als een vriend of je
partner in zo'n situatie terecht komt,
dan zeg je: Het was ook een vreselijk
moeilijke beslissing, dit heb je intuïtief
gedaan. Dan heb je een soort excuus.
Dat soort overwegingen zullen we zelf
rijdende auto's nooit gunnen. Als een
auto zelfstandig een beslissing neemt
waarbij iemand om het leven komt
waarvan wij later zeggen: dat was echt
fout. Dan heeft de maker van die auto
een probleem."
In 2020 rijden de eerste volledig au
tonome auto's rond, verwachten de
deskundigen. „Dan zijn er zelfrijdende
auto's die minder ongelukken veroorza
ken dan mensen doen. Dat is een objec
tieve maat. Dat ze dan ook al dezelfde
morele afwegingen kunnen maken als
wij, is erg onwaarschijnlijk."
Preciezer dan Verstappen
Wereldwijd komen jaarlijks 1,2 miljoen
mensen om in het verkeer. De zelfrij
dende auto gaat dat aantal verkeers
slachtoffers enorm reduceren, alleen al
omdat hij perfect leert rijden. De auto
leert van iedere bocht die hijzelf
neemt, maar ook van bochten die alle
andere auto's nemen. Hij stuurt en
remt nog preciezer dan Max Verstap
pen. Altijd. „Een zelfrijdende auto is
nooit moe, heeft geen slechte ogen,
heeft geen ruzie met zijn partner. Het
gebrek aan kunstmatige intelligentie
wordt gecompenseerd door betere rij
vaardigheid."
Er is nog niets geregeld voor de nor
men en waarden van zelfrijdende au
to's. Maakt een Apple andere ethische
afwegingen dan een BMW? „Misschien
komen er verschillende auto's, één die
remt voor dieren, een andere die extra
voorzichtig rijdt... Nu kiezen we een au
to op snelheid en comfort, straks mis
schien op het ethisch handelen van de
auto. Die discussie barst pas echt los
op het moment dat er mensen komen
te overlijden door zelfrijdende auto's."
Google wil die eerste verkeersdode
door een zelfrijdende auto niet op het
geweten hebben. De Google-program-
meurs grepen meteen in na het onbe
nullige ongelukje op Valentijnsdag. De
zelfde situatie werd 3.500 keer nage
bootst en de Google-auto zal nooit
meer denken: ik kan er wel tussen. Hij
stopt voortaan wel. De Google Car is
ietsje voorzichtiger geworden.
Vijftig zelfrijdende au
to's rijden vandaag in
groepjes van vijf als
eendjes achter elkaar
over de A2 van Amster
dam naar Beesd en te
rug. Verzekeringsmake
laar Aon wil met de
proef inzicht krijgen in
de techniek en bekij
ken wie er aansprake
lijk is als een zelfrijden
de auto een ongeluk
zou krijgen: 'bestuur
der' of autofabrikant.
De zelfrijdende auto's
van BMW, Hyundai,
Mercedes, Tesla, Toyo
ta en Volvo mogen ove
rigens nog niet zelf stu
ren. Bij de proef bepa
len ze alleen de snel
heid en de afstand tot
de andere auto.
WOENSDAG 16 MAART 2016
Grote foto: de Viking was het laatste schip van de stropersvloot
dat werd opgeblazen. Kleine foto: op 22 februari zijn meerdere vis
sersboten opgeblazen, foto's EPA/AP
De auto beslist
straks: boom of
kind aanrijden?
door Ton Voermans
m
foto Shody Careman
Jan Broersen
informaticus en filosoof