-X NIEUWS 15 Vijftig zelfrijdende auto's op de A2 Puur technisch gezien kunnen auto's al zelf rijden. Maar wie bepaalt wat het ding doet in een noodsituatie? Het lijkt onvermijdelijk: de zelfrijdende auto komt eraan. Vandaag wordt er een proef mee gedaan op de Ai. Behalve veel techni sche vragen roept deze ontwikkeling ook filosofische vragen op. Een goed voorbeeld is een gebeurte nis op 14 februari van dit jaar in Moun tain View, Californië: Een automobi list sorteert rechts voor. Als hij zand zakken op de rijbaan ziet liggen, stopt hij en wil terug naar de rijbaan links. Er valt een gaatje en hij trekt op. Maar de bus die eraan komt, mindert geen vaart, zoals de automobilist wél ver wachtte. Een kras op de bus en een deuk in het voorspatbord van de auto. Een ongelukje van niks, dat wereld nieuws werd, omdat de auto werd niet bestuurd door een mens. Het was een zelfrijdende auto van Google. Deze machine, die al miljoenen schadevrije kilometers had afgelegd, had wel iemand dood kunnen rijden! „Gaan we accepteren dat zelfrijdende auto's, geprogrammeerd door fabrikan ten, fatale fouten kunnen maken ma ken?" vraagt universitair hoofddocent Jan Broersen. Hij doet aan de Universi teit Utrecht onderzoek naar de ethiek van kunstmatige intelligentie, onder meer bij zelfrijdende auto's. Broersen is informaticus én filosoof: „De verantwoordelijkheid van kunst matige intelligentie, zoals die wordt toegepast in zelfrijdende auto's is uit eindelijk een filosofisch onderwerp. In formatici hebben hun focus op de vraag hoe je de machines maakt, niet op de vragen die ze oproepen. Hoe zit het als er iets fout gaat? Die vragen ko men nu bovendrijven. Ethici en filoso fen denken daarover na." Levensreddend Die volledig zelfrijdende auto's krijgen het nog moeilijk als ze beslissingen als een mens moeten nemen. Wat doet de auto als een jongetje plots de weg op rent en de enige manier om het kind te ontwijken, leidt tot een frontale bot sing met een tegenligger? Misschien redt de zelfrijdende auto zo het leven van het kind en behoedt de airbag jou voor een akelige dood. Maar wat doet de auto als hij weet dat je drie kinde ren ook in de auto zitten en de tegen ligger een vrachtauto is? „De vraag is hoe we dat in een auto moeten programmeren, zodanig dat het door ons allemaal wordt geaccep teerd. Je kunt systemen maken die re deneren in de context van morele re- T PI 'Zelfrijdende auto is nooit moe en maakt geen ruzie met de bijrijder' gels en wetten. En met andere technie ken kun je een auto ook een soort nor matief'besef geven, zodat die afwegin gen worden gemaakt, door hem heel veel voorbeelden te geven van wat goed en fout is. Wat een auto met dat overstekende kind moet doen? Wat vind je dat een mens zou moeten doen? Als je daar uit bent, kun je het in de auto programmeren." Groot probleem daarbij is dat we een auto niet het voordeel van de twij fel zullen gunnen, vindt Broersen: „Als wij mensen een keuze maken in zo'n moreel dilemma moeten we dat in een split second doen. Als een vriend of je partner in zo'n situatie terecht komt, dan zeg je: Het was ook een vreselijk moeilijke beslissing, dit heb je intuïtief gedaan. Dan heb je een soort excuus. Dat soort overwegingen zullen we zelf rijdende auto's nooit gunnen. Als een auto zelfstandig een beslissing neemt waarbij iemand om het leven komt waarvan wij later zeggen: dat was echt fout. Dan heeft de maker van die auto een probleem." In 2020 rijden de eerste volledig au tonome auto's rond, verwachten de deskundigen. „Dan zijn er zelfrijdende auto's die minder ongelukken veroorza ken dan mensen doen. Dat is een objec tieve maat. Dat ze dan ook al dezelfde morele afwegingen kunnen maken als wij, is erg onwaarschijnlijk." Preciezer dan Verstappen Wereldwijd komen jaarlijks 1,2 miljoen mensen om in het verkeer. De zelfrij dende auto gaat dat aantal verkeers slachtoffers enorm reduceren, alleen al omdat hij perfect leert rijden. De auto leert van iedere bocht die hijzelf neemt, maar ook van bochten die alle andere auto's nemen. Hij stuurt en remt nog preciezer dan Max Verstap pen. Altijd. „Een zelfrijdende auto is nooit moe, heeft geen slechte ogen, heeft geen ruzie met zijn partner. Het gebrek aan kunstmatige intelligentie wordt gecompenseerd door betere rij vaardigheid." Er is nog niets geregeld voor de nor men en waarden van zelfrijdende au to's. Maakt een Apple andere ethische afwegingen dan een BMW? „Misschien komen er verschillende auto's, één die remt voor dieren, een andere die extra voorzichtig rijdt... Nu kiezen we een au to op snelheid en comfort, straks mis schien op het ethisch handelen van de auto. Die discussie barst pas echt los op het moment dat er mensen komen te overlijden door zelfrijdende auto's." Google wil die eerste verkeersdode door een zelfrijdende auto niet op het geweten hebben. De Google-program- meurs grepen meteen in na het onbe nullige ongelukje op Valentijnsdag. De zelfde situatie werd 3.500 keer nage bootst en de Google-auto zal nooit meer denken: ik kan er wel tussen. Hij stopt voortaan wel. De Google Car is ietsje voorzichtiger geworden. Vijftig zelfrijdende au to's rijden vandaag in groepjes van vijf als eendjes achter elkaar over de A2 van Amster dam naar Beesd en te rug. Verzekeringsmake laar Aon wil met de proef inzicht krijgen in de techniek en bekij ken wie er aansprake lijk is als een zelfrijden de auto een ongeluk zou krijgen: 'bestuur der' of autofabrikant. De zelfrijdende auto's van BMW, Hyundai, Mercedes, Tesla, Toyo ta en Volvo mogen ove rigens nog niet zelf stu ren. Bij de proef bepa len ze alleen de snel heid en de afstand tot de andere auto. WOENSDAG 16 MAART 2016 Grote foto: de Viking was het laatste schip van de stropersvloot dat werd opgeblazen. Kleine foto: op 22 februari zijn meerdere vis sersboten opgeblazen, foto's EPA/AP De auto beslist straks: boom of kind aanrijden? door Ton Voermans m foto Shody Careman Jan Broersen informaticus en filosoof

Krantenbank Zeeland

Provinciale Zeeuwse Courant | 2016 | | pagina 15