Hoe aansprakelijk is die Uber-auto voor die dodelijke aanrijding?

Uber stopt in alle steden met zijn testen met zelfrijdende auto’s na een dodelijk ongeval, las ik bij Nu.nl. Een zelfrijdende auto van het bedrijf heeft in Arizona een vrouw aangereden, waarna zij overleed. Uit het voorlopige onderzoek bleek dat de aanrijding waarschijnlijk overmacht was vanwege beperkt zicht, maar het is natuurlijk mogelijk dat uiteindelijk blijkt dat de auto of haar bestuurder toch meer te verwijten valt. En meer algemeen, wat doen we met de aansprakelijkheid van zelfrijdende voertuigen?

Het ongeval van afgelopen maandag lijkt een lastig te voorkomen incident geweest te zijn. Een vrouw stak op een onverwacht moment plotseling over met een fiets waar een hoop tassen aan hingen. De auto remde niet (en bleek iets te hard te rijden). “Het is duidelijk dat het moeilijk was geweest om een aanrijding te voorkomen, afgaand op de manier waarop het slachtoffer uit de schaduw de weg op liep.” Aldus de voorlopige conclusie van de politie.

In die omstandigheden zou denk ik in Nederland voor een gewone auto met bestuurder denk ik toch wel aansprakelijkheid ontstaan. De lat ligt namelijk erg hoog, en je moet altijd rekening houden met onverwachte zaken zoals overstekende personen. Een strafrechtelijke vervolging lijkt me uitgesloten maar de schade zul je (via de verzekering) toch denk ik wel moeten betalen.

Hoe een autonome auto precies in dat plaatje past, is nog niet echt duidelijk. Onze wetgeving kent het concept niet van een auto die zelf rijdt, maar gaat er vanuit dat er altijd een mens het stuur vasthoudt en de pedalen bedient (behalve indien relevante ontheffingen zijn verleend bij gehandicapte bestuurders). Het zou dus geen argument zijn dat de auto zelf besloot te remmen of juist door te rijden.

Ik ben er nog niet uit wat voor wetswijziging nodig zou zijn om dit op te lossen. Het voelt raar dat we een autonome auto aansprakelijkheidstechnisch anders behandelen dan een mensenbestuurde auto. Maar ze hetzelfde behandelen voelt óók gek want de werking is wezenlijk anders.

Misschien moeten we gewoon de hele vraag van aansprakelijkheid loslaten. We eisen dat auto’s zorgvuldig geprogrammeerd zijn maar verklaren auto-ongelukken te allen tijde als overmacht, waarbij de schade wordt betaald uit een fonds waar iedereen verplicht aan meebetaalt. Dan ben je de hele discussie kwijt én is iedereen zeker van zorg en vergoeding bij schade.

Arnoud

Moeten we de aansprakelijkheid van autonome auto’s aan advocaten overlaten?

google-zelfrijdende-autoBergen rechtszaken zijn de belangrijkste hobbels (haha) waar de zelfrijdende auto overheen zal moeten zien te komen, las ik in Slate. Zolang de aansprakelijkheid van eigenaar, passagiers en fabrikant niet duidelijk zijn, zal de adoptie van deze voertuigen onnodig langzaam blijven lopen. Hoe lossen we dat op bij zoiets snel evoluerends als autonome auto’s? Simpel, zegt de auteur: laat dat gewoon aan het aansprakelijheidsrecht over. Dat is daar voor.

In theorie is de vraag simpel te beantwoorden. Hoe regel je aansprakelijkheid voor bepaalde situaties? Simpel, dat zet je in de wet. Die hebben we ook al de nodige: je bent aansprakelijk voor je huisdieren en voor je assistenten. Je bent ook aansprakelijk voor je minderjarige kinderen, maar omdat dat een tikje ongenuanceerd voelde is daar een complexe regel bij gekomen. Maar goed, daar komen we uit. En het is logisch dat de bal daar ligt, want jij bent in staat dat te borgen. Of (bij die dieren) het is gewoon redelijk want er is niemand anders.

Op zeker moment kregen we producten die soms ontploften of anderszins gevaarlijk waren. Dus toen kwam er ook een wet over productveiligheid, die de bal legt bij de fabrikant of importeur daarvan. Natuurlijk gaf die wet enig gesteggel maar het lijkt me niet meer dan logisch dat de bal daar ligt. Een televisie mag niet ontploffen, en de bouwer daarvan heeft alle controle dus die kan veiligheidsmaatregelen nemen.

Logisch allemaal. Maar bij de zelfrijdende auto ligt het iets ingewikkelder. Ja, natuurlijk heeft de fabrikant een grote rol want hij programmeert de AI, plaatst de sensoren en hakt knopen door over hoe te kiezen tussen passagier en medeweggebruikers. Maar de eigenaar/passagier/bestuurder heeft ook enige invloed, die gaat de weg op met het ding en drukt misschien wel op knopjes om het gedrag te beïnvloeden. Of hij zat niet op de noodrem.

Als wetgever kom je daar niet echt uit. Wil je dan toch wetten maken, dan heb je een grote kans dat je de plank misslaat en de innovatie doodreguleert. Plus, een wet invoeren duurt meerdere jaren en wie weet waar we dán zijn met zelfrijdende auto’s en kunstmatig intelligente bestuurders.

Gelukkig is er een alternatief: de rechtspraak. Ik noem dat altijd de juridische exception handler: als het niet geregeld is, dan moet de rechter in vredesnaam maar verzinnen wat in deze situatie het beste past binnen de wet, de redelijkheid en de concrete situatie. Hij kan dan een oordeel doen over die situatie, maar hij kan ook een rechtsregel formuleren die vanaf dan in vergelijkbare situaties van toepassing moet zijn. En het mooie is dat zulke rechtsregels heel specifiek kunnen zijn, en dat ze over een jaar vervangen kunnen worden door een nieuwe uitspraak gebaseerd op de inzichten van dan. Noodwetjes, zo je wilt.

Het is dus helemaal niet zo’n gek idee om de rechtbank te laten oordelen over wat te doen met aansprakelijkheid bij ongevallen waar zelfrijdende auto’s bij betrokken zijn. Het zal in het begin wat zoeken zijn met diverse uitspraken alle kanten op, maar rechters lezen ook elkaars vonnissen en zeker bij uitspraken in hoger beroep ontstaat er dan een zekere lijn waar men op kan varen. En het mooiste is dan nog dat als die lijn goed bevalt, de wetgever hem zo over kan nemen in de Wet van 2020 over Autonome Voertuigen. Of juist iets heel anders kan verzinnen omdat de jurisprudentie laat zien waar de knelpunten zitten.

De auteur doet nog een aanvullend voorstel voor het geval de rechtszaken de pan uit rijzen: in de VS geldt een wettelijke bescherming voor bedrijven die vaccins ontwikkelen. Aangezien onjuist werkende vaccins tot medische claims kunnen leiden, zouden bedrijven daarmee kunnen stoppen om wat veiligers te gaan doen. Dat willen we niet, dus zijn ze in de VS beperkt aansprakelijk voor medische missers in vaccins. Wel is er dan tegelijk een verzekeringsfonds opgericht waar slachtoffers van die missers een vergoeding uit krijgen. Zo corrigeer je voor het maatschappelijk probleem van de slachtoffers, zonder de fabrikanten nodeloos af te schrikken iets nieuws te verzinnen.

Die wettelijke bescherming doet denken aan wat we eind jaren negentig voor tussenpersonen op internet hebben bedacht. Die zijn niet aansprakelijk voor wat er op hun platform gebeurt (waar trouwens nu heisa over is omdat artiesten massaal klagen dat ze niks krijgen van het beschermde Youtube) mits ze maar een notice/takedownsysteem toepassen. Ik roep al jaren dat dit eigenlijk een systeem met dwanglicenties moet worden: Youtube mag niet verboden worden maar moet wel betalen. En dat sluit dan mooi aan bij die vaccin-regeling.

Dat dan maar doen? Fabrikanten mogen zelfrijdende auto’s op de markt brengen, en zijn behoudens grof nalatige fouten niet aansprakelijk voor ongevallen die daarmee gebeuren. Wel storten ze verplicht een bedrag in een verzekeringspot, en slachtoffers van die ongevallen ontvangen daar een uitkering uit.

Arnoud

Google’s AI wordt aangemerkt als ‘bestuurder’ onder Amerikaanse Wegenverkeerswet

google-zelfrijdende-autoNou nou, poe poe, de Amerikaanse National Highway Traffic Safety Administration heeft Google’s zelfdenkende auto-OS aangemerkt als de ‘bestuurder’ in de zin van de Federal Motor Vehicle Safety Standards, zeg maar het Reglement Voertuigen en Verkeerstekens. Dat meldde Mashable vorige week. Maar betekent het dus dat het ding zelfstandig de weg op mag? Nou nee, bepaald niet.

Google had de NHTSA gevraagd hoe hun autonome auto binnen de Amerikaanse regels voor auto’s op de weg zouden passen. Men wil immers met die dingen de weg op, en net als bij ons geldt in de VS dat dat alleen mag als je aan alle wettelijke eisen voldoet.

In hun reactie concludeert de toezichthouder inderdaad dat het prima past binnen de wet om de AI van zo’n zelfrijdend voertuig als “bestuurder” aan te merken.

Echter, het gaat daarna meteen al fout want wie er ook bestuurder is, het voertuig moet blijven voldoen aan de wettelijke eisen. Zo moet er een hand- of voetrem in een auto zitten, maar een AI heeft hand noch voet. Dat gaat dus mis. Ook gaat het mis bij de snelheidsmeter en de indicatielampjes voor knipperlichten en dergelijke, die moeten “zichtbaar” zijn voor de bestuurder en het is onduidelijk of de AI wel kan zien in de zin van de wet. En zo gaat het nog even door.

Uiteindelijk is de conclusie inderdaad dat de AI gezien kan worden als bestuurder, maar dat de toezichthouder niet bevoegd is om dan allerlei regels maar aan te passen zodat het werkbaar wordt voor deze kunstmatige intelligentie. Google moet maar bij een ander loket vragen om vrijstelling van deze wettelijke eisen. Dit nog geheel los van de vraag wie er aansprakelijk is bij een ongeval. Dat is normaliter namelijk de bestuurder, maar dat kan natuurlijk niet bij een AI. Die vraag valt echter buiten de bevoegdheid van de NHTSA. Dus vandaar, nou nou, poe poe.

Nee, wat mij betreft is Nederland verder: de RDW mag ontheffing verlenen voor zo ongeveer alle regels uit het RVV voor zelfrijdende auto’s,

voor zover en voor zolang dat nuttig is voor het testen van verder geautomatiseerde functies in voertuigen en het daarmee ervaring opdoen in het verkeer.

Dat maakt het een heel stuk makkelijker voor de praktijk. Maar waarom is dat Amerikaanse bericht nieuws en dat Nederlandse niet?

Arnoud

Hoe programmeer je een zelfrijdende auto bij botsingen?

google-zelfrijdende-autoEentje voor de vrijmibo: hoe programmeer je wat een zelfrijdende auto moet doen in het geval van een botsing? Dit onderwerp kwam ik tegen bij Technology Review. De vraag is natuurlijk een specifiek voorbeeld van de meer algemene discussie hoe je een zelfrijdende auto programmeert, maar het is een prangende vraag omdat de impact ervan zo enorm is.

Wanneer een mens een ongeluk krijgt met een auto, zien we dat in principe als overmacht. Pas als blijkt dat de bestuurder dingen verzaakt heeft (verkeerstekens genegeerd, gedronken, met zijn telefoon zitten spelen) komen er juridische processen op gang en kun je wellicht spreken van dood door schuld of misschien zelfs doodslag door voorwaardelijk opzet (bewust de aanmerkelijke kans nemen dat je iemand zou doden). Maar dat zijn uitzonderingen. Hoe pijnlijk ook, in veel gevallen is zo’n ongeval echt een ongeluk, overmacht.

Bij zelfrijdende auto’s is dat veel lastiger voor te stellen. Daar is het niet een mens die uit instinct handelt, of van wie je onmogelijk kon verwachten dat hij in een halve seconde koos tussen zelf tegen een vrachtwagen aan knallen of dat kind op de stoep omver rijden. Maar een computer heeft geen instinct, en voor een computer is een halve seconde ruim voldoende om een paar honderd scenario’s door te rekenen.

Daar sta je dan als programmeur. Er moet nu een algoritme bedacht voor deze situatie, graag maandag af want dan willen we gaan experimenteren op de weg.

Simpele gedachte: de auto moet de keuze maken die het minst aantal mensen verwondt (of laat overlijden, wat ik maar even als extreme verwonding zie). Logisch, zou Spock zeggen, the need of the many outweigh the need of the few. Echter, logischerwijs kom je dan al heel snel uit bij een keuze waarbij de bestúúrder komt te overlijden. Rijd maar tegen die vrachtwagen (de chauffeur daarvan overleeft het wel) of van die brug af. Dat is één leven versus meerdere – die groep fietsende kinderen naast je.

Leuk, maar wie koopt er een zelfrijdende auto wetende dat hij opgeofferd wordt zodra er twee buitenstaanders naast hem fietsen en er iets gebeurt? Het onderzoek dat Technology Review citeert, laat zien dat mensen daar best wat in zien – zolang anderen de zelfrijdende auto maar besturen, en zijzelf het stuur vasthouden bij een ouderwetse auto.

De bestuurder uitzonderen van die keuze is echter ook zo wat. U kunt vast de krantenkoppen al verzinnen: auto bleek geprogrammeerd voor fietsersmoord. Misschien dan niet uitzonderen maar zwaarder laten wegen? Dan ga je dus een getal zetten op mensenlevens of ongeluk.

De typische ICT-oplossing is dan de gebruiker maar laten kiezen. Instellingen > Geavanceerd > Incidentbeheer, knop “Wijzig instellingen”, disclaimer wegklikken en dan kiezen uit drie profielen of handmatig de registry tweaken of je fietsers belangrijker vindt, of de verwachte aanwezigheid van airbags bij de andere auto een factor is, of de motorrijder een codicil met RFID-chip heeft, en ga zo maar door.

Ik zie het zomaar gebeuren. Alleen: dan rijd ik dus in een auto die ik heb geprogrammeerd om tot maximaal vijf fietsers aan te rijden alvorens mezelf op te offeren bij een ongeluk. Volgens mij noemen ze dát moord met voorbedachte rade (en voorwaardelijke opzet). Dat is ook weer niet de bedoeling.

Maar wat dan? Het enige dat ik nog kan bedenken, is dat de auto een rand()-muntje opgooit en op basis van de uitkomst beslist wie er aangereden moet worden. Dan programmeer je overmacht als het ware in, en zijn we weer comfortabel terug bij de situatie die we nu ook al hebben. Maar het voelt niet echt bevredigend.

Arnoud

Welke wetswijzigingen zijn er nodig om een zelfrijdende auto op de weg te laten?

google-zelfrijdende-autoMinister Schultz van Haegen (Infrastructuur en Milieu) wil Nederland een voortrekkersrol geven op het gebied van zelfrijdende auto’s, las ik bij Nu.nl. Daarvoor zijn wel een aantal wetswijzigingen nodig, en dat intrigeert me dan: wat zou je nu in de wet moeten veranderen om met een zelfrijdende auto de weg op te kunnen? Plus, wat gebeurt er bij een ongeluk?

De voorgestelde regels zijn via internetconsultatie alvast bekend gemaakt.

Het komt er in het kort op neer dat de RDW gaat bepalen wat er bij wijze van test de weg op mag. Zij mogen een ontheffing verlenen onder de regeling voertuigen aan fabrikanten van zelfrijdende auto’s, logisch want anders mogen ze de weg niet op. Ook kunnen ze bepalen dat bij wijzigingen aan de prototypes niet meteen een herkeuring nodig is.

En intrigerend: men mag ontheffing van bepaalde verkeersregels verlenen. Dat lijkt te gaan over het moeten voeren van verlichting, reflectoren en dergelijke maar het intrigeert me wel: welke verkeersregels zou een zelfrijdend voertuig mogen schenden? De enige die ik kan bedenken, is afstand houden tot je voorganger. Zelfrijdende auto’s kunnen vaak heel efficiënt in een treintje rijden, dat scheelt brandstof en zij kunnen snel genoeg reageren op de acties van hun voorganger.

Tot mijn verbazing zag ik niets over aansprakelijkheid bij een ongeval. Dat is namelijk een hele lastige, omdat volgens de Wegenverkeerswet de bestuurder verantwoordelijk is voor het weggedrag van de auto. Maar een zelfrijdende auto hééft niet noodzakelijkerwijs een bestuurder. Er kan iemand in zitten die op een noodknop kan drukken of het stuur kan overnemen, maar er zijn ook varianten waarbij de auto als volledig autonome robot de weg op gaat. En wie is dan de bestuurder?

Als je de eis van een bestuurder letterlijk neemt, dan kan zo’n volledig autonome robot de weg dus niet op. Er zal altijd iemand in de auto moeten zitten, en die is dan aansprakelijk. Ook al kan hij in feite nauwelijks ingrijpen omdat de computer in de auto het allemaal sneller en beter weet. Overigens, als die persoon een werknemer dan is de werkgever aansprakelijk voor de schade natuurlijk.

Bij de proeven zal het wel meevallen maar ik vraag me wel af wat er zou gebeuren als we werkelijk massaal met zelfrijdende auto’s gaan rondrijden. Zou dan de producent van het voertuig aansprakelijk zijn? Je bent immers als producent aansprakelijk voor veiligheidsgebreken in je product, en er is niet echt verschil tussen een televisie die ontploft en een auto die tegen een andere auto aanrijdt. Of leggen we het toch bij de eigenaar, net zoals we dat doen bij dieren? Ook soort van autonome robots immers.

Arnoud