Je blijft echt gewoon bestuurder als je de AutoPilot van je Tesla aanzet

Het gerechtshof in Leeuwarden stelt dat de bestuurder van een ‘zelfrijdende’ Tesla terecht is beboet, omdat hij tijdens het rijden zijn telefoon vasthad. Dat meldde Nu.nl gisteren. Hiermee wordt de uitspraak in eerste instantie van afgelopen november bevestigd. De Tesla-bestuurder was Vincent Evers, die stelde dat niet hij de bestuurder van de Tesla was, maar de Autopilot-software. Ook het Hof had er weinig moeite mee om die stelling omver te helpen, en ik blijf erbij dat het weinig verrassend is. Maar goed, dat internetrecht hè, nieuwe technologieën roepen nieuwe vragen op. Eh, goed.

Zoals ik vorig jaar al zei, de term ‘Autopilot’ vind ik dubieus omdat het zo klinkt alsof de auto volledig automatisch bestuurd wordt. Ongeveer zoals een vliegtuig op de automatische piloot kan vliegen en zelfs landen zonder dat er een mens nodig is. Daar zijn we softwaretechnisch nog lang niet met auto’s, dus ik vind het ergerlijk dat Tesla doet van wel en dat mensen daar in zodanige mate op vertrouwen dat we dit soort discussies moeten voeren.

Het argument in hoger beroep komt er als ik het zo lees op neer dat een rij-instructeur geen bestuurder is (en dus een telefoon mag vasthouden) terwijl een instructeur meer bij het rijden betrokken is (want leerling bij de les houden) dan de Tesla Autopilot-aanzetter. En dat is dan oneerlijk. Het Hof gaat daar niet direct op in, ik vermoed omdat “hullie mocht het wel” in het verkeersrecht geen argument is.

Uiteindelijk komt het erop neer dat je een auto al heel snel bestuurt, ook als je niet alle besturingshandelingen zelf verricht. Aan het stuur zitten terwijl je auto wordt geduwd of gesleept, maakt je bijvoorbeeld al bestuurder. Dat trekt het Hof hier logischerwijs door:

Het inschakelen en ingeschakeld houden van de Autopilot – die immers rechtstreeks de bedieningsorganen beïnvloedt – brengt mee dat op die wijze of met behulp daarvan de bedieningsorganen worden gehanteerd waardoor de voortbeweging en rijrichting van het motorvoertuig worden beïnvloed. Het gebruikmaken van een dergelijk systeem betekent dat de betrokkene als feitelijk bestuurder dient te worden aangemerkt.

Oftewel: jij zet een heel procedé in gang waarmee de auto gaat rijden, daarom noemen we jou de bestuurder. Dat er onder de motorkap dan een heleboel gebeurt, en dat dat veel meer slimmigheidjes betreft dan in een DAF 55, is dan uiteindelijk niet relevant. Er is een bestuurder, want er moet een bestuurder zijn. Dus dan maar de persoon die op de knop drukt.

Heel praktisch, maar volgens mij ook heel rechtsfilosofisch uiteindelijk wel juist: zolang een computer geen rechtspersoonlijkheid heeft, kun je daar moeilijk motieven of keuzevrijheid of andere menselijke eigenschappen aan toekennen. Alles dat een computer doet, wordt dan toegerekend aan de mens die hem aanzet. Denk daar eens diep over na.

Arnoud

11 reacties

  1. Is niet zo moeilijk voor die rechter denk ik zomaar. Het begrip ‘autopilot’ is al heel lang bekend.

    Dat Tesla en ander autofabrikanten het zelfrijdend noemen is gewoon een andere naam.

    Maar dat krijg je als je als overheid altijd maar probeert om tekstuele spelletjes te spelen om maar gelijk te krijgen. Voorbeelden te over.

    1. @Freek: Iedere Tesla laat bij het opstarten ook vrij duidelijk zien dat de autopilit nog steeds actieve medewerking van de ‘bestuurder’ vereist. Afgezien van de wat dubieuze benaming autopilot is Tesla altijd heel duidelijk geweest over de (beperkte) functionaliteit.

      De man die de boete heft gekregen, wil alleen graag gelijk krijgen en probeert dit door zolang mogelijk te procederen. Hij wil alleen niet snappen dat blijven procederen geen nut heeft, want de huidige wet is heel duidelijk, zoals de laatste alinea van Arnoud al aantoond.

      In plaats van te procederen, zou hij dus moeten gaan lobbyen om de wetgeving aangepast te krijgen, maar daarmee zal zijn boete niet komen te vervallen.

      Toch voorzie ik nog wel een probleem met volledig autonome auto’s, want als deze door een bedrijf worden geleased, zullen ze ook gewoon dealer-onderhouden worden. Maar zodra de auto tweedehands op de markt komt en het onderhoud minder intensief wordt (of wordt gedaan door Garagebedrijf Gerrit, die vanuit de carport naast zijn huis werkt) vraag ik me af of alle sensoren en software wel goed wordt onderhouden en bijgewerkt.

      1. “De man die de boete heft gekregen, wil alleen graag gelijk krijgen en probeert dit door zolang mogelijk te procederen.” Ah, da’s inderdaad een lastige: geen gelijk hebben en toch gelijk willen krijgen. Ik probeer het tegenwoordig andersom. Wel gelijk willen hebben, maar niet zo moeilijk doen als je het niet krijgt. Scheelt een hoop stress.

  2. Prima uitspraak. Die drammerige stuiterbal meent dat gadgets uitgezonderd moeten worden van de wet, zeker als het hem zelf aangaat. Je Autopilot verantwoordelijk stellen lijkt m.i. alleen mogelijk als deze je tegenwerkt (of niet juist functioneert) in de controle over het voertuig; zie analogie met MCAS op de 737Max.

  3. Okay, we zijn nog niet zover. Maar om even rechtsfilosofisch in te steken, ik denk dat “de persoon die de knop indrukt” best verantwoordelijk moet zijn voor verkeersboetes, en dat deze ook aansprakelijk is bij ongelukken (tenzij kan worden bewezen dat het om een ernstige, voorkombare fout in het product). Daar zullen vast mensen boos over worden, “Ik kan er toch niets aan doen dat dat ding het niet goed doet”, maar het lijkt me de enige logische keuze. Jij bent verantwoordelijk voor eventuele fouten die die machine maakt. Echter denk ik dat “telefoon achter het stuur” en soortgelijke overtredingen anders moeten worden bekeken wanneer autonomische auto’s een ding zijn. Die wet is namelijk niet relevant voor “de persoon die de knop indrukt”.

    1. Een paar weken geleden reed ik met mijn auto op een 80km weg toen hij plots uitzichzelf naar rechtsstuurde. Gelukkig had ik beide handen aan het stuur en was ik niet met de radio oid bezig, waardoor ik net op tijd kon corrigeren door actief tegen te sturen en op de weg bleef.

      Alle assistentie functies stonden uit, echter ik zat achter het stuur en ik heb de auto aangezet. In het log van de auto geen enkele foutmelding! Ik heb het overleefd en de auto staat nu al enkele weken voor onderzoek bij de fabrikant, laatste bericht was een software fout waarvoor nog geen oplossing beschikbaar is. Hoeveel mensen zijn van de weg geraakt en hebben daar zelf de schuld van gekregen? Iedereen vertrouwt blind op logs en als je het niet na kan vertellen ben je posthuum een slechte chauffeur.

      1. Ik snap niet precies waar deze reactie aanhaakt op mijn commentaar.

        Maar om toch te reageren, als het om autonome auto’s gaat, ben je dan wat mij betreft dus verantwoordelijk voor ongelukken. Je bent echter nooit een slechte chauffeur, want autonome auto. Als er vervolgens berichten komen dat meerdere mensen dit hebben ervaren, kan er verder onderzoek komen. Ligt het aan de weg? De belijning? De sensors? De software? De auto? Als het meer is dan “er gaat wel eens iets fout”, dan gaat de verantwoordelijkheid van eigenaar van de auto naar whatever er fout zit.

        1. Ik wilde inhaken op “tenzij kan worden bewezen dat het om een ernstige, voorkombare fout in het product”. De fout in de software van mijn auto zou ik omschrijven als een ernstige fout in het produkt. Voorkombaar? blijkbaar niet, dat zou ook geen criterium moeten zijn. Ook als de fout onvoorkombaar was geweest, de fabrikant heeft deze gemaakt, niet degene die de auto start.

          Mijn tweede issue is met ’tenzij kan worden bewezen’. Kenmerk van de fout was is deze niet in logbestanden oid terecht komt. Als je de auto uitzet is alle bewijs van het optreden van de fout verdwenen. De auto schakelt automatisch uit als je de bestuurdersdeur opent. Als je door deze fout iemand aanrijdt en uitstapt om te helpen is daarmee dus het enige bewijs van een storing verdwenen. Gaat die persoon dood en roep jij ‘mijn auto stuurde uitzichzelf naar rechts’ dan kan je net zo goed meteen je naam in Marco Bakker veranderen.

          Het is echter nu wel zo dat als je als automobilist een voetganger of fietser aanrijdt jij schuldig bent. De kans dat de fout optreedt is volgens de fabrikant uiterst klein, dus civiel rechtelijk ben je de lul, geen rechter die gaat geloven dat deze fout precies op dat moment optrad als de kans op een stuurfout van de bestuurder groter is!

          Strafrechtelijk ben ik ook nog niet zo zeker dat een rechter dit scenario niet terzijde schuift. Om te beginnen heeft o.a. de zaak van Lucia de Berk en het onbegrip van de beperkingen van DNA bewijs (hoe groter je DNA databank hoe groter de kans op false positives, terwijl men nog steeds denkt dat dit zeldzaam is.) wel duidelijk gemaakt dat justitie en rechters in Nederland niet in staat zijn op een deugdelijke wijze met statistisch bewijs / kans berekening om te gaan.

          Het probleem is dus helemaal geen probleem met autonome auto’s in de toekomst. Het probleem bestaat al lang aangezien vrijwel elke middenklasse auto tegenwoordig al vol met software zit en meer en meer autos een electrische stuurbekrachtiging hebben.

  4. Heel praktisch, maar volgens mij ook heel rechtsfilosofisch uiteindelijk wel juist: zolang een computer geen rechtspersoonlijkheid heeft, kun je daar moeilijk motieven of keuzevrijheid of andere menselijke eigenschappen aan toekennen. Alles dat een computer doet, wordt dan toegerekend aan de mens die hem aanzet. Denk daar eens diep over na.

    Waarom kies je voor diegene die de computer aanzet en niet voor diegene die de computer gebouwd/geprogrammeerd heeft?

    De ‘beslissingen’ die de computer neemt zijn een creatie van de hand van de bouwer, niet van de aanzetter. De aanzetter heeft hier waarschijnlijk helemaal niets aan bijgedragen en weet ook helemaal niets van de interne werking…

    De bestuurder van een voertuig is diegenen de beslist waar, hoe, hoe snel etc. een voertuig zichzelf verplaatst. Dat zijn inhoudelijke beslissingen die niet door de aanzetter genomen worden. Die zegt alleen maar “ik wil van A naar B”. Hoe dat doel bereikt wordt is besloten door de bouwer/programmeur/ontwerper.

    Stel dat ik mijn zelfrijdende auto opdracht geef naar mijn werk te rijden. Echter na een software update doet mijn auto dat, maar wel met 160 via de verkeerde weghelft. Dat kan toch nooit mijn verantwoordelijkheid zijn aangezien dat beslissingen zijn die niet ik, maar de bouwer/ontwerper gemaakt hebben?

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.