Mag Tesla mijn automatisch-sturenfunctie afpakken als ik het stuur loslaat?

Een lezer vroeg me:

Ik heb een oude Tesla (2017) en daar is destijds extra betaald voor de Verbeterde Autopilot (€ 5800) en Zelfrijdende functie (€ 3500). Sinds de laatste software update dreigt de auto die functie uit te schakelen als hij vaker dan 3x “misbruik” van deze functie detecteert. Dus, als ik niet op tijd aan het stuur jutter noemt hij dat misbruik. Eerst wordt de autopilot voor de rest van de rit uitgeschakeld en na 3x dus helemaal. Toen de auto gekocht werd was alleen van “uitschakelen voor de rest van de rit” sprake. Nu suggereert de waarschuwing (ik heb ‘m niet kunnen vastleggen) dat deze, duurbetaalde, functie zomaar door Tesla kan worden afgepakt. Mag Tesla zomaar gekochte functionaliteit afpakken?
‘Afpakken’ is niet helemaal de juiste term. Het gaat om een veiligheidsmaatregel bij herhaaldelijk onjuist gebruik van de autopilot-functie. Dit is een tijdelijke maatregel: na vijf keer ingrijpen door het systeem kun je een week lang geen gebruik maken van deze functie.

De onderliggende reden ligt bij de Amerikaanse toezichthouder NHTSA, die in december 2023 met Tesla na een terugroepactie afspraak dat ze een “Suspension Policy” zouden invoeren:

Introduced a Suspension Policy that will restrict Autosteer usage for one week if improper usage is detected. Improper usage is when you, or another driver of your vehicle, receive five “Forced Autopilot Disengagements.”
Het probleem was dat mensen deze automatische stuurfunctie aanzetten en dan het stuur loslaten en/of niet meer naar de weg kijken. Daar komen ongelukken van, vandaar dat de toezichthouder eiste dat hier een effectieve controle met sanctie voor ingeprogrammeerd zou worden.

In Europa hebben we natuurlijk niets te maken met de Amerikaanse National Highway Traffic Safety Administration, daar is deze update aan de auto een gewone, vrijwillige verandering van de fabrikant. Dat mag, tenzij de verandering in gaat tegen de verwachting die je als koper van zo’n auto redelijkerwijs mocht hebben.

In de handleiding bij Autosteer staat natuurlijk

“Autosteer is a hands-on feature. You must keep your hands on the steering wheel at all times. … Failure to follow these instructions could cause damage, serious injury or death.”
Hier staat nu ook uitgelegd hoe deze sanctieregeling werkt, maar dat stond er natuurlijk niet toen de vraagsteller de feature kocht (2017), want die regeling is pas eind 2023 ingevoerd.

Mag je redelijkerwijs verwachten dat een autofabrikant extra veiligheidsmaatregelen neemt om (mogelijk dodelijke) ongevallen te voorkomen? De vraag stellen is ‘m beantwoorden: natuurlijk mag dat.

Het zit hem in redelijkheid en proportionaliteit, is deze manier van afstraffen van kennelijk misbruik een gepaste reactie? Ik neig naar ja: het is nu eenmaal écht niet gewenst dat je je ogen van de weg haalt of het stuur loslaat, ongeacht wat de reclame over zelfrijdende auto’s je wijs wil maken. Auto’s en andere weggebruikers zijn daar niet voor gemaakt. De sanctieregeling is daarbij getrapt opgebouwd en beperkt je een relatief korte tijd.

De enige twijfel die ik heb, zit hem in hoe accuraat de gevaardetectie van Tesla is. Ik lees her en der verhalen dat hij ‘zomaar’ een sanctie oplegt, maar die komen vaak uiteindelijk toch neer op “ik keek maar éventjes naar de Spotify-instellingen” of “ik deed één yoga-oefening” en niet naar “ik hield de handen op het stuur en keek naar buiten, maar toch”.

Arnoud

32 reacties

  1. it is een tijdelijke maatregel: na vijf keer ingrijpen door het systeem kun je een week lang geen gebruik maken van deze functie.

    Dat tijdelijke waar de vrager permanent suggereerde, is wel een belangrijk detail. Bij permanent uitschakelen geldt dat ook na een rijcursus en ook bij verkoop van de auto.

    Maar ook bij tijdelijk: hoe is het redelijk dat ik de functie niet kan gebruiken omdat mijn partner het stuur loslaat om in de tas te snuffelen? Des te meer bij een huurauto.

    vrijwillige verandering van de fabrikant. Dat mag, tenzij de verandering in gaat tegen de verwachting die je als koper van zo’n auto redelijkerwijs mocht hebben.

    Maar die verwachting is er toch als de functie heel expliciet separaat is beprijst?

    Patat met is duurder dan zonder. Als ik een patat met koop, verwacht ik er mayo bij. Wordt ik boos als de verkoper het afneemt als ik wat op mijn jas klieder.

    In mijn werk-praktijk: is het redelijk als een softwareleverancier zonder keuze daarin van beheer van de organisatie bedrijfsbreed de mail-functionaliteit een week blokkeert als drie keer in een week een collega op een phishing link heeft geklikt / is het reëel als thuis Windows mijn adminrechten afneemt als ik drie maal malware hebt geopend? Dat kan ook grote gevolgen hebben voor organisatie en maatschappij (botnets etc.).

    Of fysiek: is het redelijk als Hertog Jan bij mij thuis komt om het krat op te halen als ik driemaal met een slok op in de auto ben gestapt? (Ook dit is een fictief voorbeeld, natuurlijk. Ik bob).

    Ik zou stellen dat geen van deze gevallen redelijk is. Als Tesla de functie gevaarlijk acht: verkoop ‘m niet.

  2. Mag je redelijkerwijs verwachten dat een autofabrikant extra veiligheidsmaatregelen neemt om (mogelijk dodelijke) ongevallen te voorkomen? De vraag stellen is ‘m beantwoorden: natuurlijk mag dat.

    Deze vraag is in deze context niet geheel van toepassing. De vraag zou moeten zijn:

    Mag je redelijkerwijs verwachten dat een autofabrikant ongevraagd extra veiligheidsmaatregelen neemt na de verkoop van het product?

    Indien er vanuit overheidswege geen aanwijzingen zijn dat het product aangepast zou moeten worden of is gebleken dat een onderdeel van het product een evident gevaarlijke situatie zou veroorzaken, dan is het antwoord nee.

    Dergelijke situaties hebben we ook gezien bij andere producten, waarbij de fabrikant achteraf verkochte functionaliteit verwijderd en/of aanpast. De fabrikant Sony is hierom wel bekend.

    1. Mag je redelijkerwijs verwachten dat een autofabrikant ongevraagd extra veiligheidsmaatregelen neemt na de verkoop van het product?

      Of een auto er onder valt weet ik niet, maar ja: https://blog.iusmentis.com/2022/02/09/tweede-kamer-akkoord-met-updateplicht-voor-verkopers-slimme-apparaten/

      Maar de vraag is hier: mag dat nadelige gevolgen hebben qua beloofde functionaliteit? Zelfs waar die specifieke functionaliteit expliciet los is aangeschaft? Gaat de maatregel verder dan nodig (uitschakelen voor het komende rit, versus de komende maand)?

        1. Maar de beloofde functionaliteit is niet inherent onveilig. Deze is onveilig indien verkeerd gebruikt.

          Het is in de eerste post al aangekaart dat een ander in de auto kan rijden en dit kan triggeren. Waarom mag ik de functie niet gebruiken.

          Los daarvan heb ik in een Tesla gereden met deze functie en als je het stuur vast hebt, maar ’te stil’ zit concludeert de auto onterecht dat je het stuur niet vast hebt. Het systeem werkt domweg niet, tenzij je als een spast het stuur vasthoudt.

          Met andere woorden, je krijgt een week een ban op het systeem, omdat het detectiesysteem heeft gefaald.

          Daarmee schakelt Tesla dus zonder hard te kunnen maken dat je echt onveilig rijdt betaalde functionaliteit uit. En daarbij komt ook de vraag: waarom mag Tesla bepalen of wat ik doe veilig is of niet? What’s next: als je een zonne bril op hebt kan het systeem niet zien of je ogen op de weg houdt, dus dan schakelen we het systeem ook maar voor een week uit als je die draagt?

          Tesla kan de juiste werking van hun systeem niet bewijzen, sterker nog je kan bewijzen dat de functie niet correct werkt, dus hoe gaat Tesla in een rechtzaak aantonen dat ze terecht jouw betaalde functie hebben uitgeschakeld?

          1. Het gaat erom of er situaties zijn waarin gebruik van de functie onveilig is. Die zijn er (gebleken ongevallen) en dus moet Tesla daar wat aan doen. Dat hebben ze gedaan, en dat heb jij als klant te accepteren. Dat daardoor de functionaliteit minder is, is deel van wat je gekocht hebt. Je kunt geen aanspraak maken op het deel van de functie dat (potentieel) onveilig is. Leuk dat je dat een tijdje kon, maar daar had je geen recht op. Je kunt geen recht hebben op een onveilig gebruik van een functie, dat is niet iets dat je koopt. Dat kan er per abuis bij zitten, maar dat is dan iets totdat het ontdekt wordt.

            Auto’s moeten veilig zijn in het gebruik. Tesla moet dus veiligheidsmaatregelen inbouwen. En natuurlijk, je kunt er voor kiezen 300 te rijden in een woonwijk. Dat is ook onveilig. Waarom dat dan niet technisch verhinderen? Dat is vooral een proportionaliteitsdiscussie, dit gebeurt érg weinig en kost heel veel. Je handen van het stuur halen gebeurt veel bij mensen die Self Drive aanzetten, dit detecteren is een vrij eenvoudige manier om dat te voorkomen.

            1. In Europa heeft elke nieuwe wagen verplicht een systeem dat de snelheid opvolgt en een alarmsignaal geeft als er te snel gereden wordt.

              Het is technisch relatief eenvoudig om ook de maximumsnelheid na enkele overtredingen deftig te beperken en/of het vermogen grondig te knijpen.

              Ik zelf een auto gehad die niet meer wou starten als de -toen- 2 remlichten defect waren. Waarschijnlijk bewust werd de reden niet aangegeven. (Ik had veeel liever gehad als er bij het eerste defecte remlicht een duidelijke waarschuwingsboodschap kwam.)

              1. Ik heb een auto met zo’n systeem.

                Als ik in Almere weg rijdt denkt het systeem dat ik in een voetgangersgebied rijdt en geeft aan dat ik 5km/uur mag rijden. Ik parkeer en rijd echter onder het voetgangersgebied op een 50km/uur weg. Dus als ik 5 keer vergeet het systeem bij vertrek uit te zetten belsuit het systeem 5km/u op een 50km/u weg af te dwingen? En dat is geen onveilige situatie? Dit is dus 100% van alle autoritten die ik vanaf huis maak die fout gaan!

                Als ik vervolgens naar Amsterdam rijdt pakt het systeem eerst random wel of niet de maximum snelheid op de spitsstrook. 5 keer pech en mijn auto gaat op de snelweg waar ik 100 mag automatisch naar 90 afremmen?

                Vervolgens kom ik bij de nieuwe gaasperdammertunnel daar pakt de auto steevast de borden van de parallelweg en op de terug weg zelfs van de afslag. Gaat de auto dan op een 100km/u weg mij afremmen naar 80 of zelfs 60km/u?

                Amsterdam en bovenstaande problemen is circa 80-90% van mijn autoritten. Je zult begrijpen dat mijn eerste handeling was ISA permanent uit te schakelen (auto is van voor juli) en bij een nieuwe auto zal de eerste handeling bij het starten zijn dat ik het systeem uitzet. Auto’s waarbij dat niet met een simpele druk op de knop kan overweeg ik niet eens meer.

                Mensen hechten veel te veel waarde aan en de politici dichten veel te veel mogelijkheden toe aan de techniek. De wet die ISA verplicht is aangenomen door politici die ongeremd door gebrek aan kennis en hun idee doordrukken.

            2. Dan moet de detectie wel zo ongeveer foutloos werken. Wat ik van meerderen heb gehoord is dat je met handen aan het stuur kunt hebben dat een Tesla zegt dat je ze niet aan het stuur hebt bij te weinig beweging.

              Hoeveel mensen kunnen veilig sneller dan 200km/uur rijden. Dat zou dan ook op elke auto geblokkeerd mogen worden als dat 3x gedaan wordt binnen een jaar. Ik noem bewust een snelheid die ruim hoger is dan toegestaan in de meeste Europese landen.

              1. Ik heb zelf die ervaring, hoef het niet van anderen te horen. Gelukkig de auto van een collega waar ik richting wintersport in reed en heb ik zelf niet zo’n gedrocht van Tesla.

                Het systeem faalt op meerdere punten: * Veel, heel veel, false positives * Makkelijk te omzeilen met trucs, die zelfs een normale gebruiker uiteindelijk toepast vanwege het vorige punt * Het systeem straft alle gebruikers voor het gedrag van een enkele gebruiker

                Het eerste punt zou al voldoende moeten zijn om Tesla te verbieden om het systeem langer dan de rest van de rit uit te schakelen. Tesla schakelt nu een betaalde functie uit, terwijl het niet eens hard kan maken dat je het systeem misbruikt. Puur omdat hun detectie zo slecht is. Als je echt zo’n systeem wil invoeren en verdedigen dat het bijdraagt aan de veiligheid dan zouden er m.i. twee zaken moeten veranderen: * Betere detectie waarbij een false positive zeldzaam is, waardoor de kans op 5 false positives niet realistisch meer is. * Koppelen aan persoonlijke sleutels, zodat je alleen de rijder met een bepaalde sleutel ‘straft’. Want dat is het: een straf zonder deugdelijk bewijs door een privaat bedrijf.

                Koppelen aan persoonlijke sleutel is een prima bestaand systeem. Ik heb jaren terug al een auto gehad die obv de sleutel in je zak de bestuurdersstoel goed zetten. ( https://www.youtube.com/watch?v=Ex8I4bhnuZg )

                1. Geen edits mogelijk dus…

                  Wat ik met dat laatste punt maar wil zeggen: het systeem volledig uitschakelen is disproportioneel er zijn al jaren mogelijkheden om bestuurders te onderscheiden. Kan je dat omzeilen door sleutels te wisselen; ja natuurlijk. Maar je kan het hele systeem ook omzeilen met een gewicht en een elastiekje.

                  … en niet naar “ik hield de handen op het stuur en keek naar buiten, maar toch”.

                  Je hebt blijkbaar niet zelf in een Tesla met dit systeem gereden, want dat is precies wat er met enige regelmaat gebeurt. Eigenlijk diep triest dat je als je het stuur vast hebt, maar ’te licht’ het uitschakelt, maar met een sleutolbos aan een elastiekje niet. Als het mijn auto was geweest had er permanent een gewicht met elastiek aan het stuur gehangen.

            3. Maar de functie is niet onveilig, zelfs gebruik van de functie is niet onveilig. De gebruiker benut die op een onveilige manier. Dat het systeem dan voor de rit de functie uitschakeld na constatering is nog wel te verdedigen.

              (hoewel zoals ik aangeef het systeem veel false positives geeft en er idioot simpele manieren zoals een bos sleutels met een elastiekje aan je stuur zijn om true positives te voorkomen)

              Auto’s worden door meerdere gebruikers benut, het is dan ook volkomen idioot te stellen dat het de veiligheid bevordert door alle gebruikers van de auto een week op het strafbankje te zetten. Wat mijn partner in mijn auto doet is geen grond om mij in het gebruik van mijn eigendom te beperken. En laten we wel wezen: dat is ook niet wat de EU vraagt. Dat is wat men in de VS vraagt, alwaar men wel vaker doorslaat uit angst voor de cultuur van rechtzaken tegen de muur gooien en kijken wat blijft hangen.

              Het eveneens niet functionerende ISA systeem in de EU is gewoon door de gebruiker – voor elke rit – uitschakelbaar. Bij ons heeft de bestuurder die verantwoordelijkheid, wat mij terecht lijkt bij een apparaat dat door meerdere mensen gebruikt wordt, en wat de overheid in de VS wil is hier niet van belang. Het is hier niet vereist dus neemt Tesla een functie af zonder enige wettelijke verplichting, noch een steekhoudende grondslag.

  3. Voor mijn beeldvorming, kan iemand uitleggen wat het nut en/of gemak is van een zelfsturende auto als je wel je handen aan het stuur moet houden?

    En als we toch bezig zijn, weet iemand hoe “streng” die feature is? Ik lees hier namelijk “..your hands..”, als in meervoud oftewel beide handen. Kan je nog wel aan je neus krabben of met een hand de radio bedienen als je die zelfsturende feature aan hebt staan, of komt dat je gelijk op een waarschuwing te staan?

    1. Nee, af en toe met een vinger je stuur wat weestand bieden is zat. Dat laat zien dat je oplet. Maar… afhankelijk van de auto werkt het ook om die weerstand te geven middels elastiekje of je sleutelbos die aan je stuur bengelt. Dan gaat je auto ook door als je in slaap valt of diep in je handschoenenvakje zit te zoeken. En dat is eng. Maar dat is ook aan de bestuurder en niet aan een security update.

      Bij mijn auto van ander merk: je kan je handen een aantal seconden van het stuur houden, ik meen 30. Daarna gaat ‘ie piepen om je te vragen de handen weer aan het stuur te doen, als dat niet gebeurt volgt schokkerig remmen om je wakker te schudden en daarna gaan de alarmlichten aan en stopt ‘ie.

      Maar lane assist is naar het schijnt eigenlijk bedoeld voor hoe het heet: zorgen dat je met handen aan het stuur licht wordt gecorrigeerd als je een lijn dreigt over te gaan.

      Het probleem is dat de software prima slim genoeg is om op de snelweg bij normale omstandigheden volledig zelf te sturen. Maar niet slim genoeg voor de uitzonderingen op de weg. Zolang we in die ‘uncanny valley’ zitten gaan mensen iets te veel vertrouwen hebben in de AI.

      Maar nogmaals: als Tesla vindt dat het gevaarlijk is, moeten ze het überhaupt niet verkopen of direct na loslaten van het stuur uitschakelen. Ook in 30 seconden kan het goed mis gaan. En het niet mogelijk maken dat het voldoende is als je eens per minuut even met je knie je stuur aanraakt terwijl je de krant leest (fictief voorbeeld).

        1. Ok, ik moet zeggen: die met schietstoel zou ik kopen..

          Maar inderdaad. https://static.nhtsa.gov/odi/rcl/2023/RCLRPT-23V838-8276.PDF

          … and eventual suspension from Autosteer use if the driver repeatedly fails to demonstrate continuous and sustained driving responsibility while the feature is engaged.

          Als je moet als Tesla dan moet je – waarbij de details van de maatregel door hen worden bedacht. En hoewel bedrijven graag onderscheid maken in regio als het hen uitkomt (GDPR? Only when you are in Europe), is dat anders waar ze het geld al binnen hebben en onderscheid maken alleen maar geld kost. En er ligt vast ergens een rapport in een la voor als de eerste komt klagen dat de auto crashte na maar 2x 20 seconden het stuur overlaten aan de AI.

          Ik hoop wel dat Tesla nu in de kleine letters heeft staan dat de functie soms ‘zomaar’ een periode stopt. Op apparaat-niveau en niet per bestuurder. En er blijft onderbuik-wrevel over dat het een los bedrag is wat ze vragen waarna ze het uitschakelen, maar dat is mijn probleem.

          1. Ik begrijp eigenlijk niet precies wat je standpunt nu is. Zoals ik het zie is het probleem met die feature dat het mensen er toe aanzet om onveilig te handelen door de handen van het stuur te halen en niet meer op de weg te letten. Het systeem, dat als uiteindelijk einddoel heeft om dat inderdaad mogelijk te maken, blijkt daar nu nog niet voor geschikt met ongevallen als resultaat. Er moest dus worden ingegrepen, want alleen in de handleiding waarschuwen om op te blijven letten bleek niet voldoende. Dat is natuurlijk uiteindelijk een gebrek aan verantwoordelijkheid bij de consument, maar goed deze functionaliteit maakte het te gemakkelijk om het apparaat op een verkeerde en gevaarlijke manier te gebruiken en ook de naam “self drive” hielp daarbij niet. In het breder algemeen belang heeft de toezichthouder dus ingegrepen en Tesla gedwongen om de nog niet werkende functionaliteit technisch onbeschikbaar te maken. Ik zie het verschil niet met, bijvoorbeeld, een oven die zou kunnen exploderen als je per abuis de temperatuur te hoog instelt en tegelijkertijd de grill aan zet, zelfs als in de handleiding staat dat je dat niet moet doen. Dat laatste is gewoon niet goed genoeg als de resultaten zo ingrijpend kunnen zijn.

            1. Het punt is hier dat het systeem prima werkt: Het doet wat het moet doen, binnen de technische mogelijkheden die het heeft. Het is dus op zich onterecht om het systeem onklaar te maken, het werkt immers zoals bedoeld door de ontwerper en zoals verkocht aan de koper.

              Je moet twee dingen onderscheiden: ‘werkt het systeem volgens de specificaties’ en ‘gebruiken mensen het systeem op de juiste manier’. Als het antwoord op de tweede vraag is: ‘af en toe niet’ (nog afgezien van hoe betrouwbaar de detectie is) is het onlogisch om een aanpassing uit te voeren die eerder bij de eerste vraag past.

              De auto met Autopilot is namelijk nog steeds veiliger dan de auto zonder Autopilot, bij iedere gegeven toestand van de bestuurder. Als je die Autopilot afschakelt, heb je dus helemaal niet de veiligheid verhoogd!

              Jouw analogie van de oven klopt niet, met name omdat iedereen weet dat je tijdens het rijden je aandacht erbij moet houden. Het systeem creert een uitzonderlijke situatie in dat het systeem mogelijk maakt dat dat slechts beperkt hoeft, INDIEN je je aan bepaalde voorwaarden houdt.

              Bij jouw oven is er wel degelijk een technisch gebrek, omdat er een gevaarlijke instelling gekozen kan worden, en dat moet natuurlijk technisch verholpen worden. Bij de auto is er geen technisch gebrek, maar een procedureel gebrek, en het is natuurlijk gek om dat technisch te verhelpen.

              Ik vind een betere analogie: ‘Onze nieuwe oven is zodanig ontworpen dat de kans dat je per ongeluk een heet oppervlak aanraakt en je verbrandt heel laag is. Maar zoals bij iedere oven moet je nog steeds wel ovenhandschoenen dragen’.

              Moet die oven dan automatisch geconverteerd worden in een ouderwetse, gevaarlijkere, oven als de oven denkt dat je geen handschoenen draagt? Natuurlijk niet, lijkt me.

              1. De auto met Autopilot is namelijk nog steeds veiliger dan de auto zonder Autopilot, bij iedere gegeven toestand van de bestuurder. Als je die Autopilot afschakelt, heb je dus helemaal niet de veiligheid verhoogd!

                Je maakt hier een logische denkfout, je doet namelijk de aanname dat de toestand van de bestuurder onafhankelijk is van de status van de autopilot. En het hele punt achter dat uitschakelen is nu juist dat dat niet zo is!

                1. Ik heb de indruk dat jij de logische denkfout maakt. Mensen (bestuurders) zijn geen deterministische systemen die op een voorafbepaalde manier reageren op een verandering van een toestand..

                  Ik doe niet de aanname dat de toestand van de bestuurder onafhankelijk is van de status van de autopilot.

                  Ik doe wel de aanname dat als de toestand van de bestuurder afhankelijk is van de status van de autopilot, dat dat alleen of grotendeels de fout is van de bestuurder. Die verwacht namelijk zonder enige reden (dus uit domheid/onbenulligheid) een functionaliteit van autopilot die er gewoon niet is.

                  Maar eigenlijk gaat het niet eens om de vraag of Autopilot uitgeschakeld mag worden bij een bestuurder die duidelijk een idioot is. De vraag is eerder of die uitgeschakeld mag worden op basis van een dubieuze bepaling van de mate van idiootheid van de bestuurder, waarbij ook nog de bestuurder, door flink extra te betalen, bewust en expliciet heeft aangegeven dat hij de functionaliteit van Autopilot (ondanks zijn beperkingen) wil hebben en dus wat betreft de acceptatie van alle features daarvan a priori niet als idioot valt te beschouwen.

                  1. De zin: “De situatie met A is altijd beter dan de situatie zonder A, onafhankelijk van de toestand van B”

                    Is alleen logisch correct onder de aanname dat A en B onafhankelijk zijn.

                    Dus, evidente logische denkfout. Ga ik verder geen woorden meer aan vuil maken.

              2. Gebruik van de auto met Autopilot blijkt vaker tot onoplettendheid te leiden dan gebruik van de auto zonder Autopilot. Iedereen weet al sinds z’n rijles dat je altijd handen aan het stuur en naar buiten moet kijken.

                De Autopilot kan het zeker veiliger/makkelijker maken. Bij verkeerd gebruik gaat het echter mis. Ik zie het dus eerder als een wasmachine die niet open gaat als er nog water in zit. Als dat eerst wel kon (met ondergelopen badkamers tot gevolg) en een software-update lostte het op (eerst pompcyclus starten), dan zou ik ook zeggen: pech gehad dat je nu niet meer je wasmachine open kunt doen als er water in zit.

                Anders gezegd: Ik vind dat geen feature maar een ontwerpfout die er überhaupt niet in had moeten zitten. Idem voor Autopilot waarbij je je handen van het stuur kunt halen. Dat is niet de feature, dat had de feature nooit mogen zijn.

                1. Ik zie het dus eerder als een wasmachine die niet open gaat als er nog water in zit. Als dat eerst wel kon (met ondergelopen badkamers tot gevolg) en een software-update lostte het op (eerst pompcyclus starten), dan zou ik ook zeggen: pech gehad dat je nu niet meer je wasmachine open kunt doen als er water in zit.

                  Het ligt er maar net aan waar je het referentiepunt legt.

                  Zie je dat ‘opendoen wanneer ik wil, waarbij ik natuurlijk de consequenties accepteer als het te vroeg is’ als een feature of als een tekortkoming?

                  Ik kan je wel zeggen dat ik flink geirriteerd raak van wasmachines die niet open kunnen als alles al duidelijk klaar is, maar het ding wil nog 5 minuten napompen. Of van centrifuges die al lang stilstaan, maar de deur heeft een extra (onnodige) veiligheidstimer die nog twee minuten wacht. Natuurlijk stop ik mijn hand er niet in als het ding nog draait!

                  Als je extra betaald hebt voor de feature: kunnen opendoen wanneer je wilt, dan is het helemaal niet een kwestie van pech hebben dat dit door een software-update niet meer kan. Het is verdorie jouw apparaat, jij mag het gebruiken zoals je wilt.

                  Idem voor Autopilot waarbij je je handen van het stuur kunt halen. Dat is niet de feature, dat had de feature nooit mogen zijn.

                  Akkoord als je de feature ziet als: handen mogen van het stuur terwijl je dat anders nooit zou doen. Maar volgens mij is dat de feature niet. De feature is ‘MET JE HANDEN AAN HET STUUR vereist het minder aandacht/bestuurdersinput om met een gelijk veiligheidsniveau te autorijden’.

                  Simpelweg: ik vindt het nogal wat (en daarmee onacceptabel) om je een veiligheidsfeature te ontzeggen omdat je hem af en toe verkeerd gebruikt. ‘Je mag je fluohesje een week helemaal niet aandoen omdat je hem drie keer verkeerd om hebt aangedaan’

                  1. Ik denk dat je over het hoofd ziet dat mensen gewoon slecht zijn in het juist opvolgen van instructies. Ik ben het met je eens dat een auto met autopilot veiliger is als een auto zonder, als verder alle omstandigheden identiek zijn, met name dan hoe goed de bestuurder op let. Dit is nu juist het probleem, die autopilot maakte het te gemakkelijk om niet op te letten, je zou zelfs kunnen zeggen dat die het uitlokte om niet op te letten, en daar was het systeem niet voor geschikt. Net zoals je tijdens je rijlessen leert dat je moet anticiperen op fouten die andere bestuurders maken, zo ook had Tesla moeten anticiperen dat mensen zich niet aan de instructies zouden houden bij het gebruik van autopilot. Een feature die het uitlokt om verkeerd gedrag te vertonen is ongewenst lijkt me. Het systeem deed het dus niet goed, als je naast de puur technische eisen ook eist dat het rekening houdt met natuurlijk menselijk gedrag, wat voor een auto geen rare eis is.

                  2. Ik heb moeite met de aanname “waarbij ik natuurlijk de consequenties accepteer als het te vroeg is”. Ik denk dat mensen zichzelf vaak overschatten, en dat dat in het verkeer des te erger is. 80% van de Nederlanders vindt zichzelf een bovengemiddeld goed bestuurder.

                    Bovendien zijn hier de consequenties niet voor jou een natte vloer (waar net je ipad op lag, zul je altijd zien). Het gaat om andere mensen, waar je Tesla geheel autonoom overheen rijdt omdat jij niet op zat te letten. Dat vind ik onacceptabel. Dus nee, jij hebt die consequenties in het verkeer niet voor lief te nemen, dat is niet aan jou.

                    De feature is in de praktijk opgevat als “doe waar je zin in hebt, de Tesla stuurt wel”. Die zin in de handleiding leest geen hond en is dus niet relevant bij de vraag wat de feature is. De feature “doe waar je zin in hebt de Tesla stuurt wel” is niet maatschappelijk aanvaardbaar.

                    1. Wie moet je hiervan de schuld geven? De reclame-afdeling van Tesla die het auto-pilot noemt? Youtubers die laten zien dat je ook zonder handen kunt rijden?

                      Het (wederom) afschuiven op de consument die de kleine lettertjes niet leest, maar aanneemt dat wat hem door de verkoper voorgespiegeld is, helpt niet. In dit geval is de verkeersveiligheid mede de dupe.

                    2. Ik heb moeite met de aanname “waarbij ik natuurlijk de consequenties accepteer als het te vroeg is”. Ik denk dat mensen zichzelf vaak overschatten

                      Misschien heb je gelijk dat mensen zichzelf vaak overschatten, maar dat is nauwelijks relevant. Het is nu eenmaal een consequentie van volwassen zijn in een democratie dat je vrijwel alles mag, maar zelf ook voor de gevolgen moet opdraaien. Je mag een huis kopen, een lening aangaan, rijden met hoge snelheid, kinderen krijgen en opvoeden, jezelf of je kinderen medische behandeling ontzeggen, ongezond leven, roken, drinken, gevaarlijke sporten doen, etc.

                      En als je dat allemaal mag, dan mag je niet het deurtje van de wasmachine opendoen wanneer je wilt, zelfs al heb je betaald voor die feature?

                      80% van de Nederlanders vindt zichzelf een bovengemiddeld goed bestuurder.

                      Ik hoor dat wel vaker, maar volgens mij is dat een urban legend. En zelfs al zou er data zijn omtrent die uitspraak, dan durf ik de stelling wel aan dat 80% van de Nederlanders ‘gemiddeld’ niet goed geevalueerd hebben: het zijn immers vooral de slechte chauffeurs die opvallen in het verkeer, dus de inschatting van ‘gemiddeld’ is hopeloos gebiased.

  4. Staat de voorwaarde dat Tesla de autopilot gedurende een week mag uitschakelen als er onjuist gebruik wordt vastgesteld niet op de zwarte lijst? De klant wordt het recht ontnomen om nakoming van de toegezegde prestatie op te eisen. Hij heeft immers voortdurend recht op bepaalde features, en door de onderbreking van een week komt Tesla die prestatie niet na.

    Het uitschakelen van functionaliteit gebeurt door automatische besluitvorming op basis van persoonsgegevens, namelijk of (in de regel) de eigenaar van de auto zijn handen aan het stuur houdt. Daarbij heb je recht op menselijke tussenkomst.

    1. Goeie bezwaren.

      Wat de zwarte lijst betreft, het is alleen verboden als het “geheel en onvoorwaardelijk” ontzeggen van de toegezegde prestatie betreft. Hier is het ‘slechts’ een week, dat is niet ‘geheel’. Ook zit er een voorwaarde aan, namelijk dat het na ongewenst gebruik gebeurt. Dat is dus geen zwartelijstitem.

      Geautomatiseerde besluitvorming (AVG) moet je meer dan triviaal raken, het moet wel van enig gewicht zijn. Ik twijfel of dit hieraan voldoet. Bovendien moet dan sprake zijn van profilering, het besluit moet op een interesse/kenmerkenprofiel van jou zijn gebaseerd. Er wordt geen profiel gemaakt “is riskante bestuurder”, het is een trigger op basis van herkende handelingen. Mijn telefoon gaat op slot als ik 3x het verkeerde wachtwoord intyp, dat is ook geen verboden besluitvorming.

      1. Het is en blijft een opschorting van betaalde functionaliteit. Gezien mijn ervaring verwacht ik dat veel mensen het niet met de opschorting eens zullen zijn.

        Tesla bepaalt eenzijdig dat jij je niet aan de voorwaarden hebt gehouden en er geen gebruik van mag maken. Staat er ook niet ergens op die zwarte lijst dat Tesla niet eenzijdig over het naleven van de overeenkomst mag beslissen.

        En als je die ban van Tesla aanvecht, welk bewijs heeft Tesla met zo’n slecht werkende detectie dat jij terecht gestraft bent?

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.