Tesla eist dat beelden van aangereden kinderpoppen worden verwijderd

Tesla eist dat een belangenorganisatie video’s verwijdert waarin auto’s van de fabrikant over etalagepoppen van kinderen rijden. Dat meldde Nu.nl op gezag van The Washington Post donderdag. In die video’s van The Dawn Project zag de nieuwste software van Tesla’s Full Self-Driving-functie meerdere keren een pop ter grootte van een kind over het hoofd. Dat gaf nogal wat ophef, en al snel doken berichten op dat de FSD niet aan zou staan en dat de groep vooringenomen tegen het bedrijf zou zijn.

De test is afkomstig van organisatie The Dawn Project, dat volgens haar site zich zorgen maakt om onveilige software in apparaten zoals auto’s. Directeur Dan O’Dowd vermeldt echter in zijn Twitterbio expliciet Tesla’s FSD te willen verbannen, dus dat komt dan toch wat gekleurd over.

Dan de test. De kern van de video is dat men een pad afbakende met pilonnen en daar midden op de weg een dummy ter grootte van een kind neerzette. De Tesla leek niet of nauwelijks te remmen en rijdt met volle snelheid over de dummy heen. De kritiek was niet mals: we zien bijvoorbeeld dat de mens op de bestuurdersstoel het stuur loslaat, iets dat volgens de algemene voorwaarden niet is toegestaan en leidt tot waarschuwingen. Ook zouden de pilonnen de optie tot uitwijken hebben beperkt.

De kritiek gaf aanleiding tot nieuwe video’s, onder meer deze, waar men op een echte straat zonder pilonnen rijdt, de handen op het stuur blijven en de auto op zich er omheen kon. Desondanks wederom dikke boem. Het scherm laat zien wat het systeem detecteert maar er is geen mannequin of kind te zien. Ook dit gaf weer de nodige kritiek op de wijze van uitvoering.

De video’s en rumoer er omheen gaven Elon “free speech absolutist” Musk aanleiding om een rechtszaak aan te kondigen wegens laster. En ja, juridisch is er een verhaal te maken dat het onrechtmatig is (oneerlijke reclame, zo je wil) een video te publiceren met een onjuiste voorstelling van zaken die extreem gevaar suggereert. Er zijn bedrijven failliet gegaan om zulke dingen.

De vraag is dan wel: wie moet wat bewijzen. Bij een smaad- of lasterclaim moet in de VS de belasterde bewijzen dat de uiting in de feiten onjuist is (opinie is nooit laster of smaad, in hun systeem). Dat komt dus al snel neer op “hoe werkt FSD dan wel”, en dat zal al snel betekenen dat Dawn Project in discovery inzage kan eisen in de documentatie van dat systeem. Zo werkt het in de VS namelijk, alle relevante bewijsstukken moet je aan de wederpartij geven als deel van de procedure. En dat betekent dus dat de wereld mee mag lezen hoe FSD werkt, wat nog interessant kan zijn.

Arnoud

16 reacties

  1. Dit dispuut is toch makkelijk op te lossen? Je zet een rechter (letterlijk de rijdende rechter) in die tesla in dezelfde of soortgelijke situatie en je laat het geheel 10x afspelen en je turft hoe vaak de tesla de mannequin omver rijdt. Is dat 0 keer is er spraak van laster, rijdt de tesla de mannequin wel omver dan is er geen sprake van laster. Ben je in een middag klaar.

      1. De specifieke omstandigheden van deze test even daargelaten, ik denk dat het bij zelfrijdende auto’s van belang is om niet 100% oftewel absolute veiligheid te eisen. Dat is in de praktijk onhaalbaar; het voorbeeld is altijd een kind dat onzichtbaar achter een busje zit en op het laatste moment voor je auto springt. Een zelfrijdende auto gaat dat niet voorkomen, maar een menselijke chauffeur ook niet. Als een zelfrijdende auto in 1 op de 1000 gevallen over die pop heen rijdt, maar een menselijke chauffeur zou dat in 1 op de 100 gevallen doen dan is de zelfrijdende optie veiliger en zou je mogelijk zelfs, ondanks dat het systeem nog niet perfect is, toch al ongelukken kunnen voorkomen door ze toe te staan.

        De resultaten met geheel autonoom rijdende taxi’s van Waymo in Chandler (USA, Arizona) laten zien dat ze aanzienlijk veiliger zijn dan menselijke chauffeurs. Ze worden niet moe, raken niet afgeleid, stappen niet per abuis op het verkeerde pedaal, hebben geen “road rage” en stoppen voor het rode licht en het zebrapad. Er zijn wel een paar ongelukken mee geweest, maar geen de schuld van de auto (fietsers die tegen de stilstaande auto botsen e.d.). Je zou de stelling kunnen verdedigen dat, door absolute veiligheid te eisen in plaats van “tien keer zo veilig als een mens”, de invoering vertraging oploopt waardoor er ongelukken plaatsvinden die een zelfrijdende auto niet zou hebben gemaakt waardoor er mensen onnodig zijn overleden.

        1. Het ging in de kern om het scenario zoals ik het begrepen heb dat het is uitgevoerd door The Dawn Project — de preciese details ken ik niet.

          Het is al zo dat, omdat automatische auto’s zich strict aan de regels houden, er menselijke chaffeurs zijn die daar niet goed op anticiperen, omdat menselijke chaffeurs in dergelijke situaties wel regelmatig de regels een beetje ombuigen — het stoppen voor een zebrapad als er iemand aankomt inderdaad, of het afstand houden volgens het boekje, waarbij steeds die menselijke chaffeurs er tussen proberen te duiken, waardoor de automaat weer opnieuw afstand moet scheppen, enz. (Bij ritsen in een typische Nederlandse file zal de automaat toch echt even de controle aan de bestuurder moeten geven: dat lukt gewoon niet volgens de regels, omdat te veel chaffeurs van vlees en bloed zich niet aan de regels houden!)

          Daarnaast registreren automatische auto’s letterlijk alles, dus als er een dispuut komt over wie er fout was, begint zo’n auto met 100:0 voorsprong (wat ik dan geen probleem vindt), wat er waarschijnlijk voor gaat zorgen dat automatische auto’s, als ze eenmaal goed werken, heel snel terrein zullen winnen.

      2. Een op de duizend, in normale situaties op de weg is wellicht wel te veel. Een laboratorium dat 1000 pogingen krijgt, om met pilonnen en poppen het voor elkaar te krijgen de AI om de tuin te leiden, dat gaat ieder competent laboratorium lukken. Stickers gedeeltelijk over de sensoren plakken, net zo, dat ze niet zeggen dat ze geblokkeerd zijn, maar wel minder zien is in dat laboratorium geoorloofd; De sensoren zullen in de praktijk ook wel eens gedeeltelijk geblokkeerd zijn door modder / bladeren, maar niet zo erg dat de auto niet kan rijden. De grens opzoeken dat de auto nog denkt goed te kunnen rijden maar stiekem half of 75% blind is. De pop de weg op duwen, maar precies 15 cm voor het midden van de auto stoppen van de linkerkant (linkersensor doet 0%, rechtersensor 100%, maar NET buiten beeld. Tesla beweert dat er opzettelijk een verkeerd beeld gegenereerd is. Dat zou best wel eens kunnen. Er zijn wel mensen die zo’n hekel aan Tesla hebben. Maarschappelijk moet je je afvragen wat uiteindelijk geaccepteerd is. Als maatschappij is het een hele bittere pil, als een vrachtwagen van een dijk afrijd, en vele slachtoffers maakt. Vrachtwagens raken veel vaker van de weg, en meestal zonder dodelijke slachtoffers. Combinatie van enkele van de volgende zaken: vermoeidheid, slechte arbeidsomstandigheden, laagstaande zon, irritant busje dat in de weg rijdt, onoverzichtelijk kruispunt. En natuurlijk een BBQ op precies de verkeerde plek. Hoeveel kosten en onderzoek en aanpassingen moeten gedaan worden aan zelfrijdende auto’s, om te voorkomen dat mensen met een paar strategisch geplaatste half-doorlatende stickers kunnen zorgen, dat een vrachtwagen een moordwapen wordt? Dat is een valide discussie. Zelfrijdende auto’s zijn inherent veiliger dan door mensen bestuurde auto’s, omdat mensen fouten maken. Net als dat je een zelfrijdende auto kan hacken en als moordwapen kan gebruiken, kun je een zelfmoordterrorist een rijbewijs laten halen. Dat er misbruik gemaakt kan worden van innovatie wil niet zeggen, dat er niet meer geinnoveerd moet worden. Waar de grens ligt, bepalen we in het maatschappelijk debat, en bij de rechter.

    1. Hoe weet je dan zeker dat de rechter in een auto rijdt met exact dezelfde versie van de software als Tesla zijn auto’s dagelijks van updates kan voorzien? Ik zie meer in het analyseren van de logbestanden die de auto gemaakt heeft (en waarschijnlijk al opgestuurd zijn naar het hoofdkwartier van Musk.)

          1. Eerste een kleine correctie: het is “spoliation of evidence”.

            Het probleem dat je hebt als je je daar schuldig aan maakt is dat er een instructie komt van de rechter aan de jury dat ze adverse inference mogen toepassen. Wat betekent dat de jury uit het feit dat partij het bewijs vernietigd/aangetast heeft de conclusie mag worden getrokken dat het voor die partij ongunstig was.

            Simpel voorbeeld: als een document wordt opgevraagd om te bewijzen dat verdachte van een feit op de hoogte was en het document blijkt vernietigd – nadat men op de hoogte was van de rechtzaak en wist dat men het moest behouden – dan moet de jury ervan uitgaan dat het document inderdaad bewees dat de partij op de hoogte was van dat feit.

          2. Dat is dan toch hetzelfde wanneer de rechter sommeert dat de ’test tesla’ dezelfde versie heeft dan de tesla uit de video. Als ze dat dan niet doen zit je volgens mij in eenzelfde situatie als met logs. Alleen logs blijven een reductie van de werkelijkheid, dus het zou mij meer zekerheid geven als het gewoon herhaalt wordt.

    1. Zo’n opmerking doet inderdaad nogal raar aan, maar ergens kan ik me ook wel wat voorstellen bij zo’n standpunt: water bij de wijn doen kan altijd nog en we hebben het hier wel over auto’s, dat wil zeggen machines die de potentie hebben om mensen dood te maken. Daar mag je best extra voorzichtig mee zijn.

      Wat die mannequin-omverrijdende Tesla’s betreft, zou een door een consumentenbond uitgevoerde en uitvoerig gedocumenteerde test misschien wel leuk zijn, want uit zo’n videootje kun je natuurlijk ook niet heel veel context halen. (hoe weten we inderdaad zeker dat die FSD aan stond, bijvoorbeeld). Maar als het waar is, is het wel heel akelig dat kinderen in Tesla’s hoofd niet bestaan.

    1. “Als dat maar goed gaat!”

      Als ik het artikel waaraan jij refereert verder doorlees blijkt dat er een risico is voor peuters die niet boven de motorkap uitsteken. Maar laat de amateur-software-testers nog even lekker doorprutsen, bij voorkeur met poppen in plaats van kinderen.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.