Onder ede verklaren of je eerdere uitspraken deepfakes zijn, kan dat?

Tesla-topman Elon Musk moet onder ede komen verklaren over eerdere uitlatingen over Autopilot, berichtte Reuters onlangs. Die eerdere uitlatingen staan op video, maar zoals RTL Nieuws eerder berichtte, het zou een deepfake-video kunnen zijn. “Musks advocaten zeggen dat de topman zich niks herinnert van dat interview.” (Hoi Mark) De rechtbank wil hem nu alsnog langshebben. Het riep wel vele vragen op, hoe dat zit met deepfakes (of de kans daarop) in het bewijsrecht.

De achtergrond van dit verhaal is een dodelijk ongeval met een Tesla (model X), waarbij een Apple-ingenieur om het leven kwam die rekende op de werking van Tesla-stuurhulp Autopilot. De nabestaanden stellen dat dit overlijden te wijten is aan Tesla, dat haar product overhypte. Een van de argumenten daarbij is een uitlating uit 2016 van Musk, te weten

“A Model S and Model X, at this point, can drive autonomously with greater safety than a person. Right now.”
Musk zei dit in 2016 op een podium bij de bekende conferentie Code Conference, in een Q&A met journalisten. De video daar is 6 jaar geleden op Youtube gepubliceerd door Recode, de organisatie achter die conferentie die deel is van het Vox-uitgeefconcern. Van deze video, althans dit stukje, zegt Musk nu dus via zijn advocaat dat hij zich niet kan herinneren wat er is gezegd en dus twijfelt aan de juistheid van die uitspraak. (Ik zou ook willen dat niet gezegd te hebben in de context van zo’n rechtszaak, dit is vrij sterk bewijs dat Tesla als bedrijf Autopilot promootte als iets dat beter is dan menselijke oplettendheid.)

De advocaten gooien er nog een mooie stelling achteraan:

In addition Musk, “like many public figures, is the subject of many ‘deepfake’ videos and audio recordings that purport to show him saying and doing things he never actually said or did,” Tesla said.
Nou zal dat allemaal best, maar de vraag is hoe dat meeweegt in zo’n specifieke rechtszaak. De kern is (in Californië en bij ons) “wie eist, bewijst”, of dus iets formeler “hij die zich op het rechtsgevolg van een stelling beroept, moet deze bewijzen”. De eisers stellen dat de auto was verkocht als superveilig terwijl deze dat niet was, dus die moeten bewijzen dat Tesla dat soort dingen heeft gezegd. Een uitspraak van Tesla-topman Musk is heel mooi bewijs, dus ik snap dat ze die uitspraak meegenomen hebben in hun bewijsvoering.

Natuurlijk mag Tesla tegenbewijs aandragen, bijvoorbeeld dat dat niet zo bedoeld is of uit de context is gehaald, of sloeg op een ander model of weet ik veel. Je kunt ook de authenticiteit van het bewijs aanvechten, en dan is “deepfake” in principe net zo’n argument als “er is geknipt” of “dat zei ik in 2013 over de model S en ik heb het in 2015 teruggenomen”. Alleen: wanneer er zo’n concrete video is uit onverdachte bron, dan moet je meer doen dan alleen maar zéggen dat het bewijs niet klopt. Er moet dus iets op tafel komen waaruit kan worden gehaald dat er is geknipt, of dat het uit een oudere video komt of noem maar op. En dat lijkt er tot nu toe niet te zijn.

De theoretische mogelijkheid dat een video nagemaakt kan worden, is op zichzelf geen argument. Alles kan (koffiekan, theekan) maar als de andere partij een goed verhaal had waarom de video echt is, dan moet je toch zeker inhoudelijk reageren. En het verhaal klinkt goed: video staat al zes jaar op Youtube, is gemaakt door de organisatie, die staat bekend als journalistiek en onafhankelijk, de video heeft geen rare knips of kwaliteitsverlies of andere opmerkelijkheden en Musk wordt al jaren geciteerd op basis van die conferentie-uitspraken. Dan geloof ik het gewoon niet meer, dat de video nep zou zijn.

Arnoud

13 reacties

    1. Dat was ook mijn eerste gedachte, ‘safer then a person’ wil niet zeggen dat de auto onfeilbaar is en dat er helemaal niets mee kan gebeuren en dat je rustig videogames op je mobiel kan spelen terwijl de auto al het werk doet.

      Bovendien lijkt het mij dat die claim ook best makkelijk te bewijzen is als hij klopt; je hoeft dan alleen maar het aantal ongevallen per kilometer met een tesla in full autopilot te vergelijken met het gemiddelde aantal ongelukken. Ligt die van tesla lager, dan is de tesla autopilot blijkbaar een betere chauffeur dan de gemiddelde persoon en is de claim correct.

      Maar blijkbaar is het niet lager en gooien ze het nu op een deepfake, dat zegt mij dat een tesla dus onveiliger is dan de gemiddelde chauffeur.

      1. @kees, hoe tel je dan de ongevallen waarin de Tesla autopilot zich in de seconde voor het ongeval uitschakelde omdat het geen uitweg meer zag? (Dat is een standard “veiligheidsfeature” in het algoritme: gooi de hete aardappels in de schoot van de nietsvermoedende automobilist.)

          1. Dank voor dit artikel, ik wil even deze quote delen:

            Tesla has repeatedly marketed Autopilot in such a way that suggests its capabilities are greater than they are, often by not correcting popular thinking that the system truly is like a self-driving, well, autopilot feature.
            De Onderzoeksraad zegt iets vergelijkbaars:
            In hun marketing en voorlichting versterken autofabrikanten de indruk dat ADAS [autopiloten] vooral de veiligheid en het gemak van de automobilist zouden dienen, zonder te wijzen op de nieuwe veiligheidsrisico’s die gepaard gaan met automatisering.
            En als we kijken naar de capaciteiten van een gemiddelde mens, dan heeft deze meerdere seconden nodig om veilig de besturing van een autopilot over te nemen. Verwachten dat een bestuurder binnen een seconde een lastige situatie analyseert en dan ook nog de goede beslissing neemt is ijdele hoop.

      2. Bovendien lijkt het mij dat die claim ook best makkelijk te bewijzen is als hij klopt; je hoeft dan alleen maar het aantal ongevallen per kilometer met een tesla in full autopilot te vergelijken met het gemiddelde aantal ongelukken. Ligt die van tesla lager, dan is de tesla autopilot blijkbaar een betere chauffeur dan de gemiddelde persoon en is de claim correct.

        Ik denk dat de gemiddelde Tesla-bezitter niet representatief is voor de gemiddelde chauffeur..

  1. Niet direct relevant voor de rechtszaak, maar de Onderzoeksraad voor Veiligheid heeft in 2019 een kritisch rapport uitgebracht over de toepassing van automatische rijhulpen. Ik ben benieuwd in hoeverre de analyse en conclusies van toepassing blijken te zijn in deze zaak.

    1. Musk heeft niet onder ede verklaard dat deze video een deepfake is en dat hij dit nooit gezegd heeft. Zijn advocaat zegt dat er vele deepfakes rondzwerven en dat hij niet meer weet wat hij allemaal gezegd heeft. Kennelijk is dat een poging de video te diskwalificeren tenzij de wederpartij bewijst dat de video wél echt is. Meer een truc van bewijsrecht, moet Musk bewijzen dat de video nep is of de eiser dat deze echt is?

        1. We kunnen ons concentreren op deze ene video, maar het gaat om het grotere plaatje: Heeft Tesla (en Musk vertegenwoordigt als CEO het bedrijf) er een gewoonte van gemaakt om de capaciteiten van de “self driving mode” te rooskleurig voor te spiegelen? Deze ene video is maar één van de bewijsstukjes in dat grotere geheel.

          Ik wil niet op de mening van de rechter of jury vooruitlopen, maar ik denk dat het te hoog opgeven over de AI mogelijkheden van de Tesla bewezen kan worden. En ja, Tesla’s advocaten zullen concreter moeten zijn dan “Er bestaan deepfakes van Elon” om de rechter deze video terzijde te laten leggen.

  2. Elon had het natuurlijk over het experimentele prototype, niet de productieversie. Ook is er ongetwijfeld een herhaalde disclaimer dat de bestuurder zelf op moet letten. Samen met even prominent nieuws over de imitaties van autopilot word het redelijk zwak.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.