Autobedrijf Tesla mag in Duitsland de term ‘autopilot’ niet meer gebruiken, las ik bij Ars Technica. De Duitse Minister van Transport (sinds wanneer gaat die over reclame?) heeft het bedrijf gezegd dat hier sprake zou zijn van een misleidende term die bij het publiek verwarring kan geven. Tesla vindt dat maar raar, in de vliegwereld is die term al tientallen jaren ingeburgerd dus wat is het probleem?
Natuurlijk, we weten toch allemaal zo ongeveer wat een autopilot is? Ik citeer even Wikipedia:
De automatische piloot is een mechanisme waarmee een voertuig bestuurd kan worden zonder hulp van een mens. Ook systemen die de stuurtaak van de mens vereenvoudigen, door logische stuurhandelingen van de bestuurder te vertalen naar complexe stuuracties van het voertuig, worden tot de automatische piloten gerekend. De term wordt meestal gebruikt voor de automatische besturing in vliegtuigen, maar ook vaartuigen kennen een automatische piloot. Automatische piloten worden toegepast in zelfrijdende auto’s, maar ook cruisecontrol is een vorm van een eenvoudige automatische piloot.
Kijk, weer wat geleerd: ook systemen die de stuurtaak vereenvoudigen worden tot de automatische piloten gerekend. In vliegtuigen zijn dit bijvoorbeeld systemen die een simpele beweging (een pookje naar links) vertalen naar een complexe serie zware bewegingen (zoals de stuurvlakken bewegen, wat een mens niet kan gezien de krachten die erop duwen van buitenaf). Dus Tesla heeft gelijk, het valt onder de definitie dus daarmee is de bewering waar.
Maar daarmee zijn we er niet, juridisch gezien. Een term in een reclameuiting is misleidend als het relevante publiek er redelijkerwijs door in verwarring kan raken, kan denken dat het product een eigenschap heeft die het niet bezit. Daarbij gaat het dus niet per se om wat het woordenboek of Wikipedia zegt dat het mógelijk kan betekenen, het gaat erom wat het publiek zál denken.
Jaren geleden hoorde ik het verhaal van een man die ‘aanstekers’ verkocht, en dan kreeg je een lucifer in een doosje. Daarmee kun je dingen aansteken, dus dat was een aansteker. Eh, nee. Dat overleeft de giecheltoets niet eens, dus dat is echt gewoon misleiding.
De autopilot van Tesla is niet zó evident fout. Maar ik heb er ergens wel mijn twijfels bij of het publiek bij ‘autopilot’ als eerste denkt aan een stuurtaakvereenvoudigend systeem zoals dat in de Tesla-auto’s zit. Mijn eerste gedachte bij die term was namelijk ook een volledig automatisch systeem, ga gerust even slapen en ik zorg dat je thuis komt. Zo ken ik die term uit boeken en televisieseries over vliegtuigen. En als dat de heersende interpretatie is, dan heeft Tesla reclamerechtstechnisch dus ongelijk.
(Kleine lettertjes gaan hier overigens niets aan veranderen, mocht iemand een folder van Tesla hebben gevonden waarin een Amerikaanse jurist uitlegt wat dient te worden verstaan onder ‘autopilot’.)
Arnoud
Ik wil best even slapen als ik in het vliegtuig zit waar de auto-pilot aan staat. Maar ik hoop toch echt dat de piloot dat niet ook doet. Ik snap niet waarom je zou denken dat de auto pilot van een auto de bestuurder vervangt, als de auto pilot van een vliegtuig de piloot niet vervangt. Tenzij je roept dat je dacht dat met auto in de auto pilot van Tesla, auto voor ‘automobiel’ stond in plaats van ‘automatisch’. 😉
Het gaat wel wat erg ver om te stellen dat iets wat voldoet aan een wikipedia lemma ook meteen waar zal zijn.
Tesla is in een veelheid van uitingen heel duidelijk en ook in de instructies over hoe de autopiloot functie functioneert. Ik denk niet dat er een Tesla rijder op de wereld is die niet weet wat de status van de autopiloot is en dat die dus niet volledig autonoom de auto bestuurd maar dat je als bestuurder ook je handen aan het stuur moeten houden. Dat gezegd hebbende, is weten en doen nog altijd iets anders. Veel gebruikers merken dat de autopiloot langdurig kan rijden zonder ingrijpen van de bestuurder en raken daarom geneigd het stuur los te laten. Niet om dat het ding autopiloot heet maar omdat ze uit eigen ervaring het idee krijgen dat de autopiloot ook daadwerkelijk zelfstandig kan rijden op bepaalde wegen. En dat is ook zo maar houdt geen rekening met bijzondere omstandigheden. Daarvoor moet de mens nog steeds waken en ingrijpen. Dat besef gaat echter verloren als je auto zo zelfstandig rijdt als een Tesla doet.
Dat is dan niet een probleem in de bewoording in de advertentie, maar een probleem in het wezen van de auto, en hoe dat inwerkt op de psychologie van de bestuurder.
Ik denk niet dat het veel aan je betoog verandert, maar de werkelijkheid in vliegtuigen is volgens mij net wat anders dan hoe je het voorstelt. (Disclaimer: ik ben geen piloot.)
Meer kracht zetten op de stuurvlakken dan de piloot uitoefent lijkt me een kwestie van stuurbekrachtiging. Dit is niet iets dat complexiteit toevoegt aan het stuursignaal; het is ook iets dat zonder computer, met bijv. wat hydraulische mechanica gedaan kan worden.Wat je wel als automatische piloot kunt zien is “fly by wire”: elektronica voegt correcties toe aan het stuursignaal om de stabiliteit van het vliegtuig te verbeteren. Dus: piloot houdt de stick stil, autpilot merkt dat het vliegtuig de ene kant op draait en stuurt daarom een beetje de andere kant op om te compenseren.
Vroeger werden vliegtuigen zo ontworpen dat ze van nature redelijk stabiel zijn; de stabiliserende feedback gebeurt dan aerodynamisch. Dit was vooral nadelig voor gevechtsvliegtuigen, omdat stabiliteit ten koste gaat van wendbaarheid en niet goed combineert met stealth. Men is er daarom op overgeschakeld om stabiliteit elektronisch te regelen i.p.v. aerodynamisch: elektronica is flexibeler, en kan makkelijker precies leveren wat je wilt.
Dat is niet echt hoe het werkt. Er zijn wel geavanceerde autopilot-modes waarin je een route kunt opgeven die dan automatisch wordt gevolgd, en dan kan je inderdaad een groot deel van de vlucht “achteroverleunen”. Alleen: er zijn dan nog steeds wel dingen die de piloot zelf moet doen. Niet alleen controleren of alles wel goed gaat, maar ook contact onderhouden met de vluchtleiding, ander verkeer in de lucht in de gaten houden, de weersomstandigheden beoordelen, en indien nodig de plannen veranderen (andere hoogte, andere route enz.). Daarnaast zijn er, met name bij opstijgen en landen, allerlei zaken die (nog) niet door de automatische piloot worden geregeld. Sowieso zal je daarbij een paar keer handmatig naar een andere autopilot-mode over moeten schakelen.
Maar goed: misschien is dit niet het beeld dat de meeste mensen bij een automatische piloot hebben. Het voelt alleen een beetje oneerlijk dat een onwetende meerderheid dan kan bepalen hoe een woord gebruikt mag worden. Het woord, dat eerst op een concept uit de werkelijkheid sloeg, moet dan plotseling gaan slaan op een niet-bestaand fantasiebeeld van de grote massa. Je moet dan een nieuw woord introduceren voor het concept uit de werkelijkheid. Dat lijkt me een nogal onhandige en verwarrende manier van werken, die zich bovendien kan herhalen met het nieuwe woord dat je dan moet introduceren. Is het niet beter om het woord te laten voor wat het is, en het probleem op te lossen door (te pogen) het grote publiek te onderwijzen in hoe de werkelijkheid echt in elkaar steekt?
Dit beeld bijvoorbeeld: http://i178.photobucket.com/albums/w254/flyingdoc-album/movies/ottopilot.jpg
Surely you can’t be serious?
I am serious, and don’t call me Shirley .
Arnoud schrijft:
‘Maar daarmee zijn we er niet, juridisch gezien. Een term in een reclameuiting is misleidend als het relevante publiek er redelijkerwijs door in verwarring kan raken, kan denken dat het product een eigenschap heeft die het niet bezit. Daarbij gaat het dus niet per se om wat het woordenboek of Wikipedia zegt dat het mógelijk kan betekenen, het gaat erom wat het publiek zál denken.’
Meen je dat nou echt? Is het zo zwart-wit?
Dus het publiek mag dom zijn, mag verkeerde aannames maken, heeft geen morele plicht zijn eigen beperkingen te herkennen en een woordenboek te raadplegen?
Een reclamemaker kan dus feitelijk correct zijn, en toch is de reclame misleidend? Dat lijkt me toch ook maatschappelijk onwenselijk. Hoe kan de waarheid misleidend zijn?
Wij lachen, en huilen, om mensen en samenlevingen die de evolutie-theorie niet in het onderwijs willen zien, die geloven dat de aarde plat is en dat vrouwen minderwaardig zijn aan mannen. Maar we bevorderen dat onze eigen samenleving dom blijft door reclamemakers te verplichten de waarheid opzij te zetten voor misverstanden…
Ik mag toch hopen dat het inderdaad zo zwart-wit is en dat lijkt me ook wenselijk. Het is niet zo moeilijk om iets feitelijk juist te zeggen over een product wat toch misleidend is. Nu met echt aardbei terwijl er maar 0,01% in zit. Of een drank Blauwe bessendrank noemen terwijl het voor 95% uit druivensap bestaat. Of Als beste getest terwijl je zélf de test hebt uitgevoerd (en de criteria hebt bedacht) onder een geselecteerd aantal andere producten.
Ik denk dat als jij een auto koopt met autopilot functie en het blijkt gewoon alleen maar cruisecontrol te zijn dat je je toch misleidt voelt.
Jij trekt nu mijn argument de andere kant op. Als het alleen maar een cruise-control blijkt te zijn voel ik me belazerd, maar dat is juist omdat we voor zoiets een woord hebben: ‘cruise control’
Ik verwacht inderdaad wel wat meer: iets wat (soms) voor mij kan sturen en (soms) voor mij de snelheid kan aanpsssen.
Maar een ‘ga maar slapen knopje’ verwacht ik niet. En wie dat wel doet denkt gewoon niet na, leeft in een science fiction wereld, en zou niet de maatschappelijke norm moeten zijn.
Iedereen die een ‘ga maar slapen knopje’ verwacht denkt gewoon niet na en leeft in een science fiction wereld ? Wat een onzin. Iedereen die het nieuws een beetje volgt verwacht een echte autopilot. In 2012 waren er al video’s van een blinde die werd rondgereden door een Google auto en deze week meldde Tweakers dat alle Tesla’s in productie alvast de hardware krijgen voor volledig autonoom rijden. Wie had dat gedacht toen we naar Knight Rider keken.
Stuurbekrachtiging en fly-by-wire een vorm van autopilot noemen (ook al staat het op Wikipedia) vind ik wel een hele grote inflatie van het woord.
Het lijkt mij dat een autopilot dingen kan doen zónder tussenkomst van een mens. Als een mens aan de autopilot moet vertellen dat het naar links moet sturen en het stuurt naar links dan is er nog maar weinig automatisch aan.
Verder denk ik dat hAl een goed punt heeft, namelijk dat mensen hun aandacht verslappen door de praktische werking van het systeem. Ik denk dan ook dat de autoriteiten (en daar is de minister wel voor) dáár iets aan moeten doen. Het systeem zoals het nu gebruikt wordt, lijkt niet veilig genoeg te zijn en moet dus aangepast worden totdat het dat wel is.
Dan kan je denken aan sensoren die kijken of iemand wel het stuur vast heeft, of het systeem alleen maar aan kan staan op snelwegen.
Zelfs als een vliegtuig op de autopilot vliegt zit er altijd een piloot achter de knuppel die alles monitort en ingrijpt indien nodig.
De Tesla werkt precies hetzelfde, hij kan in principe zonder bestuurder van A naar B over de snelweg (autopilot werkt niet buiten de snelwegen, tenzij dit recent gewijzigd is). Maar Tesla geeft duidelijk aan dat je als bestuurder alert moet blijven en ieder moment moet kunnen ingrijpen.
Blijkbaar hebben wat mensen een verkeerd idee bij wat een autopilot in een vliegtuig doet. Maar de naam van Tesla is volkomen juist voor wat hun technologie doet en sluit netjes aan op wat overal met Autopilot bedoelt wordt.
een automobiel rijdt niet zelf. toch is automobiel (althans de afkorting) gebruikelijk en niet fout. er zijn ergere vormen van betekenisinflatie.
Een automobiel rijdt wel zelf. Weliswaar niet op eigen initiatief/besturing, maar wel op eigen kracht. En dat is waar het om ging bij de introductie van de automobiel: er hoefde geen paard voor gespannen te worden.
Ik denk dat de minister vooral de verkeersveiligheid op oog had. Als mensen denken dat de automatische piloot de taken van de bestuurder overneemt zodat die niet op het verkeer hoeft te letten en de autopilot feitelijk (en juridisch) dat niet kan, dan is de kans groot dat dit tot ongelukken lijdt. Een extra probleem is dat in het gebruik van de autopilot het niet evident is dat deze niet geschikt is om gebruikt te worden als alternatief voor een actieve bestuurder (en dit wordt waarschijnlijk alleen nog maar meer zo in de loop der tijd (software updates)).
Als ik de Engelse Wikipedia er op nasla:
Oftewel: Wat ik van het Tesla systeem gehoord heb, voldoet aan deze definitie, het kan de auto op de snelweg “tussen de lijntjes” houden.Bij sommige moderne vliegtuigen kan de autopilot het toestel landen in situaties dat de piloot dat niet kan, met name door te weinig zicht. In dat opzicht kan een autopilot dus meer dan een mens.
Wat in Duitsland een bijkomend probleem is dat er op veel autosnelwegen geen maximumsnelheid geldt. Bij testritten is het voorgekomen dat de tesla naar links stuurde om in te halen, terwijl er van achter een andere auto met meer dan 200 km/h aan kwam rijden. De sensoren van de tesla lijken niet in staat met dat soort snelheidsverschillen om te gaan omdat het bereik maar 40 meter is.
Toch heeft Tesla het op haar eigen website wel degelijk over volledig autonoom rijden dmv autopilot: https://www.tesla.com/autopilot/
Dit lijkt me wel misleidend ‘full self-driving capability’. Maar je moet (als ik het goed begrijp) dus wel je handen aan het stuur houden als je de functie gebruikt. Dat klinkt voor mij iets als cruise control maar je moet wel het gaspedaal ingedrukt houden.
Ja, ze hebben de hardware die ze toelaat om (als er eenmaal fatsoenlijke software ontwikkeld is) ‘full self-driving capability’ te hebben. Dat is wat daar staat. Daar staat niet dat ze nu al autonoom kunnen rijden. Deze zin zegt dus niet over wat ‘autopilot’ betekent.
Het woord ‘autopilot’ valt er inderdaad niet, maar je leest die zin als een jurist daar waar een reclametekst iets anders is. Zoals Arnoud al zei: iets is misleidend als het publiek er redelijkerwijs door in de war kan raken, en dat lijkt me volledig van toepassing hier. Een auto die de hardware heeft om volledig autonooom te rijden maar niet de software, kan dus niet autonoom rijden. Waarom daar dan wel reclame mee maken? Misschien heeft ie ook wel de software om rondjes te vliegen maar niet de hardware? De accu om 100 km electrisch te rijden maar niet de aandrijving?
Ik weet dat Tesla zijn software doorlopend update, maar dan moet duidelijk aangegeven worden dat er gezinspeeld wordt op mogelijkheden in de toekomst. Hoe weet je trouwens of je hardware geschikt is voor volledig autonoom rijden als daar nog geen software voor is? Hoe is dat dan ooit aangetoond?
Ja Robb, dat is net nieuw en is weer een andere optie dan de “oude” autopilot. Maar zoals aangegeven heeft het alleen de hardware voor volledig autonoom rijden, uiteraard is dit nog niet mogelijk.
Ik geloof dat er in media nogal wat verwarring is over het standpunt van de RDW. Ik vond volgende formulering van de RDW wel reeel klinken: “Het staat de fabrikant wel vrij om termen als Autopilot te gebruiken, maar de bestuurder moet wel duidelijkheid krijgen dat het niet gaat om een volledig zelfrijdende functie.”. En in bijvoorbeeld Trouw staat dat een woordvoerder van de RDW heeft aangegeven: “De term ‘Autopilot’ die autofabrikant Tesla hanteert voor de software waarmee bestuurders geassisteerd kunnen rijden is misleidend.”
Dit leek me in eerste instantie wat tegenstrijdig, maar ik begrijp hier nu uit dat men bij de RDW verwacht dat Tesla bij gebruikers duidelijk(er) gaat maken wat het inhoudt en dat een toelichting in de kleine lettertjes onvoldoende is. M.i. moet het vooral ook duidelijk worden gemaakt voor iemand die incidenteel eens in een Tesla rijdt (van familie, vrienden, bekenden, …). Dat kan wellicht toch het best door in de auto een toelichting (waarschuwing) op te nemen.
Misschien had RDW daar bij de type goedkeuring op aan kunnen (moeten) dringen?
Bedenk ook dat over een enkele jaren misschien de grote meerderheid van de Tesla’s wel een volledige autopilot hebben, door software updates wellicht ook veel van de modellen die nu worden verkocht. Een knop ‘autopilot’ die dan geen volledige autopilot functie uitvoert zal in die context nog eerder verwachtingen wekken en daarmee tot onveilige situaties kunnen leiden.
Overigens lijken de reclame’s zelf me niet direct een probleem: iedereen weet wel dat daarin vaak wordt overdreven… Als het te gek wordt kun je een klacht indienen bij de reclame code commissie, maar dat schijnt nog niemand gedaan te hebben…
De reactie van het Duitse ministerie baadt mij grote zorgen omdat het voorbij gegaan aan de essentie en kern van de zaak.
Term autopilot is eenzelfde term als bij vliegtuig gebruikt wordt of op schepen. Werkt perfect om het object automatische te besturen tot dat er iets is waar de menselijk ingrijpen bij nodig is. Alles kan zelfstandig varen en vliegen zelfs rijden. En dan doet zich iets voor wat de mens bij nodig. De term is correct en de reclame-uiting over het de auto pilot is ook correct De kleine letters daar draai het om. De gebruiker gebruikt het incorrect.
Ongeveer hetzelfde als de stuurautomaat een onderdeel op ene schip dat ervoor zorgt dat weer, wind en golfslag minder invloed hebben op de koers bij schepen. Werkt ook binnen de gegeven parameters en daarbuiten moet de mensen ingrijpen met ene koerscorrectie.
Een bestuurder van een voertuig is een getraind persoon die behoord te weten hoe hij het voertuig moet bedienen. Een bestuurder dient volgens de wet ten alle tijde volledige controle over het voertuig te hebben. Als ook met goed gevolg een rijvaardigheid proef te hebben afgelegd en in het bezit te zijn ven een rijvaardigheidsbewijs voorzien van de juist categorie.
De autopilot is een hulpmiddel en heeft niet de rijproef afgelegd.
De autopiloot is vergelijkbaar met de parkeer sensoren die automatisch inprkeren mogellijk maken of de automatische voorganger stop installatie. Hiervoor is ook reclame gemaakt op eenzelfde wijze en niemand over gehoord.
Als bestuurder van een auto werkelijk denkt dat de autopet een zelfstandig voertuig mogelijk maakt dan zegt dat meer over zijn rijvaardigheidskennis, kennis van de categroie van voertuigen dat deze persoon zou mogen besturen dan over de reclame of het voertuig.
De bestuurder dient ten alle tijde de controle over echt voertuig te behouden Of het nu een piloot is, een stuurman, ene treinmachinist, een astronaut of een bestuurder een auto automatische systemen zijn er ter ondersteuning. Zelf bij automatische productieprocessen of machines zin er altijd mensen ogen en handen die kunnen ingrijpen als het verkeerd gaat.
Het is de wereld omdraaien en de gemakzucht van de mens als ook de verantwoordelijkheid en veiligheid bewust zijn verplaatsen naar een zaak dat niet relevant is gezein de kern van de zaak en de ernst van de kwestie.
daarom veint de redenanite en de achterliggende gedachte vreemd en zich focussen op het verkeerde punt
Het is natuurlijk niet ondenkbaar dat het CBR straks een ‘rijproef’ afneemt met zelfrijdende auto’s als onderdeel van de typegoedkeuring van zo’n auto. Zeg maar de Turing-test voor automobilisten en zelfrijdende systemen, als een zelfrijdend systeem tijdens zo’n proef minstens net zo goed rijdt als een menselijke bestuurder tijdens een rijexamen, dan is het rijgedrag dus vergelijkbaar en mag ie de weg op.
Ik heb nog nooit een bestuurder een 100% foutloos rij-examen zien rijden dus ik vind het heel erg naïef om zoiets wel te verwachten van een systeem wat net zo hard in de kinderschoenen staat.
Natuurlijk moet een automatisch rijdende auto wel 100% foutloos rijden. Althans bij een test. Als het niet 100% foutloos rijdt dan is er dus blijkbaar iets mis met het systeem.
Een mens zal, als het zich volledig concentreert, ook foutloos rijden. Ik denk dat – ik heb geen harde cijfers- 99% van de ongelukken gebeuren door onoplettende en/of zichzelf overschattende bestuurders. Het is juist niet realistisch om dát mee te nemen als je het gaat vergelijken met een systeem dat het van de gebruiker overneemt.
Natuurlijk kunnen er altijd freak incidenten plaats vinden waardoor de auto toch een fout maakt (hagel met dikke mist en een radar controle die de radar van de auto stoort) maar dan zullen toekomstige tests daarop aangepast moeten worden.
Met ‘foutloos’ rijden bedoel ik niet een ongeval veroorzaken. Daarmee bedoel ik een fietser op het laatste moment pas kunnen spotten en in een schrikreactie op de rem trappen bijvoorbeeld.
Dat soort kleine foutjes kun je je ook tijdens een rijexamen (als mens) tot op zekere hoogte veroorloven, want je bent een mens. Maar er wordt van een machine en dus ook een AI verwacht dat hij altijd 100% op een voorspelbare manier reageert, ook als het om een situatie gaat die die AI nog nooit is tegengekomen.
Het vervelende met onvoorziene situaties is dat een AI geleerd heeft van voorgaande ervaringen en dus, net als een mens, daaruit de meest waarschijnlijke conclusie zal trekken, en daarop handelen. En dan is er altijd een kans op een inschattingsfout, die kun je per definitie niet reduceren tot nul.
Een machine kan misschien heel direct voorspelbaar reageren, maar je hebt het hier over een AI. En AI’s zijn soms net mensen. 😉
Begrijp het laatste deel van de reactie niet helemaal over in de kinderschoenen staan en naïef. Ik wil u niet beledigen of op andere wijze in en kwaad daglicht stellen en hoop met het volgende duidelijk te hebben gemaakt waarom.
Men kan pas iets formaliseren als men het kan normaliseren, men kan iets normaliseren als men kan determineren. Afgezien van dat een programma niets meer en minder is dan een hoop van electronics schakelingen die de logisch status 0 of 1 hebben en het de ‘zachte kant’ van de hardware is dat men eenvoudig kan her configureren. Her configureren door de logische ‘0’ of ‘1’ van de logica aan te passen. Het beroemde update verstrekken, waarbij men feitelijk een geheel andere machine terugkrijgt.
De regels en interpretatie van de regels wordt gedaan door experts. Die vertalen de condities waaraan voldaan moet worden. Hetgeen betekend dat een automaat/ machine per definite moet slagen door de rijproef of welke andere proef dan ook. Op het moment dat deze wordt losgelaten in de vrije natuur en deze proef zelfs foutloos zou moeten kunnen doen, keer op keer op keer. Iets wat wij dagelijks zien bij onder ander de productierobot of andere PLC gestuurde machines Exact en net zo goed als de programmeur deze geprogrammeerd heeft en de regels zijn geïmplementeerd. Mogelijk gebruik makend van eventueel vage logica, niet te verwarren met kunstmatige intelligentie (AI of KI)
Voorbij gegaan worden aan een fenomeen dat tolerantie genoemd wordt. En dat op andere manieren fouten genereerd naast dat er ook op een ander vlak fouten worden in geprogrammeerd op deze manier. Namelijk de gebruikte onderdelen hebben toleranties en met deze tolerantie worden fouten gemaakt die niet te voorzien zijn tolerantie van 20% behoren tot de mogelijkheden in het dagelijks gebruik. Denk bijvoorbeeld aan de impedantie trafo die handig gebruikt maakt van dit fenomeen. Of de verbogen capaciteit die ineens van een werkende voorversterker op het experimenteerbord een voor verzwakker maakt, iets waar menig student zijn hoofd over gebroken heeft. En niet te vergeten interferentie, Electro magnetische puls of massa stormen. Zaken die allemaal probleem maken in elektronische of elektrische apparaat en ELK elektronisch of elektrisch apparaat uniek maakt. En in het verleden al vele problemen hebben veroorzaakt zelf heden ten dage. We denken alles te begrijpen en te weten. Schrijf u dat dan maar op uw Samsung Note 7.
U zou mij als dyslecticus niet moeten vragen een brief te schrijven of boek. Toch gebeurt iets vergelijkbaars onder de commerciële druk en onbegrijpelijke reden dit met de autopilot.
Een robot kopieert het gedrag van de mensen en doet niet meer of minder dan het gegeven is te kunnen doen. Het is dan ook niet mogelijk voor een robot om in de kinderschoenen te staan. Een robot begrijp dat wat zijn maker begrijp en heeft kunnen formuleren en daarmee normaliseren. Niet meer en niet minder. Daarom zal een autopiloot in de ‘vrije natuur een voorspelbaar gedag’ hebben waarbij op een zeker moment de controle terug gegeven wordt aan de mensen om het probleem op te lossen en de beslissing te nemen, of onverwachtse er door de mens word ingegrepen om te corrigeren.
Juist de noodzaak om in te grijpen door mensen wil je hier elmineren. Aan een zelfrijdende auto heb je in feite niets als je nog altijd een bestuurder met rijbewijs nodig hebt die altijd op de noodstop kan drukken en daardoor de aansprakelijkheid voor ongevallen op zich neemt — wat is dan de meerwaarde van een volledig zelfrijdende auto boven zelf rijden? Je maakt mobiliteit niet beter beschikbaar voor mensen die géén rijbewijs kunnen halen.
Machines voeren niets anders uit dan wat ze door ons als mensen in een specificatie verteld zijn. Het vervelende is dat ‘rijgedrag’ niet als een deterministische ruleset kan worden vastgelegd. Ook als bestuurder kom je elke dag situaties tegen waar je niet op gerekend hebt en die waarschijnlijk ook niet in de Wegenverkeerswet staan.
Als mensen vertrouwen we dan op iets wat ‘gezond verstand’ heet. Eigenlijk is dat niet veel anders dan de situatie waarin je nu bent beoordelen en vergelijken met een set situaties die je eerder hebt meegemaakt, en de gemeenschappelijke omstandigheden daaruit halen. Aan de hand van die omstandigheden kun je dan bepalen wat je doet. (Hee, ik ben vorige keer ook over deze invoegstrook gereden en toen was het wel erg krap, nu maar wat harder het gas intrappen.)
Het punt is dat machines verwacht worden om 100% ‘veilig’ te functioneren onder alle denkbare omstandigheden terwijl we dat nooit van mensen zouden kunnen verwachten. Waar er bij mensen nog iets op ‘human error’ gegooid kan worden en daarmee zelfs de hele aansprakelijkheid kan worden weggewuifd (foutje, bedankt!) moet er bij een machine koste wat kost elk schakelaartje en tandwieltje nauwlettend worden onderzocht omdat het niet nóg een keer moet kunnen gebeuren. Zelfs als er tot de conclusie gekomen wordt dat het om domme pech gaat, wordt er een hele engineering-afdeling voor een jaar ingezet om een domme-pech-eliminatiemodule in te bouwen, om uiteindelijk erachter te komen dat dat niet gaat lukken.
Dat een systeem ‘fail-safe’ moet zijn vind ik een heel andere kwestie. Mocht een onderdeel van het systeem zelf falen, dan moet de auto niet op hol slaan en als een achterlijke gladiool gaan rijden, maar zichzelf veilig tot stilstand kunnen brengen. Net zoals je Note 7 niet moet ontploffen als je hem te ver oplaadt, maar gewoon uit moet gaan en hooguit een verveldend rood lampje moet geven als de accu stuk is. Dat soort voorwaarden kun je wél prima specificeren en dat wordt ook vaak vastgelegd in vereiste veiligheidsniveaus.
Wat je in die veiligheidsniveaus nóóit kan vastleggen is een fail-safe gedrag als gevolg van externe invloeden. Simpelweg omdat je die externe invloeden van te voren nooit weet: Je kan geen failsafe inbouwen als iemand met een hamer op de accu van je Note 7 gaat meppen. Net zo goed als er áltijd een situatie zal zijn waarin een zelfrijdende auto niet weet wat ie moet doen en daardoor misschien de verkeerde handeling uitvoert, net zoals een mens de kans heeft om een inschattingsfout te maken. En dat kun je nooit uit het systeem krijgen juist omdat zo’n systeem onmogelijk alle voorkomende verkeerssituaties op de wereld kan opslaan en analyseren.
Dit zie je ook terug aan de track record van de Autopilot van Tesla en van de auto’s van Google. De enige ongevallen die zijn voorgekomen zijn ontstaan doordat andere bestuurders zich onvoorspelbaar gedragen (een vrachtwagen die afsnijdt zonder richting aan te geven, een kruisende auto die te hard door rood rijdt) en het zelfrijdende systeem wat daar niet op tijd op kan anticiperen.
Dat zijn precíes situaties die je tijdens je rijlessen zelf ook tegen zou komen en waarop een instructeur gewoon ingrijpt (en waarop je tijdens een rijexamen zou zakken). Als zelfrijdende auto’s genoeg van dit soort ‘bijzondere’ situaties tegenkomen dan bouwen ze een set aan voorwaarden op waardoor ze wel op dat soort situaties in kunnen spelen: De manier waarop zo’n systeem leert autorijden is dus precies hetzelfde als hoe een mens leert rijden. De manier waarop het rijgedrag getoetst hoort te worden dient dan IMO ook hetzelfde te zijn.