Nederlandse politie geeft details over gebruik van Boston Dynamics-robot Spot

De Dienst Speciale Operaties van de Nederlandse politie heeft een Spot-robot van Boston Dynamics in gebruik genomen en die onlangs voor het eerst ingezet. Dat meldde Tweakers onlangs. Spot is een robothond met als unieke eigenschap zijn natuurlijke manier van bewegen en evenwicht bewaren, waarbij je dan moet zeggen dat het “AI aangedreven is”. De variant die onze politie inzet, kan niet autonoom opereren en wordt op afstand bestuurd. Doel is met name in gevaarlijke situaties zoals drugslabs veilig te kunnen opereren. Een mooie eerste stap, maar het roept natuurlijk wel de vraag op hoe zo’n robotpolitiehond (politierobothond?) dan in de toekomst ingezet kan worden.

Voor wie wil weten hoe de toekomst van AI in de Nederlandse gemeenschap eruit ziet, is de case van de gemeente Juinen een unieke kans. De gemeente is nu bijna een jaar bezig met de breedschalige implementatie van AI voor gemeente- en burgerprocessen. Zij heeft daarbij gekozen voor de insteek van wettig, ethisch en robuust conform de Europese Guidelines voor verantwoorde AI, en is tot veler verbazing gekozen tot een van de twintig steden die aan de wereldwijde competitie World City AI Ranking mee mag doen.

Als afsluiter van het eerste jaar is daarbij een onderzoek naar draagvlak gewenst. Onderzoeksbureau Akkermans c.s. heeft daarom in opdracht van Juinen haar burgers bevraagd naar hoe zij de belangrijkste AI projecten hebben ervaren. Gezien de inzet van deze robothond wil ik u één aspect alvast meegeven:

In Woon-zorgcentrum Dageraad wordt al geruime tijd gewerkt met zorgrobot Jorien, die de bewoners wat extra gezelschap biedt. Daarnaast werkt het Juridisch Loket met intake-lawyerbot Hugo en experimenteert het ziekenhuis met de inzet van Meredith de robotchirurg. De politie heeft een aanvraag ingediend om een autonome robothond (Koiro, lees meer) te laten patrouilleren. Al deze robots werken autonoom, dus zonder human-in-the-loop (HITL). Waar hebben de Juinense burgers het meest vertrouwen in, denkt u? En waarom?

  1. Zorgrobot Jorien
  2. Lawyerbot Hugo
  3. Robotchirurg Meredith
  4. Robotpolitiehond Koiro
Wie denkt dat zhij het antwoord weet, moet zich zeker inschrijven voor de tienweekse opleiding AI Compliance & Governance die in mei weer van start gaat!

Arnoud

Een robot overtreedt de wet, wat nu?

robot-wetRobots overtreden steeds vaker wetten, en we weten niet wat daaraan te doen. Dat las ik althans bij Fusion.net, waar ze het mooie voorbeeld van de Darknet Shopper aanhaalde: een bot die random aankopen doet à 100 bitcoin bij een Darknet-site, u weet wel vol met illegale meuk. Wie is er dan aansprakelijk als het ding een dosis cocaïne bestelt, of een vervalst paspoort?

Een robot of bot/script is geen natuurlijk persoon of rechtspersoon, dus kan deze geen strafbare feiten begaan, net zo min als een auto of een hond dat kan.

Het onderwerp doet denken aan de recente discussie over zelfrijdende auto’s. Daarbij leek de uitkomst te zijn dat we de aansprakelijkheid bij de eigenaar/bestuurder kunnen leggen, net zoals we dat bij dieren doen. Maar dan gaat het om een specifiek soort aansprakelijkheid, namelijk onbedoelde schade aan anderen. Bovendien is zulke schade goed te verzekeren.

Hier zoekt de bestuurder/aanzetter van de bot wel iets actiever de grenzen op. Een auto-maker programmeert normaal niet in dat de auto mensen gaat aanrijden of door rood licht zal gaan, maar een bot als deze wordt impliciet wel ontworpen met de gedachte dat ‘ie iets kwestieus gaat kopen. En dát maakt het twijfelachtiger voor mij. Plus, dit kun je niet verzekeren.

Je kunt natuurlijk zeggen: hij koopt random dingen, er zit dus geen intentie in om de wet te overtreden. Hij ziet een item te koop, hij checkt het budget en klikt op “buy now”. Is er dan opzet op het kopen van een wapen, drugs of een vals paspoort?

Nu kan iedereen natuurlijk wel zeggen, ik wílde dat niet letterlijk. Maar de strafwet is slim: naast opzet is er ook het concept “voorwaardelijke opzet”, oftewel je wilde het misschien niet 100% maar je hebt de aanmerkelijke kans aanvaard dat dit kon gebeuren en je nam de gevolgen op de koop toe. Daarom behandelen we je alsof je het met opzet deed.

Vanuit dat concept kun je dan stellen, wie een bot loslaat op een Darknet-site, neemt de gevolgen op de koop toe want iedereen wéét dat daar illegale meuk te koop is. En de kans dat je bot met illegale meuk thuis komt, is aanzienlijk. Dus heb je voorwaardelijk opzettelijk gehandeld.

Update (20 april) de Zwitserse politie heeft de aankopen van onder meer XTC onderzocht en laat weten niet tot vervolging over te gaan omdat de actie deel was van een “verhit publiek debat over vragen die centraal stonden in de tentoonstelling, waarbij het laten zien van de XTC als onderdeel van de tentoonstelling gerechtvaardigd is”.

Ergens voelt dit soort “cyber-recht” te simpel voor woorden. Als ik blind een dartpijltje naar een menigte gooi, dan is het evident dat ik stom bezig ben en niet dat pijltje. Maar als ik een drone loslaat met een dom algoritme (“vlieg rechtdoor en als je ergens tegen botst, stort dan neer”) dan krijgen we hele discussies over de aansprakelijkheid van robots. En met een beetje geluk Asimov’s drie wetten der robotica. Mis ik iets?

Arnoud

Welke wetswijzigingen zijn er nodig om een zelfrijdende auto op de weg te laten?

google-zelfrijdende-autoMinister Schultz van Haegen (Infrastructuur en Milieu) wil Nederland een voortrekkersrol geven op het gebied van zelfrijdende auto’s, las ik bij Nu.nl. Daarvoor zijn wel een aantal wetswijzigingen nodig, en dat intrigeert me dan: wat zou je nu in de wet moeten veranderen om met een zelfrijdende auto de weg op te kunnen? Plus, wat gebeurt er bij een ongeluk?

De voorgestelde regels zijn via internetconsultatie alvast bekend gemaakt.

Het komt er in het kort op neer dat de RDW gaat bepalen wat er bij wijze van test de weg op mag. Zij mogen een ontheffing verlenen onder de regeling voertuigen aan fabrikanten van zelfrijdende auto’s, logisch want anders mogen ze de weg niet op. Ook kunnen ze bepalen dat bij wijzigingen aan de prototypes niet meteen een herkeuring nodig is.

En intrigerend: men mag ontheffing van bepaalde verkeersregels verlenen. Dat lijkt te gaan over het moeten voeren van verlichting, reflectoren en dergelijke maar het intrigeert me wel: welke verkeersregels zou een zelfrijdend voertuig mogen schenden? De enige die ik kan bedenken, is afstand houden tot je voorganger. Zelfrijdende auto’s kunnen vaak heel efficiënt in een treintje rijden, dat scheelt brandstof en zij kunnen snel genoeg reageren op de acties van hun voorganger.

Tot mijn verbazing zag ik niets over aansprakelijkheid bij een ongeval. Dat is namelijk een hele lastige, omdat volgens de Wegenverkeerswet de bestuurder verantwoordelijk is voor het weggedrag van de auto. Maar een zelfrijdende auto hééft niet noodzakelijkerwijs een bestuurder. Er kan iemand in zitten die op een noodknop kan drukken of het stuur kan overnemen, maar er zijn ook varianten waarbij de auto als volledig autonome robot de weg op gaat. En wie is dan de bestuurder?

Als je de eis van een bestuurder letterlijk neemt, dan kan zo’n volledig autonome robot de weg dus niet op. Er zal altijd iemand in de auto moeten zitten, en die is dan aansprakelijk. Ook al kan hij in feite nauwelijks ingrijpen omdat de computer in de auto het allemaal sneller en beter weet. Overigens, als die persoon een werknemer dan is de werkgever aansprakelijk voor de schade natuurlijk.

Bij de proeven zal het wel meevallen maar ik vraag me wel af wat er zou gebeuren als we werkelijk massaal met zelfrijdende auto’s gaan rondrijden. Zou dan de producent van het voertuig aansprakelijk zijn? Je bent immers als producent aansprakelijk voor veiligheidsgebreken in je product, en er is niet echt verschil tussen een televisie die ontploft en een auto die tegen een andere auto aanrijdt. Of leggen we het toch bij de eigenaar, net zoals we dat doen bij dieren? Ook soort van autonome robots immers.

Arnoud