Mag een AI-politiecamera je beboeten voor een plak roggebrood in de hand bij het rijden?

Een lezer vroeg me:

Onlangs werd bekend dat de politie ‘slimme camera’s’ gaat inzetten tegen automobilisten die met hun smartphone in de hand aan het appen of bellen zijn. Maar hoe kunnen ze met zo’n camera zien of ik een telefoon vasthoud of bijvoorbeeld een navigatie-unit of zelfs een plak roggebrood? Die is ook zwart en rechthoekig.

Dit nieuwe systeem van de politie maakt gebruik van zogeheten “kunstmatige intelligentie” oftewel machine learning, waarmee foto’s worden geclassificeerd als “telefoon in de hand” versus “geen telefoon in de hand”. Zulke systemen zijn technisch relatief simpel; ze vereisen vooral een hele berg gelabelde foto’s van beide categorieën, zodat de herkenning van een nieuwe foto zo goed mogelijk is.

Het zou inderdaad niet werken als de camera ten onrechte van een foto concludeert dat deze “telefoon in de hand” betreft en dan het kenteken doorstuurt naar het boetesysteem. Daarom is een extra slag ingebouwd: als het camerasysteem een telefoon in de hand ziet, gaat de foto naar een menselijke agent. Deze doet dan de ‘echte’ beoordeling, en pas als zhij ervan overtuigd is dat de bestuurder op de foto reed en een mobiel elektronisch apparaat vasthield, volgt de automatische boeteprocedure.

In dit systeem is de camera dus eigenlijk niet meer dan een voorselectie. Daar zie ik weinig mis mee. Agenten kunnen niet iedere auto in kijken, en juist computers zijn goed in routinematig veel situaties verwerken en potentieel gekke dingen daarin signaleren. Ik heb dit liever dan een agent met verrekijker die de gehele dag op telefoons zit te letten.

Hoe goed het systeem is in het herkennen van roggebrood of ontbijtkoek weet ik niet. Maar het zou prima zijn als het systeem navigatie-units aanmerkt als “telefoon in de hand”, want ook het vasthouden van zo’n unit (of van een tablet, mediaspeler, laptop en ga zo maar door) valt onder het verbod.

Arnoud

16 reacties

  1. Op zich zou ik er na verloop van tijd, als de foutmarge erg laag blijkt of wordt (1 op 1000? 1 op 5000?), ook geen moeite mee hebben met vol-automatische AI boetes. Een agent van vlees en bloed kan ook fouten maken. Of misschien zelfs meer fouten maken. Zolang er maar bewijs wordt vergaardt en je bezwaar kan maken of beroep kan aantekenen.

  2. Mijn oud barrel heeft geen mogelijkheid om muziek af te spelen vanaf mijn telefoon. Nu wil ik nog wel eens een podcast luisteren tijdens lange ritten op de snelweg. Daar gebruik ik dan een bluetooth speaker voor. En ja om boven de achtergrondherrie van wind en banden uit te komen wil ik dat ding nog wel eens in de hand houden. Stiekem zat ik , me al te verheugen op de agent dit dat ding ten onrechte voor een telefoon aan zou zien maar loop ik nu toch meer risico op een boete als ik dacht?

    1. Als ik het goed onthouden heb is het nu simpelweg verboden een electronisch apparaat in de hand te houden. Het hoeft dus geen communicatie apparaat te zijn. Een speaker is een electronisch apparaat.

      Toch denk ik niet dat het de bedoeling is dit erg rechtlijnig te volgen, ik neem aan dat ze wel willen dat ik mijn stuur blijf vasthouden. Mijn electrische auto is immers ook een electronisch apparaat. Net als vrijwel alle ICE autos die je vandaag op de weg aantreft, de meeste moderne autos hebben electronische stuurbekrachtiging. Wellicht dat er nog een paar old timers rondrijden die volledig mechanisch zijn.

      1. Het wetsartikel:

        § 30. Gebruik van mobiele telecommunicatieapparatuur Artikel 61a Het is degene die een voertuig bestuurt verboden tijdens het rijden een mobiel elektronisch apparaat dat gebruikt kan worden voor communicatie of informatieverwerking vast te houden. Onder een mobiel elektronisch apparaat wordt in elk geval verstaan een mobiele telefoon, een tabletcomputer of een mediaspeler.
        Hoewel een auto mobiel is, is dat denk ik een andere definitie van mobiel dan in de wet bedoeld wordt.

      2. Het moet juist wel gebruikt kunnen worden voor communicatie (of informatieverwerking):

        Het is degene die een voertuig bestuurt verboden tijdens het rijden een mobiel elektronisch apparaat dat gebruikt kan worden voor communicatie of informatieverwerking vast te houden. Onder een mobiel elektronisch apparaat wordt in elk geval verstaan een mobiele telefoon, een tabletcomputer of een mediaspeler.
        Elk apparaat met Bluetooth lijkt me hieronder vallen.

        1. Dat klopt en is volgens mij ook de bedoeling. De oude jurisprudentie van een telefoon over je oor klemmen (vaak met hoofddoek) kan nu wel het raam uit, want het is volgens mij niet de bedoeling dat een Bluetooth-oortje eronder valt zolang je die ook echt in je oor hebt zitten.

  3. Ik kwam dit bericht ook tegen op security.nl en vroeg me daar het volgende af; (hoe) wordt het out-of-the-loop probleem hier voorkomen? In principe is wat we hier zien namelijk een klassiek voorbeeld van een verschuiving van actief registreren naar passief monitoren. In de oude situatie ontdekt/herkent de agent de fout zelf, nu wordt dit door een systeem gedaan en verschuift de rol van de agent naar het monitoren van het systeem. In de eerste situatie is de agent in-the-loop, terwijl hij in de nieuwe situatie out-of-the-loop is. In divers onderzoek naar geautomatiseerde systemen is al gebleken dat dit voor mensen een lastige positie is om in te verkeren, omdat onze hersenen niet goed zijn om gedegen controle op repetitieve taken uit te voeren. Hoe beter het systeem, hoe waarschijnlijker het probleem dat de fout niet wordt gevonden. Met andere woorden, als 99 foto’s kloppen en 1 niet, dan is de kans groot dat deze foute foto (in dit geval dus een persoon die niet belt) niet wordt gevonden en er een onterechte boete wordt verstuurd. Als je dit combineert met het gegeven dat een dergelijk geautomatiseerd systeem vermoedelijk veel meer overtredingen kan en zal constateren dan dat menselijke agenten dit konden, dan hebben we het dus ook over een oplopend aantal fouten, oftewel foutieve boetes. Een oplossing zou bijvoorbeeld kunnen zijn het bewust toevoegen van foutieve foto’s(die dan wel genoeg moeten afwisselen om herkenning van deze foto’s te voorkomen), die door de agent in kwestie herkent moeten worden als foutief. Gebeurt dit niet, dan moeten bijv. de foto’s sinds de laatste check opnieuw gecontroleerd worden.

    Heel concreet gezien, moet er wettelijk gezien bij het invoeren van een dergelijk systeem worden nagedacht over het voorkomen van false-positives? En moet de gekozen route worden gezorgd voor een bepaalde borging van de effectiviteit van die route? Het lijkt mij namelijk dat er op basis van al beschikbaar onderzoek een goede case te maken is dat de borging op dit moment problematisch is.

    1. Dit lijkt me relatief gemakkelijk op te lossen door iemand in de lus op te nemen die een direct belang heeft. Als bij de boete standaard ook de grond (de foto) wordt bijgevoegd kan de ontvanger zelf kijken of het terecht is of hij kan aangeven dat de agent heeft zitten slapen en het verschil tussen een boterham en een telefoon niet heeft gezien. Tenzij de ontvanger dit heel vaak overkomt zal voor hem/haar het probleem van repetitie niet voorkomen en volgt bdaarna een herstelprocedure waarin een agent met echte aandacht gaat kijken. Vervolgens zal men na een tijdje de eerste agent gewoon wegbezuinigen en mogen we allemaal onze eigen automatische boetes gaan controleren.

  4. Ik kwam dit bericht ook tegen op security.nl en vroeg me daar het volgende af; (hoe) wordt het out-of-the-loop probleem hier voorkomen? In principe is wat we hier zien namelijk een klassiek voorbeeld van een verschuiving van actief registreren naar passief monitoren. In de oude situatie ontdekt/herkent de agent de fout zelf, nu wordt dit door een systeem gedaan en verschuift de rol van de agent naar het monitoren van het systeem. In de eerste situatie is de agent in-the-loop, terwijl hij in de nieuwe situatie out-of-the-loop is. In divers onderzoek naar geautomatiseerde systemen is al gebleken dat dit voor mensen een lastige positie is om in te verkeren, omdat onze hersenen niet goed in staat zijn om gedegen controle op repetitieve taken uit te voeren. Hoe beter het systeem, hoe waarschijnlijker dat de fout niet wordt gevonden. Met andere woorden, als 99 foto’s kloppen en 1 niet, dan is de kans groot dat deze foute foto (in dit geval dus een persoon die geen elektronisch apparaat vast heeft) niet wordt gevonden en er een onterechte boete wordt verstuurd. Als je dit combineert met het gegeven dat een dergelijk geautomatiseerd systeem vermoedelijk veel meer overtredingen kan en zal constateren dan dat menselijke agenten dit konden, dan hebben we het dus ook over een oplopend aantal fouten, oftewel foutieve boetes. Een oplossing zou bijvoorbeeld kunnen zijn het bewust toevoegen van foutieve foto’s (die dan wel genoeg moeten afwisselen om herkenning van deze foto’s te voorkomen), die door de agent in kwestie herkent moeten worden als foutief. Gebeurt dit niet, dan moeten bijv. de foto’s sinds de laatste check opnieuw gecontroleerd worden.

    Heel concreet gezien, moet er wettelijk gezien bij het invoeren van een dergelijk systeem worden nagedacht over het voorkomen van false-positives? En moet er in de gekozen route worden gezorgd voor een bepaalde borging van de effectiviteit van die route? Het lijkt mij namelijk dat er op basis van al beschikbaar onderzoek een goede case te maken is dat de borging op dit moment problematisch is.

  5. “In dit systeem is de camera dus eigenlijk niet meer dan een voorselectie. Daar zie ik weinig mis mee.” is me wat te kort door de bocht. Er zijn legio voorbeelden waarbij geautomatiseerd vastleggen van gedrag maatschappelijke voordelen kan hebben, maar door ze per geval als ‘niet zoveel mis mee’ te beschouwen loop je het risico op termijn bij een vorm van ongewenste ‘mass surveillance’ uit te komen. Dat de grote tech-bedrijven het doen snap ik vanuit hun streven naar kennis, macht en winst. Dus ja, ik ben het met je eens dat het in dit geval een goed doel dient, maar ik hou mijn hart vast hoe het verder gaat met het handig geautomatiseerd registreren (en beoordelen) van gedrag.

    1. Een valkuil kan ook zijn dat straks streekproefsgewijs agenten de positives zelf beoordelen. En dat dus in steeds meer gevallen er geen mens aan de beslissing te pas komt. Hellend vlak. Maar het blijft een balans; bellen in het verkeer versus een ontransparant en mogelijk biased algorithme wat foutief boetes uitdeelt.

      Rationale en recht van bezwaar (waar dus ALTIJD een mens aan te pas MOET komen aan de kant van de politie) is m.i. daar broodnodig.

  6. Alsof mensen nou zo goed zijn in het herkennen van telefoons. Ik stond laatst te tanken en krabde met mijn vrije hand wat aan mijn oor. Prompt werd de pomp afgesloten en werd mij via de luidspreker te verstaan gegeven dat ik niet mocht bellen tijdens het tanken.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.