Mag mijn werkgever me dwingen mijn BYOD te voorzien van Microsoftsoftware?

my workstations – windows laptop” by anotherjesse is licensed under CC BY-NC-SA 2.0

Een lezer vroeg me:

Mijn werkgever wil het BYOD beleid voor onze organisatie zodanig aanpassen, dat er alleen nog met laptops gewerkt kan worden, die volledig op Microsoft producten draaien. (Windows 11, Office365, enz). Ik heb gewetensbezwaren tegen het gebruik van software van Big Tech bedrijven en werk al 25 jaar zonder problemen met open source. Hoe sterk sta ik als ik bezwaar wil maken tegen deze beleidswijziging?
Ik moet nu even cru zijn: nee. De werkgever kiest de gereedschappen en bepaalt hoe het werk gebeurt. Gewetensbezwaren brengen vrijwel altijd met zich mee dat je ontslag moet nemen. Van je werkgever eisen dat die het werk anders inricht vanwege jouw gewetensbezwaren kan enkel heel soms bij een kernaspect van een religieuze overtuiging en alleen als er een reëel alternatief is.

Hier gaat het om bring-your-own-device beleid, waarbij werknemers de eigen laptop met eigen software mogen inzetten voor werkzaken. Dat kan, en in zo’n vrije setting is het dan helemaal prima dat jij dat met een laptop met FreeBSD en LibreOffice doet in plaats van Windows 11 en Office 365.

Maar ook als dit al enige jaren het beleid is, blijft de werkgever gerechtigd van gedachten te veranderen en over te willen stappen naar een meer gecontroleerde omgeving. Goed werkgeverschap vereist dat hij hier wel enige vooraankondiging en overgangstijd voor laat, dus niet op vrijdag 13:00 aankondigen dat iedereen maandag op Windows 11 moet zitten of dat om 9:00 de IT-afdeling langskomt met een installatie-CD.

Daar staat tegenover dat een werknemer niet verplicht kan worden de eigen laptop mee naar het werk te nemen. BYOD in deze vorm is een keuze, en die keuze impliceert niet dat je dat device voor altijd moet blijven gebruiken. Je kunt dus als werknemer met gewetensbezwaren de BYOD regeling opzeggen en een laptop van de werkgever verlangen. Wel zal daar dan natuurlijk Windows 11 en Office 365 op staan.

Arnoud Dit is een update van een vraag in de comments van een blog uit 2017. Ik ben sinds de discussie daar van gedachten veranderd.

Alweer controle bij de zelfscankassa? Mogelijk vindt AI je gedrag verdacht

Cashierless supermarket self-checkout” by CoCreatr is licensed under CC BY-SA 2.0

“Er komt meer cameratoezicht in alle winkels en er komen meer en slimmere steekproeven bij zelfscankassa’s”, las ik bij PrivacyNieuws. Men citeert supermarktketen Jumbo, dat AI-technologie wil gaan inzetten voor gerichte steekproeven bij de zelfscankassa. Hoe zinnig is dat?

Vrijwel alle supermarkten hebben zelfscankassa’s. Dat scheelt immers een hoop geld aan salarissen voor cassières (m/v/x), maar je krijgt er wel meer winkeldiefstal voor terug. Daar moet technologie dan een oplossing voor bieden, en het breed gedragen gevoel is dan dat een steekproef gebaseerd op willekeur niet goed genoeg werkt. Daarom de greep naar AI.

Het lijkt erop dat men niet gaat controleren op kenmerken van de persoon, maar op gedrag:

Retaildeskundige Eelco Hos legde begin dit jaar in het Brabants Dagblad uit hoe dit soort AI-controlesystemen eruit kunnen zien. Camera’s zouden kunnen checken wat de klant koopt en scant. Als een product dan niet wordt gescand, vraagt het zelfscanapparaat de klant om dat alsnog te doen. Een andere mogelijkheid is dat een medewerker door de computer wordt gewaarschuwd als iemand niet alles afrekent. Een camera bij de kassa maakt dan een foto van de winkelmand aan de kassa.
Deze aanpak heeft in ieder geval niet het nadeel dat men gaat proberen een AI te leren hoe “een gemiddelde winkeldief” eruit ziet – een fundamenteel onjuiste aanpak. Het leidt natuurlijk wel tot een enorme berg aan extra camera’s, en het trainen van een model dat scant wat iemand uit het rek pakt is ook niet triviaal (denk aan terugleggen of 2 stuks pakken, of een donkere verpakking in de hand van een persoon van kleur).

De geciteerde zorg van Bits of Freedom is inderdaad niet onterecht:  “Je hoeft maar een verkeerde beweging te maken en je kunt onterecht als verdacht worden aangemerkt.” Als de camera niet helemaal goed ziet welk product je pakt, dan zal de kassa een discrepantie zien tussen jouw mandje en de werkelijkheid in het systeem, en dat pakt altijd in het nadeel van de klant uit. De Jumbo heeft hier nog geen nadere uitleg over gegeven.

Arnoud PS: Lezen hoe het wel moet? Mijn boek AI and Algorithms gaat in detail in op de juridische en ethische randvoorwaarden van inzet van AI.

Thuisadressen getuigen vindbaar via online vonnissen, hoe erg is dat?

De adressen van burgers die camerabeelden delen met de politie zijn in sommige gevallen te herleiden uit online gepubliceerde vonnissen, blijkt uit onderzoek van BNR. Wie vonnissen goed leest met Maps erbij, kan zo vaststellen waar de camera’s hangen waar beelden van zijn gebruikt door justitie in ernstige strafzaken. De Raad voor de Rechtspraak laat in een reactie weten dat ze het probleem herkent.

Het onderzoek is een vervolg op waar ik in januari over blogde: De politie vordert vaak beelden van deurbelcamera’s waardoor adressen van nietsvermoedende burgers in strafdossiers terecht kunnen komen. Dat vorderen moet juridisch gezien, want anders mag de politie de beelden niet meenemen (vrijwillig ongevraagd ze krijgen van een burger daargelaten).

Letterlijke adressen (“op de camerabeelden van de camera aangebracht op het pand te Jollemanhof 12 Amsterdam”) worden netjes geanonimiseerd. Maar dat is niet genoeg: vaak wordt de context geschetst om de beelden te duiden, en wie dan een beetje handig is met Maps, kan dan alsnog de originele plek terugvinden:

De positie van de camera, het merk van de deurbel, de namen van aangrenzende straten: allen komen uitgebreid aan bod. [Getuige] Clara’s naam en adres zijn digitaal ‘weggelakt’, maar er staan zoveel details in de uitspraak, dat aan de hand van een kaart te achterhalen is waar de deurbelcamera ongeveer gehangen moet hebben. Foto’s op Google Streetview laten zien dat alleen bij Clara een deurbel van het genoemde merk hing ten tijde van de moord.
Waar ik dan mee blijf zitten: hoe ernstig is dit nu werkelijk, qua inbreuk op de persoonlijke levenssfeer? Het gaat hier niet om beschrijvingen van interieurs of persoonlijke aangelegenheden, maar een beschrijving van de locatie en wat er op die camera te zien was op de openbare weg. Die beelden hebben dan verder niets met de camera-eigenaar te maken, die was toevallig de getuige en dat was het.

Arnoud

Canada wil Flipper Zero verbieden, tool zou gebruikt worden voor autodiefstal

Flipper Zero” by Turbospok is licensed under CC BY-SA 4.0

Canada is van plan om de import, verkoop en het gebruik van de Flipper Zero en soortgelijke multitools te verbieden. Dat meldde Tweakers onlangs. In het land neemt autodiefstal enorme vormen aan, procentueel het tienvoudige van Nederland. Dan moet je iets doen, Flippers verbieden is iets dus laten we dat doen. Maar hoe haalbaar is dat?

De Flipper Zero is een “portable multi-tool for pentesters and geeks in a toy-like body,” aldus de fabrikant. Het ding heeft ongeveer alles dat je nodig hebt voor (old school) hacking, van een simpel schermpje en handige knoppen tot USB, Bluetooth en pogo pin aansluitingen. Het platform is open source en kan dus volledig worden aangepast, inclusief custom firmware.

Die custom firmware kwam een tijdje geleden in het nieuws: de custom firmware “Flipper Xtreme” maakte het wel heel makkelijk om een soort van denial of service aanval te doen op iPhones door een berg Bluetooth connectieverzoeken te sturen. Inclusief knopje dat “iOS attack” heet. Niet handig, juridisch gezien.

Door het gemak, de aansprekende vormgeving en het concreetmakende aspect springt er hacktechnisch nu even uit. Je kunt er bijvoorbeeld ook een laadpas voor elektrische auto’s mee simuleren en dan gratis laden (al duurt dat extreem lang en moet je dit 200 euro kostende ding met ducttape aan een laadpaal vastzetten). En ja, dat kan met meer dingen maar dit is een specifiek ding met een herkenbare merknaam dus dat is een mooi verhaal.

In Canada is het een stuk negatiever:

On Thursday, the Innovation, Science and Economic Development Canada agency said it will “pursue all avenues to ban devices used to steal vehicles by copying the wireless signals for remote keyless entry, such as the Flipper Zero, which would allow for the removal of those devices from the Canadian marketplace through collaboration with law enforcement agencies.” A social media post by François-Philippe Champagne, the minister of that agency, said that as part of the push “we are banning the importation, sale and use of consumer hacking devices, like flippers, used to commit these crimes.”
Wederom: er zijn tientallen manieren om die draadloze signalen op te vangen en te kopiëren, maar dat zijn geen leuk vormgegeven doosjes met een eenvoudige UI en een aansprekende merknaam. Sorry Raspberry Pi, maar de Zero heeft de coolfactor.

In Canada is autodiefstal een enorm probleem, en kennelijk is een populaire truc daarbij het klonen van het signaal dat de draadloze autosleutel (fob) uitzendt om de deur open te doen. De Flipper Zero kan zeker signalen opvangen en opnieuw uitzenden, maar bij autosleutels heeft dat niet zo heel veel zin:

[The most prevalent] attack requires a high-power transceiver that’s not capable with the Flipper Zero. These attacks are carried out using pricy off-the-shelf equipment and modifying it using a fair amount of expertise in radio frequency communications. (…) The Flipper Zero is also incapable of defeating keyless systems that rely on rolling codes, a protection that’s been in place since the 1990s that essentially transmits a different electronic key signal each time a key is pressed to lock or unlock a door.
Mogelijk dat bij de Canadese overheid wat verwarring is ontstaan over een hype-tje uit 2022, toen bleek dat je het signaal om de laadpoort van een Tesla te openen eenvoudig kon klonen, waardoor je met een Flipper Zero mensen kon trollen. Als je dat deurtje kunt openen, dan kun je vast ook de motor starten, zeg maar.

Hoe dan ook, de regering wil nu dus deze apparaten gaan verbieden. Maar hoe zou dat gaan, en dan heb ik het niet over de handhaafbaarheid maar over “hoe schrijf je dat eenduidig op”.

In Nederland geldt een verbod op het maken, hebben of verspreiden van hacktools. Daarbij geldt wel een specifieke eis: zo’n tool moet “hoofdzakelijk geschikt gemaakt of ontworpen [zijn] tot het plegen van een [computer]misdrijf”, zoals computervredebreuk of het aftappen van signalen (art. 139d Sr). Het is dus niet genoeg dat je er zo’n misdrijf mee kunt plegen, het ding moet er voor bestemd zijn.

In discussies over booter-sites benadruk ik altijd dat het dan al snel neerkomt op intentie van de maker. Heb je zo’n zwarte achtergrond met groene letters, l33tspeek en alleen betalen via bitcoin, dan komt dat heel anders over dan een gezellig witte achtergrond met rommelige knutselspullen en een schattig dolfijntje. Mij spreekt dan ook aan dat men de compliance-documentatie online zet in plaats van een disclaimer over illegale zaken.

Canada heeft dat niet direct, maar maakt het strafbaar (art. 342 Penal Code) om “causes to be used, directly or indirectly, a computer system with intent to commit an offence” zoals computervredebreuk of aftappen van signalen. Wie een kastje verkoopt en daarbij aanmoedigt dat je er een auto mee steelt, loopt dus tegen de strafwet aan. Een verkoper die neutraal spreekt van een pentest tool waarmee je je eigen auto kunt openen, is niet strafbaar.

Je kunt natuurlijk in zo’n strafbepaling woorden als “with intent” vervangen door “with ability”. Dan is iedere Flipper Zero inderdaad direct strafbaar, want ze hebben dan bepaalde hack-capability (andermans laadpoort openen is juridisch gezien ongeautoriseerd). Alleen krijg je dan zo’n breed verbod dat je dan tegen de meer algemene eis aanloopt dat strafbepalingen afgekaderd moeten zijn. Termen als “zou kunnen” of “mogelijk” zijn dus niet echt de bedoeling.

Mijn gevoel bij het nieuwsbericht is dat het vooral ging om reageren op de hype, laten zien dat je iets van plan bent. Voordat hier een wetsvoorstel voor is gedaan, zijn we rustig een jaar verder en heeft een ander product weer de hype.

Arnoud

Maakt het bij camerabeeldbewijs uit of de camera legaal de openbare weg filmt?

Dat bericht van laatst over vernietigen van camerabeelden maakte veel los. Wis je gewoon beelden omdat je geen zin hebt in discussie, ben je strafbaar. Eén aspect licht ik er even uit: het bezwaar dat je eigenlijk de openbare weg niet mag filmen. Wat doet dat er toe?

Op LinkedIn kreeg ik bijvoorbeeld deze reactie:

Formeel gezien mag je al helemaal geen beelden van de openbare ruimte maken, laat staan opslaan. Dus als de politie eventueel beelden van je Ring deurbel wil hebben, omdat ze mogelijk vermoeden dat er een misdrijf op staat, volstaat het om aan te geven dat je de openbare ruimte die zichtbaar is binnen het beeldgebied van je camera, middels een filter wegfiltert (blurred of afdekt) voordat e.e.a. opgenomen wordt, e.e.a. conform de voorschriften van de AP.
Het is natuurlijk prima als je met een filter zorgt dat je niet nodeloos de openbare weg filmt. En als de politie dan beelden bij je vordert, dan is dat vrij simpel: u mag de blokjes hebben maar meer heb ik niet. De enige echte eis is natuurlijk dat je ook echt een filter hébt – niet bluffen als oom agent aan de deur staat met een vordering, en ook niet snel naar boven rennen en een blurretje doen.

Dat je de openbare weg “helemaal niet” mag filmen, is wat mij betreft wel echt te kort door de bocht. Als die openbare weg onvermijdelijk is bij je bewakingstaak, of het anderszins noodzakelijk is dat je ook die opneemt, dan mag dat prima. Je krijgt wel met de AVG te maken, maar dat is niet hetzelfde als “dat mag niet”.

Veel mensen die de openbare weg filmen met een aangebrachte camera zullen de AVG schenden, al is het maar omdat ze geen duidelijke waarschuwing hebben (of een privacyverklaring). En die duidelijke waarschuwing geeft nóg een probleem: het is strafbaar om met een aangebrachte camera de openbare weg te filmen als dat niet duidelijk is aangekondigd (art. 441b Strafrecht).

Het is niet strafbaar om de AVG te overtreden (dat is bestuursrecht, iets heel anders). Het WvSr overtreden is natuurlijk wel strafbaar, maar dan geldt nog steeds dat wetsovertreding door een burger geen reden is om bewijs uit te sluiten. Alleen wetsovertreding door de politie kan die discussie starten. En dan nog: in Nederland zegt de rechter dan ‘foei’ en gebruikt ie het bewijs toch met de toverformule “de verdediging is niet in haar belangen geschaad”.

Arnoud

Minister Harbers: ‘Bestuurders die Apple Vision Pro dragen achter stuur krijgen boete’

Nederlanders die overwegen om met de nieuwe Apple Vision Pro deel te nemen aan het verkeer, maken zich schuldig aan roekeloos rijgedrag en dat is strafbaar, zegt Mark Harbers, minister van Infrastructuur en Waterstaat. Dat meldde het AD onlangs. De minister dreigt met artikel 5, en dat voelt een tikje spannend.

Koos z’n kapstok, noemde ik dat artikel vroeger, maar Wegmisbruikers is zo leuk niet meer sinds die officier-af is (en de AVG uitgebreider werd nageleefd, maar dat terzijde). Het idee is dat je met artikel 5 alles kunt aanpakken dat concreet of dreigend gevaar oplevert, een kapstokartikel waar alle mogelijke gedragingen aan opgehangen kunnen worden.

Een mogelijk gevaarlijke gedraging is “een televisie voor je ogen binden en hopen dat deze niet crasht of zonder stroom komt tijdens het besturen van een motorvoertuig”. Want dat is de kern van zo’n Vision Pro: het is geen bril met een AR-overlay met een en ander, maar een beeldscherm waar (door een interne camera opgenomen) beeld van de buitenwereld om je heen wordt getoond met een overlay met een en ander. Valt het ding uit, dan zie je dus niets meer.

Ik citeer even het AD:

In de gebruiksvoorwaarden van de Vision Pro geeft Apple aan dat de bril nooit gebruikt mag worden bij het besturen van een voertuig. Wanneer de bril in Nederland beschikbaar komt krijgen klanten een soortgelijke tekst voor hun ogen. Dat is nodig, want het aantal Nederlanders dat aangeeft de mobiele telefoon te gebruiken in het verkeer neemt al langere tijd toe, meldde verzekeraar Interpolis die dit al langere tijd in de gaten houdt. In een onderzoek van twee jaar terug gaf 71,5 procent van de Nederlanders aan het mobieltje wel eens te gebruiken tijdens het rijden of fietsen.
Dat laatste was natuurlijk aanleiding om het in de hand houden van een telefoon apart strafbaar te stellen, artikel 61a RVV. De jurisprudentie daarbij is nogal breed: ook het klemmen onder je hoofddoek of het met klittenband aan je arm vastzetten van je telefoon is “vasthouden”. Gewoon op je schoot laten liggen is dat dan weer niet.

Het verschil? Bij de hoofddoek vond het Hof relevant dat je tussen het bellen door de telefoon moet pakken, bijvoorbeeld om op te hangen. Kennelijk is dat bij telefoons op schoot niet zo belangrijk, of is in die zaak dat argument niet aan de orde geweest. Het rekt de betekenis van “in de hand houden” wel een beetje op naar “zo meteen in de hand gaan houden”.

Een Vision Pro hou je niet in de hand, hij zit om je hoofd met een band. Dat was met die hoofddoek ook, en daarbij vond het Hof doorslaggevend dat je er geen handsfree interface bij hebt:

Op grond van de in de Nota van Toelichting genoemde gronden, is het hof van oordeel dat ook de onderhavige wijze van telefoneren door de betrokkene onder het begrip ‘vasthouden’ als bedoeld in artikel 61a RVV 1990 dient te worden begrepen. Immers, anders dan wanneer gebruik wordt gemaakt van hulpmiddelen die uitdrukkelijk bestemd zijn om handsfree te bellen, zal de betrokkene bij het daadwerkelijk gebruik van de telefoon deze handmatig moeten bedienen, terwijl deze zich aan het oor bevindt.
Daar komt bij dat in 2019 door de minister is ingegaan op de vraag of smartwatches om de pols niet ook ‘vastgehouden’ worden, omdat je die ook handmatig moet bedienen. Nee:
Zoals hierboven al is opgemerkt valt het dragen van smartwatches en andere apparatuur, zoals internetbrillen, die zijn ontworpen om aan het lichaam te dragen, niet onder de definitie van het begrip «vasthouden». Een smartwatch dragen is dus niet verboden. Dit is verduidelijkt in de toelichting.
Dit is alweer even geleden, maar ik vermoed dat men bij ‘internetbril’ dacht aan Google Glass (dus een bril met glas en daarop een projectie) en niet aan bijvoorbeeld de Oculus Rift, die net als de Vision Pro een scherm voor je ogen hangt. Ik kan bij terugzoeken op die term echt alleen referenties naar Google’s bril vinden.

De Vision Pro heeft dus géén handbediening nodig in de traditionele zin, zoals bij de telefoon onder de hoofddoek. Hij is ontworpen om aan het lichaam te dragen. Maar voor mij is dan toch doorslaggevend dat hij je zicht blokkeert en dus geen ‘bril’ is, zodat die uitzondering niet op zou gaan. Ik acht de kans dus reëel dat een rechter de Vision Pro toch een “telefoon” noemt en “om je hoofd doen” rekent onder “vasthouden”.

Arnoud

Hoe riskant is het om in het openbaar te zeggen dat je gelekte Apple-sourcecode leest voor je emulator?

Een lezer vroeg me:

In deze presentatie vertelt iemand hoe hij een emulator aangepast heeft zodat hij z’n iPod kan emuleren. Daarbij valt me op dat hij toegeeft gelekte (gestolen) source code van Apple te hebben gebruikt. Is dat dan niet vreselijk riskant om zo in het openbaar te zeggen?
Dit is inderdaad een opmerkelijke. Ik citeer even uit de video:
But it turned out the iBoot source code got leaked in 2018. I was very lucky with that. I don’t know who leaked it, but I am very grateful for them. Because it really helped me understand […].
In 2018 lekte inderdaad de broncode uit van het deel van Apple’s iOS besturingssysteem dat voor het opstarten (booten) zorgt. Apple being Apple leidde dat natuurlijk tot vele juridische dreigementen. Het bleek om een werknemer te gaan, en al snel werd duidelijk dat de code intussen verouderd was en daarmee niet echt meer commerciële waarde.

Deze persoon had er echter toch wel baat bij: de broncode gaf gedetailleerde inzichten in hoe de iPod opstart en daarmee hoe deze precies in elkaar zit. Dat heb je weer nodig om een emulator te maken – een softwaretool die zich voordoet als een iPod, zodat applicaties voor dat platform daarmee gebruikt kunnen worden.

Is dit juridisch riskant? Allereerst het stukje van de gelekte geheimen. Die broncode was inderdaad een Apple bedrijfsgeheim, maar door het lek is die status er wel behoorlijk af ondertussen. Dat is het probleem met geheimen: als het eenmaal op straat ligt, dan is die status weg. En dan kun je blaffen wat je wilt als IP-advocaat, maar het wordt écht niet meer terug een bedrijfsgeheim.

Auteursrecht blijft natuurlijk wél gewoon bestaan bij een ongeautoriseerde publicatie (openbaarmaking en/of verveelvoudiging) van het werk. Apple kan dus zeer zeker op grond van haar auteursrecht verwijdering van die broncode eisen waar ze die ook ziet. Bij het eerste lek was ze er ook zeer snel bij met een DMCA takedown.

Deze meneer publiceert de broncode niet zelf: hij laat in de presentatie een paar screenshots zien met vooral feitelijke informatie, en legt uit dat hij zo vele inzichten kreeg en details kon achterhalen over de werking van het systeem, die dan weer zijn emulator kon.

Ideeën en principes halen uit een werk is geen inbreuk op het auteursrecht. Je schendt namelijk pas het recht als je het creatieve, het originele kopieert of herpubliceert. Zien dat je 42 moet zeggen als er een randapparaat aangezet wordt, is zeer zeker niet iets waar het auteursrecht wat van vindt. Dus de broncode door-akkeren en structuren, ideeën en namen documenteren is prima.

Wat niét mag, is die broncode even laten draaien en zien hoe het geheel werkt. Dat staat weliswaar in artikel 45l Auteurswet, maar dat geldt alleen voor mensen die bevoegd zijn de software te hebben:

Hij die bevoegd is tot het [laden, in beeld brengen, uitvoeren, transmitteren of opslaan van het software-werk], is mede bevoegd tijdens deze handelingen de werking van dat werk waar te nemen, te bestuderen en te testen teneinde de daaraan ten grondslag liggende ideeën en beginselen te achterhalen.
Zo te luisteren is dat ook niet gebeurd, maar als achteraf blijkt dat er bepaalde technische informatie is verkregen die je alleen bij het werk-in-uitvoer had kunnen krijgen, dan heb je wel degelijk een probleem.

Is het nou handig dit zo te zeggen? Meh. Ik weet niet of Apple nu echt zó veel zorgen heeft over gelekte broncode uit 2016 die al in 2018 niet meer relevant was. Het betreft hier ook geen commercieel misbruik maar een particulier project om oude Apple-hardware te emuleren.

Arnoud

 

 

Tonen van foto en ter beschikking stellen van camerabeelden geen inbreuk op AVG

edwardbrownca / Pixabay

Het delen van beeldmateriaal naar aanleiding van een misstand is niet perse een inbreuk op de AVG. Dat maak ik op uit een recent Rotterdams vonnis over een niet geheel alledaagse botsing tussen een werknemer, een clubbezoek onder werktijd en de werkgever.

De eiser in deze zaak had afgelopen januari een exclusieve club van exploitant Villasa bezocht. Hij had op dat moment standbydienst bij een bedrijf, en was dan ook met de bedrijfsbus en in kleding van het bedrijf aanwezig.

“In verband met incidenten die die avond waren voorgevallen” is iets later een medewerker van de club naar de directie van dat bedrijf gegaan met een foto van de beveiligingsbeelden. Het verzoek was uiteraard die persoon te identificeren, zodat men hem kon aanspreken op de financiële gevolgen. De misdragingen waren zelfs zo ernstig dat de club de man een toegangsverbod wilde opleggen.

In reactie verzocht het bedrijf om de camerabeelden:

zodat [bedrijf01] inzicht kon krijgen in de hoeveelheid alcohol die [eiser01] die avond had genuttigd. Villasa heeft dat verzoek ingewilligd en in [naam club01] (een deel van) de camerabeelden getoond aan [bedrijf01] . Een medewerker van [bedrijf01] heeft van de betreffende beelden video-opnames gemaakt. [bedrijf01] heeft deze video-opnames verstrekt aan haar jurist.
De man maakte hiertegen bezwaar op grond van de AVG: foto- en filmbeelden zijn immers persoonsgegevens, en die mag je niet zomaar verwerken laat staan aan een derde geven.

Niet zomaar, maar de rechter ziet hier wel degelijk een grond: het gerechtvaardigd belang. De club had een duidelijk belang bij het willen identificeren van de man, gezien de ernst van de incidenten. Andere routes dan de werkgever vragen (die via bus en trui te achterhalen was), had de club eigenlijk niet.

Voor de werkgever was een en ander kennelijk ook ernstig genoeg:

Dat [bedrijf01], nadat Villasa bij haar op kantoor was langsgekomen, meer wilde weten over het gedrag van [eiser01] op de avond dat hij stand-by dienst had, is alleszins begrijpelijk. [eiser01] reed in de bedrijfsbus van [bedrijf01] waarin (zoals door Villasa gesteld en door [eiser01] niet betwist) gevaarlijke stoffen lagen en [bedrijf01] had er, met het oog op de veiligheid, een gerechtvaardigd belang bij inzicht te krijgen in de hoeveelheid alcohol die [eiser01] die avond had genuttigd. Daarnaast is aannemelijk geworden dat het tonen van (een deel van) de beelden noodzakelijk was om het gerechtvaardigd belang van [bedrijf01] te behartigen. Het is begrijpelijk dat [bedrijf01], om een inschatting te kunnen maken van de ernst van de situatie en eventuele (arbeidsrechtelijke) consequenties te kunnen verbinden aan het gedrag van [eiser01], de beelden met eigen ogen wilde zien (en bijvoorbeeld niet af wilde gaan op alleen de woorden van Villasa).
Oftewel: jij gaat met een bus met gevaarlijke stoffen ergens heen en drinkt alcohol terwijl je standbydienst hebt, dan moet je de gevolgen maar dragen. De AVG staat hier niet in de weg.

Arnoud

Amnesty: Europese landen gebruiken dubieuze AI-technologieën bij grensbewaking

a couple of men standing on top of a lush green field
Photo by Carl Tronders on Unsplash

Europese landen gebruiken in toenemende mate digitale technologieën om migratie in te perken, waardoor de kans op „discriminatie, racisme en disproportionele en onwettige surveillance” wordt vergroot. Dat las ik bij NRC vorige week. Men zet daar namelijk een AI-leugendetector in, en omdat ik dus de hele AI Act aan het doorakkeren ben wilde ik me hier even boos over maken.

Uit het artikel:

Sinds 2018 wordt het systeem in ieder geval gebruikt door Hongarije, Griekenland en Letland. Het systeem analyseert „details van gelaatsuitdrukkingen met behulp van gezichts- en emotieherkenningstechnologieën”. Het systeem „toetst” of migranten antwoorden over bijvoorbeeld hun herkomst naar waarheid beantwoorden. Er is geen wetenschappelijke consensus dat leugendetectors, ook die gerund worden door AI, betrouwbare resultaten afleveren.
Het betreffende systeem heet iBorderCtrl en komt uit een Europees researchproject dat al een paar jaar loopt. De kern is dat men een machine learning model heeft getraind om emotieherkenning te doen om zo de mate van eerlijkheid van antwoorden van migranten in te schatten.

Er is een zeer hardnekkige overtuiging dat als we maar goed genoeg ons best doen, het ons moet lukken om mensen eerlijk te beoordelen met een computersysteem. Waar dat vandaan komt weet ik niet (“techno-optimisme”) maar elke keer als je dan even verder kijkt wat erachter zit, dan schrik je je wezenloos.

Het model van iBorderCtrl kent bijvoorbeeld diverse factoren zoals “knippert met linkeroog” of “beweegt hoofd”, en als je genoeg van die factoren zou hebben dan zou je met hoge betrouwbaarheid de leugenaars van de eerlijkerds kunnen scheiden. Dat vereist “alleen maar” een dataset met leugenaars en eerlijkerds met een hoop van die factoren. Dit is een beetje lastig om in het wild voor elkaar te krijgen, al is het maar omdat het niet eenvoudig is leugenaars te betrappen.

Hoe loste men dat op? Ga even op de grond zitten want anders val je van je stoel:

To create the dataset, 32 participants (actors) were assigned a “truthful” or “deceptive” role to perform during the interview. Each participant had to answer 13 questions (see Table 1) with each answer segmented in many vectors. According to the authors, this procedure generated 86,586 vectors. The dataset consisted of 10 participants classified as having Asian/Arabic ethnic background and 22 as White European background, and 22 classified as male and 10 as female.
Inderdaad, we doen grenscontroles op basis van een ML-model dat met n=32 is opgebouwd waarbij de antwoorden geacteerd zijn. Was er iemand bij die zei dat dit een leuk idee was maar zeker niet in de praktijk ingezet kon worden?

De AI Act bepaalt dat systemen voor grenscontrole hoogrisico kunnen zijn, wanneer ze specifiek een van deze usecases betreffen:

  1. Leugendetectors gebruikt door publieke autoriteiten
  2. Risico-assessments bij grenscontroles
  3. Onderzoek van visum- en asielaanvragen
  4. Het detecteren, herkennen en identificeren van personen (behalve bij verificatie van reisdocumenten)
Een hoogrisico-AI moet aan strenge eisen voldoen, waaronder de eis van een kwalitatief goede dataset (artikel 10, lid 2-5). In de woorden van artikel 3:
Training, validation and testing datasets shall be relevant, sufficiently representative, and to the best extent possible, free of errors and complete in view of the intended purpose. They shall have the appropriate statistical properties, including, where applicable, as regards the persons or groups of persons in relation to whom the high-risk AI system is intended to be used.
Hoe je dat precies voor elkaar krijgt, leer je op mijn opleiding AI Compliance Officer, maar het moge duidelijk zijn dat dit systeem niet zal voldoen. Toch blijft het gewoon doorhobbelen, want de Europese IT-systemen voor grenscontroles zijn tot 2030(!) vrijgesteld van de plicht aan de AI Act te voldoen (artikel 83).

Arnoud

 

 

Chinese spionagesoftware ontdekt op computersysteem van Nederlandse krijgsmacht

white Macintosh computer
Photo by bert b on Unsplash

China heeft een computersysteem van de Nederlandse krijgsmacht geïnfecteerd met geavanceerde spionagesoftware, meldt de MIVD dinsdag. Dat las ik bij Nu.nl. De impact lijkt beperkt maar de ontdekking is bijzonder genoeg. Het riep ook vele vragen op: is dit juridisch gezien bijvoorbeeld een oorlogsdaad?

Het achterliggende rapport is bij de NCSC te downloaden. De kern is dat de malware via een bekende kwetsbaarheid in FortiGate-apparaten van leverancier Fortinet binnendringt en toegang op afstand faciliteert. Technisch niet heel spannend, het is vooral opmerkelijk dat de MIVD hiermee naar buiten treedt én zo expliciet China aanwijst als organisator.

Is het nu oorlog? Niemand die het ziet, maar juridisch gezien is hier weinig over te zeggen. Er is namelijk niet echt een definitie van ‘oorlog’. In de Conventie van Genève van 1952 is staat bijvoorbeeld “any difference arising between two states and leading to the intervention of members of the armed forces”, oftewel het is oorlog als de strijdkrachten van twee landen tegen elkaar vechten.

De MIVD is deel van onze strijdkrachten en laten we aannemen dat deze malware ingezet is door de Chinese People’s Liberation Army Strategic Support Force, zeg maar hun cyberstrijdkrachten. Maar is dit een “interventie”, is hier sprake van gebruik van wapens?

Los daarvan: het is pas echt oorlog als minstens een van de twee landen dat vindt, of als een hogere macht (zoals de VN) dat verklaart. Daar is bij deze malware geen sprake van.

Arnoud