Een e-bike is geen motorfiets, althans verzekeringstechnisch dan

Een elektrische fiets is geen motorvoertuig, heeft de Europese rechter bepaald. Dat las ik bij TaxLive. Het ging hier om een fiets met trapondersteuning, geen volledige motoraandrijving. Desondanks: dat ding heeft een motor, zou je zeggen als techneut. Maar we zitten hier in het verzekeringsrecht, en dat heeft haar eigen definities.

Het ging in deze zaak om een speed pedelec, een e-bike die maar liefst 45km/uur kan. Dat is harder dan normaal, maar het gaat hier dus om trapondersteuning. Voor een speedpedelec gelden dezelfde regels als voor de bromfiets, aldus de Rijksoverheid. Denk aan een helmplicht en een geel plaatje.

Het maakt juridisch nogal uit of je op een fiets of een bromfiets bij een ongeval betrokken raakt. Een ‘zwakke’ verkeersdeelnemer heeft eerder recht op schadevergoeding, zo staat in de Nederlandse wet (art. 185 Wegenverkeerswet). Het moet dan wel gaan om een verkeersongeval tussen een motorrijtuig en een niet-motorrijtuig. Er ontstaat dan risico-aansprakelijkheid: ook als het niet de schuld van de bestuurder van het motorrijtuig was, moet deze de schade van de wederpartij vergoeden.

In deze zaak – aangebracht door een Belgische verzekeraar – kwam het argument naar voren dat een speed pedelec een motorrijtuig is. Er zit immers een motor in, en dat die het handmatig trappen versterkt in plaats van het wiel geheel zelf te dragen, hoort niet relevant te zijn. Dus geen sprake van een botsing motorvoertuig/zwakkere, dus geen risico-aansprakelijkheid.

Deze risicoverdeling komt uit Europese regels (Richtlijn 2009/103), dus de Belgische rechter legde de kwestie voor aan het Hof van Justitie. De kern van het argument:

Op basis van de door de fabrikant van de betrokken elektrische fiets verstrekte informatie, heeft de rechtbank vastgesteld dat de motor van de fiets, ook in boostfunctie, enkel trapondersteuning biedt, en dat deze functie pas kan worden geactiveerd nadat er spierkracht is gebruikt, door te trappen, door te lopen met de fiets of door deze te duwen. De rechtbank heeft daaruit afgeleid dat het slachtoffer geen bestuurder was van een motorrijtuig in de zin van artikel 1 van de wet van 21 november 1989 en dat het in het kader van artikel 29 bis van die wet als „zwakke weggebruiker” aanspraak kon maken op schadevergoeding (…).
Wat is dan precies een ‘motorvoertuig’? Die Richtlijn geeft een aanwijzing:
alle rij- of voertuigen die bestemd zijn om zich anders dan langs spoorstaven over de grond te bewegen en die door een mechanische kracht kunnen worden gedreven, alsmede al dan niet aan de rij- of voertuigen gekoppelde aanhangwagens en opleggers;
Mechanische kracht, dus als tegenstelling van menselijke of dierlijke kracht (de ossenwagen). Maar betekent dat ‘kunnen’ dat ze enkel en alleen in staat zijn om mechanisch te worden gedreven, of is het genoeg dat ze ook mechanisch kunnen worden gedreven?

Dit staat nergens, en er zijn dus geen aanknopingspunten om hiermee verder te gaan. In haar arrest (C-286/22) kiest het Hof dan ook een andere insteek:

Vervoermiddelen die niet uitsluitend door mechanische kracht worden aangedreven en die zich dus niet over de grond kunnen voortbewegen zonder dat er spierkracht wordt gebruikt, zoals de in het hoofdgeding aan de orde zijnde elektrische fiets, die overigens zonder trappen een snelheid van 20 km/u kan bereiken, kunnen derden evenwel geen lichamelijke of materiële schade berokkenen die qua ernst of omvang vergelijkbaar is met de schade die kan worden veroorzaakt door motorfietsen, auto’s, vrachtwagens of andere voertuigen (…)
Het doel van die risicoverdeling uit de wet is het beschermen van zwakkere partijen. Dat noemen we dan wel “gemotoriseerd versus ongemotoriseerd” maar je moet het eigenlijk lezen als “kan mechanisch en met hele grote snelheid aan komen rijden” versus “kan alleen ondersteuning aan spierkracht bieden”. Met dit criterium is de speed pedelec dus géén motorrijtuig en is haar bestuurder dus een zwakke verkeersdeelnemer.

Het roept wel vragen op: kennelijk is een scooter (met maximumsnelheid van 25km/u) nu ook ongemotoriseerd? Immers, die kan niet “een zekere snelheid bereiken die aanzienlijk hoger is dan die welke met [motoraangedreven] vervoermiddelen kan worden bereikt, en thans nog steeds het overgrote deel van het verkeer uitmaken”. Dit terwijl die dingen wel degelijk volledig door mechanische kracht voortbewogen worden.

Arnoud

 

 

Mijn bedrijf is gehackt: mogen ze voor deze dag snipperuren inzetten?

khaase / Pixabay

Via Reddit:

Een tijdje terug kwamen wij op kantoor ’s ochtends tot de conclusie dat een cyberaanval ervoor zorgde dat we niet aan de slag konden. De IT afdeling had noodgedwongen de infrastructuur moeten “sluiten” om de nodige maatregelen te treffen. Hierdoor hebben we 2 dagen niks kunnen doen. De directie heeft nu besloten dat ze hier onze snipperuren van af willen trekken. Wat is hier precies gebruikelijk in deze situatie?
Het simpele antwoord is natuurlijk: dat kan zeer zeker niet. Dat het werk niet kan doorgaan door een situatie als een cyberaanval is echt zeer zeker het risico van de werkgever. (Ook als de oorzaak een grove menselijke fout van een werknemer is, ik zeg het maar even.)

De wet (art. 7:628 BW) formuleert het als volgt:

De werkgever is verplicht het naar tijdruimte vastgestelde loon te voldoen indien de werknemer de overeengekomen arbeid geheel of gedeeltelijk niet heeft verricht, tenzij het geheel of gedeeltelijk niet verrichten van de overeengekomen arbeid in redelijkheid voor rekening van de werknemer behoort te komen.
Deze sinds 2020 geldende formulering is dus vrij eenzijdig: ook als er niet is gewerkt, moet de werkgever gewoon loon betalen. Alleen als de werkgever kan bewijzen dat “in redelijkheid” het niet-werken in de risicosfeer van de werknemer hoort te liggen, hoeft hij het loon niet te betalen.

Bij invoering van de wet is duidelijk aangegeven dat algemene bedrijfsstoornissen eigenlijk altijd te zien zijn als de risicosfeer van de werkgever, zoals zware regenval waardoor er niet gewerkt kan worden. Een cyberaanval ligt in diezelfde lijn en is dus gewoon risico werkgever.

Het is natuurlijk denkbaar dat de impact van deze cyberaanval zo groot is dat de werkgever in serieuze financiële problemen komt als dan óok nog salarissen moeten worden doorbetaald. Daar valt dan over te praten, maar geeft geen juridische grondslag om dan maar vakantiedagen in te zetten om dit gat te compenseren. De werknemer beslist wanneer zhij vakantie neemt, de werkgever mag wel een vakantie weigeren (bij zwaarwegende redenen) maar niet dicteren wanneer de werknemer op vakantie gaat.

Arnoud

EU klaagt bij X over verspreiding desinformatie rond Israëlisch conflict

Sociaal netwerk X overtreedt de nieuwe Europese techwet DSA als het bedrijf niet optreedt tegen de verspreiding van desinformatie en illegale content, waarschuwt Eurocommissaris Thierry Breton in een brief aan X. Dat meldde Nu.nl onlangs. De reactie  van X-directeur Musk komt neer op “welke berichten bedoel je precies”, de traditionele reactie van grote platforms – en die klopt dus gewoon niet meer met de wet van vandaag.

De brief is een reactie op de vele propaganda- en desinformatieberichten die opdoken sinds de terreuraanvallen van Hamas in Israel. Hiertegen moet X harder en sneller optreden, zeker als daarover geklaagd wordt door autoriteiten. Dat gebeurt nu te weinig, aldus Breton. En het is ook weinig transparant waarom sommige berichten wel en andere niet worden weggehaald.

Een tweede punt is dat je als VLOP (zeer groot platform) ook de meer algemene plicht hebt om adequaat te reageren op desinformatie. Niet alleen op specifieke klachten reageren over individuele berichten, maar ook werken aan filters of algemene manieren om dingen in te dammen. Denk aan het automatisch blokkeren van herpublicaties van eerder geplaatste informatie die weggehaald was.

X-directeur Musk reageert:

Our policy is that everything is open source and transparent, an approach that I know the EU supports. Please list the violations you allude to on ?, so that that the public can see them.
Mijn eerste gedachte was, sinds wanneer moeten klachten in het openbaar worden gedaan om behandeld te mogen worden? De DSA eist dat in ieder geval niet. Je moet een “easy to access and user-friendly” klachtmechanisme hebben. Of je nu als EU of als individuele Wim wil klagen, het mechanisme is hetzelfde.

Verder haal ik uit deze reactie de klassieke mindset dat moderatie gaat om individuele berichten: oei, bericht 420 is een probleem, we kijken even en besluiten bericht 420 weg te halen. Oh en wat zegt u nu, heeft die gebruiker nóg een bericht geplaatst, het is me wat, na de lunch bent u de eerste.

Die mindset is achterhaald sins de DSA, in ieder geval voor die grote platforms. Die moeten ook meer systematisch bezig zijn (art. 34 DSA), zodat je niet steeds achter individuele berichten aan hoeft te rennen. De brief van Breton laat doorschemeren dat het ontbreekt aan zo’n systematische analyse bij X. En hoe men dáár dan op gaat handhaven, zal veelzeggend zijn voor de overige techplatforms.

Arnoud

Wat is er juridisch nou echt te doen tegen ongewenste nieuwsbrieven?

LadyBB / Pixabay

Een lezer vroeg me:

Het is voor mij haast een dagtaak om ondernemingen en ook instanties erop te wijzen dat wij niet geïnteresseerd zijn in hun nieuwsbrieven, en dat ik ook geen behoefte heb aan accounts die ze aanmaken na een eenmalig contactverzoek of bestelling. Welke juridische stappen zijn er mogelijk, want men is niet onder de indruk van mijn verwijzingen naar wetsartikelen.
De frustratie spat haast van de mail af, en dat is heel begrijpelijk. Ik krijg zelf ook dagelijks vijf nieuwe nieuwsbrieven en ik ben opgehouden accountaanmaken te tellen. Gelukkig kan ik het technisch vrij goed wegfilteren, maar irritant is het.

Veel van die nieuwsbrieven komen vanwege aanvragen of bestellingen bij webshops. Dit is een helaas hardnekkig en al lang voorkomend probleem. Veel software voor webwinkels en dergelijke bevat deze functies, dus men denkt “handig, gaan we doen” en pas vele jaren later komt men erachter dat het niet mag. Want nee, je mag klanten niet zomaar nieuwsbrieven sturen – je moet op het bestelformulier een opt-out hebben staan, en dat heeft die software niet.

Het frustrerende: voor ACM en AP heeft het geen prioriteit. Voor individuele consumenten is het niet de moeite om te gaan procederen. Je rechtsbijstandsverzekeraar zal dit niet vergoeden, en wie wil er nu 5000 euro aan een advocaat uitgeven om hier een rechtszaak over te winnen? En zelfs als je wint: dat is dan die ene winkel, daarna zijn er nog tienduizend te gaan.

De heel misschien kansrijke actie is een collectieve procedure waarbij tienduizend man een euro elk eist, want zo’n precedent kan wat sneller geregeld worden dan drie miljard van Oracle eisen en het zal zeker deining maken. Maar wie heeft er zin in voor dit specifieke probleem?

Arnoud

Waarom zet de EC een database met lage informatiedichtheid online?

De Europese Commissie heeft een database online gezet waarin de beslissingen staan opgenomen van techbedrijven die content verwijderen. Dat meldde Tweakers. De verplichting volgt uit de recent van kracht geworden Digital Services Act. De omvang is enorm: bij publicatie van Tweakers telde men 5.450.409 beslissingen, “maar dat aantal loopt per minuut op.” Inhoudelijk lijkt het alleen nul informatie te bevatten. Waar gaat dit over?

De database heet de DSA Transparency Database, en is bedoeld voor VLOPs om te documenteren welke ingrepen zij hebben gedaan bij wijze van contentmoderatie. Dit staat in artikel 24 lid 5 DSA:

Providers of online platforms shall, without undue delay, submit to the Commission the decisions and the statements of reasons referred to in Article 17(1) for the inclusion in a publicly accessible machine-readable database managed by the Commission. Providers of online platforms shall ensure that the information submitted does not contain personal data.
De database bevat de zogeheten “statements of reason” oftewel onderbouwingen van de verwijderbeslissingen (art. 17 DSA) die men neemt in het moderatieproces. Er is enorm veel geklaagd over intransparante moderatie en gebrek aan mogelijkheden van bezwaar. De DSA draait dat dus om: moderatie mag alleen nog als je transparant bent en specifiek over de redenen naar de betrokken gebruiker toe. Met deze database wordt dat extra ondersteund.

De database kan interessant zijn voor onderzoekers, want er zijn enorm veel statistieken mee te maken. Alleen, als je als jurist dan iets verder gaat lezen wat er dan staat, dan valt dat inhoudelijk behoorlijk tegen.

Een voorbeeld is dit bericht van Snapchat, dat een tekst weghaalde omdat deze de Terms of Service schond. Die enkele mededeling is dus te weinig onder de DSA, vandaar dat je nu meer uitleg krijgt:

This was reviewed by our team or systems and was enforced for violation of our Community Guidelines and/or Terms of Service. … Reference to contractual ground: Harassment & bullying … Explanation of why the content is considered as incompatible on that ground: We prohibit bullying or harassment of any kind. This extends to all forms of sexual harassment, including sending unwanted sexually explicit, suggestive, or nude images to other users.
Hier staat inderdaad precies hetzelfde als “schending van de TOS”, alleen dan met een iets specifiekere verwijzing naar een bulletpoint die “harassment & bullying” heet. Maar het wat of waarom ontbreekt nog steeds, want meer dan dit is er niet.

Natuurlijk is het logisch dat de bezwaarlijke tekst er niet in staat. Allereerst zou de database dan exploderen in omvang, en ten tweede zou de Europese Commissie dan mogelijk dingen herpubliceren die in strijd met de wet zijn. Maar meer inhoudelijke motivatie of reageren op wat de persoon postte, dat was wel handig geweest. Op deze manier voelt het alleen maar meer woorden ten opzichte van de oude situatie.

Arnoud

‘Politie kan ip-adressen en telefoonnummers Telegramgebruikers vorderen’

De Nederlandse politie zegt bij de chatapp Telegram telefoonnummers op te kunnen vragen die gebruikers juist geheim willen houden, zo ontdekte BNR via een Woo verzoek. Op de eigen website meldt Telegram dat het deze gegevens alleen deelt als het een gerechtelijk bevel ontvangt dat de betreffende gebruiker een terreurverdachte is. Eindelijk een kans me op te winden over die mega-irritante term “gerechtelijk bevel”.

Bij Security.nl leggen ze uit:

Op de formulieren die door de politie zijn gedeeld blijkt dat het om zogenoemde ‘emergency disclosure requests’ gaat. Meerdere chatdiensten bieden opsporingsdiensten deze optie om gegevens van gebruikers op te vragen als er sprake is van onmiddellijk dreigend levensgevaar. Dat opsporingsdiensten deze mogelijkheid ook bij Telegram hebben staat niet op de website van de chatdienst vermeld.
Maar dat iets niet op je website staat, betekent natuurlijk niet dat je het niet hoeft te doen. De wet is de wet, en zeker bij telecom-vorderingen kan de politie heel erg veel. En nee, daar is lang niet altijd tussenkomst van een rechter bij nodig.

Wat me bij mijn irritatie brengt: die term “gerechtelijk bevel” is natuurlijk de letterlijke vertaling van “court order”, de Amerikaanse constructie waarbij een rechtbank oordeelt over een kwestie en dan een -meestal voorlopige- uitspraak doet. Dat kan bijvoorbeeld een gag order zijn, hou je mond hierover, maar ook een bevel tot afgeven van gegevens of verwijderen van een publicatie.

De court order verscheen als term in websitevoorwaarden en dergelijke omdat dit het mechanisme is waarmee je in de VS dingen afdwingt. Niet eens met de publicatie? Wil je weten wie hier achter zit? Zoek je een persoon voor je schadeclaim? Haal maar een court order en dan doen we wat daarin staat. En zónder court order kun je roepen wat je wilt, maar blijven we lekker zitten waar we zitten.

De misvatting is hiermee ontstaan dat áltijd een court order nodig is, oftewel dat er altijd een rechter naar moet kijken. Wat niet waar is: in Nederland is bijvoorbeeld afgifte van NAW-gegevens van klanten zonder rechter verplicht, en je kunt schadeclaims krijgen als je daar niet aan meewerkt.

In het strafrecht is het allemaal iets strenger en vooral formeler. Maar we hebben een gelaagd systeem, waarbij de benodigde checks and balances afhangen van de ernst van de gevorderde maatregelen én van het achterliggende misdrijf. Neem bijvoorbeeld artikel 126na Strafvordering:

In geval van verdenking van een misdrijf kan de opsporingsambtenaar in het belang van het onderzoek een vordering doen gegevens te verstrekken terzake van naam, adres, postcode, woonplaats, nummer en soort dienst van een gebruiker van een communicatiedienst. Artikel 126n, tweede lid, is van toepassing.
Volgens dit artikel mag dus iedere politieagent vorderen tot afgifte van NAW gegevens en nummer (ip-adres, telefoonnummer, etc) van een gebruiker wanneer er vermoedelijk een misdrijf is gepleegd. Het maakt niet uit welk misdrijf. Hierbij is dus géén tussenkomst van de rechter nodig, dit mag de agent gewoon vragen en je moet dat dan geven als dienstverlener.

De reden dat dit zo mag, is omdat dit vrij basale gegevens zijn en een misdrijf toch wel iets ernstigs is. Met deze gegevens kan de politie dan bijvoorbeeld nagaan of het ip-adres matcht met het ip-adres dat men op een oplichtingssite vond.

Een agent mag hiermee echter géén inhoud van bijvoorbeeld mailboxes vorderen, want die gegevens staan hier niet genoemd. Daarvoor zou je bijvoorbeeld artikel 126nd inzetten:

In geval van verdenking van een misdrijf als omschreven in artikel 67, eerste lid, kan de officier van justitie in het belang van het onderzoek van degene van wie redelijkerwijs kan worden vermoed dat hij toegang heeft tot bepaalde opgeslagen of vastgelegde gegevens, vorderen deze gegevens te verstrekken.
Dit mag dus alleen als het gaat om een ernstig misdrijf – artikel 67 Strafrecht bevat een lijst met wat we “ernstig” vinden. En de vordering moet gedaan worden door een officier van justitie, dus niet door iedere willekeurige opsporingsambtenaar. Dat is dus een iets hogere lat.

De rechter-commissaris komt in beeld als het nóg wat strenger moet, bijvoorbeeld bij het vorderen van gegevens die aan te merken zijn als bijzondere persoonsgegevens. Die zijn in artikel 126nd uitgesloten (lid 2) van de vordering. Wil de officier dat toch, dan moet zhij naar artikel 126nf:

  1. In geval van verdenking van een misdrijf als omschreven in artikel 67, eerste lid, dat gezien zijn aard of de samenhang met andere door de verdachte begane misdrijven een ernstige inbreuk op de rechtsorde oplevert, kan de officier van justitie, indien het belang van het onderzoek dit dringend vordert, van degene van wie redelijkerwijs kan worden vermoed dat hij toegang heeft tot gegevens als bedoeld in artikel 126nd, tweede lid, derde volzin, deze gegevens vorderen.
  2. (…)
  3. Een vordering als bedoeld in het eerste lid kan slechts worden gedaan na voorafgaande schriftelijke machtiging, op vordering van de officier van justitie te verlenen door de rechter-commissaris. Artikel 126l, zevende lid, is van overeenkomstige toepassing.
Hier bepaalt lid 3 dus dat een rechter-commissaris nodig is, deze machtigt de officier om de vordering te doen. Maar er is hier nóg een eis bijgekomen: het ernstige misdrijf moet nu ook nog eens “een ernstige inbreuk op de rechtsorde” opleveren, wat een nog weer hogere inhoudelijke toets betekent.

En om dan weer het bericht van BNR erbij te pakken: het gaat hier dus om telefoonnummers, wat een ‘licht’ gegeven is en waarvoor dus iedere opsporingsambtenaar een vordering mag doen bij verdenking van enig misdrijf. Daarvoor is dus zeer zeker geen rechter-commissaris nodig. Waarom Telegram dit niet op de site vermeldt, weet ik niet.

Arnoud

 

 

 

Britse encryptiewet wordt niet gehandhaafd omdat ‘encryptie scannen niet kan’

Een Brits wetvoorstel dat het mogelijk moet maken om versleutelde chats te scannen op kindermisbruikmateriaal is flink afgezwakt. Dat meldde Tweakers vorige week. Pas als het ’technisch mogelijk is’ om chats te scannen ondanks versleuteling, komt men hierop terug. Wel moet markttoezichthouder Ofcom zijn macht gebruiken om van bedrijven te eisen dat ze ‘hun best doen’ om oplossingen voor het probleem te vinden.

De Online Safety Bill, zoals de wet heet, was al geruime tijd zeer controversieel vanwege haar plicht aan techbedrijven om desgevraagd versleutelde chats toegankelijk te maken voor Justitie. Bedrijven als Signal en WhatsApp hadden gedreigd hun product uit het VK terug te trekken als deze plicht in de wet zou komen.

De voorgestelde constructie was dat men onder de wet verplicht zou zijn achterdeurtjes of dergelijke in te bouwen, zonder het adequate karakter van de beveiliging te beschadigen. Dat dit niet kan, is een waarheid als een koe, maar dat heeft nog nooit een publiciteitsbeluste politicus tegengehouden het toch te eisen.

Het nieuwe voorstel is wat afgezwakt, aldus Wired:

Under the bill, the regulator, Ofcom, will be able “to direct companies to either use, or make best efforts to develop or source, technology to identify and remove illegal child sexual abuse content—which we know can be developed,” Scully said.
De toezichthouder moet dus uitzoeken welke technologie er zoal beschikbaar is, en dan van de techbedrijven eisen dat die een “best effort” (goeie inspanning) maken om te kijken of dat kan werken. Daar zitten genoeg mensen die daar met goede motivatie jaren over doen om te concluderen dat het niet kan werken, dus ik snap wel dat de conclusie is dat de wet hiermee effectief om zeep geholpen is.

Arnoud

 

 

Politie stopt met gewraakt algoritme dat ‘voorspelt’ wie in de toekomst geweld gebruikt

De politie stopt ‘per direct’ met het algoritme waarmee ze voorspelt of iemand in de toekomst geweld gaat gebruiken, las ik bij FTM. Dit is de uitkomst van een eerdere publicatie over het Risicotaxatie Instrument Geweld (RTI-G), het zoveelste voorbeeld dat laat zien hoe inherent dubieus het is om voorspellende uitspraken over menselijk gedrag te doen op basis van datasets.

“AI snake oil”, noemt professor Arvind Narayanan van Princeton het. Uitspraken over gedrag of verwachtingen omtrent personen, aangekleed met “Artificial Intelligence” versieringen en zogenaamd perfect werkend. Haarlemmer AIoli, zou ik het haast noemen. Het komt er altijd op neer dat men een niet direct verifieerbare uitspraak doet op basis van een brokje data en een black box model, die dan heel precies klinkt en daarom vaak wordt overgenomen.

Bij een spamfilter dat een verkeerde classificatie maakt, of een AI-biometrie die je niet binnenlaat, krijg je vrij direct feedback dat het niet werkt. Een algoritme dat voorspelt of iemand gaat recidiveren of geweld gebruiken is een heel stuk lastiger – net zoals met alle juridische afwegingen, van het automatisch afwegen van een bezwaar in het bestuursrecht tot een strafvonnis genereren.

Natuurlijk handelde de politie niet blind op de uitkomst van het RTI-G, maar ‘het risicoprofiel dient te worden gezien als aanwijzing dat een strafbaar feit gepleegd gaat worden.’ En daar wordt dan wél op geageerd: een van de mensen die met FTM sprak, kreeg een schriftelijk bevel een half jaar lang op ieder gewenst moment mee te werken aan fouillering en doorzoeking van de auto. Het Hof Den Haag floot de politie terug:

De rechtspraak gaat uit van een concrete aanleiding dan wel feitelijke omstandigheden kort voorafgaand aan dan wel ten tijde van de inzet van de bevoegdheden op basis van deze artikelen. Daarvan is geen sprake als [geïntimeerde] alleen op basis van zijn aanwijzing als veiligheidsrisicosubject aan een fouillering of doorzoeking van zijn auto wordt onderworpen.
Desondanks blijft de vraag gerechtvaardigd: hoe kwam dat systeem dan tot haar conclusies? Op basis van welke gegevens en algoritmes kon men deze uitspraak doen en hoe is dat te rechtvaardigen? Ik zet het even op een rijtje uit het FTM artikel:
  1. Iemands verleden in de politiesystemen, bijvoorbeeld betrokkenheid (dader, getuige, aangever) bij geweldsdelicten, eventuele aangetroffen wapens en de optelsom van andere delicten wegen ook mee.
  2. Hoe groter het aantal registraties van (vermoedelijke) delicten bij de politie, gewogen naar de vermoedelijke samenhang met geweld.
  3. Geslacht en leeftijd; mannen meer dan vrouwen en mensen die jong een eerste delict pleegden meer dan latere plegers.
  4. Etniciteit, wat er in 2017 uitgehaald is omdat het ‘een beperkt maar toch nadelig effect op de interne beeldvorming [gaf] voor een individu.’ Een Antilliaanse achtergrond telde daarbij zwaarder mee dan een Marokkaanse of Somalische.
Afgaande op het meegepubliceerde screenshot gaat het hier om een ‘klassiek’ beslissysteem, namelijk een veredelde Excelsheet die aan elke factor punten geeft en een totaalsom maakt:Hoogleraar digitale surveillance Marc Schuilenburg is vernietigend: de resultaten zijn ‘uit de lucht gegrepen’, er is geen enkele validatie laat staan een feedbacksysteem om fouten te corrigeren.
Volgens hem is Nederland een ‘voorzorgsmaatschappij’ geworden. ‘In de politiek en de samenleving gaat het om het voorkomen van potentiële risico’s,’ aldus Schuilenburg. ‘Vroeger was er eerst een verdenking en dan pas surveillance. Nu is er eerst surveillance en dan pas een verdenking.’
Het ergerlijke voor mij is vooral dat de uitkomsten van die surveillance worden aangekleed met een sausje van juistheid: kijk maar, het getal rechtsonder is 970 dus dit klopt echt, en ik zie ook vijf donkerrode vlakken dus het is ernstig ook. (Dit staat bekend als “precision bias” in het vakgebied.) Maar garbage in, garbage out: hoe weet je of het klopt?

En nee, het is nu te makkelijk om te zeggen “door gewoon die mensen te fouilleren en te zien of ze wapens hebben”. Even los van wat de wet daar dus over zegt, als je handelt vanuit een foute aanname dan komt daar nooit een goed resultaat uit. Ja, misschien vind je een wapen en misschien zelfs vaker bij Antilliaanse verdachten dan bij Nederlandse boerenzonen. Maar bewijst dat dat je startpunt klopte?

Arnoud

 

De DSA is van kracht voor de grote platforms, wat betekent dit voor desinformatie?

Grote techplatforms moeten vanaf 25 augustus voldoen aan de Digital Services Act (DSA), las ik bij Security.nl. Doel van deze strenge EU-wetgeving is EU-gebruikers meer controle te geven over de algoritmen van socialmediadiensten, maar ook illegale inhoud en desinformatie aan te kunnen pakken.

Wat dat eerste betreft: een van de zichtbaarste manieren van die controle over die algoritmen is de chronologische feed, het op datum gesorteerd krijgen van alle berichten. Dat is een DSA eis: het moet jouw voorkeur zijn of je content aflopend op tijd wil dan wel gesorteerd naar een of ander “populair/hot/trending/for you” criterium. En die voorkeur moet blijvend zijn tot jij hem weer aanpast.

Ook interessant gaan de transparantierapporten worden die deze zeer grote online platforms (in het jargon: VLOP, onthoud die term voor het tentamen) moeten gaan publiceren. Wat voor klachten kreeg men, wat voor eigen moderatiekeuzes maakte men, welke bevelen van autoriteiten werden ontvangen en ga zo maar door.

Dat is van belang, omdat dat tweede punt veel controverse geeft: het aanpakken van desinformatie. Artikel 8 DSA bepaalt namelijk dat grote platforms “onverwijld” gehoor moeten geven aan bevelen om tegen specifieke illegale inhoud op te treden.

In combinatie met de vele verwijzingen naar fake news oftewel desinformatie wekt dit de indruk dat VLOPs op verzoek van overheidsdiensten censuur moeten gaan plegen tegen onwelgevallige uitingen. Maar dat staat nergens, althans niet letterlijk. Natuurlijk, platforms moeten op bevel illegale inhoud weghalen, maar “desinformatie” is als zodanig niet strafbaar.

Desinformatie is in DSA terminologie een “systemisch risico” en daar moeten platforms mitigerende maatregelen tegen nemen. Artikel 27 lid 1 DSA noemt de belangrijkste:

(a)aanpassing van inhoudsmoderatie- of aanbevelingssystemen, de besluitvormingsprocessen ervan, de kenmerken of werking van hun diensten, of hun algemene voorwaarden;

(b)maatregelen op maat die gericht zijn op het beperken van de weergave van reclame in verband met de dienst die zij aanbieden;

(c)versterking van de interne processen of het toezicht op hun activiteiten, met name betreffende de detectie van systemische risico’s;

(d)samenwerking met betrouwbare flaggers overeenkomstig artikel 19 beginnen of aanpassen;

(e)samenwerking met andere onlineplatforms beginnen of aanpassen via de gedragscodes en de crisisprotocollen zoals bedoeld in respectievelijk de artikelen 35 en 37.

Die laatste wijst op een ander punt: de gedragscodes. Artikel 35 stelt de Europese Commissie in staat om gedragscodes op te stellen in samenwerking met de VLOPs. Een zo’n gedragscode is de Code of Practice on Desinformation, want desinformatie was een van de speerpunten van de Commissie. Ook deze eist nergens dat je alle mogelijke ongewenste standpunten rücksichtslos weghaalt; het gaat wederom om procedures, afstellingen, input van buitenaf en transparantie naar onderzoekers die de trends willen monitoren.

Je hebt natuurlijk altijd het “chilling effect”: als de Commissie niet tevreden genoeg is, dan maken ze straks een wet die strenger is dan deze gedragscode, dus laten we maar zo veel mogelijk onwelgevallig spul weghalen dan worden ze niet boos. Daarmee wordt dus ook legale maar ongewenste content weggehaald, en dat is natuurlijk een inbreuk op de informatievrijheid. Ik vind het persoonlijk moeilijk voor te stellen dat de directie van deze VLOPs zo angstig zou zijn voor de Europese Commissie.

Arnoud

 

Nvidia’s kwartaalomzet en -winst stegen met honderden procenten door AI-gpu’s, mag dat?

Nvidia behaalde in het vorige kwartaal een recordomzet en -winst, las ik bij Tweakers. De grafischekaarten- en chipsfabrikant kreeg die vooral uit een explosieve stijging van gpu’s voor datacenters waar kunstmatige-intelligentietoepassingen op draaien. De nettowinst bijvoorbeeld steeg 843 procent (geen typefout) ten opzichte van hetzelfde kwartaal in 2022. Het riep vele boze reacties op over woekerwinst en of dat wel zou mogen.

Woekerwinst of hanteren van woekerprijzen is op zichzelf niet verboden. Het idee is dat de markt je wel afstraft: ik koop mijn brood wel bij de concurrent als jij 10 euro voor een brood vraagt.

Het is problematisch als je exorbitante winsten maakt door misbruik van je machtspositie. Alle bakkers zijn failliet, ik ben de enige supermarkt in de wijde omtrekt, nú zijn de broden tien euro per stuk.

Probleem is natuurlijk: toon maar aan dát NVIDIA een machtspositie heeft, zijn er echt geen andere leveranciers van zulke GPU’s? En daarnaast heb je een benchmark nodig van wat dan een ‘normale’ prijs zou zijn van dergelijke hardware. Enkel stellen dat “50% wel veel winst” is, gaat je niet redden. Ik weet zeker dat NVIDIA kan aantonen dat een groot deel daarvan eigenlijk geen pure winst is maar alsnog kosten dekt, voor nieuwe investeringen gebruikt wordt enzovoorts.

Een lastiger vraag is nog: wat is de markt? Gaat het om alle producten die normaal brood genoemd worden, of alleen zuurdesem volkoren spelt meergranen? Als het dat eerste is, dan is dat geverfde supermarkt brood concurrentie voor jouw prachtbrood en heb jij geen machtspositie.

Je ziet dit bij smartphones. Heeft Apple met de iPhone macht? Als je alle mobieltjes bekijkt dan zijn ze getalsmatig een kleine speler. Definieer je een markt voor high end smartphones dan is Apple een grote jongen. En als je zegt, high end en design dan is Apple verreweg de grootste. Wie heeft gelijk?

Idem hier voor NVIDIA. Er zijn nog veel meer chipsmakers, ook op het gebied van grafische kaarten zijn ze niet de enige. Maar haar strategische keuze om te specialiseren in kaarten voor AI-toepassingen heeft haar nu een absolute koploperspositie gegeven. Uit The Guardian:

The strategy means the company now has the upper hand, said Wedbush Securities managing director and senior equity research analyst Dan Ives. “In terms of scale, scope and the ability to integrate the data, Nvidia is essentially the only game in town.”
Daarmee is haar machtspositie wel gegeven, al blijf je natuurlijk zitten met de vraag: wat is de markt? Grafische kaarten? Krachtige rekenchips? Specifiek chips voor AI?

Arnoud