Wanneer verdient gefotoshopte content het label “AI assisted”?

Photo by Florinel ZONE on Unsplash

Een probleem bij Facebook en collega’s: je krijgt al vrij snel het label “AI assisted” of vergelijkbaar aan je beeldmateriaal. Moederbedrijf Meta worstelt met hoe dit aan te pakken, omdat zij nepbeeld wil aanpakken maar er nauwelijks goede criteria zijn. Maar op dit moment is het “als je Adobe®? Photoshop gebruikt, krijg je het label” en dat is ook weer niet heel handig.

De opkomst van AI-beeldgeneratoren heeft geleid tot een stortvloed aan nepbeeld en AI-revisies. Soms bizar (zoals Shrimp Jesus), soms gewoon nieuwe kunst en soms welbewuste manipulatie van de werkelijkheid – en van alles daar tussenin.

Dit aanpakken begint bij het herkennen, en daar ligt ook meteen het probleem. De meeste bedrijven in deze sector doen mee aan wat Adobe Content Credentials heeft genoemd: een label in de metadata waarin kort opgesomd staan welke handelingen met AI zijn uitgevoerd. Deze is via een stevige hash verbonden aan de afbeelding, en kan dus ook geverifieerd worden als het label uit het beeld gehaald worden (en ook na bepaalde triviale manipulaties zoals roteren).

Facebook, Instagram en collega’s screenen op dit label, en tonen dan een waarschuwing: “Made with AI”, tegenwoordig “AI Info”. Van tegenhouden of andere maatregelen is (vooralsnog) geen sprake, en in het kader van transparantie is dit al een mooie stap natuurlijk. (Het moet ook in het kader van de zorgplicht onder de DSA die deze platforms hebben.)

Probleem is natuurlijk: wanneer is iets “made with AI” of “AI assisted”. Heel veel aanpassingen die we de afgelopen twintig jaar als “image was enhanced using Adobe® Photoshop® software” (deze frase is verplicht) hebben omschreven, worden tegenwoordig als AI-aanpassingen gezien. Niet alleen generatief (het uitbreiden van je canvas) maar ook basale zaken als objecten herkennen en vervangen. Dit speelt natuurlijk ook bij andere tools.

Ik denk niet dat je hier ooit echt uitkomt. Het compromis dat nu gevonden is, komt neer op een onderscheid tussen “de afbeelding kwam in de basis uit een genAI tool” en “de afbeelding is aangepast met AI-achtige tools”. Die eerste krijgen het label, bij die tweede zie je het pas als je de foto-informatie opvraagt. Ideaal is dat niet, maar ik weet niet hoe het beter zou moeten.

Arnoud

 

Amerikaanse rechter: TikTok verantwoordelijk voor door derden geplaatste content; gevolgen voor sociale media

Photo by and machines on Unsplash

TikTok heeft in een Amerikaanse rechtszaak een nederlaag geleden die grote gevolgen kan hebben voor claims tegen andere socialemediabedrijven in de Verenigde Staten. Dat meldde Villamedia onlangs. De video-app kan zich niet op de bescherming voor tussenpersonen (Section 230) beroepen bij een claim wegens overlijden van een tienjarige die meedeed aan een “blackout-challenge”.

De moeder van het meisje had het platform aansprakelijk gesteld voor het overlijden, omdat het platform via algoritmes aanbevelingen deed voor filmpjes over deze challenge. De hoofdregel is natuurlijk dat platforms niet aansprakelijk zijn voor content van gebruiker. Section 230, de Amerikaanse DSA, bepaalt expliciet dat dit hen niet aangerekend kan worden.

Het argument hier was dat TikTok zich deze content eigen gemaakt heeft door (algoritmisch) deze te pushen. Dan ben je niet meer een doorgeefluik zeg maar. En dit gaat ook niet over moderatie: het is een keuze wat je aanbeveelt.

Het artikel zelf is beroemd en kort:

No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.
De term “publisher or speaker” moet breed opgevat worden. Het dekt alle gevallen waarin een platform content van anderen doorgeeft. Dus niet alleen de passieve kaders biedt waarin de video gestart kan worden, óók bij aanbevelingen, gesorteerde overzichten en zoekresultaten.

In een zaak uit 2023 (Gonzalez v. Google) bepaalde de US Supreme Court nog dat Google/Youtube niet aansprakelijk te stellen was voor medeplichtigheid aan de terreurorganisatie ISIS. Die had een Youtubekanaal met advertenties, wat Google (kennelijk oogluikend) liet bestaan ondanks vele klachten. De Supreme Court wees de claim af op Section 230: ongeacht hoe Google ook deze content had gepromoot of gesteund, dat maakte ze een “publisher or speaker” van informatie van een ander en dús niet aansprakelijk.

Het Hof van Beroep in deze zaak pakt er een recentere uitspraak bij (Moody v. Netchoice, 2024). Hierin verbood de Supreme Court de staten Florida en Texas om eigen regels te maken over wat platforms voor moderatiebeleid mogen stellen. Zulke eigen regels gaan in tegen het First Amendment: modereren en kiezen wat je wel en niet toelaat is jóuw beschermde expressie, in de zin van de uitingsvrijheid.

Het Hof van Beroep gebruikt dit als argument om te zeggen dat algoritmische aanbevelingen dus de eigen uitspraken zijn van TikTok, en geen content van een ander die zij doorgeeft. En omdat Section 230 alleen bij die laatste categorie beschermt, is TikTok dus aansprakelijk te stellen voor de eigen uitspraken, de algoritmische aanbevelingen die ze doet.

Probleem hiermee is alleen dat de opstellers van Section 230 expliciet met hun wet ook algoritmische aanbevelingen – zoekmachines, in 1995-terminologie – wilden beschermen. Het zou raar zijn dat je Google mocht aanspreken op een zoekresultaat met het argument dat het hún content is, en niet doorgegeven content van die site. Dan blijft er niets over van Section 230.

Dus nee, deze uitspraak van het Hof is fout. Alleen: dat moet naar het Supreme Court om rechtgezet te worden, en dat zal een paar jaar duren (zeker met de te verwachten stroom aan claims rondom de presidentsverkiezingen).

En natuurlijk, het voelt raar dat TikTok niets te verwijten valt bij het promoten van zulke ernstige (en strafbare) video’s. Maar dat los je niet op met een groot gat in een algemene regeling. De Europese aanpak met, naast zo’n algemene regeling, een specifieke plicht tot optreden tegen strafbare content (met adequate teams van moderatoren) en het stipt opvolgen van bevelen van autoriteiten is dan een stuk verstandiger.

Arnoud

Braziliaans hooggerechtshof blokkeert toegang tot X

Photo by carolina daltoe on Unsplash

Socialemediaplatform X wordt geblokkeerd in Brazilië, las ik bij Tweakers. Het Braziliaanse hooggerechtshof nam deze beslissing omdat X niet tijdig een juridische vertegenwoordiger heeft aangesteld in het land. De uitspraak is een escalatie in een al veel langer lopend geschil tussen X-eigenaar Elon Musk en de Braziliaanse rechterlijke macht.

Het formele punt is vrij simpel: buitenlandse bedrijven zijn in Brazilië (binnen bepaalde kaders) verplicht om een lokale vertegenwoordiger te hebben als ze daar zaken doen maar er niet direct gevestigd zijn. Die vertegenwoordiger is dan aan te spreken voor eventuele schade of contractbreuk door het bedrijf. Hoe die het dan verhaalt op het buitenlandse moederbedrijf is iets dat ze dan onderling mogen regelen.

Dit kennen wij in Europa ook, leveranciers van allerlei productcategorieën – en AVG-verwerkingsverantwoordelijken – van buiten de EU moeten in die situatie ook een vertegenwoordiger stellen. In Brazilië is dat voor internetdienstverleners expliciet geregeld, inclusief ultieme sanctie dat internetproviders die diensten anders moeten blokkeren wanneer de rechter dat beveelt.

Je moet de uitspraak echter in het bredere kader zien van het al veel langer lopende geschil waar X in verwikkeld is. Rechter Alexandre de Moraes probeert X te dwingen harder op te treden tegen nepnieuws, en dit is de laatste in een reeks sancties die hij daarbij opgelegd heeft. Wikipedia documenteert het neutraal:

In april 2024 kreeg De Moraes te maken met publieke reacties vanwege het bevel van het Hooggerechtshof om verschillende X-accounts te blokkeren, waarbij de strijd tegen desinformatie als reden werd aangevoerd. X-eigenaar Elon Musk beschuldigde De Moraes van “schaamteloos en herhaaldelijk verraden van de grondwet en het volk van Brazilië”, wat er op zijn beurt toe leidde dat het Hooggerechtshof een strafrechtelijk onderzoek tegen Musk opende wegens het verspreiden van onjuiste informatie en vermeende belemmering van onderzoeken. De uitwisseling heeft gemengde reacties uitgelokt, zowel van Braziliaanse politici als van internationale internetgebruikers.
Je kunt dit zien als gewoon wat je krijgt als je probeert te doen of je met jouw dienst belangrijker bent dan een specifiek land. Dan escaleert handhaving en rechtspraak, en de ultieme consequentie (zie de discussie over Telegram blokkeren onder de DSA) is dan een blokkade of een verbod tot zakendoen.

Probleem is dat de hele toestand begon met een heftige politieke aanleiding: de bestorming van het Braziliaanse Congres in 2023, nadat oud-president Jair Bolsonaro de verkiezingen had verloren. Diverse sociale media, waaronder X, werden gebruikt om een en ander te promoten of zelfs coördineren. Begrijpelijk dat het land dan extra zwaar inzet op het de kop indrukken van staatsgevaarlijke uitingen.

Waarom X specifiek hier een punt van maakt, is niet helemaal duidelijk. Onder Musk staat de dienst niet bepaald bekend als een voorvechter van het vrije woord; men blokkeert in India of Turkije nadrukkelijk zaken (en mensen) die tegen overheidsopvattingen ingaan. Volgens Musk in 2023 was dat normaal voor internetbedrijven, je moet je nu eenmaal aan lokale wetgeving houden.

Bij Associated Press lees ik een mogelijke verklaring:

Far-right X users have been trying to involve Musk in Brazilian politics for years, said Bruna Santos, lawyer and campaign manager at nonprofit Digital Action.
Het zou hem er dan in zitten dat bij die andere landen het bevel gewoon bij de juridische afdeling terecht kwam, terwijl de actie van De Moraes direct bij Musk persoonlijk uitkwam. En die zag daar een dringende noodzaak tot verdedigen van het vrije woord.

Een meer fundamentele discussie is hoe je als multinationale internetdienst om moet gaan met lokale wetgeving. Die discussie is al behoorlijk oud. Het moeilijke eraan is altijd dat ieder land haar eigen normen en waarden heeft, en vindt dat ze die mag handhaven.

Als de dienstverlener hele andere normen en waarden uitdraagt, dan krijg je een conflict. Weggaan is natuurlijk altijd een optie, maar kun je als dienstverlener dan ook zeggen, ik pleeg burgelijke ongehoorzaamheid, ik blijf dit faciliteren want de onderliggende norm is belangrijker? Dat kan, maar de escalatie kan je dan behoorlijk wat omzet kosten.

Arnoud

 

 

 

X gebruikt voorlopig geen berichten van Europese gebruikers om AI te trainen

Photo by Andrei Zolotarev on Unsplash

Socialemediaplatform X gebruikt voorlopig toch niet zomaar de gegevens van Europese gebruikers om zijn AI-modellen te trainen. Dat meldde Nu.nl vorige week. Gebruikers moeten eerst een duidelijke optie krijgen om hun toestemming daarvoor in te trekken. Of is het dan toch bezwaar maken?

Zoals vele partijen is ook X bezig met een eigen genAI chatbot. Deze heet Grok en heeft, wederom net als bij iedereen, enorm veel trainingsdata nodig. En dat kwam even goed uit, want X zit natuurlijk vol met conversaties en iedereen had algemene voorwaarden geaccepteerd waarin vast een regeltje te vinden was.

Probleem daarmee is alleen dat heel veel van die trainingsdata als persoonsgegeven aan te merken is. En die verwerken vereist in de EU meer dan alleen een generieke clausule in de voorwaarden. Als je geen toestemming hebt, dan zul je dit moeten doen met een beroep op het “gerechtvaardigd belang“. Dat vereist dan weer de optie van afmelden met een beroep op persoonlijke omstandigheden.

Onduidelijk is welke grondslag X meent te hanteren, maar wat in ieder geval niet helpt is dat er een stilletjes ingevoerd toestemmingsknopje werd gehanteerd dat standaard op ‘ja’ stond.

De Ierse privacytoezichthouder schrok zo van deze ontwikkeling dat ze voor het eerst in haar bestaan haar zogeheten Section 134-bevoegdheid inzette: een spoedbevel tot stoppen van een bepaalde verwerking omdat de rechten van burgers ernstig en direct bedreigd worden.

Het roept natuurlijk de discussie op waarom men X aanspreekt terwijl zo ongeveer de hele wereld Twitter (en Reddit, en Facebook, et cetera) dagelijks leegtrekt om er AI modellen op te trainen. Het simpele antwoord is natuurlijk: die mogen dat óók niet, alleen zijn iets lastiger op te sporen. En nee, dat het “publieke data” is (wat dat ook betekent), is juridisch irrelevant.

Arnoud

 

Telegram-oprichter Pavel Durov opgepakt op luchthaven in Parijs

Photo by ev on Unsplash

Oprichter en directeur Pavel Durov van berichtendienst Telegram is zaterdagavond opgepakt op de Franse luchthaven Le Bourget. Dat las ik bij Nu.nl. Het sluit toevalligerwijs mooi aan bij mijn bericht van vorige week over het verzoek tot handhaving op het platform. Toch roept dit weer nieuwe vragen op.

Nu.nl legt uit wat de aanleiding was:

Volgens persbureau Reuters wordt Durov er door de Franse autoriteiten van beschuldigd te weinig te doen aan criminele activiteiten op Telegram. Door niet te modereren en geen of nauwelijks informatie te delen over gebruikers, zou de dienst vrij spel bieden aan drugshandelaren en kindermisbruikers.
Terzijde: Telegram is géén messenger-app zoals WhatsApp, maar eerder een chatgebaseerd sociaal netwerk georganiseerd rond groepen, die via trefwoorden te vinden zijn. Er is ook de mogelijkheid voor privécommunicatie, maar dat is eerder vergelijkbaar met een Instagram-privébericht; iets dat óók kan. En oh ja, de encryptie is centraal en zeker niet e2ee.

De situatie is opmerkelijk omdat Durov vrijwillig naar Frankrijk vloog, kennelijk in de wetenschap dat hij daar gearresteerd kon worden. (Hij heeft een Frans paspoort.) Hij vertrok uit Azerbeidzjan, waar hij tegelijkertijd met president Putin aanwezig was. Op de vlucht na een onwelgevallig gesprek over encryptie in Rusland?

In verband met vorige week roept het vooral de vraag op: wat is hier precies voor crimineels aan de hand? Het niet-naleven van de Digital Services Act (de oproep van vorige week) is immers een bestuursrechtelijke of civielrechtelijke kwestie, die wet kent geen bepalingen van strafrecht.

Frankrijk kent echter een met de DSA vergelijkbare wet die wél strafrechtelijk gehandhaafd wordt, Wet 2024-449 van 21 mei 2024 gericht op het beveiligen en reguleren van de digitale ruimte. Deze stelt bijvoorbeeld een jaar cel op het niet adequaat modereren tegen kindermisbruikbeeldmateriaal (art. 6-2-1).

Een andere mogelijkheid is dat men de kennis en activiteiten van Durov (of Telegram als bedrijf) ziet als zó ver gaand dat sprake kan zijn van medeplichtigheid. In Nederland is daarvoor vereist dat je actief hulp geeft, of inlichtingen of middelen verschaft (art. 48 Sr). Een platform bieden waar dit toevallig gebeurt is natuurlijk geen medeplichtigheid, maar zodra er iets blijkt van aanmoedigen, moderatie tegenhouden of onder tafel geld accepteren zodat men het kan blijven doen, dan kom je daar wel.

Arnoud

 

Forum van Radar-programma is een journalistieke uiting, geen inzagerecht

Photo by Pixabay on Pexels

Inzageverzoek persoonsgegevens (Radar forum, moderatie) strandt op journalistieke exceptie. Zo vatte het Hof Arnhem-Leeuwarden een recent arrest samen, dat ingaat op een al lang bestaand spanningsveld tussen privacy en uitingsvrijheid.

In het geheel niet tot mijn verbazing betrof het iemand die was geband en naar de rechter stapte. Die krijg ik ongeveer wekelijks in mijn mailbox namelijk: wat kan ik doen, biedt de AVG een leuke stok of kan ik met NIS2 de directie persoonlijk aansprakelijk stellen?

Deze persoon pakte ook daadwerkelijk door, en eiste van de beheerders van het AVROTROS Radar forum “een kopie van, kort gezegd, alle informatie in verband met overtredingen van de huisregels door hem, en de overige informatie als bedoeld in artikel 15 lid 1 onder a tot en met h AVG.” De aanleiding:

Hij heeft [sinds 2006] bijna 22.000 berichten op het forum geplaatst. In de loop van de jaren zijn er berichten van [de betrokkene] op het forum verwijderd door de Moderator. Op 3 februari 2022 is hem een ‘ban’ van één maand gegeven wegens ruzie met een andere deelnemer.
De achterliggende motivatie van het inzageverzoek is dat hij de besluiten van de Moderator om zijn berichten te verwijderen en de ban “op juistheid en rechtmatigheid moet kunnen controleren”. Welke gegevens dat precies betreft, is mij niet helemaal duidelijk, want bijvoorbeeld berichten tussen moderatoren met overleg hierover zouden volgens mij vanwege hun privacy niet mogen worden afgegeven. Maar het verzoek ging kennelijk ver: hij wilde ook zien “hoe de moderatie van zijn bijdragen zich verhoudt tot de moderatie van bijdragen van andere (veel-)gebruikers van het forum”, wat impliceerde dat hij ook berichten van/over andere gebruikers zou krijgen.

AVROTROS gooide het echter over een andere boeg: het inzagerecht geldt niet, want hier is sprake van een uitsluitend journalistieke verwerking. Dat doet misschien gek aan, omdat de deelnemers aan het forum geen journalisten zijn die werk doen voor Radar of aanverwant. Maar het Hof ziet een duidelijk verband:

[D]e verwerking van persoonsgegevens op het forum [kan] niet los gezien worden van de journalistieke doeleinden die Avrotros dient met het programma Radar en de andere bijkomende producten en de algehele bijdrage die aldus wordt geleverd aan het publieke debat. Dat Avrotros ‘louter’ hostingprovider is van het forum en daaraan zelf geen eigen journalistiek-inhoudelijke bijdragen levert, zoals de rechtbank heeft overwogen, maakt nog niet dat het forum geen journalistieke activiteit is.
Programma en forum zijn daarmee zodanig verweven met elkaar dat de journalistieke functie van de eerste overslaat op de laatste. Daarmee vervalt automatisch het recht op inzage en correctie (Uitvoeringswet AVG, artikel 43).

De uitspraak is natuurlijk in zoverre beperkt dat hij alleen toepasbaar is op forums die verbonden zijn aan journalistieke producties. Iets waar ik toch een beetje moeite mee houd, want volgens mij moet het gaan om het doel van het forum zelf, en moet je dáárbij kijken of dat primair journalistiek is.

Arnoud

‘Ook OpenAI en Anthropic negeren robots.txt-verzoeken om sites niet te scrapen’

Photo by Chuck Underwood on Unsplash

OpenAI en Anthropic negeren verzoeken van websites in robots.txt-bestanden om niet gescrapet te worden. Dat las ik bij Tweakers. Dat is opmerkelijk, want eerder meldde men nog dit wel te gaan doen. De reden is onduidelijk, mogelijk heeft het te maken met het onderscheid tussen “crawlen om AI-trainingsvoer te vinden” en “crawlen om bronnen te vinden waarmee AI-uitvoer ondersteund wordt”.

Dit is dus precies waarom robots.txt niet de oplossing is voor dit probleem. Robots.txt is ooit gemaakt om boteigenaren aan te geven waar de website-eigenaar problemen verwachtte, zoals bij cgi-bin scripts of URL’s met sessieparameters of mappen waar toch niets te halen viel. Dat was handig voor de boteigenaar want dat scheelt netwerkverkeer en rotzooi weggooien.

Hier gaat het niet om elkaar helpen maar om een verbod: je mag deze site/content niet gebruiken voor jouw tekst en datamining. Ook niet als je het voorzichtig doet. Daar zit een juridisch haakje aan, artikel 15o van onze Auteurswet (gebaseerd op Europese regels) zegt dat TDM mag tenzij er een machineleesbare optout is gegeven.

Het probleem: iets is pas machineleesbaar (=zonder menselijke tussenkomst te interpreteren) als daar een standaard voor is. En die is er niet. Dus dan krijg je dat men iets pakt dat er op lijkt, namelijk robots.txt en daar dan doet alsof je een verbód uitspreekt als je zegt “GPTbot disallow *”. Dit werkt om meerdere redenen niet, al is het maar omdat je alleen per bot kunt uitsluiten en niet per soort gebruik (wel voor je zoekmachine, niet voor je dataset).

We hadden in de jaren nul hetzelfde met het Automated Content Access Protocol, dat geen succes werd omdat er geen consensus was dat je dit moest willen. En er zijn diverse pogingen om een “ai.txt”-achtige standaard te zetten, maar die hebben allemaal hetzelfde probleem: waarom zou ik dat ondersteunen? Als ik dat doe, mag ik dingen niet die de concurrent wel mag (want die ondersteunt het niet).

De enige route is dat de wetgever een standaard bindend voorschrijft, dit is hoe jij uitgever het opschrijft en daar ga jij crawlerbaas elke keer verplicht kijken voordat je verder crawlt. Maar het Europese standaardisatieproces duurt jaren. Ik ben dus heel benieuwd hoe hier een standaard geforceerd gaat worden. Een dappere rechter die durft te zeggen “genoeg uitgevers gebruiken formaat X, dat is dan vanaf vandaag maar standaard”.

Arnoud

 

Mag ik met cameratoezicht controleren of de parkeerplek voor mijn deur vrij is als ik aan kom rijden?

Photo by Thatmientay on Pixabay

Een technisch vernuftige kwestie bij Reddit:

Ik heb een camera op de 3 parkeerplekken voor mijn huis hangen met een scriptje die checkt of er een parkeerplek leeg is. Deze camera, in tegenstelling van [mijn] deurbel en tuin camera, neemt niet op maar neemt alleen een snapshot van de huidige situatie, maakt hier een base64 string van en stuurt die naar een (gesloten) API. Mijn overburen hebben hier over geklaagd, en normaal gesproken zou ik er geen twee keer over nadenken en de camera weghalen. Maar zij zijn nou net de reden dat ik dit script heb geschreven aangezien zij de hele dag thuis zitten en zodra de plekken voor ons huis vrij komen meteen de buitenste twee innemen met hun beide auto’s, ondanks dat ze gewoon een oprit hebben.
De achterliggende reden voor dit stukje huisvlijt (link met technische details) is dat de betreffende straat in een breder gebied met eenrichtingsverkeer ligt. Kan de vraagsteller niet bij zijn huis parkeren, dan moet hij een fors stuk doorrijden alvorens weer bij een parkeerplek te komen. Weet hij deze situatie tijdig, dan kan hij ergens in de buurt parkeren.

Maakt dat uit? Jazeker, want bij het maken van beelden in de openbare ruimte kom je bij de AVG uit en die vereist een onderbouwd gerechtvaardigd belang. In deze situatie weten hoe je moet rijden vind ik wel een rechtens te respecteren belang (indirect te linken aan recht op privé-leven, dit is gewoon belangrijk voor veel mensen):

Lange straat met eenrichtingsverkeer en parkeerplekken alleen aan onze kant van de straat. Als ik aankom rijden vraag ik aan me voice assistant of er een plek beschikbaar is zodat ik weet dat ik voor de deur kan parkeren of al eerder een plek moet vinden. Het kan in ons dorp bij mooi weer extreem druk worden. Als ik doorrijdt en er is geen plek voor de deur of verder in de straat, moet ik een aardig stukje omrijden om het nog een keer te proberen.
Natuurlijk moet er van de AVG ook een afweging met de belangen van anderen gemaakt worden. Andere mensen komen in beeld als die foto wordt gemaakt, en zij hebben ook recht op privé-leven als ze gewoon op straat lopen of voor mijn part hun schoenveters strikken op die parkeerplaats.

Hoe weeg je dat tegen elkaar af? Het mooie aan deze oplossing vind ik dat die camera niet de hele dag filmt. Alleen als de vraagsteller een signaal stuurt, neemt de camera een foto die naar de telefoon van de vraagsteller gaat. Die kan dan in de auto beslissen hoe verder te rijden.

Het beeld is na overleg met de buren van hoge resolutie teruggebracht tot een simpel 640×480 pixel beeld, wat we nu postzegelformaat noemen en toen ik jong was “wat mijn monitor maximaal aan kan”. Het beeld wordt verder niet opgeslagen. Ik zie dat als zo’n beperkte inbreuk op de privacy van passanten dat ik de belangenafweging in het voordeel uit vind vallen van de vraagsteller.

Het enige punt dat voor mij overblijft is hoe je voor de buurt duidelijk maakt dat de camera niet de hele dag filmt. Het is nu met de overburen besproken, maar er wonen meer mensen in die straat, om van passanten nog maar niet te spreken. (Het is kennelijk een populaire parkeerplek voor dorpsbezoekers.) Ik kom dan uit bij bijvoorbeeld een lampje dat aan gaat als de foto wordt gemaakt, en een bordje “Filmt niet!” goed zichtbaar bij het ding.

Ik zie in de comments nog discussies over de term ‘sensor’, waarbij kennelijk het zo zou zijn dat sensoren wel de weg mogen bevoelen en camera’s een ander verhaal zijn. Dat klopt juridisch niet. Het criterium is of er persoonsgegevens verwerkt worden – mensen herkenbaar zijn, zeg maar. Of je dat nou doet met warmtebeeld, een MRI scan of een ladinggekoppelde component maakt daarbij helemaal niets uit.

Arnoud

Wat is er juridisch mogelijk tegen nepauteurs en nepartikelen in al dan niet nepjournals?

Photo by Pixabay on Pexels

Academisch publiceren wordt steeds meer bedreigd door onwetenschappelijke krachten, zo opende een artikel over fictieve artikelen en/of auteurs recent. Dergelijke neppublicaties zijn sterk in opkomst, uiteraard dankzij generatieve AI dat wetenschappelijk klinkende tekst per strekkende meter produceert inclusief mooie bronvermeldingen. Is er juridisch wat aan te doen, zo vraagt de auteur zich af.

Nepartikelen en zelfs nepauteurs zijn van alle tijden, moet je dan als jurist zeggen, maar de laatste tijd loopt het wel de spuigaten uit. Bij Retraction Watch las ik zelfs dat drie tijdschriften in de CiteScore top 10 geheel nep zijn:

These journals are filled with automatically generated papers, all using the same template, extensively using buzzwords such as “blockchain,” “metaverse,” “deep learning,” “immersive visualization,” “neuro-engineering technologies,” and “internet of things.” Most papers claim to examine the recently published literature on these topics by “a quantitative literature review of the main databases.” They also claim to analyze initially (always!) between 170 and 180 articles that satisfied the undisclosed “eligibility criteria.”
Of Rian van Rijbroek heeft een nieuwe baan, of hier zijn mensen zeer creatief met ChatGPT aan de slag geweest.

Het onderliggende probleem is dat vrijwel alle waardering voor wetenschappelijke papers automatisch berekend wordt. Het tellen van citations is de bekendste manier. En een tijdschrift lift daar weer op mee: hoe vaker er uit dat tijdschrift wordt geciteerd, hoe beter het wel zal moeten zijn. Dus ja, als je dan steeds je eerdere nepartikelen citeert en nieuwe artikelen rechtstreeks uit de API live zet, dan kom je als tijdschrift al snel in de top 10.

Dit doet pijn, niet alleen door de vervuiling maar ook omdat wetenschappers afgerekend worden op publiceren in de “goede” tijdschriften. Die top 10 van CiteScore is een metric om te bepalen of een tijdschrift “goed” is, en daar staan nu dus nog maar zeven tijdschriften in waar je als mens in zou willen staan.

Nepnieuws dus, om de juridische term te gebruiken. Het probleem is dat nepnieuws an sich niet strafbaar is. Wie goedkoop buzzword-gebrabbel wil publiceren, en dat zelf kan organiseren, moet dat vooral doen. De markt lost dat vanzelf wel op, want wie wil er abonnementen nemen op zo’n tijdschrift?

Ik ben er nog niet helemaal achter wat het businessmodel is hier. Ik denk het verleiden van onoplettende wetenschappers om hier te publiceren – vraag 300 euro “review fee” en publiceer daarna ongezien. Strafbaar is dat niet echt, je krijgt een publicatie dus oplichting is moeilijk hard te maken. Ik zie ook zo snel geen misleidende beloftes zoals dat topresearchers een peer review gaan doen.

Het doet denken aan de oude problematiek van de bedrijfsgidsen, maar daar was de misleiding groter: die vragen of je je gegevens wilt checken en leggen jouw “het klopt” uit als een akkoord op een betaald abonnement van 1500 euro per jaar voor vijf jaar zonder tussentijdse opzegging.

Hier zie ik echt niet meteen een juridisch haakje om tegen deze publicaties op te treden. De enige echte route is die van de Digital Services Act – merk dit aan als een systeemrisico. Alleen zijn de aanbieders van CiteScore en collega’s geen groot platform dat een dergelijke plicht heeft. Dat wringt, want dit ís een systeemrisico. Alleen is er niemand voor verantwoordelijk.

Arnoud

 

Mag je in Nederland liegen bij de burgerlijke rechter?

Photo by Jametlene Reskp on Unsplash

Elon Musk gaat getuigen in een zaak die de Amerikaanse Securities and Exchange Commission tegen hem heeft lopen rond de aankoop van Twitter, las ik bij Tweakers. Los van de inhoud inspireerde het een discussie die ik wel vaker zie: wanneer is liegen bij de rechter verboden (in Nederland) en wat zijn de gevolgen?

De reden voor het onderzoek van de SEC is dat Musk in 2018 tweette dat hij “funding secured” had voor de overname, iets dat niet de waarheid, de gehele waarheid en/of niets dan de waarheid lijkt te zijn. En omdat Twitter toen een  beursgenoteerd bedrijf was, mag de SEC dat dan onderzoeken. Musk werkte eerder mee, maar nadat de SEC vervolgvragen meldde, stapte hij naar de rechter.

Het riep de discussie op: kan Musk gedwongen worden te getuigen als hij onderwerp van onderzoek is? Dat stuit af op het Fifth Amendment, het recht niet tegen jezelf te hoeven getuigen – in strafzaken. Die nuance is belangrijk want de SEC heeft een civiele zaak. In de praktijk betekent dat: je moet komen, je moet blijven zitten en de vragen aanhoren maar bij een specifieke vraag mag je weigeren te antwoorden met een verwijzing naar dat Grondwetsartikel.

In Nederland is kennen wij ook zo’n verschil tussen civiel en bestuursrecht. Als je bij civiel recht (tussen burgers en/of bedrijven) liegt, mag de rechter daar iedere gevolgtrekking uit maken die hij geraden acht (art. 21 Rv). In deze zaak had een partij bijvoorbeeld een vordering mede gebaseerd op een voorlopige aanslag IB (12k) terwijl de werkelijke aanslag IB er al was (300 euro). Dat is liegen en de rechter wijst de hele vordering af. Maar de rechter mag ook bijvoorbeeld mededelen dat omdat jij loog dat A waar is, we vanaf nu handelen onder de aanname dat niet-A de waarheid is.

Als je liegt op papier (ook e-mail e.d.), is dat valsheid in geschrifte en dat kan als strafbaar feit worden vervolgd. Maar als de rechter in de civiele zaak actie ondernam, dan denk ik dat de politie de zaak verder laat liggen.

Je kunt bij een civiele zaak worden gehoord als getuige. Dat gebeurt onder ede, en dan liegen is strafbaar (meineed, art. 207 Strafrecht), net als zwijgen (art. 192 Sr). Overigens zie je in Nederland vaker dat men een schriftelijke getuigenverklaring overlegt dan dat mensen daadwerkelijk langskomen, dit is in de VS wel anders.

De SEC zou bij ons opereren onder het bestuursrecht. Hier kun je ook onder ede worden gehoord als getuige (art. 8:33 lid 4 Awb). Maar als jij wordt verhoord met het oog op het aan jou opleggen van een bestraffende sanctie, mag je wel zwijgen (art. 5:10a Awb). Het hangt er dus vanaf of men jou op de korrel heeft met het onderzoek of dat je toevallig iets relevants weet.

Arnoud