Kan een platform de voorwaarden met terugwerkende kracht herzien om AI te kunnen trainen met alle gebruikersdata?

ananitit / Pixabay

Een lezer vroeg me:

Veel is al gezegd over de recente aankondiging van Linkedin om standaard gebruikersposts en -data te gebruiken om AI te trainen. Wat mij opviel is dat het ook gaat om gegevens die vele jaren teruggaan, tot zelfs 2003! Kun je werkelijk je gebruiksvoorwaarden of privacy policy zo met terugwerkende kracht herzien?
Inderdaad gaat Linkedin binnenkort gebruikersdata gebruiken om AI systemen mee te trainen. Men gebruikt daarbij een opt-out systeem, wat erop wijst dat men zich AVG-technisch beroept op het gerechtvaardigd belang. Daarbij is immers een opt-out verplicht (artikel 21), waarbij formeel je dan redenen moet opgeven maar in de praktijk “ik wil het niet” geaccepteerd wordt.

Naast een uitzondering van privéberichten heeft LinkedIn gezegd niet te trainen op gegevens van minderjarigen. Ook salarisgegevens en sollicitatiegegevens worden niet meegenomen in de training.

Blijft de vraag: hoe kunnen en mogen ze dan teruggaan tot 2003? De reden daarvoor is even flauw als simpel: men stelt het recht te hebben om te trainen op alle data die er nu is. De datum waarop die data werd geschapen, is daarbij irrelevant.

Ook als je het vanuit auteursrechtelijk perspectief bekijkt, is het kort en goed niet van belang wanneer de data werd geplaatst. Je kunt vanaf vandaag bepalen dat alle aanwezige werken mogen worden gebruikt. Dat is dan geen wijziging met terugwerkende kracht. Dat zou het pas zijn als je ook zegt “oh ja we hebben de afgelopen vijf jaar getraind op je data, bij deze verklaren we dat alsnog legaal”. De enige manier om hier wat tegen te doen, is actief je oude berichten weghalen.

Arnoud

Bunq blijkt toch te dreigen met juridische stappen na Reddit-post ex-werknemer

Photo by Gwyn Hay on Unsplash

Bunq blijkt toch juridische stappen te hebben besproken met moderators van Reddit. Dat meldde Tweakers vorige week na eerder te berichten dat de bank dit juist niet zo doen. Het bedrijf wil dat Reddit een kritische post van een vermeende ex-werknemer verwijdert. Man man man.

De mediaheisa die ondertussen is ontstaan, komt door een artikel in NRC dat opent met

De Amsterdamse neobank bunq dreigt met juridische stappen tegen het socialemediaplatform Reddit, omdat het weigert een kritisch bericht van een ex-medewerker te verwijderen over de werksfeer bij bunq, het gedrag van oprichter Ali Niknam en de gebrekkige klantenservice. Volgens Reddit-moderatoren is het de eerste keer dat een Nederlands bedrijf het Amerikaanse platform op deze manier onder druk zet.
De Reddit-post (‘klaagzang over bunq van een oud-werknemer’) van een jaartje geleden leest voor mij als typisch ergernis van je afschrijven. Maar om nou meteen te zeggen, hier moet een advocaat losgelaten, nee.

Dat zei bunq ook: er was wel overleg met de moderatoren van de subreddit in kwestie geweest, maar “De bank benadrukt dat de communicatie echter geen juridisch dreigement bevatte.” Maar nu blijkt dat “de bank het wel degelijk over een ‘juridische route’ heeft gehad.”

De discussie voelt voor mij semantisch: wat bedoel je met “dreigen”. Het heeft een beetje een ondertoon van strafbaar feit, iemand afdreigen of bedreigen. Maar Van Dale houdt het bij meer neutrale termen als “iets onaangenaams in het vooruitzicht stellen” of “te wachten staan”.

Er is op zich natuurlijk weinig mis met zeggen “als u niet doet wat ik vraag, dan ga ik naar de rechter”. Dat recht heb je altijd, ook als je vraag kansloos is (zoals in blafbrieven). Om dit “dreigen” te noemen, gaat mij wat ver.

Een reden om die term wél te gebruiken, is dat de vraag afkomstig is van een machtige (vaak kapitaalkrachtige) partij die best bereid lijkt kansloze procedures te voeren in de wetenschap dat de wederpartij door enkel de tijd, geld en energie die dat kost, zal capituleren. Dan kun je op papier best gelijk hebben, maar ga je failliet in het halen daarvan. Ik zie wel hoe je dat “dreigen” noemt.

Sinds 2024 hebben we in Europa anti-SLAPP wetgeving. SLAPP staat voor “strategische rechtszaken tegen publieke participatie”, oftewel mensen bang maken met zulke kansloze maar dure/energieslopende procedures. De Europese wet definieert dat als

gerechtelijke procedures die niet worden ingeleid om daadwerkelijk een recht te doen gelden of uit te oefenen, maar die als voornaamste doel het voorkomen, beperken of bestraffen van publieke participatie hebben, waarbij vaak misbruik wordt gemaakt van ongelijke machtsverhoudingen tussen de partijen en ongegronde vorderingen worden ingesteld.
De sanctiemechanismen uit deze wet zijn niet denderend sterk: een proceskostenveroordeling of publicatie van het vonnis, tsja. En het is beperkt tot entiteiten die bezig zijn met publieke activiteiten zoals journalisten, dus het is nog maar de vraag of deze regels werken bij deze ex-werknemer.

Arnoud

 

Mag ik een softwaredienst reviewen als de voorwaarden dat verbieden?

"Warcraft EULA under Ubuntu/WINE" by gruntzooki is licensed under CC BY-SA 2.0

Een lezer vroeg me:

Veel organisaties werken met een van de drie grote aanbieders van vulnerability management platforms: Qualys, Rapid7 en Tenable. Die platforms identificeren van kwetsbaarheden in de infrastructuur van hun afnemers en geven risico-scores voor de ontdekte kwetsbaarheden. Als onafhankelijk onderzoeker wil ik deze tools evalueren en mijn bevindingen publiceren. Maar ik begrijp dat dit niet mag van de voorwaarden van deze tools? Kan dat werkelijk verboden worden, recensies van een product?
Tools zoals de genoemde drie gebruikt om te prioriteren wat de organisatie moet patchen. Dit is belangrijk omdat de platforms bij een grotere organisaties al snel tien- tot honderdduizenden kwetsbaarheden van allerlei pluimage  en impact kan ontdekken.

Een evaluatie van dergelijke tools is nuttig voor potentiële gebruikers, zeker als dat door een onafhankelijke partij gebeurt. Dat hoeft natuurlijk niet een stichting of persmedium te zijn, ook een consultant kan prima reviews of evaluaties maken en met de wereld delen.

Bij sommige van deze tools staat in de gebruiksvoorwaarden dat recensies verboden zijn. Zo staat in de Master Agreement van Tenable Nessus dat ” (vi) use the Products in order to create competitive analysis or a competitive product or service;” verboden is (artikel 4 onder c). Wat deze consultant wil, is een concurrentieanalyse en dat zou dus niet mogen.

Allereerst twijfel ik of dat werkelijk de beoogde lezing is. Gezien de context kan men goed doelen op analyseren voor concurrentiedoeleinden, dus het uit elkaar halen om te zien hoe jouw platform beter zou moeten. Het is voor mij als jurist raar dat je recensies en concurrerende producten in één artikellid verbiedt.

Ten tweede zou zo’n strenge lezing al heel snel afstuiten op de vrijheid van meningsuiting. Er wordt geen reden gegeven voor het verbod, en de software is eenvoudig verkrijgbaar via internet als standaardpakket. Dat er dan zware bedrijfsgeheimen op straat komen of dat criminelen zeer gevoelige inzichten krijgen, lijkt dan zeer onwaarschijnlijk.

Zo’n reden is belangrijk, want het verbod is juridisch gezien een inbreuk op de vrijheid van meningsuiting. En dat vereist een zwaarwegende argumentatie die maakt dat een verbod de enige optie is. Dat zie ik hier werkelijk niet.

Ik zie met een snelle zoektocht meteen al vele reviews van deze tool, inclusief vergelijkingen met de concurrent. Dat doet mij vermoeden dat de soep in ieder geval niet zo heet gegeten wordt.

Arnoud

 

 

Gerechtshof wijst verzoek van X tot spreekverbod voor Nederlander af

Photo by Michael Dziedzic on Unsplash

De Nederlandse jurist en techexpert Danny Meki? krijgt van het Amsterdamse gerechtshof geen spreekverbod in een zaak waarin hij X om inzage in zijn persoonsgegevens vraagt. Dat meldde Nu.nl onlangs. Meki? ligt in de clinch met X (née Twitter) over het waarom achter een shadowban. Maar waarom dan een spreekverbod?

In augustus vorig jaar blogde ik over de zaak:

Technoloog en Ph.D-kandidaat Danny Meki? ontdekte in oktober dat hij op X was onderworpen aan een shadowban: weliswaar kun je zelf alles nog gebruiken, maar niemand krijgt je berichten meer te zien. Dat bleek (volgens de helpdesk van Twitter, waar verbazingwekkend genoeg nog mensen werkten destijds) te herleiden tot een artikel van de NOS dat Meki? daar gedeeld had.
Het had er de schijn van dat het algoritme zijn bericht had aangemerkt als iets met kindermisbruikmateriaal te maken hebbend. De enige verwijzing daar naar was echter een woord in de kop van het NOS-artikel dat hij deelde, dus dat doet raar aan.

In techkringen zegt men dan vaak “The Algorithm moves in mysterious ways” maar in Europa heb je recht op uitleg over het wat en hoe (artikel 15 AVG en 17 DSA). En dat spreekverbod kwam aan de orde in de juridische procedure over het verkrijgen van die uitleg. Meki? had namelijk gelijk gekregen en moest inzage krijgen in hoe het moderatiesysteem had gehandeld. X gaf ook inzage, maar maakte 90% van de tekst onleesbaar “vanwege bedrijfsgeheimen”.

Nee, dat schiet niet op, vandaar het hoger beroep. De regel uit de Europese jurisprudentie (Dun & Bradstreet) is dat in zo’n geval de rechter alle informatie krijgt en zelf kiest wat de eiser wel en niet mag zien. Maar X was toch bezorgd dat de volledige stukken in de procedure bij Meki? zouden komen, en dat die ze dan zou publiceren. Vandaar het mededelingenverbod over dat stuk in de zin van artikel 28(1)(b) Rechtsvordering, iets dat de rechter inderdaad kan opleggen.

Het arrest laat zien dat het Hof daar niet veel voor voelt, juist omdat zo’n verbod ver gaat en dus de informatievrijheid raakt in een maatschappelijk relevante zaak. Er is ook een minder ingrijpend alternatief, namelijk de beperkte kennisname van het stuk wegens “gewichtige redenen” van de andere partij (artikel 22(2) Rv). Mede omdat Meki? daar zelf mee had ingestemd, wijst het Hof die beperking toe.

De volgende stap is dat het Hof nu zélf de ongeredigeerde output van het algoritme mag bestuderen, om vervolgens te bepalen wat Meki? hier van te zien mag krijgen en wat bedrijfsgeheim is. Daarna kan de discussie verder gaan over allereerst of die uitleg adequaat is, en ten tweede of de uitleg de moderatiebeslissing kan dragen.

Arnoud

Mag een uitgaansgelegenheid het dragen van camerabrillen verbieden?

Beeld: RTL Nieuws

Een lezer vroeg me:

Vorige week las ik dat muziekpodium TivoliVredenburg in Utrecht een bezoeker met een camerabril de toegang heeft geweigerd. Inmiddels is er ook een verbod op het dragen van camerabrillen door Tivoli ingevoerd. Maar geheim cameratoezicht was toch al verboden in Nederland, waarom is dit dan nodig?
Eerste hadden we de man die in Rotterdam betrapt werd met een camerabril bij een festival, en nu dus een Utrechter in uitgaansgelegenheid TivoliVredenburg. Logisch dat organisaties hier over nadenken en met huisregels komen.

De strafwet verbiedt inderdaad stiekem filmen, in twee smaken:

  1. Aan de openbare weg is filmen van mensen verboden met een vast aangebrachte camera. Een camera in je hand houden, of zelfs eentje die vast zit aan je auto, is dus niet automatisch strafbaar, art. 441b Strafrecht.
  2. In besloten ruimtes, waaronder festivals en uitgaansgelegenheden, is alle filmen van mensen strafbaar tenzij duidelijk gemeld, art. 139f.
Punt hierbij is wel dat je pas strafbaar bent als je de beelden máákt. Een camera in je tas hebben zitten op een festival is natuurlijk nog lang niet hetzelfde als het filmen van mensen. Het simpele antwoord is dan ook dat die huisregel er is zodat men preventief kan optreden, nog voordat de camera aan gaat.

Een iets lastiger bijkomende vraag is wat de organisatie mag doen als iemand toch die beelden maakt. Eruit zetten, tuurlijk. Aanhouden op heterdaad en de politie bellen, ook mogelijk (139f is een misdrijf).

Maar de beelden wissen, zoals in Rotterdam gebeurde? Daar weet ik even geen optie voor in de wet. Sterker nog: ik zou dringend adviseren die beelden te laten staan, zodat de politie zelf ook kan zien dat het misdrijf begaan is. Anders is “ik heb niets gefilmd” een wel héél makkelijk excuus achteraf.

Arnoud

Is het legaal dat WhatsApp haar AI verbindt aan je exportmogelijkheid?

Photo by Alok Sharma on Pexels

Een lezer vroeg me:

Sinds een tijdje heeft WhatsApp de “feature” van Meta AI. Wie dat niet wil, moet (per chat) via “Geavanceerde privacy voor chats” instellen dat deze niet mee kan doen. Echter, dit zorgt er ook voor dat je media niet meer automatisch kan opslaan naar je fotogalerij en het niet meer mogelijk is om chats te exporteren. Dit is toch geen vrije keuze meer? Wat zegt de wet hierover?
Inderdaad is de manier om de Meta AI te weren op zijn zachtst gezegd omslachtig, en als je dit “malicious compliance” zou noemen zou ik het helemaal met je eens zijn. Want het is geen aparte optie, het is deel van wat WhatsApp “Geavanceerde privacy”-instellingen noemt en feitelijk heel wat meer impact heeft dan enkel de AI weren.

Er is geen direct haakje waarmee je hier tegen bezwaar kunt maken. Het concept van vrije toestemming komt natuurlijk uit de AVG, maar dat zou hier dan betreffen dat Meta AI wel of niet mee mag lezen. En dát doe je door die bot te taggen in een chat, wat een duidelijke aparte handeling is. Het probleem is dus vooral dat je gesprekspartner(s) dit kan doen zonder jouw toestemming.

WhatsApp’s eigenaar Meta is in september 2023 aangewezen als een poortwachter onder de Digital Markets Act (DMA) voor deze platformdienst. De DMA kent een aantal plichten speciaal voor de “interoperabiliteit van nummeronafhankelijke interpersoonlijke communicatiediensten”:

  1. Basisfuncties interoperabel maken met andere diensten
  2. Vergelijkbare veiligheidsniveaus (inclusief e2ee) voor gebruikers die via andere diensten communiceren
  3. Alleen de strikt noodzakelijke persoonsgegevens verzamelen van gebruikers, geen persoonsgegvens mengen of gebruiken voor advertenties (tenzij met toestemming)
  4. Geen afhankelijkheden van andere eigen diensten afdwingen (zoals hier een Meta-account verplicht stellen)
  5. Eindgebruikers moeten “effectief” en kosteloos hun data kunnen exporteren
Het is dat laatste waar je hier een punt van zou kunnen maken. Weliswaar kán het, alleen moet je dan de AI-functionaliteit knarsentandend tolereren. Is dat nog “effectief”?

Ik vrees dat de rechter zal concluderen van wel. Uiteindelijk ís de AI-feature optioneel; als geen van beiden deze activeert dan gebeurt er niets. En daarmee lijkt de feature onschuldig genoeg om te kunnen zeggen dat deze een effectieve export niet in de weg zit. Je deelt immers alleen met Meta wat je direct adresseert aan de AI-bot, niet je gehele chat.

Arnoud

Google hoeft Chrome niet te verkopen na megarechtszaak over online monopolie

Hoewel Google een verboden monopoliepositie in de zoekmarkt heeft, hoeft het bedrijf haar browser Chrome niet te verkopen. Wel moet men informatie delen met concurrenten en zijn exclusieve deals niet meer toegestaan. De uitspraak is het voorlopig hoogtepunt in een langlopend geschil tussen de Amerikaanse overheid en het bedrijf.

De Amerikaanse antimonopoliewetgeving (de Sherman Act) is streng, maar procedures duren lang. En dat is met name in de ict een enorm probleem. Zo duurde de zaak tegen Microsoft over integreren van Internet Explorer in Windows zó lang dat concurrent Netscape al lang uit de markt was toen de uitspraak kwam.

Deze zaak werd gestart in 2020. De kern: Google probeert andere zoekmachines buiten te sluiten door exclusieve deals rond Android te maken met telefoonmakers en met Apple in het bijzonder (Google als default in Safari). De aanklacht stelt dat Google hiermee 70% van de zoekmachineadvertentiemarkt in handen kreeg en adverteerders zo kunstmatig hoge prijzen kan rekenen.

Nadat de rechtbank in 2024 oordeelde dat Google inderdaad een monopolie had geprobeerd te verwerven, ging de procedure verder met de vraag hoe dit op te lossen. Ontbundelen van Chrome werd vaak genoemd als remedie, want zo zouden anderen de populaire browser kunnen leveren maar dan preconfigured met andere zoekmachines. Ook Android zou uitgesponnen moeten worden naar een apart bedrijf, met ontkoppeling van alle daarin opgenomen Google-diensten.

Die eisen werden afgewezen om twee redenen. Allereerst was niet duidelijk dat juist deze defaults een belangrijke rol hadden gespeeld in het verkrijgen van het monopolie. Maar ten tweede is onduidelijk hoe ontbundelen bijdraagt aan een oplossing, terwijl de kans groot is dat de producten dan ten onder gaan:

“It would be incredibly messy and highly risky.” [judge Mehta wrote.] That’s because it doesn’t run as a “standalone business” and relies greatly on Google’s own infrastructure, he wrote. Even if another owner tried to take it over, he wrote, “the court is highly skeptical that a Chrome divestiture would not come at the expense of substantial product degradation and a loss of consumer welfare.”
Het betalen van vergoedingen aan anderen voor het configureren van Google als default zoekmachine mag ook: veel organisaties (hoi Firefox) zijn sterk afhankelijk van die vergoedingen, en zouden mogelijk uit de markt verdwijnen als Google dit niet meer mocht doen.

Wél wordt Google verplicht om specifieke zoekdata en informatie over relevante webpagina’s te verstrekken, zodat concurrenten hun producten beter kunnen afstemmen. Inderdaad, verplicht de concurrent wijzer maken, maar dan had je die maar niet moeten wegpesten uit de markt.

Uiteraard wordt hoger beroep ingesteld. En de zoekmarkt is ten opzichte van 2020 alweer fors veranderd, met gigantische groei van chatbots-die-zoeken als vervanging van de “tien blauwe linkjes” waar je het van -inderdaad- Google mee moest doen.

Arnoud

 

Man filmde stiekem vrouwen bij toiletten op festival Rotterdam met bril, beveiliger waarschuwt

Beeld: RTL Nieuws

Bij een festival in Rotterdam is dit weekend een man betrapt op het stiekem filmen van vrouwen bij de toiletten met een camerabril. Dat meldde RTL Nieuws onlangs. Dit is ict-nieuws want hij deed dat met zo’n Ray-Ban Meta bril-met-camera. Maar ik snap de ophef wel.

Het artikel legt uit:

“Meerdere dames kwamen naar ons toe met de melding dat er een man rondliep bij de vrouwen-wc’s die verdacht rondkeek en zich ook richtte op schaars geklede dames”, vertelt Van den Heuvel aan RTL Nieuws. Daarop hebben ze de man apart genomen en gefouilleerd. “We vonden aanvankelijk alleen drugs in zijn zakken. Maar toen we eens goed keken naar zijn hoofd, dachten we opeens: wat heeft hij nou eigenlijk voor bril op?”
Dat was dus een Ray-Ban® Meta (“a new collection of AI glasses”), die officieel niet in Europa wordt verkocht. De dingen hebben dus camera’s die kunnen fotograferen en video’s maken (maximaal 3 minuten en het vreet batterij, dat wel). Ook zitten er microfoons in, onder meer zodat je met Meta’s AI kunt praten.

Waarom het ding niet in Europa op de markt is, weet ik niet. Een specifieke regel die een bril-met-microfoon-en-camera verbiedt, ken ik namelijk niet. En hoewel ik meteen zie hoe je hier AVG-schendend door het leven mee kunt, betekent dat niet dat verkoop van het apparaat ook een AVG schending zou zijn. Die wet regelt namelijk niets over apparatuur om persoonsgegevens mee te verwerken.

Wat is dan wél strafbaar?

  1. Een gesprek afluisteren waar je geen deelnemer aan bent (art. 139a en 139b Strafrecht), bijvoorbeeld door er naast te zitten en de microfoons het op te laten nemen.
  2. Afbeeldingen van personen (foto én video dus) maken in een besloten ruimte zoals een woning, zonder dat je dat duidelijk kenbaar maakt (art. 139f Strafrecht). (Niet verboden indien in de openbare ruimte want die bril is niet aangebracht op een specifieke plek, 441b Strafrecht).
  3. Zonder toestemming van de geportretteerde een “visuele weergave van seksuele aard” vervaardigen (art. 254ba lid 1(a) Strafrecht).
Afgaande op het nieuwsbericht is hier dus sprake van punt 4, want:
“Op zijn telefoon bleken meerdere video’s te staan waarop te zien was dat hij inderdaad rondkeek op de damestoiletten. Ook was er een beeld waarop hij op zijn knieën zat, en onder een rokje filmde. Obscure [obscene? AE] beelden, die we meteen verwijderd hebben.”
Voor Ray-Ban of Meta is dit niet direct relevant. Zij maken niet dergelijke opnames of beelden. Dat het kán, is niet van belang. Althans niet direct, want reclame maken voor de geschiktheid van dit soort producten voor heimelijk afluisteren of filmen is wél apart strafbaar (art. 441a Strafrecht).

Arnoud

Fraude met ChatGPT: aspirant-advocaat belandt bij de hoogste rechter

Bron: Emanuel Peire, Medium

Een UvA-student liet zich met zijn huiswerk helpen door ChatGPT. Dat meldde vakblad Quote onlangs. Het betrof uiteraard een opdracht jurisprudentie- en literatuuronderzoek, waarbij de stochastische papegaai met redeneeraspiraties vier nepliteratuurverwijzingen oplepelde. En dat ging tot aan de Raad van State.

De opdracht hoorde bij het vak Amsterdam Law Firm 2.1 (“In dit het unieke onderwijsprogramma oefen je in kleine groepen je vaardigheden met voorbeelden uit echte zaken”). Zo te lezen in de uitspraak ging dat niet geheel conform de instructie:

De werkgroepdocent heeft geconstateerd dat de in de opdracht gebruikte bronnen 2 tot en met 5 niet bestaan. [appellant] heeft op navraag van de docent te kennen gegeven deze bronnen te hebben toegevoegd aan de lijst van de geannoteerde bibliografie. Nadat de docent [appellant] te kennen heeft gegeven dat zij de bronnen niet kon vinden, heeft hij later op de dag links naar alternatieve bronnen aangeleverd. Bij de examinator is daardoor het vermoeden gerezen dat de bronnen zijn gegenereerd door kunstmatige intelligentie (hierna: AI) of zijn verzonnen.
De examencommissie oordeelde dat dit fraude is, waardoor hij zijn portfolio volledig opnieuw kon maken. Ook werd hij uitgesloten voor de vakken Goederenrecht en Europees recht. Het College van Beroep bevestigde de uitspraak, ondanks alle door de student (rechtsgeleerdheid, immers) uit de kast gehaalde argumenten waaronder dat hem niet de cautie was verleend of gewezen werd op het recht tot bijstand.

Daarop stapte de student naar de Raad van State, wat voor de rechtsvorming fijn is want zo hebben we nu de eerste uitspraak over de vraag of gebruik van AI kan tellen als fraude. (En de student kan het als “realistische zaken uit de rechtspraktijk” opvoeren bij sollicitaties.)

Het onderliggende juridische probleem: moet de examencommissie of docent aantonen dat een AI-dienst is gebruikt, of moet de student aantonen van niet?

Hoofdregel is dat de student eigen werk moet inleveren, dus als er een vermoeden rijst dat dat niet het geval is, heeft de student de bewijslast dat zhij het wél zelf gemaakt heeft. Of het nu gaat om AI, copypasteplagiaat of een medestudent laten schrijven.

In dit geval stelde de student ChatGPT alleen te hebben gebruikt om de bronnen netjes conform de Leidraad laten herschrijven. Plausibel, daar is die tool goed in en ik doe dat zelf ook. Alleen: er is een niet-verwaarloosbare kans dat de uitvoer meer of andere bronnen bevat dan je er in stopte.

Volgens de student was dat hier ook gebeurd. Na de eerste signalering had hij de bronnen zelf opgezocht, en daarbij alternatieve links gegeven. Maar de examencommissie vond dat niet overtuigend, dit waren geen “slordigheden” zoals een typefout of verkeerd paginanummer.

Een moeilijke dus. Enerzijds wil ik best geloven dat de lijst die er in ging, wél keurig uit juridische bronnen was samengesteld en dat het taalmodel er statistisch mooier klinkende tekst van maakte. Het heeft immers geen taalbegrip en maakt dus iets dat lijkt op een Leidraad-conforme versie van een bron.

Anderzijds zou iedereen die deze diensten gebruikt moeten weten dat dit gebeurt, en dus alle bronnen in detail nog eens na moeten lopen. Het voelt wat heftig om dat nalaten “fraude” te noemen, maar het is wel het soort detail waar juristen slecht op gaan.

Derderzijds: dat dit gebeurt, is weinig intuïtief voor velen. De dienst is er zelf ook niet bepaald expliciet hierover (vage generieke disclaimers tellen niet). Dit is waarom de AI Act geletterdheid verplicht stelt. Ik zou wel durven stellen dat een vak over bronnen onderzoeken toch minstens een slide moet besteden aan dit probleem.

Arnoud

Mag een docent inzage vragen in je AI-chatgeschiedenis bij een vermoeden van AI-gebruik?

Photo by Matheus Bertelli on Pexels

Via Reddit:

Als een docent je verdenkt van het gebruiken van chatgpt of een andere language AI. Mag de docent dan vragen naar je chat geschiedenis van de gebruikte AI. In hoeverre kan de docent aantonen dat er AI is gebruikt?
Een docent mag niet eisen dat zhij toegang krijgt tot jouw privé ict-middelen. Heel misschien bij ernstige misdrijven en als dat in een reglement geregeld is, maar dan nog zie ik eigenlijk geen juridische basis.

Een docent kan wel op basis van aanwijzingen uit je werk de conclusie trekken dat je mogelijk een werk niet zelf gemaakt hebt. Zhij kan je dan opdragen te laten zien dat je het wél zelf gemaakt hebt. Jij kiest dan wat je laat zien, zoals je conceptteksten, schetsen of oude versies. Heb je dat niet, dan is het gerechtvaardigt dat men concludeert dat het werk niet door jou zelf gemaakt is.

Het maakt dus niet uit of je een tekst uit genAI trekt of iemand inhuurt om het voor je te maken. Jij moet eigen werk inleveren, en je moet kunnen bewijzen dát het eigen werk is.

Heb je helemaal geen concepten, dan is een redelijk voorstel dat je in een mondeling gesprek laat zien dat je alles weet over het onderwerp van je opdracht. Dat kan dan alleen omdat je het echt zelf gedaan hebt.

Arnoud