Een UvA-student liet zich met zijn huiswerk helpen door ChatGPT. Dat meldde vakblad Quote onlangs. Het betrof uiteraard een opdracht jurisprudentie- en literatuuronderzoek, waarbij de stochastische papegaai met redeneeraspiraties vier nepliteratuurverwijzingen oplepelde. En dat ging tot aan de Raad van State.
De opdracht hoorde bij het vak Amsterdam Law Firm 2.1 (“In dit het unieke onderwijsprogramma oefen je in kleine groepen je vaardigheden met voorbeelden uit echte zaken”). Zo te lezen in de uitspraak ging dat niet geheel conform de instructie:
De werkgroepdocent heeft geconstateerd dat de in de opdracht gebruikte bronnen 2 tot en met 5 niet bestaan. [appellant] heeft op navraag van de docent te kennen gegeven deze bronnen te hebben toegevoegd aan de lijst van de geannoteerde bibliografie. Nadat de docent [appellant] te kennen heeft gegeven dat zij de bronnen niet kon vinden, heeft hij later op de dag links naar alternatieve bronnen aangeleverd. Bij de examinator is daardoor het vermoeden gerezen dat de bronnen zijn gegenereerd door kunstmatige intelligentie (hierna: AI) of zijn verzonnen.
De examencommissie oordeelde dat dit fraude is, waardoor hij zijn portfolio volledig opnieuw kon maken. Ook werd hij uitgesloten voor de vakken Goederenrecht en Europees recht. Het College van Beroep bevestigde de uitspraak, ondanks alle door de student (rechtsgeleerdheid, immers) uit de kast gehaalde argumenten waaronder dat hem niet de cautie was verleend of gewezen werd op het recht tot bijstand.
Daarop stapte de student naar de Raad van State, wat voor de rechtsvorming fijn is want zo hebben we nu de eerste uitspraak over de vraag of gebruik van AI kan tellen als fraude. (En de student kan het als “realistische zaken uit de rechtspraktijk” opvoeren bij sollicitaties.)
Het onderliggende juridische probleem: moet de examencommissie of docent aantonen dat een AI-dienst is gebruikt, of moet de student aantonen van niet?
Hoofdregel is dat de student eigen werk moet inleveren, dus als er een vermoeden rijst dat dat niet het geval is, heeft de student de bewijslast dat zhij het wél zelf gemaakt heeft. Of het nu gaat om AI, copypasteplagiaat of een medestudent laten schrijven.
In dit geval stelde de student ChatGPT alleen te hebben gebruikt om de bronnen netjes conform de Leidraad laten herschrijven. Plausibel, daar is die tool goed in en ik doe dat zelf ook. Alleen: er is een niet-verwaarloosbare kans dat de uitvoer meer of andere bronnen bevat dan je er in stopte.
Volgens de student was dat hier ook gebeurd. Na de eerste signalering had hij de bronnen zelf opgezocht, en daarbij alternatieve links gegeven. Maar de examencommissie vond dat niet overtuigend, dit waren geen “slordigheden” zoals een typefout of verkeerd paginanummer.
Een moeilijke dus. Enerzijds wil ik best geloven dat de lijst die er in ging, wél keurig uit juridische bronnen was samengesteld en dat het taalmodel er statistisch mooier klinkende tekst van maakte. Het heeft immers geen taalbegrip en maakt dus iets dat lijkt op een Leidraad-conforme versie van een bron.
Anderzijds zou iedereen die deze diensten gebruikt moeten weten dat dit gebeurt, en dus alle bronnen in detail nog eens na moeten lopen. Het voelt wat heftig om dat nalaten “fraude” te noemen, maar het is wel het soort detail waar juristen slecht op gaan.
Derderzijds: dat dit gebeurt, is weinig intuïtief voor velen. De dienst is er zelf ook niet bepaald expliciet hierover (vage generieke disclaimers tellen niet). Dit is waarom de AI Act geletterdheid verplicht stelt. Ik zou wel durven stellen dat een vak over bronnen onderzoeken toch minstens een slide moet besteden aan dit probleem.
Arnoud