Mag een docent inzage vragen in je AI-chatgeschiedenis bij een vermoeden van AI-gebruik?

Photo by Matheus Bertelli on Pexels

Via Reddit:

Als een docent je verdenkt van het gebruiken van chatgpt of een andere language AI. Mag de docent dan vragen naar je chat geschiedenis van de gebruikte AI. In hoeverre kan de docent aantonen dat er AI is gebruikt?
Een docent mag niet eisen dat zhij toegang krijgt tot jouw privé ict-middelen. Heel misschien bij ernstige misdrijven en als dat in een reglement geregeld is, maar dan nog zie ik eigenlijk geen juridische basis.

Een docent kan wel op basis van aanwijzingen uit je werk de conclusie trekken dat je mogelijk een werk niet zelf gemaakt hebt. Zhij kan je dan opdragen te laten zien dat je het wél zelf gemaakt hebt. Jij kiest dan wat je laat zien, zoals je conceptteksten, schetsen of oude versies. Heb je dat niet, dan is het gerechtvaardigt dat men concludeert dat het werk niet door jou zelf gemaakt is.

Het maakt dus niet uit of je een tekst uit genAI trekt of iemand inhuurt om het voor je te maken. Jij moet eigen werk inleveren, en je moet kunnen bewijzen dát het eigen werk is.

Heb je helemaal geen concepten, dan is een redelijk voorstel dat je in een mondeling gesprek laat zien dat je alles weet over het onderwerp van je opdracht. Dat kan dan alleen omdat je het echt zelf gedaan hebt.

Arnoud

10 reacties

  1. Wij hebben leerlingen die een geweldige opdracht gemaakt hebben (bijv. een essay in perfect academisch taalgebruik) de opdracht nog eens laten maken, met een ander onderwerp en in een gecontroleerde omgeving (op een laptop van school, in een lokaal, met een surveillant). Als je zo geweldig kan schrijven, is dat geen probleem.

  2. Bewijzen dat je iets niet gedaan hebt lijkt me nogal lastig en omkering van de bewijslast. Die docent moet aantonen dat chatGPT is gebruikt als dat niet is toegestaan.

    De docent zal het m.i. moeten omdraaien: uiteindelijk moet de student bewijzen dat het de stof eigen heeft gemaakt. Of de student het werk nu heeft laten doen door een LLM of de buurman, is daarbij van ondergeschikt belang en anno 2025 geen goed middel meer om het te checken.

    1. De norm is altijd al geweest dat de student eigen werk moet leveren, dat is immers het doel van onderwijs. Het probleem is vooral dat fraude super eenvoudig is; een buurman vinden die je scriptie wil én kan schrijven is niet eenvoudig, maar ChatGPT lepelt het zo voor je op. En bij die ene student die altijd matig schreef en nu een prachtig verhaal neerzette kon je altijd al polsen of die het écht snapte of een ghostwriter had gebruikt. Maar bij iedere student voor ieder paper?

        1. Dat is het nooit geweest. Docenten hebben tijdens het nakijken namelijk geen enkel zicht op welke hulp(middelen) en hoeveel tijd een student heeft ingezet. Als oefening prima, maar oefening zou nooit een onderdeel of voorwaarde moeten zijn voor een beoordeling.

          Maar goed, zo zijn er wel meer onlogische dingen in het onderwijs ingevoerd…

      1. Dat het nu super eenvoudig is om AI te gebruiken voor een werkstuk, maakt niet dat je de bewijslast mag omkeren. Het is aan de instelling om zo te toetsen dat de student eigen kennen en kunnen bewijst (met of zonder gebruik van AI, want ook dat kan een leerdoel zijn). De bewijslast voor fraude ligt bij de examencommissie, en die bewijslast is fors. Zoek de oplossing dus in een doordacht ontwerp!

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.