Via Reddit:
Als een docent je verdenkt van het gebruiken van chatgpt of een andere language AI. Mag de docent dan vragen naar je chat geschiedenis van de gebruikte AI. In hoeverre kan de docent aantonen dat er AI is gebruikt?Een docent mag niet eisen dat zhij toegang krijgt tot jouw privé ict-middelen. Heel misschien bij ernstige misdrijven en als dat in een reglement geregeld is, maar dan nog zie ik eigenlijk geen juridische basis.
Een docent kan wel op basis van aanwijzingen uit je werk de conclusie trekken dat je mogelijk een werk niet zelf gemaakt hebt. Zhij kan je dan opdragen te laten zien dat je het wél zelf gemaakt hebt. Jij kiest dan wat je laat zien, zoals je conceptteksten, schetsen of oude versies. Heb je dat niet, dan is het gerechtvaardigt dat men concludeert dat het werk niet door jou zelf gemaakt is.
Het maakt dus niet uit of je een tekst uit genAI trekt of iemand inhuurt om het voor je te maken. Jij moet eigen werk inleveren, en je moet kunnen bewijzen dát het eigen werk is.
Heb je helemaal geen concepten, dan is een redelijk voorstel dat je in een mondeling gesprek laat zien dat je alles weet over het onderwerp van je opdracht. Dat kan dan alleen omdat je het echt zelf gedaan hebt.
Arnoud

Typo: gerechtvaardigt -> gerechtvaardigd
Wij hebben leerlingen die een geweldige opdracht gemaakt hebben (bijv. een essay in perfect academisch taalgebruik) de opdracht nog eens laten maken, met een ander onderwerp en in een gecontroleerde omgeving (op een laptop van school, in een lokaal, met een surveillant). Als je zo geweldig kan schrijven, is dat geen probleem.
Ik zou er zelf vollédig van dichtklappen, in een gecontroleerde omgeving en vooral niet mijn eigen laptop moeten schrijven. Maar goed.
Bewijzen dat je iets niet gedaan hebt lijkt me nogal lastig en omkering van de bewijslast. Die docent moet aantonen dat chatGPT is gebruikt als dat niet is toegestaan.
De docent zal het m.i. moeten omdraaien: uiteindelijk moet de student bewijzen dat het de stof eigen heeft gemaakt. Of de student het werk nu heeft laten doen door een LLM of de buurman, is daarbij van ondergeschikt belang en anno 2025 geen goed middel meer om het te checken.
De norm is altijd al geweest dat de student eigen werk moet leveren, dat is immers het doel van onderwijs. Het probleem is vooral dat fraude super eenvoudig is; een buurman vinden die je scriptie wil én kan schrijven is niet eenvoudig, maar ChatGPT lepelt het zo voor je op. En bij die ene student die altijd matig schreef en nu een prachtig verhaal neerzette kon je altijd al polsen of die het écht snapte of een ghostwriter had gebruikt. Maar bij iedere student voor ieder paper?
Maar misschien is dan de tijd aangekomen om te stellen dat het inleveren van een schriftelijke, thuis te maken, opdracht, anno 2025 geen goede methode meer is om te bepalen of de student de leerstof voldoende beheerst.
Dat is het nooit geweest. Docenten hebben tijdens het nakijken namelijk geen enkel zicht op welke hulp(middelen) en hoeveel tijd een student heeft ingezet. Als oefening prima, maar oefening zou nooit een onderdeel of voorwaarde moeten zijn voor een beoordeling.
Maar goed, zo zijn er wel meer onlogische dingen in het onderwijs ingevoerd…
Was huiswerk niet ooit bedacht als strafmaatregel ?
Dat het nu super eenvoudig is om AI te gebruiken voor een werkstuk, maakt niet dat je de bewijslast mag omkeren. Het is aan de instelling om zo te toetsen dat de student eigen kennen en kunnen bewijst (met of zonder gebruik van AI, want ook dat kan een leerdoel zijn). De bewijslast voor fraude ligt bij de examencommissie, en die bewijslast is fors. Zoek de oplossing dus in een doordacht ontwerp!
Dit zie ik echt anders. De student levert iets in en pretendeert dat het eigen werk is. De bewijslast ligt dan bij de student.