Hoe citeer je ChatGPT in een juridisch artikel?

Een intrigerende via Linkedin:

Is er al een ‘Leidraad voor Juridische Auteurs-richtlijn’ voor het verwijzen naar ChatGPT of andere generatieve AI? Ik zie wel APA-richtlijnen, maar zijn er ook al voorbeelden bekend van juridische auteurs die ChatGPT citeerden? Hoe zou jij ChatGPT citeren conform Leidraad?
Ik was een beetje verbaasd, want om nou te zeggen dat ChatGPT bekend staat om haar inventief onderzoek of hoogdravende analyses, nee. Maar goed, dat is geen argument bij de vraag, hoe citeer je een tekst die je op ChatGPT.com aantreft.

In de comments geeft Vincent Bontrop een voorbeeld van een persistente link naar een ChatGPT uitvoer. Als ik daarop de regels van de Leidraad voor juridische auteurs loslaat, dan krijg je ‘Communicatie in psychologie’, ChatGPT.com 3 september 3, 2023 <url hier>.

Ik zit wel te twijfelen of deze uitvoer geschikt is als bron. Citeren uit Wikipedia is ook altijd op het randje: wat daar staat, mag je meestal als algemeen bekende kennis aanmerken en dat behoeft geen bron. En als het wél specifieke kennis is, dan verwijst Wikipedia naar een echte bron en dan citeer je die. Dus ik weet geen situatie waarin je Wikipedia als bron opvoert.

ChatGPT geeft evenzo algemeen bekende kennis aan, maar geen eigen opinie, inschatting of nieuw ontdekte feiten. Er is dus geen reden om ChatGPT als bron van wat dan ook op te voeren. Dit geheel los van de vraag of ChatGPT een auteur is.

Arnoud

8 reacties

  1. “ChatGPT geeft evenzo algemeen bekende kennis aan” Voor mij zijn het meer flarden bekende kennis die al dan niet in de juiste samenstelling bij elkaar komen in ChatGPT. Vaker niet dan wel roept ChatGPT dingen die gewoon niet kloppen. Het is ook tekst die in principe uniek is en dus nooit in die samenstelling peer reviewed is.

  2. Om eerlijk te zijn heeft Google Bard nu meer mijn voorkeur. Want Bard doet aan referenties zodat je kunt zien waar het antwoord op is gebaseerd. Maar toch zijn de antwoorden van Bard lang niet altijd betrouwbaar want ik vroeg: “Wie is Arnoud Engelfriet?” en volgens Antwoord 1 is Arnoud geboren op 12 Juli 1968. En antwoord 2 meldt geen geboortedatum. Maar volgens Antwoord 3 is Arnoud geboren op 28 Juni 1972. Jammer dat Bard hier dan weer niet aangeeft waar de informatie vandaan komt. Maar vraag ik Bard om code te genereren voor een database dan bevat het antwoord keurig netjes een link naar GitHub, naar een project met MIT licentie. En dit andere antwoord heeft zelfs 7 referenties, allemaal op GitHub. Ik kan mij dan voorstellen dat ik wel de Bard link kan refereren in mijn artikel of code, daar deze op zijn beurt weer de andere bronnen aanhaalt. Toch?

  3. Ik kan me voorstellen dat wanneer iemand een artikel schrijft over de betrouwbaarheid / waarheidsgetrouwheid van ChatGPT of iets vergelijkbaars een verwijzing naar een stukje door ChatGPT gegenereerde output waarvan te controleren valt dat die daadwerkelijk door ChatGPT is gegenereerd een nuttige bronvermelding kan zijn.

    Iedereen kan wel stellen: ChatGPT zegt dit en dat is…

  4. ChatGPT kan kennis uit verschillende bronnen combineren tot een nieuw geheel. Zeg maar, niveau van een Bachelor student die een vraagstuk onderzoekt.

    De reden om ChatGPT tot bron op te voeren, is als je een significant stuk uitvoer hebt gebruikt en overneemt. Geen melding maken valt volgens mij onder plagiaat. En uitvoer opvoeren al was het geschreven door mensen is in overtreding van de Terms of Service.

    Om aan te tonen dat ChatGPT-4 echt nieuwe kennis of onderzoeksvraagstukken kan genereren, geef ik het volgende voorbeeld van vragen die het heeft gegeneerd. Al deze vragen zal het proberen te beantwoorden door bronnen en patronen te combineren tot een coherent geheel:

    1. Hoe kan kunstmatige intelligentie de privacyrechten van individuen op het web beïnvloeden? 2. Zijn er juridische grenzen aan wat AI mag ‘leren’ uit online openbare bronnen? 3. Wat zijn de ethische overwegingen rondom het gebruik van AI om internetgebruik te monitoren? 4. Hoe kunnen kunstenaars AI gebruiken zonder in strijd te zijn met het internetrecht? 5. Kunnen algoritmes aansprakelijk worden gehouden voor online schendingen van het auteursrecht? 6. Hoe balanceert men de voordelen van AI met de mogelijke schendingen van digitale mensenrechten? 7. Wat zijn de ethische dilemma’s van het gebruik van AI om online nepnieuws te bestrijden? 8. Is er een juridisch kader dat regelt hoe AI het internet mag verkennen en data mag verzamelen? 9. Hoe kunnen we ervoor zorgen dat AI ethisch verantwoordelijk wordt gehouden voor zijn acties op het internet? 10. Kan een AI-systeem als ‘maker’ worden beschouwd in het kader van het internetrecht? Bij al deze vragen zou het genoemde antwoord (“Dit is een fascinerend, intrigerend vraagstuk op de grens tussen internetrecht, kunstmatige intelligentie, en ethiek. Voor meer informatie zou ik contact zoeken met experts in deze velden.”) relevant zijn.

    Om de Wikipedia-tip te emuleren, kun je ChatGPT na een goed antwoord vragen welke juristen of onderzoekers hier meer hebben over geschreven, waarna je primaire bronnen zou kunnen citeren.

    Hoe kan het overnemen van output van ChatGPT in een onderzoeksartikel plagiaat betekenen? ChatGPT is toch geen auteur, met auteursrechten, en geeft toch geen unieke, nieuwe kennis?

    GPT-4 antwoord:

    Het gebruik van output van ChatGPT (of een soortgelijk AI-model) in een onderzoeksartikel kan op verschillende manieren als plagiaat worden beschouwd: Definitie van plagiaat: Plagiaat wordt over het algemeen gedefinieerd als het presenteren van andermans werk, ideeën, woorden of intellectuele eigendom als de jouwe zonder de juiste erkenning. Ongeacht of ChatGPT als een traditionele “auteur” wordt beschouwd, gaat het bij plagiaat vooral om het claimen van werk dat niet van jezelf is als het jouwe. Originele output: Hoewel ChatGPT gebaseerd is op bestaande informatie tot een bepaalde datum, zijn de specifieke antwoorden die het genereert vaak origineel en uniek voor de gestelde vragen. Het direct overnemen van deze output zonder bronvermelding zou kunnen worden gezien als het zich toe-eigenen van die originele combinatie van informatie. Ethische overwegingen: Onderzoek draait om integriteit en transparantie. Zelfs als je zou kunnen argumenteren dat ChatGPT’s output niet onder traditionele auteursrechten valt, kan het verbergen van het feit dat je informatie hebt verkregen via een AI-tool misleidend zijn voor lezers en revisoren. Het is belangrijk om duidelijk te maken waar de informatie vandaan komt, zodat lezers de context en betrouwbaarheid van de bron kunnen begrijpen. Richtlijnen van uitgevers/tijdschriften: Veel academische tijdschriften en conferenties hebben specifieke richtlijnen over wat als plagiaat wordt beschouwd. Als deze richtlijnen het gebruik van externe bronnen zonder erkenning verbieden, kan het gebruik van ChatGPT-output zonder correcte attributie worden beschouwd als een schending van deze richtlijnen. Kwaliteit en betrouwbaarheid: ChatGPT en andere AI-tools zijn niet onfeilbaar en kunnen fouten maken. Door informatie van ChatGPT over te nemen zonder deze te controleren, riskeer je het opnemen van onjuiste of misleidende informatie in je onderzoeksartikel. Dus, onafhankelijk van de juridische nuances van auteursrechten en AI, is het vanuit een ethisch en professioneel oogpunt essentieel om transparant te zijn over de bronnen van je informatie en deze correct te citeren.
  5. Voor de gein en als illustratie, ChatGPT schreef dit artikel voor “Ius Mentis” (waar hij complexe juridische vraagstukken rondom ICT en internet toegankelijk maakt voor een breed publiek.) in de stijl van Arnoud Engelfriet.

    Wie draagt de verantwoordelijkheid als AI zelf creatieve content genereert?

    Laatst kwam ik een intrigerende kwestie tegen: stel je voor dat een geavanceerde kunstmatige intelligentie (AI) een volledig origineel muziekstuk of een roman creëert. Wie bezit dan de auteursrechten op dat werk? En wat als die AI iets creëert dat inbreuk maakt op bestaande auteursrechten?

    Traditioneel gezien vereisen auteursrechten een menselijke auteur. In het Nederlands recht wordt een werk beschermd door het auteursrecht als het een “eigen oorspronkelijk karakter” heeft en het “persoonlijk stempel van de maker” draagt. Maar kan een machine een “persoonlijk stempel” hebben?

    Laten we een stap terug doen. Waarom hebben we auteursrechten? Een van de redenen is om creatievelingen te stimuleren om nieuwe werken te produceren. Ze krijgen een tijdelijk monopolie op hun creaties, zodat ze kunnen profiteren van hun harde werk. Maar een AI heeft geen stimulans nodig. Het heeft geen gevoelens, geen behoefte aan erkenning of financiële beloning.

    Aan de andere kant, als iemand een AI-programma heeft ontwikkeld en getraind om creatieve werken te produceren, zou die persoon dan niet enige vorm van bescherming moeten krijgen voor de output van die AI? Zij hebben tenslotte tijd en middelen geïnvesteerd in de ontwikkeling van die AI.

    Dan is er nog de vraag van inbreuk. Stel dat een AI, volledig onbedoeld, een muziekstuk produceert dat opvallend lijkt op een bestaand nummer. Wie is dan verantwoordelijk? De ontwikkelaar van de AI? De gebruiker die de AI opdracht gaf om muziek te maken? Of is niemand verantwoordelijk, omdat de AI autonoom handelde?

    En dan is er nog het praktische aspect. Hoe bewijs je dat een AI daadwerkelijk een uniek en origineel werk heeft gecreëerd, zonder input van bestaande content? En is het überhaupt mogelijk voor een AI om echt ‘origineel’ te zijn, gezien het feit dat het altijd wordt getraind op basis van bestaande gegevens?

    Concluderend, de opkomst van geavanceerde AI die in staat is tot creatieve expressie plaatst ons voor nieuwe en onbeantwoorde vragen in het domein van auteursrecht. Het dwingt ons om onze traditionele opvattingen over creativiteit, originaliteit en eigendom te heroverwegen. En zoals met zoveel dingen in het internetrecht, lopen de technologie en praktijk voorop, terwijl het recht achterblijft en probeert in te halen.

    Wat denken jullie? Moeten we onze auteursrechtwetten aanpassen aan het AI-tijdperk, of zijn de huidige principes flexibel genoeg om deze uitdagingen aan te gaan?

    1. Natuurlijk is dit een fictief artikel, en het vertegenwoordigt niet de werkelijke meningen of schrijfstijl van Arnoud Engelfriet. Het is slechts een illustratie van een potentieel onderwerp dat hij zou kunnen behandelen op zijn blog.

      Voor primaire bronnen over dit soort vraagstukken die geraadpleegd zouden kunnen worden, naast Arnoud Engelfriet, geeft het: Steven Ras, Mathieu Paapst, Charlotte Meindersma, Menno Weij, en Brenno de Winter. Voor meer academisch onderzoek wordt men verwezen naar Google Scholar/ResearchGate voor: Mireille van Eechoud, Mireille Hildebrandt, Nico van Eijk, Ronald Leenes, Frederik Zuiderveen Borgesius, Natali Helberger, Bart Custers, Eleni Kosta, Bernt Hugenholtz, Jeroen van den Hoven, Damian Trilling, Brahim Zarouali, en Lokke Moerel.

      Maar het weigert specifieke titels van werken te geven, deels omdat het geen kennis heeft van de relevante nieuwste werken na 2022, deels omdat het soms hallucineert over exacte feiten (zoals geboortedatum in Wim’s post), en deels omdat het onethisch is om het complete werk van een student of nieuwe onderzoeker te doen. Vergelijk dat met het citeren van bronnen op Wikipedia, zonder deze zelf te lezen, of maar een literatuurstudie te doen.

      Het zou je wel helpen om sneller en breder te werken door van bovenstaande onderzoekers de laatste artikelen te downloaden en om bevindingen en samenvattingen te vragen. Je kan dan zelf inzoomen op een interessante bevinding of relevante samenvatting, terwijl klakkeloze bronnen, onjuistheden, en gebrek aan menselijk oordeel vermeden worden.

  6. Beste Arnoud, als informatiespecialist bij de opleidingen HBR en SJD van de HU, heb ik dagelijks te maken met hoe studenten en anderen hun gebruikte teksten in hun eigen producten moeten verwerken. De regel daarbij is, dat je naar alle tekst, afbeeldingen etc. van een ander, dus ook gemaakt door ChatGPT of van Wikipedia, moet verwijzen en deze moet verantwoorden. De Leidraad voor Juridische Auteurs is daarvoor de stijlvorm. Wel jammer, dat Kluwer nog steeds geen advies heeft uitgebracht hoe dit te doen. APA heeft zeker al mooie richtlijnen en adviezen opgesteld voor het verwijzen naar dit soort gebruukte info en afbeeldingen.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.