Advocaten van het Amerikaanse advocatenkantoor Levidow, Levidow & Oberman zijn beboet voor het indienen van informatie die verzonnen werd door ChatGPT. Dat meldde Tweakers onlangs. In mei gaf de zaak veel ophef: de volgendewoordvoorspeldienst genereerde een imposant stukje proza inclusief relevante zaken en verwijzingen naar wetsartikelen, die allemaal niet bleken te bestaan. De advocaat wordt beboet voor het zonder controle indienen van de tekst, aangezien dat tegen de professionele verantwoordelijkheid is. En er was nóg een zaak waarin juristen op ChatGPT voeren.
Zoals ze het bij The Guardian uitleggen, het is met name het niet controleren waar de rechter over valt:
The judge said the lawyers and their firm “abandoned their responsibilities when they submitted nonexistent judicial opinions with fake quotes and citations created by the artificial intelligence tool ChatGPT, then continued to stand by the fake opinions after judicial orders called their existence into question.”Een vergelijkbare maar iets complexere zaak deed zich onlangs voor in Colorado, waar een advocaat voor het eerst een contractenzaak deed en ChatGPT het verweerschrift liet schrijven. Zachariah Crabill deed dat volgens de regels: niet gelijk “schrijf me een verweerschrift” maar eerst een algemene opzet, dan toevoegen van wetgeving en dan even controleren. En daarna de details uitwerken zoals jurisprudentie, alleen miste hij daar het stapje “nóg een keer controleren”:
“Based on the accuracy of prior validated responses, and the apparent accuracy of the case law citations, it never even dawned on me that this technology could be deceptive,” Crabill said in court documents. Crabill claims he filed the motion without knowing he cited fake cases. On the day of the hearing, he realized his mistake. In a message to one of the Baker Law Firm’s legal aides, he said he thinks all the case cites from ChatGPT are “garbage” and he can’t find them in LexisNexis.De rechter was niet onder de indruk en weigerde het verweerschrift aan te nemen, wat de cliënt dus de zaak kostte.
Legal tech expert Alex Su ziet een werklastprobleem als onderliggende oorzaak:
Why do lawyers cut corners? Part of it is immense workload and stress, combined with the fact that the odds of getting caught are low. Part of it is also that some of the rules seem silly, and breaking them feels harmless. … At the end of the day, cutting corners is just part of the reality of law firm practice. There’s just too much work to be done. So as a business owner, you find ways to be efficient, which sometimes involves breaking certain rules. And yet lawyers cannot admit to this publicly.Hij voegt er twee argumenten aan toe: allereerst dat in het Amerikaanse rechtsstelsel het vinden van jurisprudentie écht nog ingewikkeld is terwijl er veel van afhangt, en ten tweede dat Amerikaanse jurisprudentie (op district court niveau bij de staten, de hatseklatskantonrechteruitspraken zeg maar) echt lastig te lezen is:
According to Judge Kastel, the [made-up case Varghese vs. China Airlines] was flawed and its legal analysis was filled with “gibberish.” I mean, he’s not wrong. I read the Varghese case several times, and it felt impossible to understand what was happening. But imagine you’re a lawyer who only litigates in state court where you’re used to reading incoherent and confusing opinions. You might not realize that incoherent writing is extremely unusual when you’re reading something from the U.S. Court of Appeals.Het zal vele juristen met mij herkenbaar voorkomen dat je een enorme uitspraak met lastig leesbare zinnen van een alinea of twee voor je hebt, waar je dan onder tijdsdruk je argument uit moet halen. Eerlijk: dan ga ik ook met ctrl-f zoeken naar trefwoorden, en ik gooi dan ook lappen in ChatGPT met de vraag “vat dit samen”. Alleen hebben we in Nederland – zeker bij rechtszaken – zelden de noodzaak om een zeer recente en nog nergens besproken zaak te citeren als gezaghebbend argument. Een mooi arrest van de Hoge Raad of een Gerechtshof, zeker, maar daar is genoeg commentaar over te vinden van mensen die met aandacht er doorheen zijn gegaan. En als professor X zegt dat in deze zaak rechtsoverweging 4.18 relevant is, dan copypaste je 4.18 en zal het wel goedkomen.
Mijn zorg – net als die van Su – is dat deze zaken opgevat worden als “legal tech AI is onverstandig” of “advocaat blijf van ChatGPT af”. We zien hier uitglijders van mensen die te weinig weten van deze technologie; ze dachten dat GPT een expertsysteem was met chatinterface. Daar is meer voor nodig, en dan kom je bij systemen als Bluetick die met taalinterfaces werken maar wel échte contentbanken er achter hebben zitten. Voor mij voelt het dus meer als een spellchecker gebruiken en vertrouwen op grammaticale juistheid van het resultaat.
Arnoud
Ik denk dat advocaten die goed kunnen omgaan met ChatGPT er voordeel van kunnen halen en hun toegevoegde waarde kunnen verbeteren. Anderen zullen op hun gat vallen of zullen het gebruik van ChatGPT of andere AI’s inperken tot er een sterke juridische AI komt die jurispendentie wel goed kan doorwrochten.
Niet veel anders dan communicatiemensen, consultants, ontwikkelaars, studenten, etc. En niet eens veel anders dan vertrouwen op andermans Excel-logica zonder die te checken. Net mensen, die juristen.
Precies, of als een eenvoudige spellchecker gebruiken die alleen woordvormen in een tabel opzoekt, en dus “betekent” en “betekend” allebei goed vindt, ook in een context waar echt maar één van die twee juist is.
Zijn er eigenlijk al spellingcontroleprogramma’s die AI toevoegen om dat onderscheid wel te maken? Ik heb ChatGPT nog geen dt-fouten zien maken in het Nederlands.
O wacht, dat is eigenlijk precies wat Arnoud ook bedoelde, maar in andere woorden zei. Overbodige opmerking dus van mij. Maar ik laat haar staan.