Zou je een robot vertrouwen die je juridisch advies geeft?

| AE 9807 | Innovatie | 32 reacties

Afgelopen week kwam nog een interessante kwestie langs over NDA Lynn haar kwaliteiten: wie zou er durven te varen op het advies van een robot? Want nou ja, het blijft software en die maakt fouten. En leuk en aardig dat ze gemiddeld 94,1% van de zinnen correct herkent, maar een geniepige zin die net in die 6,9% valt wordt dan dus gemist. Bovendien, hoe kun je achterhalen wat Lynn nu doet, echt uitleg op zinsniveau krijg je niet. Dus moet je dat wel vertrouwen, zo’n robotadvies?

Het punt van die uitleg is een algemene zorg bij AI beslissingen en -adviezen. Veel AI opereert als black box, je gooit er een input in en je krijgt te horen wat de output is, maar over het waarom zwijgt het systeem. En als je dan in die doos kijkt, dan helpt dat maar beperkt. Vaak komt het neer op “het leek meer op categorie A dan categorie B”, maar zien welke factoren daarbij de doorslag gaven, is erg moeilijk. Ook het doorgronden van die factoren is soms een puzzel; Lynn vond bijvoorbeeld een tijd NDA’s onder Californisch recht strenger, omdat mijn traindataset toevallig veel strenge Californische en wat relaxtere Europese NDA’s bevatte.

De angst voor dit soort onduidelijkheid speelt met name bij besluiten over personen. De AVG bevat een streng verbod op geautomatiseerde besluiten op basis van profielen, en AI-gebaseerde analyses “u krijgt geen hypotheek” vallen daar natuurlijk onder. Vandaar dat er tegenwoordig veel wordt geïnvesteerd in uitlegbare AI.

Toevallig heeft BigML (de technologie achter NDA Lynn) dat ook – het systeem produceert heel grof gezegd een stapel gigantische beslisbomen en geeft het gewogen gemiddelde van elke boom z’n uitkomst als de uitslag. Je kunt dus exact zien hoe een classificatie tot stand komt: er stond “state of California” achterin, ik zag ook “security measures” dus dit is een strenge NDA. Het is uitleg, maar niet eentje waar je perse veel aan hebt.

De cynicus mag nu reageren dat uitleg van een menselijke jurist óók lastig te volgen is voor een leek. Maar daar gaan we dan toch in mee, en de reden is simpel: die jurist vertrouwen we. Hij heeft er voor geleerd, hij doet dit al tien jaar, hij heeft een dik pand en een sjiek pak dus de zaken gaan goed, hij is verzekerd tegen claims en ga zo maar door.

Een AI heeft dergelijke vertrouwensfactoren niet, dus is het veel moeilijker om in te schatten of het klopt. In een Engels onderzoek bleek bijvoorbeeld slechts 7% van de mensen een AI advies over financiën te vertrouwen. Gek genoeg zou 14% wel onder het mes gaan bij een robotchirurg. Waar zit hem het verschil? Het mentale model dat we hebben bij deze handelingen, denk ik. Dat een robot heel precies en met vaste hand kan snijden, dat is voor te stellen. Dat hij ook geen millimeter af zal wijken van waar hij moet zijn, dat is ook nog wel logisch. Maar dat een robot mijn financiële situatie snapt en een passende hypotheek uitzoekt, nee dat is bizar.

Wat zit daar dan achter? Is het het fysieke, dat we een robotarm met mesje kunnen zien en ongeveer kunnen inschatten dat dat kan werken? Of is het de intelligentie die nodig is – bij een chirurg is dat vrij rechtomlijnd, bij een advies is het veel fuzzy’er. Een hart is een concreet item dat je tegen kunt komen in een borstkas, en daar doe je dan wat mee. De opties lijken daarmee eindig. Terwijl bij een advies het veel lastiger voorstelbaar is dat zo’n robot alle situaties kan inschatten. Dus dat is enger, en dan denkt men: doe maar niet.

Dus, hoe krijgt een adviesrobot het vertrouwen in zijn kunnen omhoog? Kwestie van gewoon doen en wachten tot men omslaat?

Arnoud

Kan een robot juridisch advies geven?

| AE 9795 | Innovatie | 14 reacties

Twee weken geleden lanceerde ik NDA Lynn, een AI lawyerbot die geheimhoudingscontracten (NDA’s) kan lezen. Dat gaf veel leuke reacties, en Lynn heeft aardig bijgeleerd: meer dan 400 extra NDA’s waar ik verder mee kan trainen. Opmerkelijkste observatie: veel Nederlandstalige NDA’s, terwijl Lynn toch volgens mij vrij duidelijk Engelstalig is. Dat moet dus even anders. Maar ook de nodige andere kwesties.

Veel reacties gingen natuurlijk over de kwaliteit. Lynn beoordeelt zinnen in 87% (huidige versie 93.8%) van de gevallen correct, en kan daarmee clausules dus behoorlijk goed maar niet perfect herkennen. Dat is dus een risico, ze kan een clausule dus afkeuren of roepen dat die er niet in staat, enkel omdat de bewoordingen anders waren dan in haar trainingset. Maar mijn inschatting is dat dit wel meevalt omdat het gemiddeld wel goed uitkomt. Wel een probleem is nog de afhandeling van echte fouten, zoals een document waar geen tekst uit komt (een gescande PDF) of een tekst die in het geheel geen NDA is (ik kreeg onder meer Charles Dickens Night before Christmas langs, gelukkig was het advies die niet te tekenen).

Leuk vond ik de aandacht van Sprout en Emerce, die beiden ingaan op mijn motivatie: een kleine 18 jaar bezig zijn met NDA’s heeft me een grondige hekel aan die dingen gegeven (en nee, er 400 screenen in twee weken om je lawyerbot te verbeteren hielp niet), dus een automatische adviesbot is gewoon een mooie manier om tijd vrij te maken voor de leukere dingen in het juridische werk.

Want dat is uiteindelijk waar het volgens mij om gaat met AI in het recht. Robots gaan nooit advocaten vervangen, of het hoogwaardig juridisch advies over nieuwe kwesties. Robots doen per definitie standaardwerk, oftewel dingen als het screenen van stapels documenten of het spotten van kleine stiekemigheden in standaardcontracten of algemene voorwaarden. Als je als mens die dingen niet meer hoeft te doen, maar juist de afwijkingen krijgt en daar een oplossing voor moet vinden, dan heb je toch gewoon léuker werk dankzij een robot?

Vanuit de VS kreeg ik hele andere reacties: stop right there buddy, that’s unauthorized practice of law. Een beetje juridisch advies geven zonder advocatentitel, dat kan natuurlijk niet. Nu geef ik natuurlijk geen juridisch advies in de VS, maar dit blijkt dus een dingetje: allerlei tools zoals adviesbots en documentgeneratoren worden in diverse staten als advocaatjespelen aangemerkt en dus verboden. De achterliggende argumentatie is dat alleen een gekwalificeerd advocaat met tuchtrecht, verzekering en toezicht de kwaliteit kan bieden waar de burger recht op heeft.

Bij Justia staat een overzicht van de problematiek, met name: waar trek je de grens. De interessantste definitie vond ik “if a computer could do it, it’s not the practice of law.” Anders gezegd, juridische bijstand moet per definitie door een mens worden gedaan, omdat het creativiteit en inzicht vergt om de per definitie niet vastomlijnde set regels uit de wet toe te kunnen passen op een concreet geval. Ik twijfel of ik het ermee eens ben, want volgens mij kan best een aardig deel van zulk advieswerk geautomatiseerd gedaan worden. Zeg maar de 80% van de gevallen met de standaardsituaties die gewoon helder in de wet benoemd zijn. Het leuke stuk van de juristerij begint bij die 20%, maar dat wil niet zeggen dat de rest geen juridisch advies meer te noemen is.

En nou ja, uiteindelijk is dat volgens mij het voordeel dat je kunt halen met de inzet van AI. Automatiseer het saaie werk en maak je eigen werk leuker. Op naar de volgende Lynn dus, wat mij betreft.

Arnoud

Ik heb een AI gemaakt die NDA’s kan reviewen

| AE 9766 | ICTRecht blog, Innovatie | 17 reacties

De blogs over legal tech van de afgelopen tijd waren voor diverse mensen (hoi) speculatie: ben je iets aan het doen op dat gebied? En jawel, dat klopte: ik heb een AI gemaakt die NDA’s reviewt, en ze heet NDA Lynn. Ze is gratis en geeft deskundig en praktisch advies of je dat geheimhoudingscontract moet tekenen of niet.

De NDA of geheimhoudingsovereenkomst is een standaardding in veel zakelijke transacties, met name in de high-tech sector. (Ik zag eens de term “Silicon Valley Handshake” voorbij komen voor het ritueel van elkaars NDA tekenen voor je koffie ging drinken.) Grofweg is het een heel standaard document: we gaan praten, we houden dingen geheim en pas na X jaar mag je erover praten, oh ja en let op je beveiliging. Maar uiteraard is elke NDA weer wat anders, dus je blijft lezen elke keer.

Natuurlijk kun je elke keer naar een advocaat of jurist en vragen om een review, maar dat kost geld. Voor zo’n standaardding voelt dat niet als de moeite waard, is mijn ervaring. En ook voor de reviewende jurist is het niet perse leuk werk: ik denk dat ik in de bijna 20 jaar dat ik dit werk doe, meer dan 1500 NDA’s heb gereviewd, en ik kan je zeggen – weinig dingen zo saai en onproductief als daarover steggelen.

Een AI heeft daar allemaal geen last van. Vandaar NDA Lynn. Ze is een support vector network (mede mogelijk door het fantastische BigML.com) dat getraind is op een grote hoeveelheid publiek beschikbare NDA’s, en de clausules daaruit kan herkennen en classificeren. De uitvoer wordt gekoppeld aan een adviestabel, en zo komt ze tot de conclusie van tekenen of niet. Wie alles over de opzet wil weten, kan dit paper lezen.

Ongetwijfeld zullen er fouten in NDA Lynn zitten, het is en blijft software. Maar het is in ieder geval beter dan die dingen handmatig blijven reviewen, of blind tekenen omdat er “MUTUAL NON-DISCLOSURE AGREEMENT” op pagina 1 staat.

Ik ben heel benieuwd wat jullie van haar vinden.

Arnoud