Welke rol gaan smart contracts spelen in het recht?

Automatische afhandeling van verzekerings­claims, aanspraken op zorg die zonder tussenkomst van derden geregeld worden. In 2018 breken dit soort smart contract-toepassingen definitief door, meldde het Advocatenblad vorige week. Smart contracts zijn net als de blockchain en AI deel van de legal tech hype van de laatste tijd. Zelfdenkende software die buiten de greep van één partij automatisch voorwaarden checkt en afgesproken handelingen uitvoert. Samen gaan ze de advocatuur en het notariaat overbodig maken, alles wordt automatisch en fantastisch, u kent het wel.

Er zijn vele definities van smart contracts, maar kortweg komen ze erop neer dat je een aantal beslisregels in software giet die vervolgens vanzelf uitgevoerd worden. Als de domeinnaam example.com op 1 februari op naam staat van X, stuur dan 1 bitcoin naar wallet Y. Maar het hoeft juridisch gezien geen contract, geen overeenkomst te zijn: je zou ook bewijs kunnen vrijgeven als aan een voorwaarde (overlijden persoon X) is voldaan, of een specifieke voorwaarde van een overeenkomst borgen.

Ik pieker al een tijdje wat nu de echte praktische toepassingen van smart contracts gaan zijn. Dat voorbeeld van de domeinnaam is namelijk een van de weinige die ik in de categorie van het volledige contract zie werken. Dat is volledig automatisch na te gaan en uit te voeren middels gestructureerde registers, en er zit ook weinig controversieels aan zo’n afspraak. Je verkoopt of niet, op een specifieke datum en je mag tussentijds annuleren of niet.

Ga je verder dan zo’n specifieke constructie, dan wordt het ingewikkeld. Betaald krijgen omdat je iemands algemene voorwaarden hebt gereviewd, of een website hebt gemaakt, voegt een smart contract daar wat toe? Je zit dan met een kwaliteitstoets namelijk (is de klant tevreden) waar een smart contract moeilijk op kan toetsen. Een AI die een website mooi kan vinden zal nog wel even duren.

Het artikel noemt een paar nieuwe toepassingen, zoals:

De eigenaar van een elektrische fiets kan met [het Fietsplan van IBM en RDW] de fiets registreren en overdragen. Ook kan de eigenaar aangifte doen van diefstal binnen de applicatie. Een smart lock registreert waar en wanneer de fiets op slot gaat. Verzekeraars handelen claims af met een smart contract en gaan daarbij uit van gegevens in de blockchain als aanschafwaarde en of de fiets op slot stond.

Alleen, wat hier nu precies smart aan is, ontgaat mij even. Het blockchain aspect geeft enig voordeel: er is een onafhankelijke registratie van aanschafdatum en opslottijdstip van de fiets, zodat geen der partijen kan zeggen dat de ander iets vervalst. Het smart contract aspect zou dan zijn dat de verzekeraar automatisch uitkeert als die feiten in orde zijn? Oké. Eh. Tsja.

Toch ligt hier de toekomst, kennelijk:

‘Een advocaat wordt nu betaald voor communicatie. Waarom zou een verdachte bijvoorbeeld nog bellen met een advocaat over een in beslag genomen auto als er een smart contract is? Hij kan alles inzien en weet precies wanneer hij een schikkingsvoorstel kan verwachten.’ Schmitz ziet nog wel toegevoegde waarde voor advocaten bij geschillen.

Ik blijf met twijfel zitten. Natuurlijk, het is handig als alle informatie makkelijk ergens beschikbaar is, maar is dat waar een smart contract voor ingezet moet worden? Informatietoegang kan toch op veel meer manieren gerealiseerd worden? Dus nee, met het gevaar op de koop toe dat ik echt als een Luddiet ga klinken, ik zie hem nog even niet.

Arnoud

Nee, kunstmatige intelligentie zal nooit gaan rechtspreken (of pleiten)

Een computer kan rechtspreken, als wij met zijn allen denken en willen dat hij het kan. Dat las ik bij Sargasso in een gastbijdrage van strafrechtadvocaat Vasco Groeneveld. AI komt eraan, ook in de rechtspraktijk. Die lijn doortrekkend betekent dat er over tien, twintig jaar robotrechters aan het werk zijn, niet gehinderd door emotie, hoofdpijn, vooroordelen of gewoon vrijdagmiddagmoeheid. Klinkt goed, maar ik zie het niet gebeuren.

Groeneveld begint met de stelling dat rechtspraak de “testcase bij uitstek” is:

Dat draait immers om het verwerken van datastromen en het onderbrengen van specifieke gegevens onder algemene wetmatigheden, en als ik het goed begrijp is dat zo’n beetje de definitie van een algoritme.

Het is inderdaad zo dat een algoritme een gestructureerd stappenplan is waarbij je algemene regels toepast op specifieke invoer. Ook het recht kent algemene regels, en juridisch werk bestaat vaak uit het vertalen van die regels naar een concrete casus: hier werd te hard gereden, dit is doodslag en dat contract is rechtsgeldig ontbonden.

Ik zie het zeker wel gebeuren dat computers die regels gaan toepassen, en zo juridisch-inhoudelijk werk gaan verrichten. Ik blogde daar medio december nog over: AI kan prima besluitvorming ondersteunen, en heeft dan inderdaad geen last van al die menselijke karaktertrekjes waar foute beslissingen op worden gebaseerd. (Tenzij de dataset waar de AI op gebouwd is die fouten introduceert, zoals bij een bevooroordeelde selectie.)

Ik zie rechtspraak alleen als uitzondering, speciaal geval. Ik noem het hier wel eens de exception handler van het recht: als we niet meer weten wat te doen, dan vragen we het aan de rechter. Haast per definitie krijgt de rechter dus de gevallen waar de wetmatigheden niet in voorzien of waar meerdere uitkomsten mogelijk zijn. En juist daar kunnen computers heel moeilijk mee omgaan. Daarom zie ik AI niet snel in de rechtszaal opduiken en uitspraken doen over die moeilijke gevallen.

Mijn visie is dat AI en computers de simpele gevallen zullen gaan doen, zeg maar de OM afdoening en de boetes op straat van oom agent. Wie daartegen bezwaar maakt, zal dan bij de menselijke rechter uitkomen die er een gewogen oordeel over moet doen. Daar kunnen dan ook bijzondere omstandigheden meegenomen worden, zoals een beroep op overmacht of noodweer waar haast per definitie geen regels over zijn.

Misschien dat een AI wel ondersteunende diensten kan leveren. Denk aan het analyseren van eerdere uitspraken over juist de minder wetmatige aspecten, zoals de strafmaat of de keuze tussen vrijspraak en veroordeling. Een AI kan daar patronen in ontdekken en zo aangeven of deze verdachte een lage straf moet krijgen of juist een hoge, zodat je een meer objectieve beoordeling daarvan krijgt. De rechter kan dat dan meenemen maar heeft het laatste woord en kan dus afwijken.

Arnoud

Hoe AI een rol kan spelen in juridische besluitvorming

De rol van AI voor juridische toepassingen is snel aan het groeien. Steeds meer diensten onderzoeken de mogelijkheden om kunstmatige intelligentie adviezen te laten geven of zelfs juridische besluiten te nemen. Welke mogelijkheden zijn daar voor organisaties zoals overheden, verzekeraars of keurende instanties om hun organisatie efficiënter te laten werken? En welke juridische risico’s zitten daaraan?

Een eerste, simpele mogelijkheid is een AI in te zetten als een aparte pre-check: mensen kunnen hun aanvraag of verzoek door een AI laten bekijken, die dan zijn bevindingen geeft. Dit verandert niets aan het eigenlijke traject en is vergelijkbaar met even informeel een medewerker bellen met de vraag of je aanvraag in principe akkoord is. Het zal schelen in de kansloze aanvragen en je kunt mensen tips geven om een aanvraag sterker te maken.

Meer winst krijg je als organisatie door de AI als eerste filter in te zetten. De aanvraag of het verzoek wordt dan eerst door de AI bekeken, en de bevindingen worden dan aan de behandelend medewerker verstrekt. Deze kan dan bijvoorbeeld zien of er afwijkingen op de normaal zijn, of welke onderdelen speciale aandacht nodig hebben. Dat verkleint de doorlooptijd, want een aanvraag waar de AI niets bijzonders aan ziet, kan dan eenvoudiger worden toegewezen. Een risico is natuurlijk dat de AI iets mist en de mens daar niet meer naar kijkt.

Nog sneller gaat het wanneer je die categorie “niets bijzonders” direct goedkeurt. Met zo’n raketloket win je nog meer tijd, omdat er nu in het geheel geen mens meer zit tussen de aanvraag en de positieve beoordeling. Uiteraard zit hier kans op fouten (een vals positief) maar je kunt dan steekproefsgewijs een handmatige controle uitvoeren, of de AI een voorlopige beoordeling laten geven en toezeggen dat een mens binnen zeg 14 dagen nog kan piepen. Dat laatste haalt natuurlijk de snelheid er weer uit, want varen op een voorlopige beslissing zal niet iedereen aandurven.

Spannender wordt het als de AI ook negatieve beslissingen gaat nemen. Want een AI die met enige zekerheid kan zeggen dat iets mag, kan net zo goed zeggen dat het niet mag. En dan krijg je dus een raketloket waar je ook binnen 5 seconden hoort dat het niet mag, wat je wilt. In ieder geval geldt dan de de AI in staat moet zijn het besluit goed te motiveren

Wanneer die beslissingen mensen aangaat (een verblijfsvergunning, of zelfs maar een bouwvergunning voor een dakkapel) dan kom je al snel bij het tere punt van de geautomatiseerde besluitvorming waar de Algemene Verordening Gegevensbescherming zo streng tegen is. In principe mag dat niet, een mens moet zulke besluiten nemen. Maar de AVG biedt een paar uitzonderingen:

  • Wanneer de besluitvorming noodzakelijk is voor een overeenkomst. Je zou dan kunnen denken aan een besluit om achterafbetaling toe te staan of de route te kiezen die een aanvraag moet volgen.
  • Wanneer een relevante wet dit bepaalt. Dit is vooral theoretisch nu, er is nog geen dergelijke wet waar dan ook in Europa. (Tenzij je bijvoorbeeld onze praktijk van het automatisch flitsen & beboeten van hardrijders een “wettelijke regeling” noemt.)
  • Wanneer men hier uitdrukkelijk toestemming voor geeft. Mensen zouden bijvoorbeeld kunnen kiezen voor een snelle geautomatiseerde beslissing in plaats van een langdurige handmatige beoordeling. Ik twijfel of het hierbij toegestaan is om de prijs te variëren: AI-besluit gratis, menselijk besluit duur. Daarmee ontzeg je mensen met beperkte beurs immers toegang tot die laatste categorie.

In ieder geval is het te allen tijde nodig dat betrokken personen bezwaar kunnen maken tegen het besluit, waarna een mens zich er nog eens over buigt. Ik denk dat hiermee een echt volledig geautomatiseerd proces niet goed mogelijk is, maar er is wel veel tijdwinst te maken op de gewone gevallen zodat de mensen zich bezig kunnen houden met behandelen van de lastige aanvragen. En dat blijft als thema maar terugkomen: AI pikt geen banen in maar maakt ze leuker.

Arnoud

Toch nog even over die uitlegbaarheid van AI uitspraken

Analyses van AI’s zijn niet meteen naar uitleg of verklaringen om te zetten, schreef ik in oktober. En dat is best wel een probleem, zeker waar die analyses leiden tot juridisch bindende besluiten. Een veelgehoorde eis aan AI’s is dan ook dat zij in staat zijn tot uitleg – in het jargon moeten AI’s white boxed zijn. Maar dat is niet genoeg. Er zit volgens mij een heel fundamentele foute aanname onder die eis, namelijk dat een AI-uitspraak uitlegbaar kán zijn zoals een menselijke uitspraak.

Een grote zwakte van AI analyses is dat ze meestal zonder uitleg komen. Deze mail is spam en die niet, je kunt beter linksaf gaan want dat is sneller, of als je in het spel nu schiet dan heb je de meeste kans om te winnen. Zelden tot nooit krijg je erbij te horen waarom dan. Maar omdat het heel vaak klopt, vinden we dat ook niet erg.

Vanuit juridisch perspectief kan dat toch eens best vervelend zijn, zeker als sprake is van een AI die juridisch bindende besluiten neemt. Uw bouwvergunning wordt afgewezen, u komt niet in aanmerking voor verkorte screening, u dient een extra cursus te volgen voordat u mag beginnen met deze studie. Die zorg gaat zo ver dat in de AVG expliciet is opgenomen dat dergelijke besluiten niet genomen mogen worden maar dat er altijd een mens tussen moet zitten, én dat er uitleg over de onderliggende logica van het besluitondersteunende systeem moet komen.

Dit veronderstelt dat de AI kán uitleggen hoe zhij tot het besluit is gekomen. En volgens mij kán dat fundamenteel eigenlijk niet.

Veel nadruk is de afgelopen jaren gekomen voor zogeheten white box AI’s, oftewel systemen die geen zwarte doos zijn maar juist inzicht geven in hoe men tot een besluit komt. BigML, het bedrijf waar mijn AI NDA Lynn op draait, heeft bijvoorbeeld de feature dat een analysemodel aangeleverd wordt als een beslisboom. Je kunt dan van stap tot stap precies zien welke criteria er zijn overwogen en wat de doorslag gaf bij twijfel. Daarmee is de uitlegbaarheid een feit, zou je denken.

Een oude computergrap luidt, don’t anthropomorphize computers, they don’t like that. In feite is dit het nadeel van “statistische analysetechnieken” het labeltje “kunstmatige intelligentie” te geven. Want de ‘uitleg’ die je uit zo’n witte doos krijgt, is eigenlijk niet meer dan een stack trace, een lijst van stappen die de software nam om door de data heen te komen. Je krijgt bijvoorbeeld te horen “als Venue bevat niet Californië en lengte < 800 woorden en Aansprakelijkheid bevat niet Dientengevolge dan goedgekeurd”. Ja, dat is een uitleg maar geen mens die ooit op die manier zou uitleggen waarom het contract goedgekeurd is. Plus je mist zo wat er met andere informatie is gebeurd, was die niet belangrijk?

Ik denk dat dit uiteindelijk geen oplosbaar probleem is, want een AI werkt nu eenmaal op deze manier. Gegeven een heleboel voorbeelden, analyseer op welk voorbeeld het beste de input lijkt. Daarbij kun je moeilijk afdwingen dat de AI dezelfde criteria hanteert als de mens, vaak héb je die eigenlijk niet. Je gebruikte immers AI omdat je met gewoon menselijk redeneren er niet goed uit komt.

Arnoud

Het onderbelichte probleem van dataverzameling in de artificial intelligence

Bewerking/parodie van XKCD, bron https://xkcd.com/303/Jaja, vrijdag wordt machine learning/AI dag, maar ik vond vrAIdag zo’n rare hashtag. Deze week een netelige en vaak onderbelichte kwestie: hoe kom je aan je data? Veel mensen denken dat het bij AI vooral gaat om het bouwen van het netwerk, maar dat is in feite niet meer dan op de “Generate” knop drukken en het ding een nachtje laten stampen. AI als technologie is vrijwel een commodity. Het gaat erom wat je erin stopt, want dat bepaalt voor vrijwel 100% wat eruit komt. En daar zit hem het probleem.

AI en big data lijken als hype hand in hand te zijn opgekomen. En dat is niet gek, want AI is in feite weinig meer dan statistische analyse op grote datasets, en hoe groter de dataset, hoe accurater de uitkomsten van de analyse. Dus als je gigantisch veel data hebt, dan krijg je behoorlijk goede resultaten. Maar hoe kom je aan die data?

Er zijn grofweg twee manieren: je kunt alle data zelf verzamelen, of je kunt datasets van anderen betrekken. De eerste manier is behoorlijk duur en tijdrovend, en werkt eigenlijk alleen bij de grote platforms zoals Facebook die nu eenmaal heel veel mensen hebben die data genereren. Of onderzoeksinstellingen die grootschalige metingen kunnen doen op allerlei fenomenen. Voor veel partijen is er alleen de tweede manier: zie ergens een dataset te pakken te krijgen.

Die tweede manier is nog behoorlijk problematisch. Vanwege rechtenkwesties en natuurlijk de zorg over persoonsgegevens in de data wordt vaak teruggegrepen op publieke datasets. Uit een recent paper blijkt echter dat dit goed kan leiden tot bias in de AI. Zo is er een publieke dataset van 1,6 miljoen interne e-mails uit het controversiële bedrijf Enron, welke vanwege justitieel onderzoek openbaar zijn geworden. Deze zijn een mooie dikke dataset om sentimentanalyse te doen, grammatica te leren herkennen en ga zo maar door. Maar goh, wat voor voorbeeld neem je als je de mails gebruikt van een Texaans bedrijf dat omviel vanwege gigantische fraude?

Andere systemen worden gebouwd op basis van stokoude bronnen, zoals publiekdomeinboeken omdat je dan auteursrechtelijk veilig zit. Maar het doet nogal wat met een systeem of je hem traint op Charles Dickens dan wel Dan Brown (om mevrouw Van der Plas niet weer te noemen 😉 ). Taalgebruik zal verouderd zijn, en vooral: ook hier een grote kans op vooringenomenheid qua wereldbeeld.

En daar zit dus in de kern het probleem: de datasets waar iedereen mee kan werken, zitten scheef en leveren dus geen betrouwbare basis op voor een AI systeem dat aanbevelingen of beslissingen doet. En waar je mee zou moeten werken, zit opgesloten achter auteursrechten of is onbereikbaar omdat de eigenaar het als privé beschouwt.

Arnoud

Wanneer verdient een AI rechtspersoonlijkheid?

In India kun je door een rivier worden gedagvaard, las ik onlangs (dank, tipgever). De rivieren de Ganges en de Yumana hebben daar dit voorjaar rechtspersoonlijkheid toegekend gekregen, zodat ze zelfstandig claims kunnen indienen tegen hun vervuilers. Ook bij dieren speelt die discussie. Dat is een opmerkelijke noviteit, en voor de tipgever aanleiding me te vragen of dit soort precedenten ertoe kunnen leiden dat ook Artifical Intelligences (AI’s) zelfstandige rechtspersoonlijkheid kunnen krijgen.

Rechtspersoonlijkheid is het concept dat iets anders dan een mens dezelfde status krijgt. De bekendste voorbeelden zijn bedrijven en verenigingen: die bestaan volgens de wet geheel los van hun bestuurders, aandeelhouders, leden en andere mensen die baat hebben bij die organisaties. Het idee erachter is dat de organisatie zo de individuele personen erachter kan ontstijgen, onder meer doordat die niet automatisch aansprakelijk zijn voor eventuele fouten of schulden veroorzaakt door het bedrijf. (En ja, dat is dan ook precies het probleem met rechtspersonen als het uit de hand loopt.)

Rechtspersoonlijkheid ken je toe aan een object wanneer je wil dat deze zelfstandig aan het rechtsverkeer deelneemt. Deze entiteit moet bijvoorbeeld geld of goederen kunnen bezitten, claims kunnen indienen of juist kunnen dragen en vergoeden. Het is handig dat een vereniging een rechtspersoon is bijvoorbeeld, omdat deze zo los komt van haar bestuurders, en met eigen vermogen activiteiten kan opzetten (zoals een zaaltje huren of donaties ontvangen) voor hun doel. Je kunt die entiteit dan ook aan nadere regels onderwerpen: dit is het stemrecht, en als je activiteiten zus en zo zijn dan zijn donaties belastingaftrekbaar.

Dat wil natuurlijk niet zeggen dat rechtspersoonlijkheid altijd de manier is om entiteiten te beschermen. In Nederland zijn dieren bijvoorbeeld geen rechtspersoon, maar toch beschermd tegen bijvoorbeeld mishandeling: het is mensen verboden dieren onnodig pijn te doen. Met zo’n regel is er specifiek voor dat belang dan geen rechtspersoonlijkheid meer nodig. Optreden tegen vervuiling in rivieren kan ook op zo’n manier, stel strafbaar het loze van vuil in de rivier. Het voornaamste voordeel van rechtspersoonlijkheid zou zijn dat de schadeclaim op zo’n vervuiler nu in de portemonnee van de rivier zelf terecht komt, in plaats van als boete bij de staat in de algemene schatkist. Ook kan de rivier dan zelf kiezen wie aan te klagen, in plaats van afhankelijk te zijn van het Openbaar Ministerie dat wellicht andere prioriteiten kiest.

Zou rechtspersoonlijkheid voor AI’s interessant zijn? Dat komt dus neer op de vraag welke belangen of beschermingen we vinden dat zij moeten hebben in het rechtsverkeer. Wat zou een AI doen met een eigen vermogen, bijvoorbeeld? Hebben haar bestuurders/programmeurs stemrecht nodig, moet de AI boven deze mensen uit kunnen stijgen? Moeten ze worden beschermd tegen anderen die ze schade gaan berokkenen?

Een argument voor rechtspersoonlijkheid dat ik vaak zie is aansprakelijkheid voor schade berokkend door AI’s, zoals bij zelfrijdende auto’s. Wie de weg op gaat en mensen schade berokkent (bijvoorbeeld door een aanrijding), moet die schade vergoeden aan het slachtoffer. Maar wie moet dat bij een zelfrijdende auto? Dat probleem is opgelost als je de AI in de auto tot rechtspersoon verklaart: dan heeft deze eigen vermogen, een verzekeringsplicht en ga zo maar door waarmee schadeclaims opgevangen kunnen worden. Maar het heeft ook bijeffecten, zoals dat je bij een aanrijding waarbij de autonome auto schade lijdt, aan die auto de schade moet vergoeden.

Voor mij is een belangrijke overweging hoe zelfstandig de AI aan het rechtsverkeer meedoet. De huidige AI’s doen dat nauwelijks. Een beslisboom, chatbot of machine learning model vind ik nauwelijks zelfstandig opererend. Mijn AI NDA Lynn opereert weliswaar autonoom, maar volledig binnen de grenzen die ik heb getrokken in haar programmering. Ze kan niet eens leren van haar fouten, dat doe ik door nieuwe trainingsdata erin te stoppen. Een systeem dat wél zelf leert van gemeten feedback op eerder handelen zou ik eerder die kant op vinden gaan.

De argumentatie erachter zou dan zijn dat het op dat moment niet redelijk meer is dat de personen achter de AI nog verantwoordelijk gehouden worden voor hetgeen die AI doet. Na een flink aantal rondjes bijleren is die AI dan immers niet meer vergelijkbaar met het ding waarmee men begon. Dat zou zoiets zijn als wanneer mijn kat ontsnapt en een eigen leven begint op de Veluwe: is het beest dat daar na vijf jaar rondsluipt, nog wel ‘mijn’ kat te noemen? Verdien ik de schadeclaims wanneer het Wim zijn hond opvreet?

Tegelijk blijf ik zitten met het punt dat als het maar om één ding gaat, en dan ook nog eens aansprakelijkheid, er meer oplossingen zijn dan dit zware middel. Je kunt immers ook van de eigenaren eisen dat ze zich verzekeren, bijvoorbeeld. Of een wettelijke regeling over aansprakelijkheid opnemen in de wet die een andere oplossing biedt. Want het punt is wel, als je een AI tot rechtspersoon verheft dan mogen ze gelijk (vrijwel) álles dat mensen ook mogen. Dus ik denk dat je die route niet snel moet willen.

Arnoud

Zou je een robot vertrouwen die je juridisch advies geeft?

Afgelopen week kwam nog een interessante kwestie langs over NDA Lynn haar kwaliteiten: wie zou er durven te varen op het advies van een robot? Want nou ja, het blijft software en die maakt fouten. En leuk en aardig dat ze gemiddeld 94,1% van de zinnen correct herkent, maar een geniepige zin die net in die 6,9% valt wordt dan dus gemist. Bovendien, hoe kun je achterhalen wat Lynn nu doet, echt uitleg op zinsniveau krijg je niet. Dus moet je dat wel vertrouwen, zo’n robotadvies?

Het punt van die uitleg is een algemene zorg bij AI beslissingen en -adviezen. Veel AI opereert als black box, je gooit er een input in en je krijgt te horen wat de output is, maar over het waarom zwijgt het systeem. En als je dan in die doos kijkt, dan helpt dat maar beperkt. Vaak komt het neer op “het leek meer op categorie A dan categorie B”, maar zien welke factoren daarbij de doorslag gaven, is erg moeilijk. Ook het doorgronden van die factoren is soms een puzzel; Lynn vond bijvoorbeeld een tijd NDA’s onder Californisch recht strenger, omdat mijn traindataset toevallig veel strenge Californische en wat relaxtere Europese NDA’s bevatte.

De angst voor dit soort onduidelijkheid speelt met name bij besluiten over personen. De AVG bevat een streng verbod op geautomatiseerde besluiten op basis van profielen, en AI-gebaseerde analyses “u krijgt geen hypotheek” vallen daar natuurlijk onder. Vandaar dat er tegenwoordig veel wordt geïnvesteerd in uitlegbare AI.

Toevallig heeft BigML (de technologie achter NDA Lynn) dat ook – het systeem produceert heel grof gezegd een stapel gigantische beslisbomen en geeft het gewogen gemiddelde van elke boom z’n uitkomst als de uitslag. Je kunt dus exact zien hoe een classificatie tot stand komt: er stond “state of California” achterin, ik zag ook “security measures” dus dit is een strenge NDA. Het is uitleg, maar niet eentje waar je perse veel aan hebt.

De cynicus mag nu reageren dat uitleg van een menselijke jurist óók lastig te volgen is voor een leek. Maar daar gaan we dan toch in mee, en de reden is simpel: die jurist vertrouwen we. Hij heeft er voor geleerd, hij doet dit al tien jaar, hij heeft een dik pand en een sjiek pak dus de zaken gaan goed, hij is verzekerd tegen claims en ga zo maar door.

Een AI heeft dergelijke vertrouwensfactoren niet, dus is het veel moeilijker om in te schatten of het klopt. In een Engels onderzoek bleek bijvoorbeeld slechts 7% van de mensen een AI advies over financiën te vertrouwen. Gek genoeg zou 14% wel onder het mes gaan bij een robotchirurg. Waar zit hem het verschil? Het mentale model dat we hebben bij deze handelingen, denk ik. Dat een robot heel precies en met vaste hand kan snijden, dat is voor te stellen. Dat hij ook geen millimeter af zal wijken van waar hij moet zijn, dat is ook nog wel logisch. Maar dat een robot mijn financiële situatie snapt en een passende hypotheek uitzoekt, nee dat is bizar.

Wat zit daar dan achter? Is het het fysieke, dat we een robotarm met mesje kunnen zien en ongeveer kunnen inschatten dat dat kan werken? Of is het de intelligentie die nodig is – bij een chirurg is dat vrij rechtomlijnd, bij een advies is het veel fuzzy’er. Een hart is een concreet item dat je tegen kunt komen in een borstkas, en daar doe je dan wat mee. De opties lijken daarmee eindig. Terwijl bij een advies het veel lastiger voorstelbaar is dat zo’n robot alle situaties kan inschatten. Dus dat is enger, en dan denkt men: doe maar niet.

Dus, hoe krijgt een adviesrobot het vertrouwen in zijn kunnen omhoog? Kwestie van gewoon doen en wachten tot men omslaat?

Arnoud

Kan een robot juridisch advies geven?

Twee weken geleden lanceerde ik NDA Lynn, een AI lawyerbot die geheimhoudingscontracten (NDA’s) kan lezen. Dat gaf veel leuke reacties, en Lynn heeft aardig bijgeleerd: meer dan 400 extra NDA’s waar ik verder mee kan trainen. Opmerkelijkste observatie: veel Nederlandstalige NDA’s, terwijl Lynn toch volgens mij vrij duidelijk Engelstalig is. Dat moet dus even anders. Maar ook de nodige andere kwesties.

Veel reacties gingen natuurlijk over de kwaliteit. Lynn beoordeelt zinnen in 87% (huidige versie 93.8%) van de gevallen correct, en kan daarmee clausules dus behoorlijk goed maar niet perfect herkennen. Dat is dus een risico, ze kan een clausule dus afkeuren of roepen dat die er niet in staat, enkel omdat de bewoordingen anders waren dan in haar trainingset. Maar mijn inschatting is dat dit wel meevalt omdat het gemiddeld wel goed uitkomt. Wel een probleem is nog de afhandeling van echte fouten, zoals een document waar geen tekst uit komt (een gescande PDF) of een tekst die in het geheel geen NDA is (ik kreeg onder meer Charles Dickens Night before Christmas langs, gelukkig was het advies die niet te tekenen).

Leuk vond ik de aandacht van Sprout en Emerce, die beiden ingaan op mijn motivatie: een kleine 18 jaar bezig zijn met NDA’s heeft me een grondige hekel aan die dingen gegeven (en nee, er 400 screenen in twee weken om je lawyerbot te verbeteren hielp niet), dus een automatische adviesbot is gewoon een mooie manier om tijd vrij te maken voor de leukere dingen in het juridische werk.

Want dat is uiteindelijk waar het volgens mij om gaat met AI in het recht. Robots gaan nooit advocaten vervangen, of het hoogwaardig juridisch advies over nieuwe kwesties. Robots doen per definitie standaardwerk, oftewel dingen als het screenen van stapels documenten of het spotten van kleine stiekemigheden in standaardcontracten of algemene voorwaarden. Als je als mens die dingen niet meer hoeft te doen, maar juist de afwijkingen krijgt en daar een oplossing voor moet vinden, dan heb je toch gewoon léuker werk dankzij een robot?

Vanuit de VS kreeg ik hele andere reacties: stop right there buddy, that’s unauthorized practice of law. Een beetje juridisch advies geven zonder advocatentitel, dat kan natuurlijk niet. Nu geef ik natuurlijk geen juridisch advies in de VS, maar dit blijkt dus een dingetje: allerlei tools zoals adviesbots en documentgeneratoren worden in diverse staten als advocaatjespelen aangemerkt en dus verboden. De achterliggende argumentatie is dat alleen een gekwalificeerd advocaat met tuchtrecht, verzekering en toezicht de kwaliteit kan bieden waar de burger recht op heeft.

Bij Justia staat een overzicht van de problematiek, met name: waar trek je de grens. De interessantste definitie vond ik “if a computer could do it, it’s not the practice of law.” Anders gezegd, juridische bijstand moet per definitie door een mens worden gedaan, omdat het creativiteit en inzicht vergt om de per definitie niet vastomlijnde set regels uit de wet toe te kunnen passen op een concreet geval. Ik twijfel of ik het ermee eens ben, want volgens mij kan best een aardig deel van zulk advieswerk geautomatiseerd gedaan worden. Zeg maar de 80% van de gevallen met de standaardsituaties die gewoon helder in de wet benoemd zijn. Het leuke stuk van de juristerij begint bij die 20%, maar dat wil niet zeggen dat de rest geen juridisch advies meer te noemen is.

En nou ja, uiteindelijk is dat volgens mij het voordeel dat je kunt halen met de inzet van AI. Automatiseer het saaie werk en maak je eigen werk leuker. Op naar de volgende Lynn dus, wat mij betreft.

Arnoud

Betekent legal tech het einde van de advocatuur?

Wat is het verschil tussen legal tech en automatisering? Legal tech wordt je opgedrongen van buitenaf, automatisering kies je zelf voor. Die definitie kreeg ik vorige week (dank!). Het laat namelijk zien waar een stevig pijnpunt zit voor de juridische sector: het lijkt er vaak op dat je weinig keuze hebt, je moet mee in de vaart der volkeren en overstappen op nieuwe tools, je laten bijstaan door wizards en voor je het weet staat er een AI robot tegenover je te pleiten.

Dat beeld van die pleitende robot is een hardnekkige. Het is natuurlijk een algemene zorg, dat robots banen gaan inpikken. En een belofte (dreigement?) van legal tech is natuurlijk ook dat juridische werkzaamheden door robots en AIs overgenomen gaan worden. Maar hier wreekt zich een ander verschil tussen legal tech en automatisering.

Automatisering – in ieder geval in de juridische sector – is in principe niets meer of minder dan het automatisch doen van wat voorheen met de hand werd gedaan. Niet meer met pen je pleidooi schrijven maar typen, of met de tekstverwerker. Een sjabloon invullen in Wordperfect in plaats van handmatig de lege plekken zoeken. Een brief faxen in plaats van per post versturen. Op trefwoorden zoeken in een elektronische database in plaats van te bladeren in gelabelde bakken. Dat werk.

Legal tech is anders, het is gericht op echt iets nieuws. Transformeren van de manier van werken in de juridische sector. De inhoud van het werk wordt anders. En daarbij zijn AI en robots belangrijke trefwoorden, want daarmee is het mogelijk het werk inhoudelijk anders aan te pakken. Maar dat betekent niet dat AIs ineens gaan pleiten of onderhandelen zoals wij mensen dat doen.

Ik moet dan altijd denken aan de woorden van computerwetenschapper Edsger Dijkstra: The question of whether Machines Can Think… is about as relevant as the question of whether Submarines Can Swim. Machines werken fundamenteel anders. Ze kunnen teksten analyseren, data minen en correlaties aanwijzen. Die kunnen relevant zijn om beslissingen te nemen, maar het proces dat je dan volgt is onvergelijkbaar met de traditionele werkwijze. Een AI zou bijvoorbeeld bij een zaak vergelijkbare precedenten kunnen zoeken en concluderen dat in 90% van de gevallen de zaak verloren is, maar drijft dan puur op statistische vergelijkbaarheid. Een mens kan andere factoren zien, zoals hoe gevoelig het onderwerp tegenwoordig ligt, de verhouding van partijen en ga zo maar door.

De transformatie zit hem er dus niet in dat een AI of robot gaat doen wat een mens deed. Het is een stapje terug, een andere manier van werken om tot het gewenste resultaat te komen. Een voorbeeld uit de sector is de rechtsbijstandsverzekeraar. Die pakt zaken niet perse aan zoals een advocaat: we hebben een recht, ik ga het halen. Een verzekeraar zal rustig uit eigen zak de klant betalen waar die recht op heeft, als dat netto goedkoper is dan een procedure voeren. (Uiteraard komt dat via de premies weer terug, maar dat terzijde.) Dat is een wezenlijk andere manier van een zaak bekijken.

Ik denk dus dat dit soort ontwikkelingen niet het einde zullen betekenen van de traditionele juridische dienstverlening. Onderdelen zullen veranderen, worden overgenomen door legal tech diensten. Dat verschuift het accent voor de advocaat en andere dienstverlenende mensen.

Arnoud

Waarom legal tech anders is dan automatisering

Het onderwerp legal tech is een stevige hype aan het worden. De term is breed: alle technologie en software waarmee de juridische sector zijn voordeel kan doen. Dat kan gaan om handige hulpjes bij tekstverwerken of zelfs toetsenborden met juridische symbolen, waar we het eerder over hadden. Of over kunstmatige intelligentie die mensenwerk vervangt. Maar hoe is dat nu anders dan klassieke automatisering?

Legal tech is inderdaad anders, maar dat zit hem niet in de technologie. Het is het moment waarop de technologie zich aandient en de beloftes die het doet.

Tot voor kort ging technologie in de juridische sector vooral om het automatiseren van het bestaande. Een brief kunnen typen in plaats van schrijven, een dossier elektronisch zoeken in plaats van op papier. Dat scheelt in tijd en kosten, maar verandert fundamenteel niets aan de manier van werken.

De nieuwste series innovaties zijn wél gericht op echt iets nieuws. Transformeren van de manier van werken in de juridische sector. En hoewel dat in het verleden al vaker is geprobeerd, lijkt daar nu eindelijk ook bereidwilligheid in de sector voor te ontstaan. En dát is echt iets nieuws.

Vanwaar die onwilligheid, dat vasthouden aan het bestaande? Veel verklaringen zijn geopperd. Dat advocaten niet van vernieuwing houden, lijkt me onzin. Nieuwe gadgets worden in de juridische sector net zo snel overgenomen als in andere sectoren.

De sector is wel meer risicomijdend dan andere, want fouten kunnen grote gevolgen hebben. En daarbij komt een zekere voorliefde voor traditie. Maar het belangrijkste is voor mij dat het gewoon góed gaat met hoe de sector werkt. En dan is er geen prikkel om te veranderen.

Waarom nu dan wel? Die prikkel komt er nu langzaam maar zeker in. Klanten vragen steeds nadrukkelijker om verandering, om snelheid en kostenbesparing. En de rek is er wel een beetje uit in de kleine besparingen, het lagere uurtarief of uitsmeren van kosten. Daarnaast zien steeds meer bedrijven mogelijkheden om op nieuwe manieren juridische diensten aan te bieden. De traditionele monopoliepositie komt daarmee in gevaar. Ook dat dwingt tot nadenken over transformatie.

Het aanbod van legal tech komt dus precies op het moment dat de sector zich geconfronteerd ziet met een probleem: hoe gaan wij sneller, beter en effectiever werken. Echt anders werken. Maar de inertie blijft natuurlijk sterk.

Arnoud