Wanneer verdient een AI rechtspersoonlijkheid?

| AE 9832 | Innovatie | 11 reacties

In India kun je door een rivier worden gedagvaard, las ik onlangs (dank, tipgever). De rivieren de Ganges en de Yumana hebben daar dit voorjaar rechtspersoonlijkheid toegekend gekregen, zodat ze zelfstandig claims kunnen indienen tegen hun vervuilers. Ook bij dieren speelt die discussie. Dat is een opmerkelijke noviteit, en voor de tipgever aanleiding me te vragen of dit soort precedenten ertoe kunnen leiden dat ook Artifical Intelligences (AI’s) zelfstandige rechtspersoonlijkheid kunnen krijgen.

Rechtspersoonlijkheid is het concept dat iets anders dan een mens dezelfde status krijgt. De bekendste voorbeelden zijn bedrijven en verenigingen: die bestaan volgens de wet geheel los van hun bestuurders, aandeelhouders, leden en andere mensen die baat hebben bij die organisaties. Het idee erachter is dat de organisatie zo de individuele personen erachter kan ontstijgen, onder meer doordat die niet automatisch aansprakelijk zijn voor eventuele fouten of schulden veroorzaakt door het bedrijf. (En ja, dat is dan ook precies het probleem met rechtspersonen als het uit de hand loopt.)

Rechtspersoonlijkheid ken je toe aan een object wanneer je wil dat deze zelfstandig aan het rechtsverkeer deelneemt. Deze entiteit moet bijvoorbeeld geld of goederen kunnen bezitten, claims kunnen indienen of juist kunnen dragen en vergoeden. Het is handig dat een vereniging een rechtspersoon is bijvoorbeeld, omdat deze zo los komt van haar bestuurders, en met eigen vermogen activiteiten kan opzetten (zoals een zaaltje huren of donaties ontvangen) voor hun doel. Je kunt die entiteit dan ook aan nadere regels onderwerpen: dit is het stemrecht, en als je activiteiten zus en zo zijn dan zijn donaties belastingaftrekbaar.

Dat wil natuurlijk niet zeggen dat rechtspersoonlijkheid altijd de manier is om entiteiten te beschermen. In Nederland zijn dieren bijvoorbeeld geen rechtspersoon, maar toch beschermd tegen bijvoorbeeld mishandeling: het is mensen verboden dieren onnodig pijn te doen. Met zo’n regel is er specifiek voor dat belang dan geen rechtspersoonlijkheid meer nodig. Optreden tegen vervuiling in rivieren kan ook op zo’n manier, stel strafbaar het loze van vuil in de rivier. Het voornaamste voordeel van rechtspersoonlijkheid zou zijn dat de schadeclaim op zo’n vervuiler nu in de portemonnee van de rivier zelf terecht komt, in plaats van als boete bij de staat in de algemene schatkist. Ook kan de rivier dan zelf kiezen wie aan te klagen, in plaats van afhankelijk te zijn van het Openbaar Ministerie dat wellicht andere prioriteiten kiest.

Zou rechtspersoonlijkheid voor AI’s interessant zijn? Dat komt dus neer op de vraag welke belangen of beschermingen we vinden dat zij moeten hebben in het rechtsverkeer. Wat zou een AI doen met een eigen vermogen, bijvoorbeeld? Hebben haar bestuurders/programmeurs stemrecht nodig, moet de AI boven deze mensen uit kunnen stijgen? Moeten ze worden beschermd tegen anderen die ze schade gaan berokkenen?

Een argument voor rechtspersoonlijkheid dat ik vaak zie is aansprakelijkheid voor schade berokkend door AI’s, zoals bij zelfrijdende auto’s. Wie de weg op gaat en mensen schade berokkent (bijvoorbeeld door een aanrijding), moet die schade vergoeden aan het slachtoffer. Maar wie moet dat bij een zelfrijdende auto? Dat probleem is opgelost als je de AI in de auto tot rechtspersoon verklaart: dan heeft deze eigen vermogen, een verzekeringsplicht en ga zo maar door waarmee schadeclaims opgevangen kunnen worden. Maar het heeft ook bijeffecten, zoals dat je bij een aanrijding waarbij de autonome auto schade lijdt, aan die auto de schade moet vergoeden.

Voor mij is een belangrijke overweging hoe zelfstandig de AI aan het rechtsverkeer meedoet. De huidige AI’s doen dat nauwelijks. Een beslisboom, chatbot of machine learning model vind ik nauwelijks zelfstandig opererend. Mijn AI NDA Lynn opereert weliswaar autonoom, maar volledig binnen de grenzen die ik heb getrokken in haar programmering. Ze kan niet eens leren van haar fouten, dat doe ik door nieuwe trainingsdata erin te stoppen. Een systeem dat wél zelf leert van gemeten feedback op eerder handelen zou ik eerder die kant op vinden gaan.

De argumentatie erachter zou dan zijn dat het op dat moment niet redelijk meer is dat de personen achter de AI nog verantwoordelijk gehouden worden voor hetgeen die AI doet. Na een flink aantal rondjes bijleren is die AI dan immers niet meer vergelijkbaar met het ding waarmee men begon. Dat zou zoiets zijn als wanneer mijn kat ontsnapt en een eigen leven begint op de Veluwe: is het beest dat daar na vijf jaar rondsluipt, nog wel ‘mijn’ kat te noemen? Verdien ik de schadeclaims wanneer het Wim zijn hond opvreet?

Tegelijk blijf ik zitten met het punt dat als het maar om één ding gaat, en dan ook nog eens aansprakelijkheid, er meer oplossingen zijn dan dit zware middel. Je kunt immers ook van de eigenaren eisen dat ze zich verzekeren, bijvoorbeeld. Of een wettelijke regeling over aansprakelijkheid opnemen in de wet die een andere oplossing biedt. Want het punt is wel, als je een AI tot rechtspersoon verheft dan mogen ze gelijk (vrijwel) álles dat mensen ook mogen. Dus ik denk dat je die route niet snel moet willen.

Arnoud

Zou je een robot vertrouwen die je juridisch advies geeft?

| AE 9807 | Innovatie | 32 reacties

Afgelopen week kwam nog een interessante kwestie langs over NDA Lynn haar kwaliteiten: wie zou er durven te varen op het advies van een robot? Want nou ja, het blijft software en die maakt fouten. En leuk en aardig dat ze gemiddeld 94,1% van de zinnen correct herkent, maar een geniepige zin die net in die 6,9% valt wordt dan dus gemist. Bovendien, hoe kun je achterhalen wat Lynn nu doet, echt uitleg op zinsniveau krijg je niet. Dus moet je dat wel vertrouwen, zo’n robotadvies?

Het punt van die uitleg is een algemene zorg bij AI beslissingen en -adviezen. Veel AI opereert als black box, je gooit er een input in en je krijgt te horen wat de output is, maar over het waarom zwijgt het systeem. En als je dan in die doos kijkt, dan helpt dat maar beperkt. Vaak komt het neer op “het leek meer op categorie A dan categorie B”, maar zien welke factoren daarbij de doorslag gaven, is erg moeilijk. Ook het doorgronden van die factoren is soms een puzzel; Lynn vond bijvoorbeeld een tijd NDA’s onder Californisch recht strenger, omdat mijn traindataset toevallig veel strenge Californische en wat relaxtere Europese NDA’s bevatte.

De angst voor dit soort onduidelijkheid speelt met name bij besluiten over personen. De AVG bevat een streng verbod op geautomatiseerde besluiten op basis van profielen, en AI-gebaseerde analyses “u krijgt geen hypotheek” vallen daar natuurlijk onder. Vandaar dat er tegenwoordig veel wordt geïnvesteerd in uitlegbare AI.

Toevallig heeft BigML (de technologie achter NDA Lynn) dat ook – het systeem produceert heel grof gezegd een stapel gigantische beslisbomen en geeft het gewogen gemiddelde van elke boom z’n uitkomst als de uitslag. Je kunt dus exact zien hoe een classificatie tot stand komt: er stond “state of California” achterin, ik zag ook “security measures” dus dit is een strenge NDA. Het is uitleg, maar niet eentje waar je perse veel aan hebt.

De cynicus mag nu reageren dat uitleg van een menselijke jurist óók lastig te volgen is voor een leek. Maar daar gaan we dan toch in mee, en de reden is simpel: die jurist vertrouwen we. Hij heeft er voor geleerd, hij doet dit al tien jaar, hij heeft een dik pand en een sjiek pak dus de zaken gaan goed, hij is verzekerd tegen claims en ga zo maar door.

Een AI heeft dergelijke vertrouwensfactoren niet, dus is het veel moeilijker om in te schatten of het klopt. In een Engels onderzoek bleek bijvoorbeeld slechts 7% van de mensen een AI advies over financiën te vertrouwen. Gek genoeg zou 14% wel onder het mes gaan bij een robotchirurg. Waar zit hem het verschil? Het mentale model dat we hebben bij deze handelingen, denk ik. Dat een robot heel precies en met vaste hand kan snijden, dat is voor te stellen. Dat hij ook geen millimeter af zal wijken van waar hij moet zijn, dat is ook nog wel logisch. Maar dat een robot mijn financiële situatie snapt en een passende hypotheek uitzoekt, nee dat is bizar.

Wat zit daar dan achter? Is het het fysieke, dat we een robotarm met mesje kunnen zien en ongeveer kunnen inschatten dat dat kan werken? Of is het de intelligentie die nodig is – bij een chirurg is dat vrij rechtomlijnd, bij een advies is het veel fuzzy’er. Een hart is een concreet item dat je tegen kunt komen in een borstkas, en daar doe je dan wat mee. De opties lijken daarmee eindig. Terwijl bij een advies het veel lastiger voorstelbaar is dat zo’n robot alle situaties kan inschatten. Dus dat is enger, en dan denkt men: doe maar niet.

Dus, hoe krijgt een adviesrobot het vertrouwen in zijn kunnen omhoog? Kwestie van gewoon doen en wachten tot men omslaat?

Arnoud

Kan een robot juridisch advies geven?

| AE 9795 | Innovatie | 14 reacties

Twee weken geleden lanceerde ik NDA Lynn, een AI lawyerbot die geheimhoudingscontracten (NDA’s) kan lezen. Dat gaf veel leuke reacties, en Lynn heeft aardig bijgeleerd: meer dan 400 extra NDA’s waar ik verder mee kan trainen. Opmerkelijkste observatie: veel Nederlandstalige NDA’s, terwijl Lynn toch volgens mij vrij duidelijk Engelstalig is. Dat moet dus even anders. Maar ook de nodige andere kwesties.

Veel reacties gingen natuurlijk over de kwaliteit. Lynn beoordeelt zinnen in 87% (huidige versie 93.8%) van de gevallen correct, en kan daarmee clausules dus behoorlijk goed maar niet perfect herkennen. Dat is dus een risico, ze kan een clausule dus afkeuren of roepen dat die er niet in staat, enkel omdat de bewoordingen anders waren dan in haar trainingset. Maar mijn inschatting is dat dit wel meevalt omdat het gemiddeld wel goed uitkomt. Wel een probleem is nog de afhandeling van echte fouten, zoals een document waar geen tekst uit komt (een gescande PDF) of een tekst die in het geheel geen NDA is (ik kreeg onder meer Charles Dickens Night before Christmas langs, gelukkig was het advies die niet te tekenen).

Leuk vond ik de aandacht van Sprout en Emerce, die beiden ingaan op mijn motivatie: een kleine 18 jaar bezig zijn met NDA’s heeft me een grondige hekel aan die dingen gegeven (en nee, er 400 screenen in twee weken om je lawyerbot te verbeteren hielp niet), dus een automatische adviesbot is gewoon een mooie manier om tijd vrij te maken voor de leukere dingen in het juridische werk.

Want dat is uiteindelijk waar het volgens mij om gaat met AI in het recht. Robots gaan nooit advocaten vervangen, of het hoogwaardig juridisch advies over nieuwe kwesties. Robots doen per definitie standaardwerk, oftewel dingen als het screenen van stapels documenten of het spotten van kleine stiekemigheden in standaardcontracten of algemene voorwaarden. Als je als mens die dingen niet meer hoeft te doen, maar juist de afwijkingen krijgt en daar een oplossing voor moet vinden, dan heb je toch gewoon léuker werk dankzij een robot?

Vanuit de VS kreeg ik hele andere reacties: stop right there buddy, that’s unauthorized practice of law. Een beetje juridisch advies geven zonder advocatentitel, dat kan natuurlijk niet. Nu geef ik natuurlijk geen juridisch advies in de VS, maar dit blijkt dus een dingetje: allerlei tools zoals adviesbots en documentgeneratoren worden in diverse staten als advocaatjespelen aangemerkt en dus verboden. De achterliggende argumentatie is dat alleen een gekwalificeerd advocaat met tuchtrecht, verzekering en toezicht de kwaliteit kan bieden waar de burger recht op heeft.

Bij Justia staat een overzicht van de problematiek, met name: waar trek je de grens. De interessantste definitie vond ik “if a computer could do it, it’s not the practice of law.” Anders gezegd, juridische bijstand moet per definitie door een mens worden gedaan, omdat het creativiteit en inzicht vergt om de per definitie niet vastomlijnde set regels uit de wet toe te kunnen passen op een concreet geval. Ik twijfel of ik het ermee eens ben, want volgens mij kan best een aardig deel van zulk advieswerk geautomatiseerd gedaan worden. Zeg maar de 80% van de gevallen met de standaardsituaties die gewoon helder in de wet benoemd zijn. Het leuke stuk van de juristerij begint bij die 20%, maar dat wil niet zeggen dat de rest geen juridisch advies meer te noemen is.

En nou ja, uiteindelijk is dat volgens mij het voordeel dat je kunt halen met de inzet van AI. Automatiseer het saaie werk en maak je eigen werk leuker. Op naar de volgende Lynn dus, wat mij betreft.

Arnoud

Waarom legal tech anders is dan automatisering

| AE 9715 | Innovatie | 9 reacties

Het onderwerp legal tech is een stevige hype aan het worden. De term is breed: alle technologie en software waarmee de juridische sector zijn voordeel kan doen. Dat kan gaan om handige hulpjes bij tekstverwerken of zelfs toetsenborden met juridische symbolen, waar we het eerder over hadden. Of over kunstmatige intelligentie die mensenwerk vervangt. Maar… Lees verder

De uitlegbaarheid van AI-uitspraken

| AE 9654 | Innovatie | 12 reacties

Steeds meer legal tech diensten maken gebruik van kunstmatige intelligentie oftewel AI. Dit is een belangrijke ontwikkeling: hiermee kunnen machines zelf beslissingen nemen of analyses uitvoeren die voorheen alleen door mensen gedaan konden worden. Denk aan dossiers doorspitten op zoek naar belastend materiaal, of juist oude afspraken terugvinden in een berg correspondentie. Maar steeds vaker… Lees verder

Het nieuwste hot issue voor juristen: #legaltech

| AE 9431 | Innovatie | 5 reacties

Legal tech, wat een prachtige term. Hip en technologie-georiënteerd, en gericht op een sector die de afgelopen tien jaar veel aanzien heeft gewonnen. Harvey Specter meets Mission Impossible. De term legal tech verwijst eigenlijk naar alle technologie, met name ICT-technologie, die het werk van de juridische dienstverlener raakt. De recente opkomst van big data en… Lees verder