AI-lawyerbot visualiseert gebruiksvoorwaarden

| AE 10397 | Innovatie | 5 reacties

Onderzoekers van de Zwitserse technische Universiteit EPFL hebben een ai-bot online gezet die gebruiksvoorwaarden leest en omzet in een overzichtelijk stroomdiagram, las ik bij Tweakers. Er is ook een chatbot-interface waarmee je vragen kunt stellen, en de bot zoekt de meest relevante zinen er dan bij. Het nut van het stroomdiagram ontgaat me, maar het idee van eenvoudiger leesbaar en bladerbaar maken van gebruiksvoorwaarden zie ik zeker wel zitten.

Het onderzoeksrapport van de Pribot en Polisis bot geeft aan dat de focus primair ligt op de privacyaspecten van de dienst. Men analyseerde zo’n 130.000 privacyverklaringen en extraheerde daaruit de tekstuele informatie, die vervolgens met een deep learning neuraal netwerk werd geanalyseerd. (Het idee dat er 130.000 privacyverklaringen op internet staan, geeft me soort van koude rillingen.)

De analyse zelf vind ik best slim opgezet. Zo wordt de onderliggende betekenis van termen geanalyseerd, zodat bijvoorbeeld “erase” en “destroy” als eenzelfde concept wordt aangemerkt. Ook werd op woordcombinatieniveau (3-grams tot 6-grams) getraind in plaats van zoals vaak op individuele woorden (bag of words). Het is me niet helemaal duidelijk hoe de training set haar labels kreeg.

De tekst wordt vervolgens op zinsniveau geclassificeerd (precies hoe mijn NDA Lynn werkt) en in een categorie gestopt. De uitkomst is een classificatie op hoog niveau waarbij men precies de tekst kan tonen die gaat over dat onderwerp, zodat je bijvoorbeeld iconen kunt tonen of een visualisatie van welke concepten waar aan de orde komen. De kwaliteit is best goed: 88% van de bevindingen komen overeen met menselijke inschatting.

Technisch is het geen ingewikkelde toepassing, de innovatie zit (zoals vaker bij legal tech) in het inzicht dat het in dit domein wat kan opleveren. Dat komt helaas nog veel te weinig voor. Een mogelijke reden daarvoor is dat je een héle grote berg data nodig hebt om de training goed te doen, en dat is in de juridische sector nog best ingewikkeld. Haal maar eens ergens 130.000 documenten over één onderwerp vandaan.

Een andere mogelijke verklaring is dat je bij een lawyerbot precies kunt zien hoe betrouwbaar ze zijn (in dit geval 88%) en dat er daarmee een heel concreet vraagteken komt te hangen bij of je erop kunt vertrouwen. Zeker omdat áls er fouten zijn, die meestal behoorlijk in het oog springen, zoals omdat de bot een zin compleet niet snapt en een mens meteen ziet wat het wel moest zijn.

Ik blijf ermee zitten hoe dat te overwinnen. Ook mensen zijn niet perfect, ik zou snel tekenen voor een jurist die iedere dag consistent 90% van de tijd foutloze documenten oplevert. Maar je merkt dat een stuk minder, en we kunnen het daarom niet zo goed beoordelen (denk ik).

Of zit er meer achten? Waarom ziet men een snelle inschatting van een ervaren privacyjurist als waardevoller dan een snelle inschatting van een AI bot als deze?

Arnoud

Voor de klant geminede cryptovaluta moet je afgeven, met dwangsom

| AE 10375 | Innovatie | 9 reacties

Het minen van cryptovaluta zoals bitcoins of Ether wordt steeds interessanter, maar vergt ook steeds meer hardware. Dan is het logisch om de technische kant uit te besteden, maar als je dan een geschil krijgt over hoe veel Ether je moet krijgen en welke schadevergoeding je kunt eisen, dan wordt het even juridisch wat ingewikkelder. Een recent vonnis laat zien hoe de rechter daarmee in de praktijk omgaat. (En sorry Ruud, ik houd het net als het vonnis even bij minen en niet bij delven.)

De eisende partij was als bedrijf bezig met het minen van de cryptovaluta Ether. Hij had daarvoor twintig mining computers gekocht bij de gedaagde, die een datacenter beheerde en ze daar dus ook meteen kwijt kon. Dat leidde tot een soort managed mining (analoog aan managed hosting): de gedaagde beheerde de systemen en betaalde de geminede Ethers uit onder aftrek van 10% commissie.

Uit het vonnis kan ik niet halen wat er vervolgens misging, maar de hoster/beheerde keerde tot september Ethers uit, en daarna niet meer. Dit terwijl er bij navraag nog 39,6821 Ethers bleken te zijn gemined na september. In oktober werd de eiser afgesloten van het netwerk.

Het geschil draaide om twee zaken: allereerst de eigendom van de mining computers, en ten tweede de afgifte van de geminede Ethers vanaf september.

Op zich zou dat een klip en klare zaak zijn, eigendom moet terug en als je belooft iets te geven dan moet je dat doen. Maar een complicatie hier was dat de gedaagde zelf ook dergelijke computers beheerde, en stelde per abuis Ethers van die andere computers meegerekend te hebben in wat de eiser mocht ontvangen. En het zou heel lastig zijn om geminede Ethers terug te relateren tot de computer die ze had gemined.

Zo te lezen kan de rechter moeilijk beoordelen hoe ingewikkeld dat nu precies is. Maar gelukkig voor hem gaat het hier om een kort geding, en daar geldt gewoon de`regel dat bewijs niet te ingewikkeld mag zijn vanwege de spoed. De beheerpartij kan dus zijn verhaal niet rondkrijgen. En logisch ergens ook wel, want hoezo is het moeilijk om te bepalen hoe veel Ethers er gemijnd waren als je ook kunt zeggen dat er 39,6821 Ethers gemined zijn?

Ook de Ethers moeten dus (minus de commissie) worden afgegeven. Een juridische complicatie doet zich nog voor bij de dwangsom. Als je iets wilt opeisen, dan vraag je bij de rechter een dwangsom voor elke dag dat het niet gegeven wordt. Maar dat kan niet als je géld wil opeisen van iemand. Maar zijn Ethers geld? Daar zijn we het juridisch nog niet over eens, maar het lijkt van niet.

Alles bij elkaar moet de hoster de computers teruggeven en alle daarmee geminede Ethers, en hij moet opgaaf doen van wat er precies gemined is vanaf die computers. (Of uitleggen waarom dat niet kan.) En dat alles op straffe van een dwangsom.

Nu heb ik van Ether weinig verstand, is het inderdaad zo moeilijk om te zeggen wat er precies gemined is de afgelopen maand? Of is dit eerder het gevolg van te makkelijk poolen van die computers en dan niet goed loggen wie wat deed?

Arnoud

Natuurlijk gaat AI ook weer voor porno gebruikt worden

| AE 10382 | Innovatie | 13 reacties

Al jaren is het devies dat porno innovatie stimuleert. Niet heel gek, want het is goed geld verdienen daarmee en wie de concurrentie voor kan blijven met een nieuw trucje, zal dan ook niet aarzelen. Ergens zou je dan ook niet verbaasd moeten zijn dat ook kunstmatige intelligentie zijn opmars maakt in de porno-wereld. Meer specifiek: het fenomeen “deep fakes” zoals door Vice gerapporteerd, door AI gemaakte nep-porno met willekeurig gekozen personen in de hoofdrol.

Op zich is het niet nieuw, het idee dat je het gezicht van persoon A plakt op het lijf van persoon B die met een seksueel expliciete handeling bezig is. Dat was alleen altijd relatief bewerkelijk, helemaal als je dat met videobeelden wilde doen. Er is niet echt software daarvoor, behalve hele grote dure pakketten waar de filmindustrie scenes mee bewerkt.

Enige tijd geleden maakte een Reddit-gebruiker een creatieve toepassing van AI waarmee dit ineens wél kan op video, althans videootjes tot een seconde of tien. Heel kort door de bocht: de AI wordt getraind op het gezicht van het doelwit, en corrigeert in de bronvideo dan het aangewezen gezicht totdat het genoeg lijkt op het doelwit. Dit soort correcties zijn technisch niet heel nieuw, ze worden ook gebruikt om gewone foto’s op te knappen. De toepassing is natuurlijk wel vernieuwend, en dat was mijn punt uit de eerste alinea: porno is een sterke driver om nieuwe technologie populair te maken en verder te ontwikkelen. Want nu dit mogelijk blijkt, wordt het interessant om ook eens naar andere toepassingen te kijken: concurrenten of politieke tegenstanders voor gek zetten, of vals bewijs in burenruzies maken, om eens wat te noemen.

Specifiek bij porno, kun je er wat aan doen als je jezelf hierin terugziet? In Amerika niet, maar bij ons wel: dit is natuurlijk een geautomatiseerde verwerking van persoonsgegevens (en ook nog eens bijzondere, immers seksualiteit) en daar is gewoon uitdrukkelijke toestemming voor nodig. Zonder toestemming zou alleen het legitiem eigen belang een grondslag kunnen zijn, maar bij pornografie kan ik me dat belang gewoon niet voorstellen.

In Amerika ligt dit iets moeilijker, omdat ze het daar niet als privacyschending zien omdat het beeld niet over jou gaat maar over een ander (de acteur/actrice). Een klacht daarover is dus juridisch lastiger afdwingbaar, en platforms zoals Reddit zijn niet verplicht erop in te grijpen. Dat maakt het in de praktijk moeilijk om er wat aan te doen.

Arnoud

AI net zo goed als willekeurige mensen in het voorspellen van recidive

| AE 10360 | Innovatie | 22 reacties

AI-software blijkt net zo goed als een groep willekeurige mensen in het voorspellen van recidive bij Amerikaanse veroordeelden, las ik bij Ars Technica. Onderzoekers van Dartmouth College vergeleken de uitkomsten van de COMPAS software (die met machine learning technieken recidive probeert te voorspellen) met de inschatting van willekeurige mensen geworven via Amazon’s Mechanical Turk. Beiden… Lees verder

De eerste robotrechter van Nederland blijkt gewoon al actief

| AE 10341 | Innovatie | 11 reacties

‘Robotrechter e-Court is een groot en niet transparant zwart gat’, kopte Nieuwsuur onlangs tendentieus. Stichting e-Court is al jaren actief als alternatieve geschilbeslechter en heeft verzekeraars gevonden als bereidwillige afnemers voor haar digitale arbitragedienst. Snel en gemakkelijk maar controversieel. Opmerkelijk voor mij daarin: de eerste stap is een artificial intelligence die over je zaak oordeelt…. Lees verder

Welke rol gaan smart contracts spelen in het recht?

| AE 10240 | Contracten, Innovatie | 38 reacties

Automatische afhandeling van verzekerings­claims, aanspraken op zorg die zonder tussenkomst van derden geregeld worden. In 2018 breken dit soort smart contract-toepassingen definitief door, meldde het Advocatenblad vorige week. Smart contracts zijn net als de blockchain en AI deel van de legal tech hype van de laatste tijd. Zelfdenkende software die buiten de greep van één… Lees verder

Nee, kunstmatige intelligentie zal nooit gaan rechtspreken (of pleiten)

| AE 10195 | Innovatie | 21 reacties

Een computer kan rechtspreken, als wij met zijn allen denken en willen dat hij het kan. Dat las ik bij Sargasso in een gastbijdrage van strafrechtadvocaat Vasco Groeneveld. AI komt eraan, ook in de rechtspraktijk. Die lijn doortrekkend betekent dat er over tien, twintig jaar robotrechters aan het werk zijn, niet gehinderd door emotie, hoofdpijn,… Lees verder

Hoe AI een rol kan spelen in juridische besluitvorming

| AE 10025 | Innovatie | 9 reacties

De rol van AI voor juridische toepassingen is snel aan het groeien. Steeds meer diensten onderzoeken de mogelijkheden om kunstmatige intelligentie adviezen te laten geven of zelfs juridische besluiten te nemen. Welke mogelijkheden zijn daar voor organisaties zoals overheden, verzekeraars of keurende instanties om hun organisatie efficiënter te laten werken? En welke juridische risico’s zitten… Lees verder