Kunstmatige intelligentie kan uitspraken Europees Hof Mensenrechten voorspellen

| AE 9033 | Innovatie | 15 reacties

robot-wetNou nou, poe poe. Een AI systeem ontwikkeld aan de University College London, the University of Sheffield, and the University of Pennsylvania kan uitspraken van het hoogste Europese mensenrechtenhof voorspellen, las ik bij Ars Technica. Men had het systeem 584 uitspraken gevoerd en op basis daarvan wist het in 79% van de gevallen correct de uitkomst van het arrest (schending mensenrechten of niet) aan te geven. Een knappe prestatie, met voor mij het opmerkelijk inzicht dat het EHRM haar uitspraken kennelijk vooral laat afhangen van de niet-juridische feiten en veel minder van de juridische argumenten. Maar voegt het veel toe?

Legal tech heeft nu ook de Legal AI ontdekt: waarom een dure mens nog juridische dingen laten uitspitten als een computer dit beter en sneller kan. Vandaar Ross, de AI robot gebaseerd op IBM’s Watson technologie. En er zijn er meer, herinnert u zich mijn rant nog over die parkeerbonwizard pardon chatbot pardon AI Virtual Lawyer met chatinterface.

De software van deze universiteiten voelt ergens in dezelfde cagegorie. Ja, het analyseren van grote bakken tekst (want dat zijn vonnissen, uiteindelijk) om daar patronen in te herkennen, daar zie ik wel wat in. Alleen, wat is het nut? Die software kan bij lange na niet zelf een uitspraak doen, en ik weet niet of ik er vrolijk van word als de EHRM-rechters eerst eens kijken wat de AI zegt dat de uitspraak wordt.

Het is natuurlijk een knappe prestatie. Arresten van het EHRM zijn altijd grote lappen tekst met veel haken en ogen, dus wie daar doorheen weet te komen Ă©n een verrassende conclusie kan trekken, die heeft echt wel iets bereikt.

Dus mis ik iets? Wat is de waarde van deze innovatie?

Arnoud

Deel dit artikel

  1. Relativering: het algoritme kon dit aan de hand van de vastgestelde feiten van het vonnis. EHRM-vonnissen zijn altijd volgens een strak schema opgebouwd, met bovenaan die feiten. Die lap tekst met juridisch vastgestelde feiten werden aan het systeem gevoerd om de uitkomst te voorspellen. Maar zoals je weet schrijven rechters de feiten al op met een bepaald vonnis voor ogen (er wordt naar een doel geredeneerd).

  2. De AI gebruikt onder andere de namen van een aantal maanden om de uitkomst van de uitspraken te voorspellen.

    Zou dat betekenen dat rechters van het mensenrechten hof in bepaalde maanden van het jaar minder streng oordelen dan in andere maanden van het jaar….

  3. Machine Learning kan aardige dingen doen en juist door er meer info in te stoppen en doordat het getest kan worden (de uitkomst kan afgezet worden tegen de daadwerkelijk uitkomst) is het een systeem wat door de tijd heen steeds meer patronen kan herkennen. Ja er zitten nadelen in zoals hier wordt aangegeven, maar wat als het percentage na een tijdje 99,9% is? Wat betekent het dan? Alle innovaties beginnen op een niveau dat mensen hun neus er voor ophalen….

  4. De waarde voor de rechtspraak is dat uitspraken objectiever kunnen worden gemaakt. We zullen onze rechtspraak nooit compleet door algoritmes laten doen. Dit is een van de weinige vakgebieden waar we juist de faalbare menselijke input wensen. Echter kunnen we AI als tool inzetten om rechters, advocaten, en burgers te ondersteunen. Strengere straffen vanwege huidskleur zijn zaken die opgespoord en opgepakt dienen te worden. Slimmer zoeken in uitspraken en jurispudentie helpt advocaten haar clienten beter te representeren. En mate van voorspelbaarheid geeft een mate van willekeur aan. Dit soort tools kan willekeur identificeren, meten, en helpen bestreiden.

Laat een reactie achter

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren en <em> en <strong> voor italics en vet.

(verplicht)

Volg de reacties per RSS