Hoe AI een rol kan spelen in juridische besluitvorming

De rol van AI voor juridische toepassingen is snel aan het groeien. Steeds meer diensten onderzoeken de mogelijkheden om kunstmatige intelligentie adviezen te laten geven of zelfs juridische besluiten te nemen. Welke mogelijkheden zijn daar voor organisaties zoals overheden, verzekeraars of keurende instanties om hun organisatie efficiënter te laten werken? En welke juridische risico’s zitten daaraan?

Een eerste, simpele mogelijkheid is een AI in te zetten als een aparte pre-check: mensen kunnen hun aanvraag of verzoek door een AI laten bekijken, die dan zijn bevindingen geeft. Dit verandert niets aan het eigenlijke traject en is vergelijkbaar met even informeel een medewerker bellen met de vraag of je aanvraag in principe akkoord is. Het zal schelen in de kansloze aanvragen en je kunt mensen tips geven om een aanvraag sterker te maken.

Meer winst krijg je als organisatie door de AI als eerste filter in te zetten. De aanvraag of het verzoek wordt dan eerst door de AI bekeken, en de bevindingen worden dan aan de behandelend medewerker verstrekt. Deze kan dan bijvoorbeeld zien of er afwijkingen op de normaal zijn, of welke onderdelen speciale aandacht nodig hebben. Dat verkleint de doorlooptijd, want een aanvraag waar de AI niets bijzonders aan ziet, kan dan eenvoudiger worden toegewezen. Een risico is natuurlijk dat de AI iets mist en de mens daar niet meer naar kijkt.

Nog sneller gaat het wanneer je die categorie “niets bijzonders” direct goedkeurt. Met zo’n raketloket win je nog meer tijd, omdat er nu in het geheel geen mens meer zit tussen de aanvraag en de positieve beoordeling. Uiteraard zit hier kans op fouten (een vals positief) maar je kunt dan steekproefsgewijs een handmatige controle uitvoeren, of de AI een voorlopige beoordeling laten geven en toezeggen dat een mens binnen zeg 14 dagen nog kan piepen. Dat laatste haalt natuurlijk de snelheid er weer uit, want varen op een voorlopige beslissing zal niet iedereen aandurven.

Spannender wordt het als de AI ook negatieve beslissingen gaat nemen. Want een AI die met enige zekerheid kan zeggen dat iets mag, kan net zo goed zeggen dat het niet mag. En dan krijg je dus een raketloket waar je ook binnen 5 seconden hoort dat het niet mag, wat je wilt. In ieder geval geldt dan de de AI in staat moet zijn het besluit goed te motiveren

Wanneer die beslissingen mensen aangaat (een verblijfsvergunning, of zelfs maar een bouwvergunning voor een dakkapel) dan kom je al snel bij het tere punt van de geautomatiseerde besluitvorming waar de Algemene Verordening Gegevensbescherming zo streng tegen is. In principe mag dat niet, een mens moet zulke besluiten nemen. Maar de AVG biedt een paar uitzonderingen:

  • Wanneer de besluitvorming noodzakelijk is voor een overeenkomst. Je zou dan kunnen denken aan een besluit om achterafbetaling toe te staan of de route te kiezen die een aanvraag moet volgen.
  • Wanneer een relevante wet dit bepaalt. Dit is vooral theoretisch nu, er is nog geen dergelijke wet waar dan ook in Europa. (Tenzij je bijvoorbeeld onze praktijk van het automatisch flitsen & beboeten van hardrijders een “wettelijke regeling” noemt.)
  • Wanneer men hier uitdrukkelijk toestemming voor geeft. Mensen zouden bijvoorbeeld kunnen kiezen voor een snelle geautomatiseerde beslissing in plaats van een langdurige handmatige beoordeling. Ik twijfel of het hierbij toegestaan is om de prijs te variëren: AI-besluit gratis, menselijk besluit duur. Daarmee ontzeg je mensen met beperkte beurs immers toegang tot die laatste categorie.

In ieder geval is het te allen tijde nodig dat betrokken personen bezwaar kunnen maken tegen het besluit, waarna een mens zich er nog eens over buigt. Ik denk dat hiermee een echt volledig geautomatiseerd proces niet goed mogelijk is, maar er is wel veel tijdwinst te maken op de gewone gevallen zodat de mensen zich bezig kunnen houden met behandelen van de lastige aanvragen. En dat blijft als thema maar terugkomen: AI pikt geen banen in maar maakt ze leuker.

Arnoud

9 reacties

  1. Ik ben het toch niet helemaal eens met de stelling dat AI geen banen pikt. Want het idee van een raketloket is toch echt dat het allemaal sneller gaat en er minder menselijke ogen nodig zijn. Er zullen nog steeds mensen bij betrokken zijn, maar net als bij machines en computers, kan het met minder mensen voor dezelfde productieaantallen. Of dit erg is, is een tweede, maar het kost wel degelijk banen in mijn ogen.

  2. Voor een pre-selectie zie ik grote voordelen. Dus kijken is er iets vreemds of verdachts te zien. Dit dan bij naast random controles. Volgens mij is dit het systeem dat de belastingdienst gebruikt en dit kost denk ik weinig banen en maakt gerichtere controles mogelijk.

    Voor een omgevingsvergunning verwachting ik niet dat het gauw zinvol wordt. Hoogstens als intern pre-advies.

  3. Arnoud, jouw referentie aan bouwvergunningen en verblijfsvergunningen roept bij mij een visioen op, dat niet heel aantrekkelijk is: Bij het gebruik van AI door de overheid zie ik het gebeuren dat een slimmerik een tweede AI ontwerpt die de beslissingen vande overheids-AI voorspelt. Die slimmerik kan daar dan mooi een business van maken: ‘gegarandeerd een bouwvergunning (of een verblijfsvergunning) of uw geld terug’.

    Alles wat die slimmerik dan moet doen is de aanvraag in de juiste (door de overheids-AI als wenselijk geziene) vorm te gieten, de zwakke punten op te lossen door wat creativititeit zodat ook die formeel in orde zijn, en hopla!.

    Nu is er niets tegen een slimmerik die business doet, maar wel als dat ‘overheidje voor de gek houden’ is.

    Met andere woorden: is een bepaald risico op fouten door een menselijke beoordelaar misschien wel niet maatschappelijk wenselijk, omdat het de aanvragers scherp houdt om zo volledig mogelijk en inhoudelijk mogelijk te zijn, en daardoor leidt tot inhoudelijk betere dossiers?

    1. Hoe is dat anders dan een adviesbureau dat nu handmatig een vergunningsaanvraag opstelt met de grootste kans om er doorheen te komen? Deze diensten bestaan allang, van “wij maken bezwaar tegen uw parkeerboete” tot “hoe win je een aanbesteding van 1 miljoen”. Of meer algemeen zoals een advocaat inhuren die bij de rechtbank een steviger eis kan neerleggen, of een accountant die beter navigeert in de belastingwetgeving? Is dat voor de gek houden of domeinspecifieke deskundigheid inschakelen?

      1. Het is deskundigheid inschakelen als het neerkomt op dingen goed doen, zoals ze volgens de regels van de kunst gedaan moeen worden. Het is voor de gek houden als het gedaan wordt met de juiste triggerwoorden/zinnen/constructies/whatever de AI belangrijk vindt, om de AI voor de gek te houden, terwijl de inhoud er niet is, maar alleen lijkt te zijn.

        Die slimme accountant heeft een belastingambtenaar tegenover zich, die ook niet dom is, en die in een twijfelgeval de ene dag links zal besluiten en de andere dag rechts.

        Die AI heeft een andere AI tegenover zich. De andere AI hoeft niet eens objectief slimmer/beter te zijn, maar alleen voldoende goed in het ontdekken van de triggers van de eerste AI.

  4. Ik weet teweinig van AI maar kan wel omgaan met veranderingen in maatschappelijke opvattingen? Dat er een logisch pad te creëren is op basis van oude beslissing kan ik nog wel volgen. Maar recht is nu per definitie niet zwart-wit.

    Als ik denk aan bv de opmerking over de jaren heen veranderende regels rondom alcohol gebruik in het verkeer zal het nog wel goed gaan. Dat is feitelijk. Maar als ik kijk naar opvattingen rondom discriminatie of belediging dan is dat in de laatste 30+ jaar ook wel veranderd. Hoe zou een AI daar “weet” van moeten hebben als beslissing automatisch gaan.

    OK, recht om in beroep te gaan helpt deels aan maar zal, verwacht ik, niet de volumes creëeren die nodig is om een besluit pad te veranderen.

    Zelfs voor zaken als een bouwvergunning, waar een welstandscommissie de richtlijnen voor wat, oa esthetisch, acceptabel is heeft vastgelegd, lijkt dit me al lastig genoeg.

    Ik denk waarschijnlijk te binair, maar heb nog wel moeite om dit over de jaren heen ook goed te zien gaan.

    1. Een AI zal waarschijnlijk heel conservatief zijn en dat is inderdaad een probleem bij veranderende opvattingen. Het zal daarom ook niet voor alles geschikt zijn.

      Als ik zie wat er soms gebouwd wordt en wat dus goedgekeurd is door een welstandscommissie dan denk ik dat een bot dat niet heel veel slechter zal doen.

      1. Uiteindelijk is zo’n bot toch een neuraal netwerk met een trainingset. Als je die trainingset blijft updaten, en bijvoorbeeld een gewicht meegeeft waardoor oudere gevallen minder zwaar meetellen, dan kun je de bot met enige regelmaat hertrainen. Je kunt zelfs overwegen entries van een bepaalde leeftijd te verwijderen uit je trainingset. Zo blijft je bot bij de tijd.

        Overigens is AI nog vrij nieuw en is het vrij voorstelbaar dat voordat de technologie van je bot eerder outdated raakt dan de trainingset.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.