Hoe AI een rol kan spelen in juridische besluitvorming

De rol van AI voor juridische toepassingen is snel aan het groeien. Steeds meer diensten onderzoeken de mogelijkheden om kunstmatige intelligentie adviezen te laten geven of zelfs juridische besluiten te nemen. Welke mogelijkheden zijn daar voor organisaties zoals overheden, verzekeraars of keurende instanties om hun organisatie efficiënter te laten werken? En welke juridische risico’s zitten daaraan?

Een eerste, simpele mogelijkheid is een AI in te zetten als een aparte pre-check: mensen kunnen hun aanvraag of verzoek door een AI laten bekijken, die dan zijn bevindingen geeft. Dit verandert niets aan het eigenlijke traject en is vergelijkbaar met even informeel een medewerker bellen met de vraag of je aanvraag in principe akkoord is. Het zal schelen in de kansloze aanvragen en je kunt mensen tips geven om een aanvraag sterker te maken.

Meer winst krijg je als organisatie door de AI als eerste filter in te zetten. De aanvraag of het verzoek wordt dan eerst door de AI bekeken, en de bevindingen worden dan aan de behandelend medewerker verstrekt. Deze kan dan bijvoorbeeld zien of er afwijkingen op de normaal zijn, of welke onderdelen speciale aandacht nodig hebben. Dat verkleint de doorlooptijd, want een aanvraag waar de AI niets bijzonders aan ziet, kan dan eenvoudiger worden toegewezen. Een risico is natuurlijk dat de AI iets mist en de mens daar niet meer naar kijkt.

Nog sneller gaat het wanneer je die categorie “niets bijzonders” direct goedkeurt. Met zo’n raketloket win je nog meer tijd, omdat er nu in het geheel geen mens meer zit tussen de aanvraag en de positieve beoordeling. Uiteraard zit hier kans op fouten (een vals positief) maar je kunt dan steekproefsgewijs een handmatige controle uitvoeren, of de AI een voorlopige beoordeling laten geven en toezeggen dat een mens binnen zeg 14 dagen nog kan piepen. Dat laatste haalt natuurlijk de snelheid er weer uit, want varen op een voorlopige beslissing zal niet iedereen aandurven.

Spannender wordt het als de AI ook negatieve beslissingen gaat nemen. Want een AI die met enige zekerheid kan zeggen dat iets mag, kan net zo goed zeggen dat het niet mag. En dan krijg je dus een raketloket waar je ook binnen 5 seconden hoort dat het niet mag, wat je wilt. In ieder geval geldt dan de de AI in staat moet zijn het besluit goed te motiveren

Wanneer die beslissingen mensen aangaat (een verblijfsvergunning, of zelfs maar een bouwvergunning voor een dakkapel) dan kom je al snel bij het tere punt van de geautomatiseerde besluitvorming waar de Algemene Verordening Gegevensbescherming zo streng tegen is. In principe mag dat niet, een mens moet zulke besluiten nemen. Maar de AVG biedt een paar uitzonderingen:

  • Wanneer de besluitvorming noodzakelijk is voor een overeenkomst. Je zou dan kunnen denken aan een besluit om achterafbetaling toe te staan of de route te kiezen die een aanvraag moet volgen.
  • Wanneer een relevante wet dit bepaalt. Dit is vooral theoretisch nu, er is nog geen dergelijke wet waar dan ook in Europa. (Tenzij je bijvoorbeeld onze praktijk van het automatisch flitsen & beboeten van hardrijders een “wettelijke regeling” noemt.)
  • Wanneer men hier uitdrukkelijk toestemming voor geeft. Mensen zouden bijvoorbeeld kunnen kiezen voor een snelle geautomatiseerde beslissing in plaats van een langdurige handmatige beoordeling. Ik twijfel of het hierbij toegestaan is om de prijs te variëren: AI-besluit gratis, menselijk besluit duur. Daarmee ontzeg je mensen met beperkte beurs immers toegang tot die laatste categorie.

In ieder geval is het te allen tijde nodig dat betrokken personen bezwaar kunnen maken tegen het besluit, waarna een mens zich er nog eens over buigt. Ik denk dat hiermee een echt volledig geautomatiseerd proces niet goed mogelijk is, maar er is wel veel tijdwinst te maken op de gewone gevallen zodat de mensen zich bezig kunnen houden met behandelen van de lastige aanvragen. En dat blijft als thema maar terugkomen: AI pikt geen banen in maar maakt ze leuker.

Arnoud