Is het rechtens genoeg als AI algoritmes geen bias meer hebben? #legaltechtuesday

| AE 11722 | Innovatie | 2 reacties

Bias of vooringenomenheid in algoritmes en artificial intelligence, veel is er al over geschreven. Het is het grootste actuele probleem dat grootschalige adoptie van AI in de weg staat, lijkt het wel eens. Want het is natuurlijk niet de bedoeling dat AI de besluitvorming over gaat nemen als daarmee discriminatie of uitsluiting van bepaalde groepen optreedt, of als mensen worden afgewezen op basis van een vooringenomenheid die we onwenselijk vinden. Maar zelfs als we dat probleem oplossen, blijft de inzet van AI en algoritmes een moeilijke.

Het probleem achter die bias is dat we AI vaak een eind laten kauwen op een hele berg data, en dan conclusies laten trekken op basis van een onderlinge samenhang. Maar waarom die samenhang er is, of hoe men tot een patroon is gekomen, dat kan zo’n AI vaak niet zeggen. Maar “computer says no” is juridisch onaanvaardbaar, ook als zo’n uitleg er eigenlijk niet is.

Uitlegbaarheid van AI is dus het devies. Laat maar eens zien (met een beslisboom of lijst van relevante factoren) hoe je tot dat besluit bent gekomen. En als je dan ziet dat daar een ‘verboden’ factor is gebruikt, dan bijstellen die hap. Of een moreel kompas eronder dat automatisch zorgt voor correctie. Op die manier voorkom je vooringenomenheid, in ieder geval een heel eind.

Maar is dat genoeg, zeker bij juridische analyses en uitspraken zoals in rechtspraak? Ik denk het niet. Er is namelijk een veel fundamenteler probleem met AI dan alleen maar dat de uitspraak mogelijk biased is of gebaseerd op een gebrekkige dataset. AI is namelijk fundamenteel zeer behoudend, en kan niet omgaan met rare situaties waarin de data niet voorziet. Of met voortschrijdend maatschappelijk inzicht. En laten dat nu precies de soort dingen zijn waar de rechtspraak regelmatig mee geconfronteerd wordt.

AI is bedoeld om standaardzaken te automatiseren. Patronen opsporen binnen het gewone, zodat deze in de toekomst sneller en beter (want consistenter) kunnen worden afgehandeld. Bevat deze aanvraag tekortkomingen, lijkt deze persoon op een verdachte, is er een crimineel bezig in ons netwerk. Dat soort patronen kun je prima met een AI opsporen.

Dergelijke patronen zijn namelijk neutraal: zo ziet crimineel gedrag er nu eenmaal uit, of zo bepaal je nu eenmaal gelijkenis van twee gezichten. Laat je dat echter los op juridische situaties dan krijg je een heel ander verhaal. Feitelijk vergelijk je dan een casus met een rits eerdere casussen, en de uitkomst zal dan vergelijkbaar zijn met die eerdere uitspraken. Dat klinkt mooi – consistentie in rechtspraak is een groot goed – maar echte vernieuwing zit er niet in.

Dat is ook precies hoe AI werkt. Een robotrechter leert geen rechtsregels zoals menselijke juristen doen, en leert zelfs niet het analyseren van eerdere jurisprudentie wat belangrijke factoren zijn. AI’s zijn goed in het vergelijken: gegeven een dataset waarin elk item (elk vonnis dus) in een zit, bepaal welke factoren per item essentieel zijn om in een bepaald bakje te horen. Dat is een beetje hoe een ervaren menselijke rechter ook werkt: oké, een standaard-incassozaakje of daar heb je weer een fotoclaim met het bekende verhaal over citaatrecht. Maar niet helemaal: een AI kijkt blind naar alle factoren die hij ziet, en dat kunnen ook onbedoelde factoren zijn (als advocaat X pleit of de eiser in Amstelveen woont, dan is dat een indicatie dat de zaak niet sterk is).

Uiteindelijk is de kern echter wel dat een AI alléén afgaat op de eerdere dataset. Hij leert immers alleen daaruit hoe er recht gesproken moet worden. Een afwijking van die dataset is daarbij niet te verwachten. Computers zijn immers niet creatief, en niet gevoelig voor ongewone omstandigheden, nieuwe feiten of het overtuigendste pleidooi. Dat is ook de reden waarom robotrechters alleen voor standaardwerk ingezet moeten kunnen worden, én dat er altijd ruimte moet zijn om die ongewone omstandigheden te kunnen stellen waarna een mensenrechter er naar kijkt.

De grote uitdaging bij AI in het recht zal dus zijn hoe de gekke gevallen eruit gevist worden en door een mens behandeld gaan worden.

Arnoud

Deel dit artikel

  1. Vanuit mijn oogpunt is AI vooral een meer complexe versie van statistiek. Inderdaad alle problemen met voorspelling buiten het bekende zijn hetzelfde. Maar zelfs dan zijn conclusies als: “U wilt vervroegde vrijlating. U bent veroordeeld voor een zedenmisdrijf. Statistisch gezien is het waarschijnlijk dat u recidiveert, daarom wordt uw aanvraag afgewezen” niet wenselijk. Mi. is dat ook de kern van de AI bepalingen in de AVG. Het moet mogelijk blijven om een individuele beoordeling te krijgen, en niet vanuit statistiek al beoordeeld te worden (uiteraard mag de statistiek/AI daar wel een factor zijn in de bepaling)..

Laat een reactie achter

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren en <em> en <strong> voor italics en vet.

(verplicht)

Volg de reacties per RSS