Waarom moeten robots rechten krijgen?

| AE 10536 | Innovatie | 14 reacties

Geef robots alsjeblieft geen aparte juridische status, las ik bij NRC Handelsblad. In een open brief waarschuwen 150 prominente onderzoekers op het gebied van robots, kunstmatige intelligentie en rechtsgeleerdheid de Europese Commissie. Het argument om robots rechtspersoonlijkheid te geven hoor ik vaker de laatste tijd. Het zou aansprakelijkheidsproblemen oplossen, ethische dilemma’s kortsluiten en een belangrijke stap voorwaarts zijn in de volwassenwording van de Vierde Revolutie van onze samenleving. U hoort aan de ietwat sarcastische toon dat ik dat niet helemaal zie.

Recent nam het Europees Parlement een resolutie aan, waarin onder meer de aanbeveling stond:

Creating a specific legal status for robots in the long run, so that at least the most sophisticated autonomous robots could be established as having the status of electronic persons responsible for making good any damage they may cause, and possibly applying electronic personality to cases where robots make autonomous decisions or otherwise interact with third parties independently;

Door robots rechtspersoonlijkheid te geven (zeg maar net zoals een bv of een vereniging dat heeft) kunnen zij zelf rechtshandelingen verrichten, geld bezitten en aansprakelijkheid dragen voor schade of wanprestatie. Daarmee los je, op papier dan, een hoop problemen op. Immers als er schade is, dan heb je nu een rechtspersoon bij wie je de claim kunt neerleggen. Alle bestaande regels over aansprakelijkheid, toerekenbaarheid et cetera gelden automatisch, en we hebben 100 jaar jurisprudentie om die regels toe te passen op een rechtspersoon.

De onderzoekers dragen hier een aantal stevige bezwaren tegen aan. Allereerst vind ik een mooie dat je hiermee robots zwaar overschat. Er loopt nog lang geen Daneel Olivaw door de straten om de stoep te vegen of een medische behandeling uit te voeren. Het soort robots dat we wel hebben, is zo basaal en beperkt dat het altijd evident is welke mens of welk bedrijf erachter zit, en het ook zeer logisch is om díe dan gewoon aansprakelijk te houden.

Nog sterker vond ik het tweede argument: als je iemand een (rechts-)persoon maakt, geef je hem ook rechten, en wat betekent dát dan?

A legal status for a robot can’t derive from the Natural Person model, since the robot would then hold human rights, such as the right to dignity, the right to its integrity, the right to remuneration or the right to citizenship, thus directly confronting the Human rights. This would be in contradiction with the Charter of Fundamental Rights of the European Union and the Convention for the Protection of Human Rights and Fundamental Freedoms.

Die laatste zin lijkt te zeggen dat mensenrechten aan robots geven in strijd is met de mensenrechten voor mensen, wat ik niet helemaal volg. Maar het eerste punt zie ik wel: als je een robot rechtspersoonlijkheid geeft, mag je hem niet meer uitzetten als dat in het belang van mensen is. Dat is dan immers zeg maar moord. Ook zou je niet zomaar meer ín de robot mogen kijken zonder medische behandelovereenkomst (herstelovereenkomst?). Ja, dat krijg je er van als je 100 jaar standaardregels op een nieuwe situatie plakt.

Hoe het dan wel moet, laten de onderzoekers een beetje in het midden. Er moet goed over nagedacht worden en zonder vooringenomenheid naar een oplossing worden gestreefd. Daar kan niemand het mee oneens zijn, maar opschieten doet het natuurlijk ook weer niet. Toch maar dat aansprakelijkheidsfonds?

Arnoud

Nee, kunstmatige intelligentie zal nooit gaan rechtspreken (of pleiten)

| AE 10195 | Innovatie | 21 reacties

Een computer kan rechtspreken, als wij met zijn allen denken en willen dat hij het kan. Dat las ik bij Sargasso in een gastbijdrage van strafrechtadvocaat Vasco Groeneveld. AI komt eraan, ook in de rechtspraktijk. Die lijn doortrekkend betekent dat er over tien, twintig jaar robotrechters aan het werk zijn, niet gehinderd door emotie, hoofdpijn, vooroordelen of gewoon vrijdagmiddagmoeheid. Klinkt goed, maar ik zie het niet gebeuren.

Groeneveld begint met de stelling dat rechtspraak de “testcase bij uitstek” is:

Dat draait immers om het verwerken van datastromen en het onderbrengen van specifieke gegevens onder algemene wetmatigheden, en als ik het goed begrijp is dat zo’n beetje de definitie van een algoritme.

Het is inderdaad zo dat een algoritme een gestructureerd stappenplan is waarbij je algemene regels toepast op specifieke invoer. Ook het recht kent algemene regels, en juridisch werk bestaat vaak uit het vertalen van die regels naar een concrete casus: hier werd te hard gereden, dit is doodslag en dat contract is rechtsgeldig ontbonden.

Ik zie het zeker wel gebeuren dat computers die regels gaan toepassen, en zo juridisch-inhoudelijk werk gaan verrichten. Ik blogde daar medio december nog over: AI kan prima besluitvorming ondersteunen, en heeft dan inderdaad geen last van al die menselijke karaktertrekjes waar foute beslissingen op worden gebaseerd. (Tenzij de dataset waar de AI op gebouwd is die fouten introduceert, zoals bij een bevooroordeelde selectie.)

Ik zie rechtspraak alleen als uitzondering, speciaal geval. Ik noem het hier wel eens de exception handler van het recht: als we niet meer weten wat te doen, dan vragen we het aan de rechter. Haast per definitie krijgt de rechter dus de gevallen waar de wetmatigheden niet in voorzien of waar meerdere uitkomsten mogelijk zijn. En juist daar kunnen computers heel moeilijk mee omgaan. Daarom zie ik AI niet snel in de rechtszaal opduiken en uitspraken doen over die moeilijke gevallen.

Mijn visie is dat AI en computers de simpele gevallen zullen gaan doen, zeg maar de OM afdoening en de boetes op straat van oom agent. Wie daartegen bezwaar maakt, zal dan bij de menselijke rechter uitkomen die er een gewogen oordeel over moet doen. Daar kunnen dan ook bijzondere omstandigheden meegenomen worden, zoals een beroep op overmacht of noodweer waar haast per definitie geen regels over zijn.

Misschien dat een AI wel ondersteunende diensten kan leveren. Denk aan het analyseren van eerdere uitspraken over juist de minder wetmatige aspecten, zoals de strafmaat of de keuze tussen vrijspraak en veroordeling. Een AI kan daar patronen in ontdekken en zo aangeven of deze verdachte een lage straf moet krijgen of juist een hoge, zodat je een meer objectieve beoordeling daarvan krijgt. De rechter kan dat dan meenemen maar heeft het laatste woord en kan dus afwijken.

Arnoud