Hoe ethisch verantwoord kan een AI of robot zijn?

Toen ik tien of elf was, kocht ik mijn eerste boek van SF-schrijver Isaac Asimov. Wat ik me er vooral nog van herinnerde, waren de vele korte verhalen over zijn Drie Wetten van de Robotica: een robot mag een mens geen kwaad doen, een robot moet doen wat de mens zegt tenzij daarmee wet 1 wordt overtreden en een robot moet zichzelf beschermen tenzij dat in strijd blijkt met wetten 1 of 2. Hele mooie ethische principes, en je ziet ze dan ook steeds terugkomen in discussies over ethiek bij robotica en kunstmatige intelligentie. Maar ik zie het zo even niet werken.

Het idee dat robots en/of kunstmatig intelligente systemen in onze samenleving mee gaan draaien, krijgt steeds meer overtuiging in de maatschappij. Voor een deel is dat een hype, maar er zit zeker een kern van waarheid in de verwachting dat dergelijke systemen een vast onderdeel worden van productie en dienstverlening, en ook wel vanuit de overheid.

De manier waarop deze systemen handelen en vooral beslissen roept dan vragen op, verloopt dat wel ethisch verantwoord. Je beslissing kunnen motiveren is daarbij één ding, maar een veelgehoorde eis is ook dat zo’n beslissing rechtmatig en verantwoord is. Horen dat je geen lening krijgt omdat je moslim bent, is een inhoudelijk duidelijke motivatie maar natuurlijk een onacceptabele.

Een dergelijk beslissysteem moet dus een set ethische randvoorwaarden en wettelijke grenzen ingebouwd krijgen. Alleen, hoe doe je dat? Haast per definitie zijn ethische principes algemeen en weinig vastomlijnd, maar ook wettelijke regels (zoals de AVG, die zo’n leningweigering verbiedt omdat sprake is van profilering op een bijzonder persoonsgegeven) zijn moeilijk in automatisering te vatten.

Een interessant initiatief is het Ethics for AI project van de Oxford University. Zij bekeken allerlei ethische codes, en kwamen toen met de conclusie

The very idea of parcelling ethics into a formal ‘code’ is also dangerous, if it leads to the attitude that ethics itself is just some separate part of life and of activities; it’s not. It’s more meaningfully looked at as a part and parcel of how we live, individually and collectively. So it would be unfortunate indeed, if the presence of a code of ethics encouraged the view that you could do the ethics, and then get on with life, get on with the job.

Het idee dat je ethiek kunt inprogrammeren in een systeem zie ik ook als een waangedachte. Het is geen functionele eis dat iets ethisch moet zijn, je kunt niet werken op basis van een lijst ethische randvoorwaarden. Het is natuurlijk mooi dat je een voorwaarde vanuit ethisch standpunt kunt rechtvaardigen, maar dat is zeer zeker geen garantie dat je systeem ethisch verantwoord werkt.

Ik vrees dat we er niet aan ontkomen om te zeggen, AI en robotica zal miskleunen slaan, dingen doen die ethisch onverantwoord zijn. Daar komen dan bezwaren tegen, en die worden in nieuwe systemen opgelost. Maar het blijft lapmiddelen en gedeeltelijke oplossingen die het probleem voor nu uit de weg gaan, en het zal nooit een fundamentele oplossing zijn waardoor onethische beslissingen onmogelijk worden.

Arnoud