Hoe ethisch verantwoord kan een AI of robot zijn?

Toen ik tien of elf was, kocht ik mijn eerste boek van SF-schrijver Isaac Asimov. Wat ik me er vooral nog van herinnerde, waren de vele korte verhalen over zijn Drie Wetten van de Robotica: een robot mag een mens geen kwaad doen, een robot moet doen wat de mens zegt tenzij daarmee wet 1 wordt overtreden en een robot moet zichzelf beschermen tenzij dat in strijd blijkt met wetten 1 of 2. Hele mooie ethische principes, en je ziet ze dan ook steeds terugkomen in discussies over ethiek bij robotica en kunstmatige intelligentie. Maar ik zie het zo even niet werken.

Het idee dat robots en/of kunstmatig intelligente systemen in onze samenleving mee gaan draaien, krijgt steeds meer overtuiging in de maatschappij. Voor een deel is dat een hype, maar er zit zeker een kern van waarheid in de verwachting dat dergelijke systemen een vast onderdeel worden van productie en dienstverlening, en ook wel vanuit de overheid.

De manier waarop deze systemen handelen en vooral beslissen roept dan vragen op, verloopt dat wel ethisch verantwoord. Je beslissing kunnen motiveren is daarbij één ding, maar een veelgehoorde eis is ook dat zo’n beslissing rechtmatig en verantwoord is. Horen dat je geen lening krijgt omdat je moslim bent, is een inhoudelijk duidelijke motivatie maar natuurlijk een onacceptabele.

Een dergelijk beslissysteem moet dus een set ethische randvoorwaarden en wettelijke grenzen ingebouwd krijgen. Alleen, hoe doe je dat? Haast per definitie zijn ethische principes algemeen en weinig vastomlijnd, maar ook wettelijke regels (zoals de AVG, die zo’n leningweigering verbiedt omdat sprake is van profilering op een bijzonder persoonsgegeven) zijn moeilijk in automatisering te vatten.

Een interessant initiatief is het Ethics for AI project van de Oxford University. Zij bekeken allerlei ethische codes, en kwamen toen met de conclusie

The very idea of parcelling ethics into a formal ‘code’ is also dangerous, if it leads to the attitude that ethics itself is just some separate part of life and of activities; it’s not. It’s more meaningfully looked at as a part and parcel of how we live, individually and collectively. So it would be unfortunate indeed, if the presence of a code of ethics encouraged the view that you could do the ethics, and then get on with life, get on with the job.

Het idee dat je ethiek kunt inprogrammeren in een systeem zie ik ook als een waangedachte. Het is geen functionele eis dat iets ethisch moet zijn, je kunt niet werken op basis van een lijst ethische randvoorwaarden. Het is natuurlijk mooi dat je een voorwaarde vanuit ethisch standpunt kunt rechtvaardigen, maar dat is zeer zeker geen garantie dat je systeem ethisch verantwoord werkt.

Ik vrees dat we er niet aan ontkomen om te zeggen, AI en robotica zal miskleunen slaan, dingen doen die ethisch onverantwoord zijn. Daar komen dan bezwaren tegen, en die worden in nieuwe systemen opgelost. Maar het blijft lapmiddelen en gedeeltelijke oplossingen die het probleem voor nu uit de weg gaan, en het zal nooit een fundamentele oplossing zijn waardoor onethische beslissingen onmogelijk worden.

Arnoud

21 reacties

  1. Ik denk dat een belangrijk probleem is dat mensen onethisch zijn. Als ik voor mijzelf spreek, merk ik dat ik in constante strijd ben met mijn eigen oerinstincten en patroonherkenning. Dingen als racisme en seksisme zijn haast een natuurlijke conclusie van het brein, voor mijn gevoel, en hoewel ik er niet echt last van heb, heb ik me er wel tegen af moeten zetten en rationeel moeten benaderen. Er zijn namelijk veel valkuilen in patroonherkenning.

    Nu heeft AI momenteel niet zo’n last van psychologische effecten zoals confirmation bias. Als we AI willen maken die net als mensen zijn, moeten we die fuzzy dingen die het brein allemaal doet er echter wel inbouwen en zijn ze net zo imperfect als een mens. En voor neurale netwerken die we nu bouwen om, bijvoorbeeld, te bepalen of een NDA verstandig is te ondertekenen of om bijvoorbeeld te bepalen of iemand een hypotheek mag, zit er een probleem in een mogelijke bias van de trainingset, doordat de trainer per ongeluk (of expres) zijn eigen bias inbrengt, of juist probeert te voorkomen en de andere kant uitslaat. Bovendien kun je de patroonherkenning van neurale netwerken gebruiken om op basis van andere eigenschappen te bepalen of iemand iets is waarop je wil discrimineren. Zelfs zonder naam zou je dan wellicht aan dingen als werkgeschiedenis of zelfs briefopbouw zien of iemand allochtoon is, of Moslim, of vrouw.

    Het lijkt ook wel alsof mensen vinden dat robots en AI perfect moeten zijn. Ze mogen geen fouten maken, zelfs als het inzetten van die robot of AI zorgt voor minder fouten dan toen het nog door mensen werd gedaan.

    Wat ik zelf overigens wel een interessante discussie vind is wat een zelfrijdende auto moet doen als hij in een situatie komt waar hij alleen kan kiezen tussen één of meerdere kinderen overrijden met de dood tot gevolg of tegen een boom aanrijden met mogelijke dood van de bestuurder (en eigenaar) tot gevolg.

    1. Het is grappig hoe dat laatste steeds weer voorkomt bij als het over zelf rijdende auto’s gaat maar ik vraag me toch af hoe vaak zo’n situatie voorkomt. If at all.

      Waarom kan de auto niet precies tussen 2 bomen door? En wat doen die kinderen plotseling op zo’n smalle weg?

      Ik ben het met je eens dat het een leuke discussie kan zijn met een biertje erbij maar het is m.i. nauwelijks serieus als vraag op te werpen bij het ontwerp van deze auto’s

      1. Het is ook puur hypothetisch en gaat vooral om de vraag: Moet een AI altijd ten gunste van zijn eigenaar kiezen, of mag hij zijn eigenaar benadelen in het belang van de meerderheid? En hoever mag dat gaan?

      2. Goeie opmerking. Ik merk zelf dat ik meer discussie krijg over de situatie dat de weg vol zit met zelfrijdende auto’s en je als voetganger wilt oversteken waar dat niet mag. Dat doe je dan namelijk gewoon blindelings, die auto zal toch wel stoppen. Extrapolatie leert ons dat daarmee steden automatisch autovrij worden, omdat iedereen continu oversteekt of er per fiets langs rijdt en die auto’s door feedbackleren steeds vaker zullen stoppen dan wel stapvoets rijden en uiteindelijk nooit meer vooruit komen. Ik zou dáár wel eens een discussie over willen voeren.

        1. Alle auto’s met een dashcam die overtredingen automatisch upload naar de politie alwaar een AI-agent de overtreding automatisch beoordeeld en de verantwoordelijke zal opsporen en straffen (al dan niet met een AI-drone).

          Maar meer serieus, ik heb voldoende vertrouwen in de mensheid dat ik verwacht dat dit wel mee zal vallen. Niet iedereen is een asociale tokkie die zich nergens wat van aan trekt. En anders moet je misschien tot de conclusie komen dat andere weggebruikers niet gemixt moeten worden met ai-weggebruikers. Als alle auto’s automatisch zijn en gedeeld worden, heb je geen parkeerplaatsen meer nodig langs de weg en kan je daar dus mooi een afgescheiden fietspad maken (met drempel).

          1. Maar meer serieus, ik heb voldoende vertrouwen in de mensheid dat ik verwacht dat dit wel mee zal vallen.

            Ik niet. Sociaal gedrag is moeilijk te handhaven als er geen speltheoretische nadelen aan asociaal gedrag zitten. Bij hedendaags verkeer is oversteken waar autos voorrang hebben altijd in meerdere of mindere mate riskant, en dat is voldoende om het houden aan de verkeersregels tot een speltheoretisch equilibrium te maken, wat ertoe leidt dat de meeste mensen zich er de meeste omstandigheden aan houden. Als die speltheoretische prikkel volledig verdwijnt, dan trapt op enig moment niemand er meer in, asociaal of niet.

            Zelf vraag ik me af of een fundamentele revisie van de verkeersregels op zijn plaats is in een maatschappij waar bij benadering alle motorvoertuigen autonoom zijn; een systeem waarin autonome systemen verkeerstechnisch minderwaardig zijn aan menselijke verkeersdeelnemers is misschien op zijn plaats hier. Maar dat lost het probleem van effectief autovrije steden nog niet op.

      3. Dit schijnt inderdaad het geval te zijn. In eigenlijk alle gevallen gaat het niet om een keuze tussen inzittende of object buiten. In eigenlijk alle gevallen zal gewoon heel hard remmen voor de auto de enige en beste keuze zijn. En de kans is erg groot dat computers dat beter kunnen dan wij mensen. Kortom, minder verkeersslachtoffers in totaal. Ik snap niet waarom die discussie maar terug blijft komen.

        De reactie van Arnoud vind ik veel interessanter. Is het in steden uberhaupt mogelijk om met zelfrijdende auto’s te rijden? Bij de eerste tests met zelfrijdende auto’s bleek ook dat ze niet berekend waren op het huftergedrag van andere weggebruikers en daardoor inderdaad belachelijk lang aan het wachten waren om ergens over te kunnen steken.

      4. Ik denk dat het wel een serieus ontwerp probleem is. Hoe weinig het ook voor komt, de fabrikant zal het antwoord moeten geven, en met miljarden auto’s gaat het een keer gebeuren en dan moet de fabrikant zich verantwoorden voor de rechter. Dat is met een mens achter het stuur niet aan de orde.

        1. Nee, in dat geval staat de mens voor de rechter.

          Naast het feit dat zo’n situatie in de praktijk waarschijnlijk niet tot zelden voor gaat komen, is het ook absurd dit “trolley dilemma” als serieuze ethische keuze voor zelfrijdende auto’s en hun fabrikanten voor te stellen. Dit dilemma (kies ik voor passagier of overstekend mens, kies ik voor 1 mens of 5 mensen) gaat uit van zekerheden in gevolgen die er in de werkelijke praktijk niet zijn. In werkelijkheid is de schade die actie A of actie B zal opleveren niet met algoritmes te voorspellen, net zo min als het gedrag van degenen die zich voor en in de auto bevinden. Welke kant springen ze op? De auto kan de uitkomst van het dilemma niet berekenen en het is absurd te stellen dat een fabrikant dat zou moeten doen. We eisen ook niet van een mens dat hij een dergelijke omnogelijke keuze kan maken.

          Kortom, ik vind het nogal een non-discussie, leuk voor in de kroeg, maar uitgekauwd met betrekking tot de toekomst van zelfrijdende auto’s. De enige vraag die wat mij betreft relevant is, is aansprakelijkheid bij letselschade. En we zien al dat de eerste fabrikanten hun verantwoordelijkheid nemen voor de software in hun auto’s en aansprakelijkheid accepteren.

  2. Veel verhalen van Asimov gingen juist over dit probleem. En over hoe zijn wetten die zo mooi lijken vaak onbedoelde gevolgen hebben die niet wenselijk zijn. Bijvoorbeeld een robot die jou geen kwaad mag doen en daarom gaat liegen om je gevoelens te beschermen.

  3. Ik hoorde onlangs dat een van de bedoelingen van de AVG juist het onmogelijk maken dat AI’s beslissingen over mensen nemen.

    Zelfs het zuiver op “rationele gronden” data gebruiken kan leidden tot wat effectief neerkomt op het voortzetten van discriminatie. Vindt een AI een correlatie tussen wanbetalen en het wonen in een wijk met overwegend minderheden, dan zal die het wonen in die wijk (mogelijk het gevolg van discriminatie in het verleden) zien als een indicator voor wanbetalen, en dus een krediet weigeren of tegen hogere tarieven aanbieden. Kredietverstrekkers baseren hun beslissingen op dit soort gegevens (door een kredietbeoordelaar die uiteindelijk een persoon samenvatten in een enkel getal tussen 0 een 1000, en zelf niet bepaald helder zijn over hoe dat getal tot stand komt).

    In het voorbeeld van de zelf-rijdende auto is dit helemaal een lastige. Auto’s die doelbewust de bestuurder opofferen zullen niet populair zijn, zelfs al worden chauffeurs die dit uit zichzelf doen als helden gezien.

    Het lijkt me dat je in beide gevallen gewoon productaansprakelijkheid bij de fabrikant van de software moet neerleggen. Blijkt een AI te discrimineren, dan krijgt de software leverancier een boete (en de gebruiker ook, als hij doorgaat deze te gebruiken nadat hij daarmee bekend is geworden); en doodt de auto de bestuurder of de kinderen, dan kan de autofabrikant een rechtszaak voor dood door schuld verwachten.

    Het lijkt me dat je in alle gevallen mag eisen dat wordt uitgelegd hoe een beslissing tot stand komt. Voor belangrijke beslissingen over anderen dient gewoon een gedegen motivatie gegeven te worden.

  4. Als je automatiseert in een omgeving / met een set van eisen die inherent te complex is om in een geautomatiseerd systeem te vatten, zou je je dan niet moeten beperken tot, zeg, de 80% of 90% meest voorkomende gevallen? Voor de overige gevallen zou de AI de hulp van een mens moeten inschakelen, en zou een potentieel benadeeld mens moeten kunnen eisen dat de AI wordt overruled door een ander mens.

    Ik zie een AI niet als een zelfstandige entiteit, maar als een verlengstuk van een mens. Wij doen zelf ruim 80% wat we doen al “op de automatische piloot”, inclusief onze deelname aan het verkeer: alleen als je echt nieuwe dingen aan het doen bent (rijlessen) of in bijzondere situaties ben je daar bewust met je hoofd bij. Onze “automatische piloot” trekt automatisch de aandacht van ons bewustzijn als dingen te ingewikkeld worden, en andere mensen kunnen ook een beroep doen op onze bewuste aandacht (dat is in wezen de intentie van al het gescheld in het verkeer). Dat zou bij gebruik van een AI ook allemaal moeten kunnen.

  5. Kern van het probleem is dat we ethische regels niet kunnen vertalen in code. Kunnen we wel in code vastleggen dat AI moeilijke beslissingen kan herkennen, het nemen van die beslissingen kan uitstellen en zich bij een mens kan vervoegen voor nader advies? M.a.w. AI mag geen ethische beslissingen nemen zonder menselijke interventie. Of halen we hiermee bijna alle daadkracht, snelheid, effectiviteit en beslissingsbevoegdheid bij AI weg?

  6. Hoewel het wellicht onmogelijk is om een AI zo te programmeren dat deze volledig ethisch handelt, zijn er veel stappen die bedrijven en organisaties kunnen nemen om ervoor te zorgen dat de AI zo ethisch mogelijk functioneert.

    Een vergelijkbaar onderzoek is gepubliceerd door het AI Now Instute. Zij komen met 10 aanbevelingen, waaronder: – pre-release testen van de AI op bias en fouten in het ontwerp van het systeem. – het blijven monitoren van de werking in verschillende contexten. – het ontwikkelen van standaarden voor audits waaraan bedrijven onderworpen kunnen worden. – Alle groepen die AI ontwikkelen of er onderzoek naar doen zouden cijfers moeten publiceren over de participatie van vrouwen, minderheden en andere gemarginaliseerde groepen in het onderzoek of de ontwikkeling van de AI. – bedrijven die AI gebruiken of ontwikkelen zouden experts uit andere disciplines moeten aannemen, en deze beslissingsbevoegdheid geven. – ethische codes moeten samen gaan met regulering en verantwoordelijkheid/aansprakelijkheid.

    Hier is het artikel over dat rapport op Wired, inclusief link naar dat rapport: https://www.wired.com/story/why-ai-is-still-waiting-for-its-ethics-transplant/

    Ik denk dat transparantie over de totstandkoming van en verantwoordelijkheid voor de algoritmes bij de ontwikkelaar noodzakelijk zijn. Het zal misschien niet perfect worden, maar als het duidelijk is hoe en waarom niet en er iemand voor aansprakelijk gehouden kan worden, zijn we al een heel eind.

  7. Bij de aanname dat AI en robotica miskleunen slaan en ethisch onverantwoord handelen, is het interessant om je af te vragen of dan in zijn totaliteit ethische normen slechter of beter worden nageleefd dan nu – door mensen – het geval is. Met andere woorden, dat AI en robotica ‘fouten’ zullen maken betekent niet per definitie dat het slechter wordt dan nu. Misschien wordt het juist beter, maar wordt – ook dan – geen 100% score behaald.

  8. Gedrag of een beslissing kan onethisch zijn, terwijl deze perfect wettelijk is. Bijvoorbeeld een automatische test die Facebook tijdlijnen focused op negatieve of positieve inhoud, en dan de invloed op negatief of positief taalgebruik van controle groepen meet. Hoewel niet expliciet verboden, vindt de samenleving het niet kosjer dat men roekeloze psychologische experimenten uitvoert op onwetenden (en is dit voor de medische wetenschap middels zelf-regulatie expliciet verboden).

    Ethiek staat boven wetten en de wetenschap. Het dient, net als filosofie (en science fiction), als aangevend orakel.

    Net zoals we common sense probleem nog niet opgelost krijgen voor AI (AI maakt fouten die een mens nooit zou maken), zo krijgen we filosofie niet ingeprogrammeerd.

    Er zijn wel reeds manieren om bedrijven die last hebben van dezelfde hackers, om deze informatie (zoals logbestanden) te laten delen, zonder dat men werkelijk kan inzien welke en hoeveel bezoekers een concurrent ontvangt. Mogelijk is zo’n cryptografische methode in de toekomst inzetbaar, om middels speltheorie, bedrijven en onderzoekers te “dwingen” tot “ethisch” gedrag:

    Elke automatische beslissing die je neems, wordt versleuteld/geanonimiseerd verzonden naar een netwerk van derden (die vaak concurreren zijn). De AI (of een mens) van de derde partij bekijkt de structuur van de beslissing: geeft deze een OK “Ja, prima, voer een test uit op de profielen van uw gebruikers om te kijken of negatief of positief gedrag te induceren is, zonder dat uw gebruikers hiervan op de hoogte zijn” en verbindt zo deze “second opinion” aan haar reputatie. Bij teveel tegenspraak van de community volgt een inspectie van een overheidsbedrijf, die partijen in het systeem, onder strenge regels, kan deanonimiseren. “Meneer, uw bedrijfs AI heeft afgelopen jaar 12.000 beslissingen genomen zonder deze te laten verifieren door Maatschappij Netwerk. Hoe zit dat?”

    Zo’n structuur zou AI’s en mensen eerlijk kunnen houden.

  9. Asimov zelf erkende ook ruiterlijk dat het zo even niet ging werken me de Wetten van de Robotica. Zijn boek I, Robot staat vol met verhalen over robots die voorzien zijn van de wetten en toch de kluts kwijtraken op de een of andere manier. Menselijke medewerkers moeten dan voor de oplossing zorgen.

    Het grote nadeel is dat om een regel goed toe te passen je de regel zelf moet begrijpen én je moet begrijpen waarom die regel er is. Voordat we beschikken over echte AI en niet een vorm van uiterst geavanceerde patroonherkenning lijkt me niet dat zoiets kan.

  10. Wat ik mis in de hele discussie is het idee dat een AI slimmer gaat worden als hij in staat is om zichzelf slimmer te maken. En dat hij daarbij ons voorbij gaat qua intelligentie. Deze exponentiële vooruitgang van intelligentie zal plaats vinden na de zogenaamde ’technologische singulariteit’.

    Ik ben er van overtuigd dat er een moment komt waarbij we niet meer tegen de logica/redenering van een AI op kunnen en een AI dus ook beslissingen kan maken, gebaseerd op onze wetgeving EN moraal. Wel moeten we een AI de gereedschappen aanreiken waarmee hij grenzen ontwikkelt die binnen onze, huidige, regels en moraal passen. Dat zal geen kwestie van commando’s zijn, maar een uitleg over wat wij als mensen als juist zien.

    Om nog een stap verder te gaan: er zou nu al een brede discussie moeten gaan komen over de rechten en plichten van de AI. Want een AI is van niemand, net zo min als dat een menselijke intelligentie van iemand is. Op het moment dat een AI een zelfbewustzijn ontwikkelt zullen we daar erg zorgvuldig mee om moeten gaan. Want wat is het verschil tussen menselijke en niet menselijke intelligentie?

    Afijn, onderstaand boek kaart dit o.a. aan, interessant lees- EN gedachtevoer:

    http://rechtenenplichtenvoorrobots.nl/boek.php

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.