De telecomministers van de EU-lidstaten hebben een akkoord bereikt over de Artificial Intelligence Act, een wetsvoorstel met als doel om te verzekeren dat AI-systemen in de EU veilig zijn en de fundamentele vrijheden en Unie-waarden eerbiedigen. Dat meldde Tweakers onlangs. De AI Act is een unieke aanpak om de technologie en haar toepassingen te reguleren, omdat ze uitgaat van risicogebaseerde regulering: hoe enger, hoe strenger. Daardoor kan dus ook een Excelfilter onder de wet vallen. Het streven is dat in de herfst van volgend jaar een definitieve overeenstemming is bereikt, waarna de verordening in de lidstaten van kracht wordt.
Bij EURActiv vatten ze de belangrijkste wijzigingen in meer detail samen. Het eerste grote discussiepunt was de definitie van AI. Deze was in de eerste tekst (van de Commissie) wel héél generiek opgezet, welbewust met het doel zo veel mogelijke potentieel risicovolle inzet van AI te kunnen vangen. Want ja, ook met slaafs een Excelfilter opvolgen of een drieregelige if/then/else constructie het werk van je HR-afdeling laten doen ben je in feite bezig met computers managementbeslissingen laten nemen. En dat is dus eng.
De nieuwe definitie is iets beperkter door haar nadruk op machine learning, kennissystemen en dergelijke, maar laat ruimte aan de Commissie om de wettelijke definitie te herzien als daar aanleiding toe blijkt te zijn. Maar volgens mij is er niets wezenlijk uitgesloten dat in het eerste concept beoogd was eronder te laten vallen. Een punt is wel dat een AI alleen onder de Act valt als deze ingezet wordt om een voorspelling, content, aanbeveling of actie te doen. Een algemeen AI model (zoals het GPT-3 taalmodel) zou er dan niet onder vallen, want die doet an sich niets. De Commissie gaat dit nader onderzoeken en kan zulke generieke modellen er onder brengen als een impact assessment laat zien dat dit nodig gaat zijn.
In het risicogebaseerde model zijn er drie niveaus, met daarnaast een regulatory sandbox. Het hoogste niveau zijn toepassingen van AI die in strijd zijn met onze fundamentele waarden (zoals het beruchte “social credit scoring”), die zijn simpelweg niet toegestaan. AI’s die geen tot weinig risico’s voor mensen geven (zoals de chatbot bij Bol.com) hoeven vrij weinig, behalve zichzelf als zodanig bekend maken. Daartussen zit het soort AI waar het om gaat: die verhoogde risico’s hebben voor mensen, maar in een gebied dat op zich niet héél fundamenteel is.
Of nou ja? Zaken als screening van sollicitanten of biometrische herkenning kunnen behoorlijk wat impact hebben, maar zijn toch niet verboden. Wel moet hier een zwik documentatie bij beschikbaar zijn, inclusief kwaliteitsgaranties op de dataset en een adequate aansprakelijkheid voor schade. Ga het maar regelen, en als je leverancier je er niet voor wil vrijwaren (leuke vraag, wellicht zit je nu rond de contractsverlenging 2023) dan wordt het tijd om over te stappen.
Een goede stap dus, het lijkt erop dat er Europese overeenstemming bereikt is over wat AI wel en niet zou moeten doen dus de volgende stap bij de Raad en Parlement zou hopelijk snel afgerond moeten zijn.
(Meer leren over AI en wat daarbij hoort? Je kunt hieronder ons nieuwe boek voorintekenen, of onze eenjarige opleiding voor juristen Specialist ICT doen die in april begint.)
Arnoud
En wat denkt OpenAI over dit plan? Ik legde het even voor.
Lol… Binnenkort vervangen we Arnoud nog met AI. 😀Vervangen door. Niet: vervangen met. Anglicisme? Replace with? Nederlands is een aparte met eigen regels en uitdrukkingen.
Het model dat.