Een lezer vroeg me:
Ik werk als onderzoeker aan AI en maak me zorgen over de nieuwe regels van de AI Verordening. Waar moet ik rekening mee houden?De AI Verordening of AI Act bevat stevige regels voor wat deze wet “hoog-risico AI” noemt. De achtergrond van deze wet is die van productveiligheid, wat ook meteen maakt dat zaken die weinig met productie en vermarkten van producten (of diensten) te maken hebben, er gauw buiten vallen.
Wie de AI Act openslaat bij artikel 2 lid 6, ziet bijvoorbeeld:
Deze verordening is niet van toepassing op AI-systemen of AI-modellen, met inbegrip van hun output, die specifiek zijn ontwikkeld en in gebruik gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel.Toch is het zo simpel nog niet als dat alle vormen van R&D zijn uitgezonderd. Het probleem is namelijk dat de AI Act niet definieert wat “wetenschappelijk onderzoek en ontwikkeling” inhoudt, of wat het betekent dat je dit “als enig doel” doet versus ook bijvoorbeeld met het doel van marktintroductie er naast.
Even verderop bepaalt de Act nog een keer dat zij niet van toepassing is op “onderzoeks-, test- of ontwikkelingsactiviteiten” zolang het nog niet gaat om producten of diensten die op de markt zijn. Dit komt grofweg neer op het zakelijk aanbieden van producten of diensten, hoewel ook gratis aanbieden (bijvoorbeeld met advertenties) er onder valt. De resultaten van wetenschappelijk onderzoek publiceren zal daar niet onder vallen. Een als experiment opgezette dienst na onverwacht succes voorzien van advertenties en zo gratis weggeven zal dat daarentegen wél doen.
Arnoud
Ik neem aan dat dan degene die het model op deze wijze aanbiedt degene is die aangesproken wordt?
Als je een model voor onderzoek ontwikkeld en vrij deelt kan immers een ieder er mee aan de haal gaan. Wel heel cru als dan het model als commercieel wordt bestempeld en jouw onderzoek daardoor eindigt.
Eigenlijk is dus nooit een model commercieel, maar een aangeboden instantie van het model kan commercieel zijn. De vraag die dan in mij opkomt: Kan je een model ook voor onderzoek onder de vrijstellingen gebruiken, als het elders commercieel gebruikt wordt? En maakt het uit of dezelfde partij het via twee routes aanbied, of dat de commerciele versie door een derde partij wordt aangeboden?
Je hebt gelijk, het gaat om de partij die het model aanbiedt. Dat kan de ontwikkelaar zijn, maar dat hoeft niet. Zeker niet bij een opensourcemodel dat je vrij op internet zet.
Dit impliceert ook dat jij prima onder een vrijstelling kan opereren terwijl een ander met hetzelfde model een commerciële dienst aanbiedt en daarmee onder de AI Act valt. Het gaat om wat jij doet, niet hoe het model an sich gewoonlijk in de markt gebruikt wordt.
Tja, “onderzoeks-, test- of ontwikkelingsactiviteiten” is toch een beetje vaag want wat valt er allemaal onder? Zo ben if momenteel aan het kijken hoe behulpzaam AI kan zijn bij het schrijven van fictie. En dan wordt het best interessant omdat de AI zelf dan voor het onderzoek wordt gebruikt om een verhaallijn mee te verbeteren. Maar de vraag is dan vervolgens of dat eigenlijk wel kan en mag.
Eerst en natuurlijk de vraag over auteursrechten, maar daar gaat het hier niet om. Het gaat nu om privacy en AI-data die geproduceerd is op basis van gegevens van echte personen kan betekenen dat een fictief persoon niet meer zo fictief is.
Zo bedenk ik regelmatig fictieve figuren in een bepaalde setting om daat verhalen omheen te bedenken. Maar heb te weinig tijd om die goed uit te schrijven dus ik noteer voornamelijk de hoofdlijnen voor deze verhalen om deze later eens uit te werken. Als ik tijd vind…
Maar ik ben eens gaan experimenteren door AI de persoonsgegevens van mijn fictieve figuren verder aan te vullen. Zo kun je met OpenAI opdracht geven om dit uit te werken in een JSON formaat zodat je deze gegevens kunt verwerken in een eigen database. Gegevens van fictieve personen, maar van buitenaf is dat niet zichtbaar. En de AI kan deze erg realistisch doen lijken, als je maar ver genoeg doorvraagt.
Dit is natuurlijk geen wetenschappelijk doel, maar ook schrijvers en filmmakers moeten vergelijkbaar onderzoek doen. En hebben dus een betrouwbare bron voor data nodig. Dat lijkt hier even vergeten te worden. Maar valt het schrijven van fictie onder “zakelijk”?
Als een simpel experiment heb ik via AI een verhaaltje geschreven waar ik dus waarschijnlijk de auteur van ben. (Dat is nog niet helemaal duidelijk.) Maar dit verhaal speelt in de moderne tijd en hoewel ik de twee hoofdpersonen zelf van namen heb voorzien en de gebeurtenissen in hoofdlijken heb ingevuld, kan er toch veel informatie in het verhaal komen dat niet zo fictief is als het zou moeten zijn. Zo kan de AI heel gedetailleerd bepaalde machines en locaties beschrijven, hoewel hier ook hallucinaties bij zitten. De AI noemt onder andere de verkeersleiding in de provincie Utrecht en daarnaast nog even kort iets over een militaire basis in die omgeving. Gemini kan gelukkig niet details over die militaire basis leveren wegens veiligheidsredenen. Dat scheelt weer. Maar het geeft wel aan dat er maar hele kleine basissen zijn rond Utrecht.
Maar het verhaal beschrijft ook een militaire helicopter, waar de AI meer informatie over kan geven, hoewel deels fictief. De hoeveelheid militaire data hangt dan natuurlijk wel weer af van de data die de AI heeft verwerkt en hopelijk zitten daar geen staatsgeheimen doorheen.
Maar dan moet ik opeens denken aan AI die wordt gebruikt voor militaire doeleinden om wapens en strategieen mee te verbeteren. Natuurlijk topgeheim, maar wat als die data in verkeerde handen valt? Sowieso gaf Gemini mij al enkele details van de UH-60 helicopter zoals Nederland deze waarschijnlijk zal bewapenen. En dat is best een hoog risico, ook al is deze data verzameld door militaire hobbyisten en zo.
Zo is er natuurlijk het risico dat zelfs simpele AI zoals OpenAI en Google Gemini voor spionage misbruikt kan worden, simpelweg doordat een heleboel mensen op het Internet delen wat ze zien, inclusief foto’s en verhalen van militaire oefeningen en andere gevoelige gegevens. De AI kan deze massaal verzamelen en daar dan gevoelige informatie uithalen. Dus er is zeker een gevaar bij het ontwikkelen van AI…