Gaat de VS Europa links inhalen met haar AI regulering?

Met een presidentieel decreet wil de Amerikaanse president Joe Biden toekomstige AI-modellen van vangrails voorzien. Dat las ik bij De Tijd dinsdag. Het nieuws komt een week nadat de Europese wetgever er nog niet uit is met de AI Act, dus het is nogal een verrassing: krijgt de VS nu ineens méér regulering dan Europa?

De Wall Street Journal noemt de Executive Order van Biden (want dat is het) een “emergency federal power”. Want Biden kan als president geen wetten invoeren. Met een executive order of decreet kan hij de federale overheidsorganen aansturen, wat indirect behoorlijk wat impact op de maatschappij kan hebben.

Eerder had het Witte Huis al een “Blueprint for an AI Bill of Rights” uitgegeven, een streven met vijf beginselen voor wat wij trustworthy AI zouden noemen. Biden maakt in zijn XO daar nu acht uitgangspunten van. Ik citeer de belangrijkste passage van iedere, namelijk het punt waar hij ingaat op wat zijn overheidsorganen gaan doen:

  1. My Administration will help develop effective labeling and content provenance mechanisms, so that Americans are able to determine when content is generated using AI and when it is not.
  2. The Federal Government will promote a fair, open, and competitive ecosystem and marketplace for AI and related technologies so that small developers and entrepreneurs can continue to drive innovation.
  3. My Administration will seek to adapt job training and education to support a diverse workforce and help provide access to opportunities that AI creates.
  4. Ty Administration will build on the important steps that have already been taken […] in seeking to ensure that AI complies with all Federal laws and to promote robust technical evaluations, careful oversight, engagement with affected communities, and rigorous regulation.
  5. The Federal Government will enforce existing consumer protection laws and principles and enact appropriate safeguards against fraud, unintended bias, discrimination, infringements on privacy, and other harms from AI.
  6. The Federal Government will ensure that the collection, use, and retention of data is lawful, is secure, and mitigates privacy and confidentiality risks.
  7. My Administration will take steps to attract, retain, and develop public service-oriented AI professionals (…)   The Federal Government will work to ensure that all members of its workforce receive adequate training (…).
  8. My Administration will engage with international allies and partners in developing a framework to manage AI’s risks, unlock AI’s potential for good, and promote common approaches to shared challenges.
Allemaal zaken die de overheid zelf gaat regelen dus. Burgers en bedrijven hebben daar niet direct mee te maken, behalve als ze willen verkopen aan de overheid. Nog steeds niet spannend, een overheid kan inkoopvoorwaarden hanteren immers.

Wél spannend wordt het wanneer Biden de Defense Production Act uit 1950 inroept. Deze wet is aangenomen aan het begin van de Korea-oorlog en geeft de president de bevoegdheid om producten onder de DPA te scharen wanneer dat noodzakelijk is voor de nationale veiligheid.

Biden rekent daar nu de enorme foundation models onder die het leeuwendeel van de nieuwe AI uitmaken, zoals GPT4 en Google’s modellen. De insteek is dat deze ook voor kwaadaardige cyberactiviteit ingezet kunnen worden, waarmee de VS kwetsbaarder wordt jegens buitenlandse actoren. Wederverkoop of IaaS-levering van zulke modellen aan buitenlanders wordt hiermee gereguleerd, de minister van Handel mag ingrijpen als zo’n transactie onwenselijk is vanuit de staatsveiligheid en inzet van AI in kritieke sectoren wordt aan overheidstoezicht onderworpen en zo nog het een en ander.

Opmerkelijk is vooral de eis aan generative AI: veel media melden dat generatoren hun content moeten gaan watermerken. Dat staat er niet: er komt onderzoek naar effectieve technieken om ‘synthetische’ content te kunnen onderscheiden van echte, en daaruit wordt dan een standaard afgeleid. Maar buiten de bovengenoemde scope kan de president private partijen niet bevelen uitvoer van hun tooling te watermerken.

De XO is natuurlijk wel een enorm sterk signaal dat er regulering aan zit te komen, en omdat alle grote AI providers ook willen leveren aan de overheid is de kans groot dat men deze standaarden gaat ondersteunen in ál hun producten en diensten. In combinatie met de AI Act die we in januari verwachten, levert dat in 2024 ineens een enorme regulering op van de wildwestsector die we nu hebben.

Arnoud

 

3 reacties

  1. Leuk dat ze regels gaan maken voor gehoste en/of commerciële AI, maar hoe gaan we straks om met lokaal draaiende opensource AI waar al die ethische beperkingen niet in zitten? Gaan we straks bezit van een AI die kinderporno kan genereren even strafbaar maken als het bezit van kinderporno zelf? Gaan we AI software reguleren als wapens, zoals vroeger met encryptie? Wordt het particulieren verboden AI te bezitten zonder vergunning?

  2. Zoals ik de voorstellen nu lees blijft het mogelijk om te experimenteren met AI modellen. Je mag een model trainen met data die je rechtmatig verkregen hebt, maar zodra je met persoonsgegevens wil gaan trainen moet je nagaan of dat van de AVG mag. (Waarschijnlijk niet.) Op het moment dat je de AI gaat gebruiken in relatie tot derden, dan komen eisen uit de AI act naar boven.

    Voor zover ik weet is (en komt) er geen verbod op een AI die mogelijk (bij een specifieke vraag van een operator) kinderporno kan produceren. Een model trainen met kinderporno is problematisch omdat het bezit van kinderporno illegaal is. Door een AI gegenereerde kinderporno kun je maar beter per ommegaande verwijderen.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.