Nederlandse politie arresteert man om maken van deepfakeporno van BN’er

De politie heeft onlangs een 38-jarige Amersfoortse man opgepakt omdat hij een deepfakeporno zou hebben gemaakt van de NPO-presentatrice Welmoed Sijtsma. Dat meldde Tweakers vorige week. De journalist en presentatrice van Goedemorgen Nederland en Op1 maakte er voor omroep WNL een vierdelige docuserie van, Welmoed en de seksfakes. Tijdens het maken van de docuserie is ook de maker van haar nep-filmpje opgespoord, die na verhoor weer is vrijgelaten. Dat roept de vraag op of en hoe deze man strafbaar is.

Een deepfake is een techniek voor het samenstellen van videobeelden met machine learning, meer specifiek een generatief antagonistennetwerk of generative adversarial network (GAN). Heel simpel uitgelegd bestaat een GAN uit twee AI systemen, de een genereert plaatjes en de ander probeert te zien of die gegenereerd zijn. Pas als die laatste ze niet herkent, zijn ze af. Maar los van de technische details, de omschrijving uit het AD “Mijn hoofd is op het lichaam van een pornoactrice gemonteerd.” laat prima zien waar het om gaat. Er zijn immers genoeg andere manieren om dit resultaat te bereiken, ze zijn alleen duurder of arbeidsintensiever dan een GAN.

Is dat strafbaar? Ja. Sinds een paar jaar hebben we een nieuw wetsartikel over onvrijwillige porno, namelijk art. 139h Strafrecht:

Met gevangenisstraf van ten hoogste een jaar of geldboete van de vierde categorie wordt gestraft: a.hij die opzettelijk en wederrechtelijk van een persoon een afbeelding van seksuele aard vervaardigt; b. hij die de beschikking heeft over een afbeelding als bedoeld onder a terwijl hij weet of redelijkerwijs moet vermoeden dat deze door of als gevolg van een onder a strafbaar gestelde handeling is verkregen.
Dit artikel is ingevoerd vanuit de wens om ‘wraakporno’ te bestrijden, zeg maar stiekem je partner filmen tijdens seks en dat publiceren om haar (het is vrijwel altijd een haar) pijn te doen of te vernederen. Maar ik zie geen reden waarom een GAN-gegenereerd beeld hier niet onder zou vallen.

De discussie gaat dan namelijk over de vraag of het een ‘afbeelding’ is. Dat lijkt mij wel: die persoon is herkenbaar in beeld, dat is het hele punt van de deepfake. Dat er geen beeldbewerking is gebruikt en dat je het portret wellicht niet zelf hebt gemaakt, is dan geen argument.

Ditzelfde woord ‘afbeelding’ staat namelijk in het wetsartikel dat kindermisbruikafbeeldingen (csam) strafbaar stelt. Daarbij is door de minister gezegd:

Voorts is sprake van vervaardigen van kinderporno als bijvoorbeeld een verdachte foto’s van kinderhoofdjes op pornografische foto’s van volwassenen plakt, realistische tekeningen of computeranimaties maakt, maar ook als (heimelijk) beeldmateriaal gemaakt wordt van (naakt) spelende kinderen, met een kenbaar seksuele strekking.
In het strafrecht betekenen dezelfde woorden dezelfde dingen. Als dus ‘afbeelding’ in 139h staat, dan geldt die uitleg van de minister ook voor artikel 139h. Dus is een “realistische tekening of computeranimatie” een vorm van “afbeelding”, en je kunt van een deepfake veel zeggen maar “tekening of animatie” dekt de lading prima. En dat de afbeelding een tekening is, is geen bezwaar om het een portret van iemand te noemen, zie het strafbareportretrecht (art. 31 Auteurswet). Ik zie dus het probleem niet.

Werkte ik bij de politie dan was ik een minderheid, want in NRC schrijft onderzoeker Marthe Goudsmit:

De huidige wettekst biedt wel ruimte voor een interpretatie waarbij deepfakes ook strafbaar zijn, maar is daar niet duidelijk over. Daardoor komt een slachtoffer dat aangifte wil doen in een soort lekkende pijpleiding terecht: allereerst zal de politie moeten inschatten dat pornografische deepfakes onder de huidige strafwet vallen. Als de politie denkt van niet, kan geen aangifte worden gedaan. Als de politie de aangifte echter wel opneemt, is voor vervolging nodig dat er een officier van justitie is die er brood in ziet. Als dat dan ook het geval is, zal uiteindelijk de rechter moeten bepalen of in art. 139h Sr met ‘beeldmateriaal’ ook nepfoto’s bedoeld worden. In het beste geval zegt de rechter ‘ja’. Maar de rechter kan ook ‘nee’ zeggen, en dan heeft Nederland geen wet die pornografische deepfakes strafbaar stelt.
De huidige richtlijnen van het OM gaan inderdaad niet in op het aspect “is een foto van werkelijk gebeurde seks” versus “een hoofd is op andermans lijf geplakt”. Ik vermoed omdat de aandacht twee jaar geleden vooral ging over dat eerste, deepfakes bestonden wel maar waren nog geen maatschappelijk fenomeen. Dat is wel een héél frustrerende opstelling.

Persoonlijk zou ik bij zo’n onduidelijkheid juist zeggen, forceer een uitspraak. Hoe dan ook is duidelijkheid beter dan gedraai en “mja wie weet”, toch?

Arnoud

Mag de Correspondent Mark Rutte deepfaken voor een klimaatalarm?

Het journalistieke platform De Correspondent heeft vandaag een deepfake-filmpje van demissionair premier Mark Rutte geplaatst, las ik bij het Algemeen Dagblad. In de neptoespraak, die amper van echt te onderscheiden is, luidt Rutte de noodklok over de klimaatveranderingen en kondigt hij aan verregaand beleid door te voeren. “Een toespraak waarvan we vinden dat de premier die zou moeten geven”, zo rechtvaardigt het medium haar stap. Er was meteen de nodige kritiek: ondergraaf je als journalist zo niet bepaalde kernbeginselen, als je meewerkt aan het normaliseren van deepfakes? Maar ook juridisch: mag dat wel, zo iemand deepfaken?

Zoals wel vaker bij juridische vragen: er mag niets zomaar, het zit hem eigenlijk altijd in de details. Er is geen specifiek wetsartikel dat het publiceren van deepfakes verbiedt, afgezien van deepfakeporno (art. 139h Strafrecht). Je moet dus eigenlijk altijd even verder kijken, wat is de inhoud of strekking van de video en wat vinden we daarvan.

Een voor de hand liggende insteek is smaad: je kunt met een deepfake iemand voor gek zetten, door hem of haar iets te laten zeggen dat niet waar is. Of door het gezicht te monteren in een aanstootgevende of beledigende context, zoals bij vervalst bewijs dat die persoon een misdrijf zou plegen. Die zal daarop aangekeken worden, en dat is in principe wel te zien als een aantasting van diens eer of goede naam.

Een andere mogelijkheid is het portretrecht en/of de AVG, door te zeggen dat er geen redelijk belang (art. 21 Auteurswet) dan wel geen gerechtvaardigd belang (art. 6 sub f AVG) is om het portret zo te manipuleren en te vertonen. Dat is iets makkelijker aan te tonen dan smaad, maar er is wel een probleem: is er inderdaad geen belang?

Specifiek bij deze deepfake zie ik dat namelijk wel, getuige de uitgebreide verantwoording van de Correspondent. Ik citeer:

Om de toekomst van ons land veilig te stellen zijn verregaande maatregelen nodig. Politiek leiderschap is daarvoor essentieel. Rutte heeft dit leiderschap tot nu toe niet getoond; integendeel, hij grijpt vaak terug op sussende uitspraken als ‘We moeten een leuk leven kunnen blijven leiden’ en ‘Ik ben niet van de sweeping statements’. Dat laatste zei hij nota bene toen hij in juli dit jaar de schade van de overstromingen in Limburg opnam.
Als je ziet dat juist dé leider van de politiek die leiderschapsrol verzaakt, en je wilt dat aan de kaak stellen na alles dat er al gezegd en gedaan is, dan is een stevig en opvallend middel wel geoorloofd lijkt mij. Het aan de kaak stellen van misstanden, het de politiek confronteren met tekortkomingen en fouten: dat is wel een taak van de pers. En dat hoeft echt niet perse met alleen geschreven artikelen of een documentaire op televisie, alle middelen zijn natuurlijk mogelijk om je mening te uiten.

Dat wil natuurlijk niet zeggen dat iedere deepfake met Rutte erin, of iedere deepfake waarin een politicus een controversieel (of tegengesteld) standpunt inneemt, automatisch legaal is. Die belangenafweging uit de wet moet je elke keer opnieuw maken, en er is geen algemene lijn.

Arnoud

Wat kun je juridisch doen als je zingen wordt gedeepfaked?

Rapper Jay-Z is een rechtszaak begonnen over muziek-deepfakes met zijn stem, las ik bij Pitchfork. Met deepfakes bedoelen we door machine learning gegenereerde werken die lijken op echte werken. Meestal in de context van video, maar het kan ook met audio. Daardoor ontstaan haast niet van echt te onderscheiden muziekwerken in dit geval, waarbij je zomaar zou denken dat Jay-Z ze heeft gemaakt (althans de rap heeft ingesproken). En dat is natuurlijk niet zo; wat kan hij hiertegen doen?

Hoe je precies deepfakes maakt, is een tikje ingewikkeld. Het komt erop neer dat je een heleboel data van je bron (zoals een berg video of een kilometer muziek) verzamelt en een generative adversarial network (een soort machine learning systeem) daarop loslaat. Dat systeem bestaat uit twee componenten: het ene achterhaalt wat zeg maar typerend is voor die brondata en maakt daar een nieuw, vergelijkbaar iets mee. En het andere achterhaalt wat de brondata ‘echt’ maakt en gaat dat nieuw gemaakte spul proberen te herkennen als nep. Dat herhaalt zich een aantal keer, totdat uiteindelijk het nieuw gemaakte niet van echt te onderscheiden is. Ja, dat werkt best goed.

Dit is populair geworden door allerlei deepfake-video gerotzooi, maar het kan in principe ook met muziek. Hier, Frank Sinatra zingt Abba of kies zelf wat leuks bij dit demonstratie-Youtubekanaal. Als je niet beter wist, zou je zeggen dat het echt is. En dat is dus het punt van deepfakes.

Niet leuk als je als artiest trots bent op je eigen werk, dus wat kun je eraan doen. Dat is een tikje complex, we hebben natuurlijk het portretrecht voor als je ten onrechte in zo’n nepvideo zit, maar het gaat hier niet om een portret – het is uitsluitend audio (de afbeelding in de video even negerend). En juridisch gezien heb je niet echt een uitsluitend recht op je stem.

In Nederland hebben we twee zaken gehad over stemrecht. Gert-Jan Dröge moest een imitator tolereren, onder meer omdat het volgens de rechter vooral ging om zijn geaffecteerde manier van spreken en niet perse een imitatie van hém. Maar toenmalig koningin Beatrix kon wél zich verzetten tegen gebruik van haar stem (althans een imitator). Heel sterke precedenten zijn dat niet. Het enige Amerikaanse equivalent is die Let’s get ready to rumble-man die 2.5 miljoen won van een imitator, op basis van imagoschade (ongewenste associatie met een chipsmerk).

Je kunt je afvragen of zo’n “AI model” dat iemand simuleert, telt als een imitatie van die persoon. In ieder geval is het uniek genoeg om te hopen dat die rechtszaak een keer wél wordt doorgezet, want Amerikaanse zaken van celebrities hebben de vervelende gewoonte altijd geschikt te worden en dan weet je nog niks.

Arnoud