In de strijd tegen deepfakes krijgen Denen copyright op gezicht en stem, en wij dan?

Photo by JOE Planas on Unsplash

Denemarken wil de nauwelijks van echt te onderscheiden deepfakes strafbaar stellen, meldde de NOS. Of nou ja: beeld en geluid op een of andere manier onder het auteursrecht brengen, zodat je een rechtszaak met schadeclaim kunt beginnen. Ook in Nederland speelt men met die gedachte. Hoe zou dat er concreet uit zien?

In ICT&Recht betoog ik dat ook het internetrecht zich niet herhaalt maar wel rijmt. Toen de fotografie populair werd, kregen we het portretrecht als bescherming voor mensen die ongevraagd op de foto gingen. Dat werd in de Auteurswet opgenomen, want die wet ging toch ook over foto’s.

Die plek is achteraf gezien onhandig gekozen, want portretrecht heeft niets te maken met auteursrecht. Anno 2025 zouden we dit in de AVG hebben opgeschreven. Ik zie op allerlei plekken dan nu ook verwarring: krijg je auteursrecht op je gezicht of stem, en wat betekent dat voor beeld- en geluidsanalyse?

Het gaat dus nadrukkelijk om bescherming tegen misbruik van beeld en geluid, en dat is iets heel anders dan zeggenschap over beeld en geluid. En sterker nog: misbruik in de vorm van nep beeld en geluid.

In 2024 deed professor Dirk Visser een concreet voorstel voor een antideepfakerecht dat beschermt tegen gebruik van zowel gezicht als stem in door AI gegenereerde deepfakes. Deze gebruikt de definitie daarvan uit de AI Act, zij het met de toevoeging dat het recht ook bij overledenen geldt. Die definitie is breed genoeg om zowel beeld als geluid te omvatten.

Kort en goed stelt het voorstel dat ieder maken of publiceren van een deepfake toestemming vergt van de betrokkene. Zonder toestemming kan dit zelfs een strafbaar feit zijn (net zoals het portretrecht schenden, hoewel dat een dode letter lijkt). Op die manier is dus vrij rechttoe rechtaan op te treden tegen bijvoorbeeld sites die mensen deepfakes laten uploaden: evident onrechtmatig materiaal, weg ermee.

Het toestemmingsrecht staat hier in de Wet op de naburige rechten, niet de Auteurswet. De gedachte daarachter is dat artiesten zich al kunnen verzetten tegen gebruik van hun uitvoeringen (zoals zingen of dansen), en dat gebruik van jouw stemgeluid of gezicht daarmee op één lijn staat. Met deze constructie past deze vorm dus heel mooi in het Europese recht.

Een lastig punt is altijd de uitzonderingen, zoals een deepfake als satire of parodie. Het wetsvoorstel werkt dat niet uit, maar het lijkt me logisch om bij artikel 10 punt j aan te sluiten dat al een uitzondering voor deze zaken creëert.

Nadeel daarvan is dan weer dat al die deepfakesites gaan zeggen “haha alles is satire om te lachen” en dan weigeren notice&action te doen. Pragmatisch is het dan misschien beter om géén uitzondering op te nemen. Wie dan bij de (straf)rechter meent dat de uitingsvrijheid moet winnen, kan ter plekke een beroep doen op de beperkende werking van artikel 10 EVRM.

(Wie nu denkt, Engelfriet was altijd zo anti-auteursrecht en pro-informatievrijheid: klopt, maar bij deepfakes denk ik daar anders over.)

Mag het van de AVG? Die vind ik lastiger. Een toestemmingsrecht voor deepfakes is hoe je het ook wendt of keert een beperking in gebruik van persoonsgegevens, en artikel 6 AVG is nu eenmaal een uitputtende opsomming. Een nationale wet mag niet zeggen “bij dit gebruik van deze persoonsgegevens is een beroep op gerechtvaardigd belang verboden”. En dat lijkt dit voorstel wel te doen. Daar staat tegenover dat deepfakes haast per definitie onrechtmatige verwerking zijn (tenzij dus met toestemming), zodat je volgens mij niet toekomt aan deze vraag.

Het Deense voorstel is nog niet uitgewerkt, maar het zou me verrassen als het er héél anders uit gaat zien. In Frankrijk loopt al sinds eind 2024 een wetsvoorstel tegen deepfakes, dat echter beperkt is tot seksueel getinte werken.

Arnoud

17 reacties

          1. Ik vind niet per sé dat deze legaal moet zijn. Dat er nieuwe digitale middelen zijn om iemand op exacte wijze te imiteren is nog geen reden dat dat zonder iemands toestemming moet worden toegelaten. Als je dit wel toelaat dan krijg je schimmige toestanden waarbij iedereen een beroep doet op die uitzondering en dan is het beter om dit niet toe te staan zonder toestemming. Dat geeft duidelijkheid. En een polticus die het niet erg vindt als er een digitale kopie van hem op het internet verschijnt kan media in bulk gewoon toestemming geven om hem zo digitaal te persifleren. En iemand die dat niet wil kan nog steeds op traditionele wijze gepersifleerd worden.

            1. Aanvullend nog: Die duidelijkheid is nodig als je bijvoorbeeld partijen wil aanspreken om de deep fake of line te halen. Dan kan niemand een beroep doen op een arbitraire beoordeling of iets een parodie of satire is en vragen om een rechterlijke beoordeling of zoiets voor ze actie ondernemen.

  1. Nemen we het strikt, zouden de ouders het copyright moeten krijgen, uiteindelijk zijn zij voor de productiie verantwoordelijk.

    Ik denk, dat je eerder naar een “gebruiksrecht” zou moeten, mag je de afbeelding van het gezicht (of ieder ander lichaamsdeel) voor het produceren van nieuwe beelden gebruiken?

      1. Loop je nog tegen 1 probleem aan wanneer de deepfakes erg goed worden.

        Claimen dat een plaatje/video een deepfake is terwijl dat het niet is en dan de maker aanklagen.

        Die moet dan gaan bewijzen dat het geen deepfake is en zal als de andere partij veel meer geld/macht heeft die rechtzaak niet aangaan en het snel ofline halen en/of schikken.

        Zelfde gebeurt vaak met smaad en laster, zeker in het VK/de USA

        1. Wie zich op het rechtsgevolg beroept, moet bewijzen. Jij stelt dat afbeelding X een deepfake is, dus kom maar met argumenten. Daarna kan de bewijslast omgekeerd en kan de wederpartij met argumenten komen waarom het niet met AI is gemanipuleerd maar bijvoorbeeld ‘gewoon’ Photoshop. (Ik weet het verschil niet tussen Photoshop en AI, maar dat terzijde.)

          SLAPP rechtszaken zijn een algemeen probleem in het recht, dus die discussie is niet relevant voor deze specifieke strijd.

          1. Ah dus andersom geld ook. Je maakt een deepfake van iemand en wordt aangeklaagd. Dus de aanklager moet bewijzen dat dat schunnige filmpje niet echt is. Succes! Het hele hete hangijzer is dus of we straks wel kunnen bewijzen dat iets een deepfake is.

  2. En wat doe je dan met lookalikes? Het lastige met dit voorstel vind ik dat auteursrecht slaat op iets wat je maakt. Waarbij je het dus iemand kwalijk kan nemen als die iets maakt wat iemand anders ook gemaakt heeft. Maar hoe je geboren wordt, daar doe je niet zo veel aan. En als je dan toevallig lijkt op iemand anders, dan kan je daar niet zo veel aan doen.

    Wat moet je daar dan mee? Er is natuurlijk de picnic-zaak van Max Verstappen, waarbij Picnic met de ‘lookalike’ van Verstappen uiteindelijk in het ongelijk gesteld werd. Maar of het nou wenselijk is om op grote schaal activiteiten te verbieden die je lookalike ook toevallig al verricht heeft..?

    1. In het voorstel hier gaat het specifiek om deepfakes, “door AI gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal dat een gelijkenis vertoont met bestaande personen, voorwerpen, plaatsen, entiteiten of gebeurtenissen, en door een persoon ten onrechte voor authentiek of waarheidsgetrouw zou worden aangezien”.

      Een lookalike is eerder in het portretrecht al erkend als “portret”, wanneer men iets erbij doet om de suggestie te wekken dat het om de geportretteerde gaat. Ik zie ook geen verschil tussen een foto van iemand die is geschminkt om op Mark Rutte te lijken en een foto van gewoon iemand die met Adobe Photoshop is aangepast om op Mark Rutte te lijken. Als je er dan bij zegt “foto van Rutte” dan is dat een portret van Rutte.

      Wat bedoel je met “activiteiten verbieden die je lookalike verricht heeft”? Dat je niet mag racen als je op Max Verstappen lijkt? Dat verdedigt niemand volgens mij. Doen alsof je Verstappen bént, dus exploiteren van die gelijkenis en daardoor mensen misleiden, ja dat vind ik wel problematisch.

      1. “Doen alsof je Verstappen bént, dus exploiteren van die gelijkenis en daardoor mensen misleiden, ja dat vind ik wel problematisch.”

        Dat is ook relatief. De Frank en Ronald de Boer immitaties van Edwin Evers waren meesterlijk en grappig. En als je ze uit hun context haalt in zijn radio programma goed genoeg dat mensen zouden kunnen denken dat het de ‘echte’ waren.

        Hoe langer ik over dit Deense voorstel nadenk hoe slechter idee ik het vindt. Het Auteursrecht is al uitgegroeid tot een gedrocht en duurt bijvoobeeld idioot lang met 70 jaar na overlijden. Mogen we dan ook geen deepfakes maken van overleden personen, tot 70 jaar na hun overlijden?

        Of in het verlengde van de look a like discussie: Als een look a like iets zegt en het is in de contact duidelijk dat het niet de echte is, het filmpje wordt onder een CC0 licentie vrijgegeven en iemand verwijderd de context. Wat is dan de status? En wat als je met AI een deepfake parodie maakt waaruit duidelijk blijkt dat het niet de echte persoon is, en dat wordt uit context gehaald? En maakt het dan nog wat uit of je je AI hebt getrained op foto’s van de echte of van de look a like?

        Auteurs recht is m.i. een slechte fit.

        Wat er moet gebeuren is dat het doen van uitingen of plaatsen in situaties van personen, ongeacht de manier waarop vervaardigd, waarbij je de suggestie wekt dat een specifiek ander persoon die doet, verboden moet worden. Uitgezonderd als het overduidelijk parodie/satire is. Dan maakt het ook niet meer uit wie het filmpje maakt, degene die het filmpje verknipt waardoor de context verdwijnt waaruit de satire blijkt is de schuldige, niet degene die een deepfake gemaakt heeft.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.