Wat kun je juridisch doen als je zingen wordt gedeepfaked?

| AE 12027 | Intellectuele rechten, Uitingsvrijheid | 25 reacties

Rapper Jay-Z is een rechtszaak begonnen over muziek-deepfakes met zijn stem, las ik bij Pitchfork. Met deepfakes bedoelen we door machine learning gegenereerde werken die lijken op echte werken. Meestal in de context van video, maar het kan ook met audio. Daardoor ontstaan haast niet van echt te onderscheiden muziekwerken in dit geval, waarbij je zomaar zou denken dat Jay-Z ze heeft gemaakt (althans de rap heeft ingesproken). En dat is natuurlijk niet zo; wat kan hij hiertegen doen?

Hoe je precies deepfakes maakt, is een tikje ingewikkeld. Het komt erop neer dat je een heleboel data van je bron (zoals een berg video of een kilometer muziek) verzamelt en een generative adversarial network (een soort machine learning systeem) daarop loslaat. Dat systeem bestaat uit twee componenten: het ene achterhaalt wat zeg maar typerend is voor die brondata en maakt daar een nieuw, vergelijkbaar iets mee. En het andere achterhaalt wat de brondata ‘echt’ maakt en gaat dat nieuw gemaakte spul proberen te herkennen als nep. Dat herhaalt zich een aantal keer, totdat uiteindelijk het nieuw gemaakte niet van echt te onderscheiden is. Ja, dat werkt best goed.

Dit is populair geworden door allerlei deepfake-video gerotzooi, maar het kan in principe ook met muziek. Hier, Frank Sinatra zingt Abba of kies zelf wat leuks bij dit demonstratie-Youtubekanaal. Als je niet beter wist, zou je zeggen dat het echt is. En dat is dus het punt van deepfakes.

Niet leuk als je als artiest trots bent op je eigen werk, dus wat kun je eraan doen. Dat is een tikje complex, we hebben natuurlijk het portretrecht voor als je ten onrechte in zo’n nepvideo zit, maar het gaat hier niet om een portret – het is uitsluitend audio (de afbeelding in de video even negerend). En juridisch gezien heb je niet echt een uitsluitend recht op je stem.

In Nederland hebben we twee zaken gehad over stemrecht. Gert-Jan Dröge moest een imitator tolereren, onder meer omdat het volgens de rechter vooral ging om zijn geaffecteerde manier van spreken en niet perse een imitatie van hém. Maar toenmalig koningin Beatrix kon wél zich verzetten tegen gebruik van haar stem (althans een imitator). Heel sterke precedenten zijn dat niet. Het enige Amerikaanse equivalent is die Let’s get ready to rumble-man die 2.5 miljoen won van een imitator, op basis van imagoschade (ongewenste associatie met een chipsmerk).

Je kunt je afvragen of zo’n “AI model” dat iemand simuleert, telt als een imitatie van die persoon. In ieder geval is het uniek genoeg om te hopen dat die rechtszaak een keer wél wordt doorgezet, want Amerikaanse zaken van celebrities hebben de vervelende gewoonte altijd geschikt te worden en dan weet je nog niks.

Arnoud