Mag de Correspondent Mark Rutte deepfaken voor een klimaatalarm?

| AE 13003 | Uitingsvrijheid | 20 reacties

Het journalistieke platform De Correspondent heeft vandaag een deepfake-filmpje van demissionair premier Mark Rutte geplaatst, las ik bij het Algemeen Dagblad. In de neptoespraak, die amper van echt te onderscheiden is, luidt Rutte de noodklok over de klimaatveranderingen en kondigt hij aan verregaand beleid door te voeren. “Een toespraak waarvan we vinden dat de premier die zou moeten geven”, zo rechtvaardigt het medium haar stap. Er was meteen de nodige kritiek: ondergraaf je als journalist zo niet bepaalde kernbeginselen, als je meewerkt aan het normaliseren van deepfakes? Maar ook juridisch: mag dat wel, zo iemand deepfaken?

Zoals wel vaker bij juridische vragen: er mag niets zomaar, het zit hem eigenlijk altijd in de details. Er is geen specifiek wetsartikel dat het publiceren van deepfakes verbiedt, afgezien van deepfakeporno (art. 139h Strafrecht). Je moet dus eigenlijk altijd even verder kijken, wat is de inhoud of strekking van de video en wat vinden we daarvan.

Een voor de hand liggende insteek is smaad: je kunt met een deepfake iemand voor gek zetten, door hem of haar iets te laten zeggen dat niet waar is. Of door het gezicht te monteren in een aanstootgevende of beledigende context, zoals bij vervalst bewijs dat die persoon een misdrijf zou plegen. Die zal daarop aangekeken worden, en dat is in principe wel te zien als een aantasting van diens eer of goede naam.

Een andere mogelijkheid is het portretrecht en/of de AVG, door te zeggen dat er geen redelijk belang (art. 21 Auteurswet) dan wel geen gerechtvaardigd belang (art. 6 sub f AVG) is om het portret zo te manipuleren en te vertonen. Dat is iets makkelijker aan te tonen dan smaad, maar er is wel een probleem: is er inderdaad geen belang?

Specifiek bij deze deepfake zie ik dat namelijk wel, getuige de uitgebreide verantwoording van de Correspondent. Ik citeer:

Om de toekomst van ons land veilig te stellen zijn verregaande maatregelen nodig. Politiek leiderschap is daarvoor essentieel. Rutte heeft dit leiderschap tot nu toe niet getoond; integendeel, hij grijpt vaak terug op sussende uitspraken als ‘We moeten een leuk leven kunnen blijven leiden’ en ‘Ik ben niet van de sweeping statements’. Dat laatste zei hij nota bene toen hij in juli dit jaar de schade van de overstromingen in Limburg opnam.
Als je ziet dat juist dé leider van de politiek die leiderschapsrol verzaakt, en je wilt dat aan de kaak stellen na alles dat er al gezegd en gedaan is, dan is een stevig en opvallend middel wel geoorloofd lijkt mij. Het aan de kaak stellen van misstanden, het de politiek confronteren met tekortkomingen en fouten: dat is wel een taak van de pers. En dat hoeft echt niet perse met alleen geschreven artikelen of een documentaire op televisie, alle middelen zijn natuurlijk mogelijk om je mening te uiten.

Dat wil natuurlijk niet zeggen dat iedere deepfake met Rutte erin, of iedere deepfake waarin een politicus een controversieel (of tegengesteld) standpunt inneemt, automatisch legaal is. Die belangenafweging uit de wet moet je elke keer opnieuw maken, en er is geen algemene lijn.

Arnoud

Wat kun je juridisch doen als je zingen wordt gedeepfaked?

| AE 12027 | Intellectuele rechten, Uitingsvrijheid | 25 reacties

Rapper Jay-Z is een rechtszaak begonnen over muziek-deepfakes met zijn stem, las ik bij Pitchfork. Met deepfakes bedoelen we door machine learning gegenereerde werken die lijken op echte werken. Meestal in de context van video, maar het kan ook met audio. Daardoor ontstaan haast niet van echt te onderscheiden muziekwerken in dit geval, waarbij je zomaar zou denken dat Jay-Z ze heeft gemaakt (althans de rap heeft ingesproken). En dat is natuurlijk niet zo; wat kan hij hiertegen doen?

Hoe je precies deepfakes maakt, is een tikje ingewikkeld. Het komt erop neer dat je een heleboel data van je bron (zoals een berg video of een kilometer muziek) verzamelt en een generative adversarial network (een soort machine learning systeem) daarop loslaat. Dat systeem bestaat uit twee componenten: het ene achterhaalt wat zeg maar typerend is voor die brondata en maakt daar een nieuw, vergelijkbaar iets mee. En het andere achterhaalt wat de brondata ‘echt’ maakt en gaat dat nieuw gemaakte spul proberen te herkennen als nep. Dat herhaalt zich een aantal keer, totdat uiteindelijk het nieuw gemaakte niet van echt te onderscheiden is. Ja, dat werkt best goed.

Dit is populair geworden door allerlei deepfake-video gerotzooi, maar het kan in principe ook met muziek. Hier, Frank Sinatra zingt Abba of kies zelf wat leuks bij dit demonstratie-Youtubekanaal. Als je niet beter wist, zou je zeggen dat het echt is. En dat is dus het punt van deepfakes.

Niet leuk als je als artiest trots bent op je eigen werk, dus wat kun je eraan doen. Dat is een tikje complex, we hebben natuurlijk het portretrecht voor als je ten onrechte in zo’n nepvideo zit, maar het gaat hier niet om een portret – het is uitsluitend audio (de afbeelding in de video even negerend). En juridisch gezien heb je niet echt een uitsluitend recht op je stem.

In Nederland hebben we twee zaken gehad over stemrecht. Gert-Jan Dröge moest een imitator tolereren, onder meer omdat het volgens de rechter vooral ging om zijn geaffecteerde manier van spreken en niet perse een imitatie van hém. Maar toenmalig koningin Beatrix kon wél zich verzetten tegen gebruik van haar stem (althans een imitator). Heel sterke precedenten zijn dat niet. Het enige Amerikaanse equivalent is die Let’s get ready to rumble-man die 2.5 miljoen won van een imitator, op basis van imagoschade (ongewenste associatie met een chipsmerk).

Je kunt je afvragen of zo’n “AI model” dat iemand simuleert, telt als een imitatie van die persoon. In ieder geval is het uniek genoeg om te hopen dat die rechtszaak een keer wél wordt doorgezet, want Amerikaanse zaken van celebrities hebben de vervelende gewoonte altijd geschikt te worden en dan weet je nog niks.

Arnoud