Weer een puzzelstukje voor aansprakelijkheid erbij: wat is je klanten “aansporen” tot inbreuk?

Weer een nieuw puzzelstukje erbij in de toch al complexe constellatie van auteursrecht/platform-aansprakelijkheid. Waar we ooit hadden “platform niet aansprakelijk, reageer op claims” zijn er ondertussen boeken vol te schrijven over het regelkader. Het ging hier om twee Duitse rechtszaken, waarbij de Duitse rechter vragen stelde aan het Europese Hof: wanneer mag je een videoplatform nu zélf als publicist van de video aanmerken, en welke maatregelen kun je ze daarbij wel of niet aanrekenen?

In het arrest bekijkt het Hof nog eens vanaf het begin de huidige stand van zaken in de jurisprudentie. We zijn namelijk een fors eind opgeschoten met de vraag wanneer je iets “publiceert” (mededeling aan het publiek), dat is niet alleen maar als je de bitjes serveert naar de mensen die naar je luisteren. Ook als platform kun je daaronder vallen:

Die exploitant verricht namelijk een mededelingshandeling wanneer hij, met volledige kennis van de gevolgen van zijn handelwijze, intervenieert om zijn klanten toegang te verlenen tot een beschermd werk, met name wanneer deze klanten zonder een dergelijke interventie in beginsel geen toegang zouden hebben tot het verspreide werk (zie in die zin arrest van 14 juni 2017, Stichting Brein, C?610/15, EU:C:2017:456, punt 26 en aldaar aangehaalde rechtspraak).
Punt is heir natuurlijk wel dat het ging om twee uploads zonder toestemming, en dat kun je primair alleen de uploaders aanwrijven. Er moeten dus omstandigheden bijkomen waardoor je kunt zeggen “nú vinden we het ook de verantwoordelijkheid van het platform”. Men leunt daarbij zwaar op de Pirate Bay-uitspraak, want dat was een platform waarvan de beheerders donders goed wisten dat deze vol stond met illegale content. In keurige juridische taal:

In dit verband zijn met name relevant het feit dat een dergelijke exploitant, hoewel hij weet of behoort te weten dat beschermde content in het algemeen via zijn platform door gebruikers ervan illegaal beschikbaar voor het publiek wordt gesteld, niet de passende technische maatregelen treft die van een normaal behoedzame marktdeelnemer in zijn situatie kunnen worden verwacht om op geloofwaardige en doeltreffende wijze inbreuken op het auteursrecht op dat platform tegen te gaan, en het feit dat deze exploitant deelneemt aan de selectie van beschermde content die illegaal aan het publiek wordt meegedeeld, op zijn platform hulpmiddelen aanbiedt die specifiek bedoeld zijn om dergelijke content illegaal te delen of het delen van die content bewust stimuleert, wat kan blijken uit de omstandigheid dat die exploitant een bedrijfsmodel hanteert dat de gebruikers van zijn platform aanspoort om beschermde content illegaal op dat platform mee te delen aan het publiek.

Enkel weten dat er hier en daar illegale content staat, is echter dan weer niet genoeg. Je moet daar wel op ingrijpen, maar zolang het blijft bij “kan gebeuren en dank voor het opruimen” ben je niet mede aansprakelijk.

Daarmee komt Youtube met de schrik vrij: niet alleen waarschuwen zij mensen op vele plekken voor inbreuk, ze nemen ook technische maatregelen om inbreuken te verhinderen of te verwijderen. Verder is haar businessmodel niet (meer, zei hij cynisch) gebaseerd op het zichzelf groter maken met illegale content. Om diezelfde reden mag zij ook rekenen op de bescherming voor tussenpersonen mocht het tot een aansprakelijkheidsclaim komen.

Verder bevestigt het Hof nog eens dat je een platform niet mag verplichte om algemene filters te introduceren. Specifieke, gerichte filters om hernieuwde inbreuk door identieke uploads te blokkeren, dat mag wel.

Arnoud

6 reacties

  1. niet mag verplichte om algemene filters te introduceren

    Aan wat voor soort filters zou ik hier dan moeten denken? De context blijft neem ik aan auteursrecht. Dus geen detectie op veel naakt (wat al onzinnig is). Maar zeg, misschien kijken naar een stroboscopisch effect wat veel in videoclips voor komt?

    Verder dan dat kom ik nu niet. Maar misschien zit ik te beperkt te denken. Daarom ben ik hier benieuwd naar.

      1. Vraag me af wat dit betekend voor de implementatie van de nieuwe censuur^H^H^H auteursrechtenrichtlijn.

        Probleem hierbij is dat vingerafdrukken of te breed zijn (en dan dingen blokkeren die geen inbreuk maken), of te small (en dan dingen doorlaten die wel inbreuk maken) — omdat inbreuk maken afhankelijk is van de context, kan een vingerafdruk nooit een redelijke manier van handhaven van auteursrecht zijn.

        Ik zelf zou eerder geneigd zijn regels te maken waarbij uitgevers en producenten toegang krijgen tot een API met daarop real-time toegang alle nieuwe posts, en dan zelf aan mogen of het volgens hun inbreuk is, waarop het platform dan terug kan geven aan de uploader: he, partij X claimt dat jij inbreuk maakt op werk Y. Nu post weghalen of aanpassen, of aangeven dat dit volgens jou niet waar is, met grondslag (eigen werk, gebruik toegestaan, heb licentie, etc.) Leg het filterprobleem dan lekker neer bij de partijen die er belang bij hebben.

        Ook een veelvoorkomend probleem is het als partijen een vingerafdruk indienen op werk dat helemaal niet van hun is. Met name bekende filmpjes van de NASA krijgen op die manier tientallen claims om hun oren, omdat ze wel eens zijn gebruikt als onderdeel van documentaires of nieuwsberichten. Vandaar dat ik pleit voor een verbod op inbreuk op het publiek domein, zodat dit soort misbruik effectief kan worden aangepakt.

        Wat mogelijk wel kan is een hash van een bestand (een soort strenge vingerafdruk) gebruiken om te voorkomen dat identieke bestanden opnieuw worden aangeboden, maar dat is dan heel makelijk te omzeilen door kleine modificaties door te voeren.

      2. Ah. Dat leek mij nu juist net een specifieke filter “om hernieuwde inbreuk door identieke uploads te blokkeren”. Vandaar de verwarring.

        Dan snap ik alleen juist niet waarom met zo’n filter dan nog specifieke filters nodig zouden zijn.

          1. Het gemene zit hem in het woord “varianten” voor een mens makkelijk, maar voor een computer niet goed gedefinieerd. Ik zou het zelf definieren als bestand normalizeren volgens een bepaald algoritme, en dan vergelijken met hash over genormaliseerde bron. Je zou ook kunnen werken met een norm voor de grootte van het verschil als je beide bestanden vergelijkt (Beide normaliseren naar hetzelfde formaat, dan van elkaar aftrekken, en kijken wat het residu is), maar dat kun je niet met een vingerprint doen.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.