Aansprakelijk voor je algoritmes

uploading.pngWie anderen informatie op zijn site laat plaatsen, is daarvoor niet aansprakelijk mits hij snel ingrijpt bij klachten. Echter, dat geldt alléén voor de user-generated content als zodanig. Wat je zelf daar vervolgens mee doet, al dan niet met een algoritme, komt alsnog voor je eigen rekening. Dat maak ik op uit een vonnis van eind vorig jaar over nieuwssite De Nieuwe Krant.

De site liet gebruikers nieuws plaatsen, en daarbij werden langs geautomatiseerde weg populaire artikelen geselecteerd en op de homepage geplaatst. Toen (uiteraard) Cozzmoss dat ontdekte, volgde gelijk een forse claim. DNK wilde dit pareren met een beroep op het beschermingsregime voor tussenpersonen (hosters): zij plaatste niet zelf de artikelen maar liet gebruikers dat doen, en ze reageerde adequaat op klachten. Dat er artikelen van Cozzmoss-achterban op de homepage kwamen, kwam uitsluitend omdat een algoritme dat volautomatisch bedacht. DNK had daarmee niet zelf redactionele invloed op deze selectie.

De rechtbank haalt uit het Europese eBay-arrest dat een tussenpersoon volstrekt neutraal moet zijn en geen controle mag hebben over wat waar terecht komt. Dat is op zich juist, maar de rechter concludeert dat het hebben van een selectie-algoritme controle oplevert. Dat bouw je zelf, dus bepaal je zelf wat er op je site komt.

Daarbij komt dat DNK de mogelijkheid had om het algoritme zodanig aan te passen dat inbreukmakende artikelen van het algoritme werden uitgesloten, maar dat zij van deze mogelijkheid geen gebruik heeft gemaakt omdat de software daarvoor te duur was. De rechtbank is van oordeel dat DNK aldus het algoritme heeft bedacht, heeft toegepast en in staat was om dit aan te passen zodat vastgesteld kan worden dat DNK controle had over de van andere afkomstige informatie.

Het is wel érg makkelijk om te zeggen dat je ‘controle’ hebt en het algoritme had kunnen aanpassen om zo inbreukmakende artikelen weg te laten. Ik zou niet weten hoe dat moet; het eerste algoritme dat me kan vertellen “stop, dit is van de Volkskrant” moet nog gemaakt worden volgens mij.

Bovendien, we hebben ook nog het Google Adwords-arrest: daar ging het om advertenties van users die vervolgens middels een Google-algoritme hier en daar getoond worden. Google was daar een passief doorgeefluik omdat ze niet zelf selecteerde wat waar moest komen, dat deden de adverteerders immers. Wat is het verschil tussen Adwords op de Googlezoekresultatenpagina en nieuwsberichten op een nieuwssite-homepage?

Het past in de lijn die we kennen uit het 123video-vonnis en eerder Galeries.nl, waarbij het beheer ook enigszins actief modereerde, hoewel dat daar handmatig gebeurde.

Ik moet zeggen dat ik in dubio zit. Dat handmatig modereren/kiezen aansprakelijkheid oplevert kan ik ergens begrijpen, hoewel me dat wel steekt omdat modereren juist maatschappelijk zeer wenselijk is om je site netjes en nuttig te houden. Maar als je zegt, inzet van een selectie-algoritme leidt óók tot aansprakelijkheid dan wordt de ruimte wel héél erg beperkt. Een spamfilter is ook een algoritme. En willekeurig de site van een van je bloggers uitzoeken en op je homepage vermelden is óók een algoritme. Een blogsite die dus zo zijn klanten in het zonnetje wil zetten, zou dan ook aansprakelijk zijn?

Arnoud<br/> PS: Gelukkig nieuwjaar!

10 reacties

  1. Dat stop-volkskrant algoritme werkt natuurlijk erg simpel door het filteren van URLs op ‘vk.nl’, ‘volkskrant.nl’, ’trouw.nl’ en zo verder. Of begrijp ik het vonnis verkeerd, en was de website een soort collage van gefotografeerde/ingescande texten?

    Ik denk dat je een mooie balans kan vinden door te zeggen dat je bij klachten adequaat moet reageren (zoals reeds bekend), en bij herhaalde klachten het algoritme aan moet passen, inzoverre dat mogelijk is. Daarmee kan de rechter een trade-off maken tussen gevallen als deze, en gevallen als die van google, waar het eenvoudige filteren meestal geen impact heeft (of bijvoorbeeld gevallen waar de gebruikers actief proberen de filters te omzijlen).

  2. Wat is diit!? – Dat lijkt me de enige reactie van toepassing hier.

    Uberhaupt artikelen tonen maakt al gebruik van een algoritme; je toont meestal namelijk de recente bovenaan, en zo aflopend. Dat doe je hier ook met reacties (sorteren, alleen dan andersom). Je zou ook kunnen sorteren op nuttige reacties en slechts de beste vijf bij een artikel tonen (ok, dat werkt helemaal niet voor reageren, maar dat is een ander punt).

    Daar sorteren ze dus op populariteit in plaats van plaatsingsmoment en dat is dan niet toegestaan?

  3. Het is wel érg makkelijk om te zeggen dat je ‘controle’ hebt en het algoritme had kunnen aanpassen om zo inbreukmakende artikelen weg te laten. Ik zou niet weten hoe dat moet; het eerste algoritme dat me kan vertellen “stop, dit is van de Volkskrant” moet nog gemaakt worden volgens mij.
    Desondanks is dat geen probleem voor de wetgever. Dat dit technisch gezien niet kan, is geen excuus. Sowieso denk ik dat het wel mogelijk moet zijn, maar dat de gerelateerde kosten van een dergelijke oplossing onbetaalbaar worden. Je zult filters moeten inbouwen die bepalen welke sites niet bezocht mogen worden en met beeldmateriaal kun je met TinEye of Google Image Search de bron proberen te traceren. Dat zou in theorie via een script moeten kunnen die het volautomatisch uitvoert. Als de afbeelding dan ook op een blacklisted site staat, dan niet gebruiken.

    Maar een goede methode is hoe de StackExchange websites werken. Die worden ook zwaar gemodereerd, maar dit gebeurt altijd door de gebruikers zelf en nooit door de sitemakers. Dit werkt met een puntensysteem waarbij gebruikers dus kunnen scoren en hoe meer punten ze scoren, des te meer rechten krijgen ze binnen het systeem. Als hoster ben je dan niet meer betrokken bij wat er qua content wordt geplaatst. Dat ligt dan in handen van de gebruikers met de meeste punten.

    En dan denk ik aan het algoritme-probleem. De site had de populaire artikelen op een “te modereren” lijst kunnen plaatsen, waarna een gebruiker deze kan goedkeuren of afkeuren. Dan is het nog steeds een gebruiker die bepaalt dat een artikel wordt geplaatst en niet het algoritme. Het algoritme doet dan alleen suggesties.

  4. Het is wel érg makkelijk om te zeggen dat je ‘controle’ hebt en het algoritme had kunnen aanpassen om zo inbreukmakende artikelen weg te laten. Ik zou niet weten hoe dat moet;

    De crux is de maker van het algoritme iets van gelijke strekking heeft beweerd, weliswaar het omgekeerde (iets wel door te kunnen plaatsen), maar als je iets expliciet wel kan doen, dan kan je het meestal ook expliciet niet doen:

    Hij heeft ook verteld dat op verzoek van [naam 2], een klant van DNK met een eigen bedrijfslog, een aanpassing is gemaakt aan het algoritme in die zin dat de artikelen op haar bedrijfslog wel in aanmerking kwamen om door het algoritme te worden geselecteerd voor doorplaatsing.(…)DNK kan dus niet gezien worden als een neutrale dienstverlener

    1. Dat ging zo te lezen om het meenemen van de rss-feed van een bedrijfsblog. Ik gok dan dat men normaal alleen particuliere blogs in de selectie meenam, en dus handmatig deze feed toegevoegd had. Dat is héél wat anders dan de inhoud van een blogitem analyseren en constateren dat deze afkomstig is van een krant of andere bron van een derde.

      1. Dat zou kunnen. Maar (technisch) begrijpt een rechter dat even goed als jij en ik (juridisch) je geeft daarmee wel je positie als ‘neutrale dienstverlener’ met alle bijbehorende rechten op. En dat is exact de gevolgtrekking van de rechtbank.

  5. maar dat zij van deze mogelijkheid geen gebruik heeft gemaakt omdat de software daarvoor te duur was

    Volgens mij heeft DNK een fout gemaakt door te stellen dat automatisch filteren duur is (daarmee impliciet aangevend dat filteren een mogelijkheid is).

    @Arnoud: de tijd op de server loopt 7 minuten voor

    1. Automatisch filteren kan duur zijn, zeker als je daar zelf iets voor moet ontwikkelen. Maar het is altijd wel mogelijk. Je zou zelfs filters kunnen maken die iedere afbeelding blokkeert waar b.v. Arnoud op te zien is. Moet wel via gezichtsherkenning en is enorm kostbaar om te ontwikkelen en heeft veel processortijd nodig, maar het is wel mogelijk. Waar het om gaat of de kosten wel opwegen tegen het doel.

      @Arnoud, het is inderdaad 7 minuten aangezien ik dit om 13:33 schreef en er 13:45 staat. En als ik deze reactie bewerk, dan blijft het systeem in “bewerken” modus staan. Heel irritant maar geeft mij wel de mogelijk om ook daar nu over te klagen. 😉

  6. Laten ik even vooropstellen dat een automatisch filter wat foutloos alle inbreukmakende en beledigende gebruikersposts op een site weggooit en alle niet-inbreukmakende laat staan niet bestaat en mijns inziens ook nooit zal kunnen bestaan.

    Als je een website runt waar gebruikers content op kunnen plaatsen, is er een een aanzienlijke kans dat er “verboden” materiaal wordt geplaatst. Hier kun je tegen optreden met een (gebrekkig) filteralgoritme, en een notice-and-takedown-achtige, of een combinatie daarvan. Als je dat netjes doet, zul je aansprakelijkheid voor die content in mijn optiek ontlopen, omdat je dan als hosting provider in de safe-harbor regelingen van de e-commercerichtlijn valt.

    Toch vind ik deze casus anders: de aansprakelijkheid vloeit niet voort uit het feit dat het algoritme bepaalde user generated content niet heeft verwijderd, aansprakelijkheid vloeit voort uit dat de krant onrechtmatige artikelen had geselecteerd om op hun hoofdpagina te figureren; voor die selectie was het algoritme gebruikt. Dat is meer dan hosten: zo’n hoofdpagina samenstellen vereist enige analyse van de onderliggende artikelen. Als je op basis van die analyse besluit dat een inbreukmakend artikel prominent op je hoofdpagina moet worden geplaatst, is er prima wat voor te zeggen dat een eventuele aansprakelijkheid voor dat besluit voor je eigen risico moet komen.

    Het argument vervolgens dat aansprakelijkheid moet ontbreken omdat die plaatsingsbeslissing uitbesteed was aan een gebrekkig algoritme vind ik niet sterk. In het algemeen lijkt me dat als je een beslissing moet maken waar mogelijk aansprakelijkheid uit voortvloeit, je die aansprakelijkheid niet kunt ontlopen door de beslissing dan maar door een algoritme te laten doen. En dit geldt natuurlijk des te meer geldt als je het algoritme zelf maakt en beheert.

  7. Dit is wel een lastige. Google beweert bijvoorbeeld bij hoog en laag dat ze niets kunnen doen aan illegale uploads van muziek die hoog in de zoekresultaten komen, maar ze degraderen onlangs wel razend populaire site met hiphopteksten wegens illegale SEO naar pagina 7. Dat wekt sterk de indruk dat het algoritme hier een excuustruus is.

    Uiteindelijk zijn de keuzes in het algoritme door mensen bepaald. Ik zou dan zeggen het gebruik van het algoritme nooit op zich reden kan zijn voor onschuld. Een zorgvuldig geprogrammeerd algoritme kan dat we zijn. Krijg je weer discussie over wat ‘zorgvuldig’ is dit geval vond de rechter dat dat niet zo was)s, maar recht is nu eenmaal een fuzzy algoritme ????

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.