Toezichtsraad: Facebook moet vier onterecht verwijderde berichten herstellen

| AE 12488 | Informatiemaatschappij, Uitingsvrijheid | 19 reacties

Een onafhankelijke toezichtsraad van Facebook heeft in zijn eerste vijf in behandeling genomen zaken geoordeeld dat Facebook vier keer een foute beslissing maakte door berichten van zijn sociale media te verwijderen. Dat meldde Nu.nl onlangs. Gebruikers kunnen bij de toezichtsraad aankloppen als zij vinden dat Facebook actie onderneemt die indruist tegen de vrijheid van meningsuiting en alle andere bezwaarprocedures geen soelaas boden. De uitspraken van de raad zijn bindend.

De toezichtsraad werd door Facebook in het leven geroepen na kritiek op de manier waarop het bedrijf berichten verwijdert als die volgens het platform de regels overtreden. De stap is opmerkelijk; ik ken geen bedrijf met een onafhankelijke raad van toezicht op hoe bedrijfsbeslissingen worden genomen. Want dat is het, als Facebook besluit een bericht weg te halen. Ze zijn geen overheid dus niet wettelijk verplicht tot faciliteren van welke uiting dan ook. Maar men kiest er toch voor om dit te doen.

Deze stap is genomen vanuit een stuk maatschappelijke verantwoordelijkheid – en ongetwijfeld ook het tevreden houden van adverteerders en aandeelhouders. Maar het is wel een goede stap, want het stimuleert de discussie over hoe om te gaan met zulke grote private platforms. Deze discussie heeft jarenlang vastgezeten in de visie dat alles moest kunnen en de platforms geen verantwoordelijkheid hadden. Vaak werd dan geschermd met zorgen over aansprakelijkheid of mooie woorden over duizend meningsuitingen laten bloeien en de ideeënmarkt laten beslissen.

We zien nu op allerlei punten hoe dit concept is vastgelopen op desinformatie, stimuleren van geweld en eindeloze echoputten. Op regulering vanuit de overheid zit niemand te wachten; dan klinkt gelijk de roep van censuur en dat is zeer terecht. Maar private bedrijven zelf beleid laten maken dat de klassieke grondrechten kan bedienen, is ook weer nogal een vraag. Waarom moet Facebook eigenlijk ieders mening respecteren en toelaten? Zijn ze zo groot dat dat verplicht voor ze wordt? Een must-carry regel?

Ik zie het in de praktijk heel vaak misgaan op het punt van beroep en bezwaar, in het juridisch jargon. Mensen zien hun uiting verwijderd maar kunnen er niet achter komen waar dat aan ligt. Dat procedurele verbeteren is dus in ieder geval een waardevolle stap, en daar kan deze toezichtsraad zeker bij helpen.

Er blijft dan wel een levensgroot probleem, namelijk dat zoiets niet schaalt. Dit geldt altijd bij juridische constructies, die gaan uit van deskundige mensen die alle feiten van het geval afwegen en een besluit nemen dat recht doet aan de specifieke situatie. Met op Facebook dagelijks alleen al 350 miljoen foto’s erbij (nee, geen typefout) is dat geen werkbare aanpak. Dit is waarom er zo vaak gekeken wordt naar AI-rechters, die kunnen in een millieseconde een uitspraak doen. Maar dan krijg je weer gedoe over kromme uitspraken, bestendigen van bias en het niet meewegen van omstandigheden die niet in de dataset zitten. Ik weet het even niet.

Arnoud

Deel dit artikel

  1. Helemaal eens. Nog een kleine nuance: het begon niet als gevolg van “desinformatie, stimuleren van geweld en eindeloze echoputten” (daar zou je inderdaad qua vrijheid van meningsuiting iets van kunnen vinden). Het begon eerder toen de maatschappij van de Facebooks in de wereld actie verwachtten toen de platforms werden gebruikt voor grooming, verspreiden van kinderporno, pro-ana groepen, opjutten tot zelfmoord etc.

  2. Ik heb dat laatste argument nooit helemaal goed begrepen. Facebook en Youtube bieden een dienst aan waar absurd veel mensen van gebruik maken. Maar dat hebben ze zelf zover laten komen, sterker nog, ze hebben da actief nagestreefd. Dus om dan, als je wordt gewezen op je verantwoordelijkheid, je handen in de lucht te gooien en te zeggen dat je dit niet kan oplossen is niet terecht. Als je die 350 miljoen foto’s per dag niet aankan, dan moet je daar dus iets aan doen. Dat is rot voor een bedrijf, maar dit is was prima van te voren te voorzien, dus gewoon bedrijfsrisico.

  3. Het is ook niet makkelijk allemaal, dat toezicht houden op de huisregels, met zoveel talen, maar zelfs binnen het vertrouwde Engels. Zo schreef iemand over de Plymouth Hoe, en dat werd prompt verwijderd vanwege een vermeende onfatsoenlijke betekenis in het Amerikaans Engels. Onterecht, want het ging over een stukje kust bij de Engelse stad Plymouth, dat al eeuwenlang om inmiddels ondoorgrondelijke redenen nou eenmaal zo heet: https://en.wikipedia.org/wiki/Plymouth_Hoe .

  4. Er blijft dan wel een levensgroot probleem, namelijk dat zoiets niet schaalt.

    Dit is precies de reden waarom zo’n groot platform niet op een verantwoorde manier kan werken. Ik denk dat Arnoud al merkt dat zo’n klein platform als deze blog al actieve moderatie behoeft. Hoe vervelend het ook is voor de aandeelhouders van Facebook: grootschalige platforms kunnen niet. Dit risico was van meet af aan duidelijk, maar werd systematisch genegeerd en verantwoordelijkheid werd met een beroep op de vrijheid van meningsuiting afgewezen.

    • Daar kun je op verschillende manieren over denken. De in de VS omstreden CDA section 230 is precies de wetgeving die dit soort grote platforms mogelijk maken. In de EU zijn de vergelijkbare regels iets wolliger, waardoor een EU “Facebook” iets lastiger van de grond kan komen, maar FB kon daar met zijn kritieke massa in de VS vrij eenvoudig overheen komen. Misschien dat de regels enige verheldering nodig hebben over waar precies de grens ligt tussen “een prikbord zijn voor het publiek” (zonder redactionele ingrepen) en “een ingezonden brieven sectie van een krant” (met redactionele ingrepen, en dus verantwoordelijkheid). Je kan ook wel gaan roepen dat de openbare weg niet op een verantwoorde manier kan werken, omdat mensen daarop racistische leuzen kunnen roepen — maar die openbare weg werken we al eeuwen mee, terwijl die grote platforms een recent gegeven zijn. Mij lijkt de meest redelijk weg gewoon de mensen aanpakken die de perken te buiten gaan. Dit slaat los van het feit dat Facebook een soort van monopolie in handen heeft, wat zeer problematisch is: een “must carry” regel is dan zeker op zijn plaats, maar ik zie liever een andere oplossing.

      Het alternatief dat ik voorsta is helemaal decentraal: dat houdt in dat mensen hun eigen uitingen op een eigen server(tje) blijven verspreiden, en dat familie en vrienden deze eenvoudig kunnen ophalen. In landen als Nederland is de infrastructuur daar in principe al voor aanwezig, behalve dat er geen software is die dit net zo triviaal maakt als het gebuik van FB. Als we FB de nek omdraaien en mensen dus gedwongen worden zo’n alternatief te gaan gebruiken. Dit betekend echter ook dat opsporing van excessen potentieel een stuk lastiger wordt (Zie opnieuw de VS: de meeste bestormers van het Capitool zijn eenvoudig te vinden vanwege hun posts op de diverse sociale media; zouden ze een decentraal systeem hebben gebruikt, dan zou dat een stuk lastiger worden). Het grootste voordeel van decentraal: het legt de verantwoording voor uitingen heel duidelijk bij de persoon die ze maakt.

      • Ik ben het met je eens dat de regels verheldering behoeven. Ik denk alleen niet dat je het moet zoeken in de vergelijking tussen “een prikbord zijn voor het publiek” (zonder redactionele ingrepen) en “een ingezonden brieven sectie van een krant” (met redactionele ingrepen, en dus verantwoordelijkheid). Toch wil ik voortbouwen op je analogie van het prikbord.

        Bij een traditioneel prikbord wordt alleen ruimte aangeboden. Ieder kan hier wat op prikken en de aanbieder van het prikbord beperkt zijn rol tot het weghalen van de oudste berichten als er geen plek meer is op het prikbord.

        Facebook heeft van dit traditionele prikbord een “magisch” prikbord gemaakt. De magie bestaat eruit dat sommige berichten op het prikbord vergroot worden, andere berichten worden verkleind en weer ander berichten worden verschoven naar een bij-bord in de kelder of nog verder weg. En een tweede magische spreuk zorgt ervoor dat als jij en ik naar het prikbord kijken we verschillende dingen zien. De argumentatie voor de keuzes die in de magie gemaakt worden ziet Facebook als zijn bedrijfsgeheim en wil die niet toelichten, noch zich daarover verantwoorden. Dat commerciële belangen en advertenties daarbij een rol spelen is aannemelijk.

        Het effect van de magische keuzes die Facebook doet is dat de perceptie van de informatie op het prikbord voor iedereen verschillend wordt en gebruikers daardoor op een verschillende manier beïnvloed worden. Wat we zien is dat dit individuele en maatschappelijke consequenties heeft.

        Ik denk dat de wetgever bij het formuleren van de vrijwaring van aansprakelijkheid voor de inhoud voor providers nauwelijks aandacht besteed heeft aan de mogelijkheden van dit soort magie. Aanbieders als Facebook hebben er alle belang bij om de publieke aandacht te richten op hun verantwoordelijkheid voor de inhoud van de berichten, want daar kunnen zij zich makkelijk verdediging. Hun rol in de “magie” en de eventuele verantwoordelijkheid daarvoor proberen ze welbewust onder het vloerkleed en uit de publieke discussie te houden.

        Het beperken van aansprakelijkheid voor door gebruikers aangedragen content acht ik waardevol. Maar mijns inziens moet Facebook aansprakelijk gehouden kunnen worden voor de selectie van de door de gebruikers aangedragen content en voor de keuze en inhoud van advertenties en ander informatie die Facebook daaromheen toont op een pagina.

        Gemakshalve heb ik in het bovenstaande telkens over Facebook gesproken, maar dit geldt natuurlijk voor alle sociale media.

        • Misschien dat je het iets anders formuleerd, maar ik denk dat we het heel redelijk eens zijn. Wat FB doet is een form van redactioneel ingrijpen — en of dat met een algorithme of door een mens gebeurt boeit me niet zo. Jouw analogie van een “magisch prikbord” is heel treffend, maar ook dat heeft een analogie in de vertrouwde supermarkt: als de manager dagelijks even langs het prikbord loopt om het even te ordenen, dan zal hij oude berichtjes weghalen, en de dingen die hij echt niet wil dat die daar hangen ook niet. Laat hij daarbij echter willens en wetens dingen staan die strijdig zijn met de wet (voorbeeld: “Aangeboden: zelf-gebrande DVD’s van de laatse blockbusters voor 5 euro”), dan gaat hij naar mijn mening daar mede-verantwoordelijk voor worden.

          Het dubbele bij FB is inderdaad dat ze wel kijken naar de inhoud van berichten, als het gaat om plaatsing, volgorde en omliggende advertenties (dan zijn ze overduidelijk analoog aan de ingezonden-brieven rubriek), maar claimen niet geen kennis van de inhoud te hebben genomen als het gaat om onrechtmatige dingen en preteren ze het prikbord te zijn. Voor mij zou de norm gewoon moeten zijn dat als uit je interacties met een bericht blijkt dat je als platform van de inhoud hebt kennisgenomen (geautomatiseerd of niet), je mede-verantwoordelijk wordt voor die inhoud. Als je namelijk kunt vaststellen dat naast een bericht over aangeboden zelf-gebrande DVD’s een advertentie voor een VPN (“DVD’s zijn achterhaald!) lucratief is, dan kun tegelijkertijd je ook vaststellen dat er iets niet in de haak is, en mag je tegenbewijs leveren als je denkt dat je dat echt niet kon.

          Natuurlijk blijf ik wel van mening dat de plaatser van dat bericht de eerst verantwoordelijke is, en dat je die als eerste moet aanspreken — maar ook daar geldt: zolang “rechthebbenden” met extremistische eisen komen (zie andere topics hier, waar schadebedragen tot het hondervoudige worden opgeblazen) en niet opkomen tegen trollen, kunnen die rechthebbenden wat mij betreft ook op heel weinig sympatie rekenen.

          • Inderdaad. Faceboek modereert niet. Faceboek kiest uit een zeer uitgebreid aanbod aan content een zeer kleine subset die ze aan een gegeven gebruiker laat zien. Dat is hetzelfde als wat een krant doet. Alleen het aanbod van content is anders, voor een krant is dat de moderne variant van de nieuws-telex, voor faceboek is het de enorme soep van gebruikers- plus commerciele content (overigens inclusief de inhoud van die nieuws-telex via de verschillende nieuws-outlets).

  5. Voor mijn gevoel is de raad meer een methode om aansprakelijkheid af te wenden, en om de interne roep om censuur te managen: “we sturen het wel door naar de raad, heeft geen zin om onze hand te dwingen.”. Ik zit ook helemaal niet te wachten op zo’n raad die beslist of ik iets wel of niet kan zien. Wie gaat er nu in zo’n raad zitten? Natuurlijk is er diversiteit in vorm, maar is de raad democratisch representatief voor “wat over de grens gaat”?

    Het gevolg van de commercializering van het web. Al de techniek en semantiek was er om mensen zelf hun sociale netwerken te laten creeeren. Maar men gaf ons netwerkeffecten en gratis verslavende features, en de nieuwe generatie vult vakkundig de zakken van de generatie die rijk werd met adverteren op het internet.

    Dat is waar Twitter uiteindelijk naar toe wil: een protocol voor een sociaal netwerk, en Twitter of Facebook kunnen daar dan als een schil omheen zitten. Vindt je de reclame van Facebook of haar tijdlijn algoritme maar niets? Gebruik een andere applicatie (zoals een andere web browser). Twitter wil geen conservatieve inhoud tonen? Gewoon niet tonen, maar andere applicaties het platform laten zijn. Geen raad nodig om iets te verwijderen, want alles op blockchain, dus niet te verwijderen bij de bron.

    Door de “web browsers” ook de inhoud te laten hosten, zoals nu, kom je in problemen waar de web browser de toegang tot een website compleet kan ontzeggen. Maar Google’s browser kan best de website toegankelijk houden voor zij die dat werkelijk willen, en aan haar gebruikers een boodschap tonen als: “Deze inhoud komt niet overeen met de Google inhoud richtlijnen. Gebruik een andere browser om deze inhoud te zien.”.

    Adverteerderbedrijven hebben weinig tot geen sociale en maatschappelijke verantwoordelijkheid. Kijk maar hoe “Do Not Track” werd behandeld, of hoe deze bedrijven Europese initiatieven tot privacy bescherming blokkeren. Ik vind het verhaal van Facebook maar zwak. Het is de hete aardappel doorgeven, en de status quo van gegevenshandel en profiling te behouden.

  6. “wij van WC-eend adviseren tégen alle effectieve moderatie op het WC-eend platform aangezien dit niet in het belang van WC-eend is. WC-eend wenst zich (om juridische redenen, zoals verantwoordelijkheid en/of aansprakelijkheid voor content) graag verre te houden van alle inhoud van het WC-eend platform, met uitzondering van het doelmatig plaatsen van zeer specifieke advertenties. Maar dat wordt geheel algoritmisch afgehandeld en is boven iedere verdenking verheven omdat er immers geen mensen aan te pas komen. Tevens zal iedere vorm van vertraging of beperking bij het posten op het WC-eend platform het verdienmodel van WC-eend negatief beïnvloeden. Hetgeen wij van WC-eend niet zullen adviseren.”

    (was getekend) bij uitspraak door Mw. mr. Watercloset-Woerd (geen relatie), namens

    de geheel onafhankelijke Hoge Raad & Tuchtcollege van WC -eend, behalve voor rechtspraak ook verantwoordelijk voor Wetgeving en Uitvoering, altruïstisch betaald dóór WC-eend, van en vóór WC-eend, ondoorzichtig samengesteld met aan WC-eend gerelateerde personen, fellow travellers circling the bowl en uitsluitend enthousiaste WC-eend klanten. (daar niet-enthousiasten een verwaarloosbaar percentage van de WC-eend community betreft)

Laat een reactie achter

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren en <em> en <strong> voor italics en vet.

(verplicht)

Volg de reacties per RSS