De Nederlandse jurist en techexpert Danny Meki? krijgt van het Amsterdamse gerechtshof geen spreekverbod in een zaak waarin hij X om inzage in zijn persoonsgegevens vraagt. Dat meldde Nu.nl onlangs. Meki? ligt in de clinch met X (née Twitter) over het waarom achter een shadowban. Maar waarom dan een spreekverbod?
In augustus vorig jaar blogde ik over de zaak:
Technoloog en Ph.D-kandidaat Danny Meki? ontdekte in oktober dat hij op X was onderworpen aan een shadowban: weliswaar kun je zelf alles nog gebruiken, maar niemand krijgt je berichten meer te zien. Dat bleek (volgens de helpdesk van Twitter, waar verbazingwekkend genoeg nog mensen werkten destijds) te herleiden tot een artikel van de NOS dat Meki? daar gedeeld had.Het had er de schijn van dat het algoritme zijn bericht had aangemerkt als iets met kindermisbruikmateriaal te maken hebbend. De enige verwijzing daar naar was echter een woord in de kop van het NOS-artikel dat hij deelde, dus dat doet raar aan.
In techkringen zegt men dan vaak “The Algorithm moves in mysterious ways” maar in Europa heb je recht op uitleg over het wat en hoe (artikel 15 AVG en 17 DSA). En dat spreekverbod kwam aan de orde in de juridische procedure over het verkrijgen van die uitleg. Meki? had namelijk gelijk gekregen en moest inzage krijgen in hoe het moderatiesysteem had gehandeld. X gaf ook inzage, maar maakte 90% van de tekst onleesbaar “vanwege bedrijfsgeheimen”.
Nee, dat schiet niet op, vandaar het hoger beroep. De regel uit de Europese jurisprudentie (Dun & Bradstreet) is dat in zo’n geval de rechter alle informatie krijgt en zelf kiest wat de eiser wel en niet mag zien. Maar X was toch bezorgd dat de volledige stukken in de procedure bij Meki? zouden komen, en dat die ze dan zou publiceren. Vandaar het mededelingenverbod over dat stuk in de zin van artikel 28(1)(b) Rechtsvordering, iets dat de rechter inderdaad kan opleggen.
Het arrest laat zien dat het Hof daar niet veel voor voelt, juist omdat zo’n verbod ver gaat en dus de informatievrijheid raakt in een maatschappelijk relevante zaak. Er is ook een minder ingrijpend alternatief, namelijk de beperkte kennisname van het stuk wegens “gewichtige redenen” van de andere partij (artikel 22(2) Rv). Mede omdat Meki? daar zelf mee had ingestemd, wijst het Hof die beperking toe.
De volgende stap is dat het Hof nu zélf de ongeredigeerde output van het algoritme mag bestuderen, om vervolgens te bepalen wat Meki? hier van te zien mag krijgen en wat bedrijfsgeheim is. Daarna kan de discussie verder gaan over allereerst of die uitleg adequaat is, en ten tweede of de uitleg de moderatiebeslissing kan dragen.
Arnoud

“Denny Meki?” ?
Volgens mij toch echt Meki? – blijft moeilijk, niet-ascii ?
Voor wie ook een vraagteken krijgt, het gaat dus om Denny Mekic maar de c heeft een accent aigu (U+0107)
Blijkbaar wel 😂 want in jouw reactie gaat het ook mis als je Mekić schrijft. het beste is dan om & #x107 ; te gebruiken.
Nu even hopen dat het in mijn bericht wel goed werkt anders sta ik mooi voor aap.
Ik denk dat Mekić vanwege de maatschappelijke discussie geen spreekverbod wil. Terecht dat het alternatief van “laat de rechter bepalen wat bekend gemaakt mag worden” door hem geaccepteerd wordt.
Ik ben het met ex-Twitter eens dat je niet je volledige blokkade-algoritme op straat wilt gooien, daar gaat misbruik van gemaakt worden. Maar 90% weglakken in een rapport dat op een specifiek geval gebaseerd is, lijkt me sterk overdreven.
Laat de discussies over algoritmen en moderatie lekker doorgaan, zodat we op zekere termijn platforms genuanceerder aan kunnen spreken. Ik geloof dat moderatieregels tussen platforms moeten kunnen verschillen omdat ieder platform een eigen doelgroep en atmosfeer mag hebben.
Het lastige vin dik dat als je wil controleren of je terecht of onterecht een ban hebt gekregen je weliswaar niet het hele algoritme nodig heb, maar wel elke stap van de data die ze verzamelden over je en hoe die gewogen/meegenomen is in de beslissing moeten geven. Anders kan je nooit controleren.
In het simpele geval dat het algoritme een beslisboom is, dan zou je dus alle genomen aftakkingen moeten krijgen, inclusief de onderbouwing waarom die aftakking is genomen. Maar niet de niet genomen aftakkingen en welke vervolg takken daaronder zitten.
Als dat bijvoorbeeld gaat op een score gebaseerd op aanwezigheid van bepaalde woorden, dan laten ze zien je hebt deze woorden gebruikt, dat leidt tot deze score en daarmee ga je over een drempel. Er is geen aanleiding om de hele lijst met woorden en scores te geven, maar de relevant voor deze beslissing moet er wel bij zitten.
Uiteindelijk krijg je dus alleen de lijnen van de in de beslissing meegenomen data naar de uiteindelijke beslissing inclusief alle gemaakte afwegingen.
Bedrijfsgeheim zou nooit boven het recht van iemand om zich te verweren tegen onterechte bans op – helaas – zeer belangrijke platformen moeten gaan. Als er dan iets openbaar wordt wat misbruikt zou kunnen worden, dan pas je het algoritme daar later maar op aan.
Het wordt heel interessant wanneer platforms AI gaan gebruiken als moderatietool. Moeten ze dan het getrainde model beschikbaar maken, trainingsdata?
Ja, voor de meer deterministische algoritmen kun je de meest relevante onderdelen voor de specifieke beslissing presenteren en toch een aanzienlijk deel geheim houden.
En het zou een platform sieren als ze een effectieve ingang voor gebruikers om bezwaar te maken hadden.
Ik zou zeggen dat een AI die zijn beslissingen niet uit kan leggen verboden moet zijn voor het beoordelen of mensen zich aan een (gebruikers)overeenkomst houden of niet.
Overigens ben ik ook van mening dat een shadowban verboden moet worden.
Een shadowban is niets anders dan eenzijdig een overeenkomst niet nakomen. Jij gaat akoord met X voorwaarden en verwacht daarvoor dat je een publiek krijgt daar staat tegenover dat X reclame bij jouw berichten kan plaatsen en jou reclame kan laten zien, jouw data gebruikt om hun model te trainen etc…
Als je een schaduwban krijgt dan vervallen al jouw voordelen, terwijl X al hun voordelen behoudt, zonder dat ze je daarvan op de hoogte stellen. Lijkt mij een behoorlijk ongewenste handelspraktijk.
Tja, als een bedrijf de beslissingen die genomen zijn bij de uitvoering van een overeenkomst niet naar tevredenheid van de rechter kan uitleggen, dan heeft dat bedrijf een probleem. Het maakt dan niet uit of de beslissing uit een AI komt of door een medewerker is genomen.
En daana begin je over shadowbannen te praten. Maar wat is een shadowban nu precies. Waarom zou X een “verplichting” hebben al jouw (illegale) berichten te verspreiden? (Of naar Mw. Y met een contactverbod?) Wat staat er in de gebruikersovereenkomst over verplichtingen tot publicatie?
Mijn mening is dat een forum het recht heeft om posts te filteren, er is genoeg bagger op Internet. Heeft het forum de plicht om moderatiebeslissingen mee te delen aan de plaatser van een bericht? Ik ken forums die dat structureel niet doen. En waarom zou een moderatiebeslissing niet mogen inhouden dat berichten alleen aan een kleine groep “vrienden” getoond worden?
De reden dat een shadowban verboden zou moeten worden is wat mij betreft tweeledig: 1. X wekt verwachtingen dat jouw posts publiek zijn en mensen die kunnen vinden. Als je een shadowban krijgt dan maken ze dat niet meer waar en dat is m.i. een wezenlijk onderdeel van de overeenkomst die je met ze hebt. Prima als ze voorwaarden hebben waaronder ze dat niet meer doen, maar dan moeten ze dat zeggen, zodat jij daar ook consequenties aan kan verbinden of je nog wel jouw data met hun wil delen., en 2. Als je het recht hebt om uitleg over een ban door een algoritme moet je wel weten dat die ban er is. Een shadowban is niet meer dan een manier voor X om niet uit te hoeven leggen waarom ze je bannen, omdat ze je gewoon in het donker houden dat je uberhaupt een ban hebt gekregen. Het is op zijn minst tegen de geest van de wet.
Herhaling: Vertel me alsjeblieft wat een shadowban nu precies is, dan weten we waar we over praten!
Ik begrijp dat je een verwachting hebt dat het platform een bericht publiceert. Dat wordt m.i. niet direct een verplichting aan het platform omdat een platform het recht heeft om te modereren. En waarom zou een platform toegang tot berichten niet mogen beperken tot bepaald groepen? (seksueel getint: alleen voor volwassenen)
Een schaduwban is wanneer een platform het voor een gebruiker doet voorkomen alsof zijn/haar berichten zijn gepubliceerd, terwijl dat eigenlijk niet zo is. Effectief dat het platform liegt tegen de gebruiker.
Dat had je ook gewoon (op wikipedia bijvoorbeeld) kunnen opzoeken in plaats van zo dom irritant te doen.