Sociaal netwerk X overtreedt de nieuwe Europese techwet DSA als het bedrijf niet optreedt tegen de verspreiding van desinformatie en illegale content, waarschuwt Eurocommissaris Thierry Breton in een brief aan X. Dat meldde Nu.nl onlangs. De reactie van X-directeur Musk komt neer op “welke berichten bedoel je precies”, de traditionele reactie van grote platforms – en die klopt dus gewoon niet meer met de wet van vandaag.
De brief is een reactie op de vele propaganda- en desinformatieberichten die opdoken sinds de terreuraanvallen van Hamas in Israel. Hiertegen moet X harder en sneller optreden, zeker als daarover geklaagd wordt door autoriteiten. Dat gebeurt nu te weinig, aldus Breton. En het is ook weinig transparant waarom sommige berichten wel en andere niet worden weggehaald.
Een tweede punt is dat je als VLOP (zeer groot platform) ook de meer algemene plicht hebt om adequaat te reageren op desinformatie. Niet alleen op specifieke klachten reageren over individuele berichten, maar ook werken aan filters of algemene manieren om dingen in te dammen. Denk aan het automatisch blokkeren van herpublicaties van eerder geplaatste informatie die weggehaald was.
X-directeur Musk reageert:
Our policy is that everything is open source and transparent, an approach that I know the EU supports. Please list the violations you allude to on ?, so that that the public can see them.Mijn eerste gedachte was, sinds wanneer moeten klachten in het openbaar worden gedaan om behandeld te mogen worden? De DSA eist dat in ieder geval niet. Je moet een “easy to access and user-friendly” klachtmechanisme hebben. Of je nu als EU of als individuele Wim wil klagen, het mechanisme is hetzelfde.
Verder haal ik uit deze reactie de klassieke mindset dat moderatie gaat om individuele berichten: oei, bericht 420 is een probleem, we kijken even en besluiten bericht 420 weg te halen. Oh en wat zegt u nu, heeft die gebruiker nóg een bericht geplaatst, het is me wat, na de lunch bent u de eerste.
Die mindset is achterhaald sins de DSA, in ieder geval voor die grote platforms. Die moeten ook meer systematisch bezig zijn (art. 34 DSA), zodat je niet steeds achter individuele berichten aan hoeft te rennen. De brief van Breton laat doorschemeren dat het ontbreekt aan zo’n systematische analyse bij X. En hoe men dáár dan op gaat handhaven, zal veelzeggend zijn voor de overige techplatforms.
Arnoud
Maar hoe moet zo een platform nou weten wat wel of niet waar is? De klachtenknop wordt veelal misbruikt om propaganda in een bepaalde richting van een partij te houden. En als VLOP moet je dan gaan jongleren tussen waarheid, toelaatbaarheid en maatschappelijk wenselijk (in een gespleten maatschappij).
Niemand zegt dat X moet gaan bepalen wat waar is of niet. Ze moeten de risico’s van desinformatie en verspreiding van propaganda aanpakken, en dat kan op veel meer manieren dan per bericht een factchecker loslaten nadat je daarvan hebt bepaald dat zhij de waarheid in pacht heeft.
Je kunt bijvoorbeeld berichten voorzien van informatie over hun afzender: Dit bericht is via de API geplaatst, deze afzender heeft geen volgers en is 90% zeker een bot, dit account is een week oud. Dan kun je informatie op waarde schatten. Je kunt berichten voorzien van related posts die een ander gezichtspunt bieden. Enzovoorts. Slimmere mensen dan ik hebben al veel meer bedacht, omdat iedereen wel weet dat het individueel op waarheid beoordelen van berichten niet schaalt en bovendien alleen maar meer discussie geeft.
Zijn dat voorzieningen die voor de DSA tellen dan? Voor het zelfde geldt dat de EC zegt, leuk en aardig, maar die ‘leugen'(?) staat dan nog online.
In principe wel, het is wat magertjes misschien maar daarom doe je dus een risicoanalyse zodat je in kaart brengt waar de pijn zit met bijvoorbeeld desinformatie. Daarna onderzoek je hoe de pijn te verzachten. Als het probleem is dat mensen in een bubbel zitten en alleen kant A horen, dan is een prima oplossing dat je ook kanten B tot en met Z laat horen. Als het probleem is dat bots keiharde leugens verspreiden en mensen eerder verschillende visies hebben, dan blokkeer je bots en laat je mensen wel toe.
Leugens zijn niet strafbaar (tenzij over individuele personen, smaad/laster) dus daar kan de EC niets van zeggen.
De DSA en de Europese Commissie zeg je?
Kijk eerst eens naar art. 26 lid 3 DSA en art. 9 lid 1 AVG.
De DSA staat namelijk niet toe dat er op grond van profilering van bijzondere persoonsgegevens, zoals politieke voorkeur wordt geadverteerd.
Waarom niet? Omdat daarmee specifiek de kiezers van een bepaalde partij en voor- of tegenstanders van een bepaalde politieke keuze kunnen worden beïnvloed.
Je zou je dus zeggen dat de Europese Commissie zelf nooit de DSA zou overtreden. Toch?
Wat er precies is gebeurd is nog niet helemaal duidelijk, maar het lijkt erop dat de Europese Commissie wel de DSA heeft overtreden medio september:
https://dannymekic.com/202310/undermining-democracy-the-european-commissions-controversial-push-for-digital-surveillance
Let overigens ook op de inhoud van de advertentiecampagne.
Quis custodiet ipsos custodes?
Whataboutery gaan we niet doen. Het gaat om de klacht van de EU over desinformatie over X. Een andere post kan gaan over politieke microtargeting door de EU.
Hoe bepaal je wat de waarheid is in een conflict waar van minstens twee kanten propaganda gemaakt wordt voor de eigen standpunten? Is deze brief van de EU een aanval op ex-Twitter voor het publiceren van meningen die de EU niet welgevallig zijn?