TikTok heeft in een Amerikaanse rechtszaak een nederlaag geleden die grote gevolgen kan hebben voor claims tegen andere socialemediabedrijven in de Verenigde Staten. Dat meldde Villamedia onlangs. De video-app kan zich niet op de bescherming voor tussenpersonen (Section 230) beroepen bij een claim wegens overlijden van een tienjarige die meedeed aan een “blackout-challenge”.
De moeder van het meisje had het platform aansprakelijk gesteld voor het overlijden, omdat het platform via algoritmes aanbevelingen deed voor filmpjes over deze challenge. De hoofdregel is natuurlijk dat platforms niet aansprakelijk zijn voor content van gebruiker. Section 230, de Amerikaanse DSA, bepaalt expliciet dat dit hen niet aangerekend kan worden.
Het argument hier was dat TikTok zich deze content eigen gemaakt heeft door (algoritmisch) deze te pushen. Dan ben je niet meer een doorgeefluik zeg maar. En dit gaat ook niet over moderatie: het is een keuze wat je aanbeveelt.
Het artikel zelf is beroemd en kort:
No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.De term “publisher or speaker” moet breed opgevat worden. Het dekt alle gevallen waarin een platform content van anderen doorgeeft. Dus niet alleen de passieve kaders biedt waarin de video gestart kan worden, óók bij aanbevelingen, gesorteerde overzichten en zoekresultaten.
In een zaak uit 2023 (Gonzalez v. Google) bepaalde de US Supreme Court nog dat Google/Youtube niet aansprakelijk te stellen was voor medeplichtigheid aan de terreurorganisatie ISIS. Die had een Youtubekanaal met advertenties, wat Google (kennelijk oogluikend) liet bestaan ondanks vele klachten. De Supreme Court wees de claim af op Section 230: ongeacht hoe Google ook deze content had gepromoot of gesteund, dat maakte ze een “publisher or speaker” van informatie van een ander en dús niet aansprakelijk.
Het Hof van Beroep in deze zaak pakt er een recentere uitspraak bij (Moody v. Netchoice, 2024). Hierin verbood de Supreme Court de staten Florida en Texas om eigen regels te maken over wat platforms voor moderatiebeleid mogen stellen. Zulke eigen regels gaan in tegen het First Amendment: modereren en kiezen wat je wel en niet toelaat is jóuw beschermde expressie, in de zin van de uitingsvrijheid.
Het Hof van Beroep gebruikt dit als argument om te zeggen dat algoritmische aanbevelingen dus de eigen uitspraken zijn van TikTok, en geen content van een ander die zij doorgeeft. En omdat Section 230 alleen bij die laatste categorie beschermt, is TikTok dus aansprakelijk te stellen voor de eigen uitspraken, de algoritmische aanbevelingen die ze doet.
Probleem hiermee is alleen dat de opstellers van Section 230 expliciet met hun wet ook algoritmische aanbevelingen – zoekmachines, in 1995-terminologie – wilden beschermen. Het zou raar zijn dat je Google mocht aanspreken op een zoekresultaat met het argument dat het hún content is, en niet doorgegeven content van die site. Dan blijft er niets over van Section 230.
Dus nee, deze uitspraak van het Hof is fout. Alleen: dat moet naar het Supreme Court om rechtgezet te worden, en dat zal een paar jaar duren (zeker met de te verwachten stroom aan claims rondom de presidentsverkiezingen).
En natuurlijk, het voelt raar dat TikTok niets te verwijten valt bij het promoten van zulke ernstige (en strafbare) video’s. Maar dat los je niet op met een groot gat in een algemene regeling. De Europese aanpak met, naast zo’n algemene regeling, een specifieke plicht tot optreden tegen strafbare content (met adequate teams van moderatoren) en het stipt opvolgen van bevelen van autoriteiten is dan een stuk verstandiger.
Arnoud
Mijn hoofd heeft een beetje moeite met het idee dat een zoekmachine een “algoritmische aanbeveling” is. Als ik Ome Google of Ome DuckDuckGo vraag om alles dat gaat over “kleine witte vlinders” of zo, dan krijg ik resultaten over kleine witte vlinders omdat ik daar zelf om vraag.
Dat is anders bij bijvoorbeeld een site als YouTube, die helemaal uit zichzelf komt met “we denken dat je deze video’s ook leuk gaat vinden”, zonder dat je daar expliciet om vraagt, zoals bij een zoekmachine.
Ik denk dat er een aansprakelijkheid kan zijn voor “algoritmische aanbevelingsroutines” die ongevraagd suggesties doen. Als ik persoonlijk iemand waarvan ik weet dat zhij eetstoornissen heeft een stel URI’s aanraad waarop anorexia verheerlijkt wordt is dat laakbaar. Als ik dat blijf doen kan dat in mijn ogen verwijtbaar worden, of betrokkene nu wel of niet om dergelijke links blijft vragen. Je stuurt een persoon een kant op die ongezond voor hem/haar is.
Maar dat betekent niet dat ik de volledige verantwoordelijkheid draag voor het verslechteren van de eetstoornis. De makers van de websites achter de URI’s dragen ook verantwoordelijkheid. Een rechter zou zich bij het toekennen van een schadevergoeding dan ook moeten uitspreken over welk deel van de schade toerekenbaar is aan het advies en welk deel aan de auteurs va het materiaal.
Doortrekkend naar de TikTok zaak: TikTok is de auteur van de aanbevelingen, zij kan dus aansprakelijk gesteld worden voor de inhoud van (de lijst van) aanbevelingen. De inhoud van de individuele video’s blijft de verantwoordelijkheid van de makers en deze makers dragen naar mijn mening de grootste aansprakelijkheid voor de schade. De aansprakelijkheid van TikTok kan groter of kleiner zijn afhankelijk van wat TikTok had horen te weten over de beïnvloedbaarheid van haar gebruiker.
Tja. Aan de ene kant ben ik een groot voorstander van section 230. Don’t shoot the messenger.
Aan de andere kant, als ik een miljard apen op een miljard typemachines een miljard aantal zinnen laat typen en mijn super geheime algoritme pikt daar precies “Wim is gek” uit, kan ik me er dan zonder te giechelen op beroepen dat mijn algoritme precies dit statement koos?
Het zoekmachineresultaat en de feed (het algoritme) zijn moeilijk. Uit oorsprong is een zoekmachineresultaat te vergelijken met een “gouden gids” waarbij in principe volgens een objectief algoritme resultaten verkregen worden voor een bepaalde zoekopdracht. Een feed is meer vergelijkbaar met een krantenuitgever die de artikelen selecteert (wellicht kan een knipseldienst er nog dichter bij komen), maar dan op zo’n manier dat de selectie persoonlijk is.
Moderne zoekmachines zitten er een beetje tussenin omdat ze gepersonaliseerde resultaten opleveren (meestal door de zoekopdracht context te geven), maar ze zijn desondanks nog veel objectiever dan een feed. Feeds zijn veel moeilijker, onder andere omdat de onderliggende technieken ingebouwde “bias” hebben die de ontwikkelaars moeten proberen te corrigeren (of niet). Maar fundamenteel is een zoekmachineresultaat een gevolg van een expliciete zoekopdracht, en een feed het resultaat van redactionele keuzes van de aanbieder, waar die aanbieder denkt dat het de gebruiker interesseert (lees langer op het platform houd en meer reclamegeld kan opleveren).
Uiteraard zitten er foutjes in beide opties, en zeker als zaken gepersonaliseerd worden – dit betekend dat het zonder menselijke tussenkomst moet. Het moet niet zo zijn dat alle bijvangst meteen aansprakelijkheid oplevert. Als je expliciet naar ISIS materiaal zoekt is het niet Google/Youtube dat de fout in gaat als je iets vind. En als iemand zich als terrorist gedraagt is het niet raar als die terreurpropaganda in de feed krijgt (in ieder geval die inhoud die net niet over de grens gaat). Maar als samensteller van feeds is het zeker wel mogelijk te kijken naar die inhoud en inhoudsgroepen die veel aangeraden worden (zeg de 1000 meest virale posts van het uur) en daar op in te grijpen.
Die blackout challenge was duidelijk viraal dus had TikTok redelijkerwijs kunnen ingrijpen, kunnen zien dat hun algoritme gevaarlijk gedrag aan het promoten was. Aan de andere kant is het ook niet de bedoeling dat platforms rechtmatige uitspraken stelselmatig onderdrukken (censuur van links/rechts…). Maar de Communications Decency Act is een raar beest en bevat geen nuance. Voor mij is de vraag, binnen de Amerikaanse situatie, of het algoritme een objectief doorgeefluik is of dat het algoritme structureel niet objectief is… Als een roddelblad aansprakelijk is voor sensatiezucht is een beheerder van een algoritme dat ook. Het alternatief is dat het algoritme zich in een juridisch niemandsland bevind waar niemand verantwoordelijk is – zijn de individuele blackout challenge tiktokkers werkelijk verantwoordelijk (of überhaupt aan te spreken) ?
Misschien werkte “algoritmische aanbevelingen” in 1995 nog zo, dat het algoritme alleen maar zocht, maar vandaag de dag is het algoritme een heel erg vrije interpretatie van mijn zoekopdracht: “u zocht misschien dit, maar wellicht wilt u ook … en hebt u gedacht aan … en, o ja, we hebben er ook nog een paar die betalen voor iets wat in de verste verte lijkt op uw vraag, dus die zetten we voor de duidelijkheid maar bovenaan. Wat wetgevers in 1995 voor ogen hadden bij het opstellen van section 230 is waarschijnlijk niet wat we in 2024 tegenkomen op het web.
Een voorbeeld van resultaten van een simpele zoekopdracht in Google anno 2024:
De zoekopdracht “hotel” “baarn” (beide tussen aanhalingstekens, dus de woorden moeten beide voorkomen), geeft Google mij een schier eindeloze reeks met pagina’s met resultaten.
Op de eerste pagina vind ik 1 hotel in Baarn dat bestaat. Het tweede hotel in Baarn dat op de eerste pagina getoond wordt, bestaat al een paar jaar niet meer. Er is nog een ander hotel buiten Baarn, in de gemeente Baarn, maar in de eerste vijf pagina’s komt dat niet voor.
De rest van de resultaten zijn:
O ja, ik heb een adblocker aanstaan. Met aan zekerheid grenzende waarschijnlijkheid blokkeert die nog een massa andere zooi die volgens Google in de verre verte iets met mijn zoekopdracht van doen heeft. Maar ik durf de adblocker niet uit te zetten. Alle advertenties die Google erbij plaatst, vallen zeker onder de categorie “algoritmische aanbevelingen”.
Ik heb je zoekopdracht herhaald, in een schone browser (Chromium met een nieuw tijdelijk profiel) en zonder AdBlocker, en mijn conclusie is dat Google onbruikbaar is geworden. Op de eerste pagina eerst twee gesponsorde links naar booking.com en trivago.nl, gevolgd door hotels in Hilversum, Amersfoort en andere op tientallen kilometers van Baarn. Daarna wederom booking, tripadvisor, expedia, voordeeluitjes en nog meer van dergelijke sites. Volgens Google zelf zijn er in Baarn geen hotels. Gewoon de websites van hotels zelf die in Baarn zitten vind je sporadisch vanaf pagina twee.
Om te zeggen dat het een interpretatie is van wat je zoekt is ze teveel eer geven, het is – helaas – verworden tot slechts commercie; gesponsorde resultaten en advertenties is het enige waar het om lijkt te draaien.
Dat niet alleen, maar Bing is bijna net zo erg en voegt daar nog een drama aan toe: je krijgt ook antwoord van een AI.
Een AI die er zeker bij specialistische vragen vaker naast zit dan niet. Maar vol overtuiging fier bovenaan in de resultaten komt.
Het is werkelijk droevig gesteld met de zoek resultaten.
Ik leef inmiddels weer als in de jaren 90: Ik heb een aantal betrouwbare sites op onderwerpen waar ik interesse in heb gebookmarked. En nieuwe informatie / interessante sites voor mijn bookmarks vind ik door de referenties in de artikelen op deze sites te volgen.
Zo kan ook ook mooi sites en forums die verworden zijn tot echo chambers vermijden. Google heeft namelijk bij politiek gevoelige onderwerpen de neiging om je al heel snel in een hoek te douwen. Ik wil juist ook lezen wat de andere kant van het verhaal is. Of ik het nu eens met die visies ben of niet.
De vergelijking van TikTok met Google klopt niet.
Bij Google stelt de gebruiker een vraag en presenteert het algoritme de resultaten in een bepaalde volgorde. Een volgorde is onvermijdelijk. Ook als Google voor een random volgorde zou hebben gekozen, zou dat een keus van zijn geweest.
TikTok lijkt me eerder vergelijkbaar met een televisiezender.
Is bv een Amerikaanse variant van RTL (geen idee welke zenders daar zijn) aansprakelijk te stellen voor de inhoud van een programma wat ze uitzenden? Of worden zij ook beschermd door artikel 230?
Ik zie niet het fundamentele verschil tussen een feed opvragen (zoals de tijdlijn van Facebook of Tiktok) en een zoekopdracht. “Geef me alles dat relevant is” of “Geef me alles dat over portobello’s gaat” is volgens mij hetzelfde. Het blijft neerkomen op een verzoek om informatie van derden gerangschikt te krijgen op een manier die het beste bij mijn verzoek past. In beide gevallen val je dan onder Section 230.
Een televisiezender stelt zelf het programma samen en kan daarmee dus niet onder Section 230 aansprakelijkheid ontlopen. Maar of je dan automatisch schade moet vergoeden, is een heel andere vraag. In 2011 in Nederland werd de Wereldomroep aansprakelijk gehouden voor een voorgelezen SMS van een luisteraar. Dat lukte niet, omdat de omroep geen reden had te twijfelen aan de inhoud.
Arnoud, Heeft de (menselijke) samensteller van een op een specifiek individu gerichte lijst van “lees en kijkadviezen” geen zorgplicht om te voorkomen dat dat individu schade oploopt door het opvolgen van dat advies? Geldt dat niet sterker tegenover personen uit kwetsbare groepen? Waarom zou een platform onder deze zorgplicht uit kunnen komen met alleen het excuus “De lijst is door een algoritme samengesteld”?
Het verschil zou hem zitten in dat de content actief geplaatst wordt door derden zonder voorafgaande redactionele controle. De Albert Heijn is ook niet aansprakelijk voor het prikbord met oproepjes voor bijlesdocenten of schoonmakers die zich aanbieden, dat idee. Het is maatschappelijk nuttig dat mensen elkaar moeten kunnen bereiken, en platforms 100% risico-aansprakelijk houden voor al die advertenties remt dat maatschappelijk nut.
Is de Albert Heijn ook niet aansprakelijk wanneer een medewerker regelmatig naar dat prikbord loopt, kijkt welke briefjes er interessant zijn voor de klanten, en die vervolgens door de winkel omroept?
Niet automatisch. Grofweg is het criterium of de medewerker direct aan het briefje had moeten zien dat de inhoud onrechtmatig is. “Schoonmaakster biedt zich aan 10e/uur” kun je prima voorlezen, en of dat dan een illegaal is die werk zoekt, een zwartwerker of een roofovervaller-in-vermomming kun je hier niet aan afleiden. “Ik schrijf je scriptie, plagiaatdetectie omzeild 100% garantie” zou ik als Albert Heijn-medewerker weghalen zodra ik het lees.
Oke, maar je mist het punt nog steeds, dus om de analogie nog wat door te trekken:
Stel de medewerker zag net een dik persoon lopen, en besluit om uit de honderden briefjes op het prikbord een paar briefjes te pikken die afslankprogramma’s aanbieden, en die klant daar op te wijzen.
De rechter zegt nu dat die medewerker er wel verantwoordelijk voor is dat die specifiek die briefjes er uit heeft gekozen om aan die klant voor te lezen, ook al zijn het briefjes van iemand anders.
Er zit bij aansprakelijkheid nog een tussenstap tussen “je deed het” en “er is schade”. Die tussenstap is dat het onrechtmatig is op een of andere manier wat jij deed. Tegen de wet of gewoon maatschappelijk onzorgvuldig.
Enkel andermans boodschap kiezen en doorgeven is niet onrechtmatig. Blijkt daarna dus dat die boodschap schade veroorzaakte, dan ben jij niet automatisch aansprakelijk voor die schade. Daarvoor is nodig dat jij wist (of had moeten weten) dat die boodschap schade zou geven.
Vandaar mijn voorbeeld van de scriptiefraudeservice, daarvan moet jij als medewerker weten dat dat onzorgvuldig is.
In mijn blog uit 2011 jurisprudentie over een op de radio voorgelezen sms, dat lijkt vrij veel op een voorgelezen briefje. De sms was onjuist (de leugen dat een bedrijf door inkrimping mensen ontsloeg) maar de radio-omroeper hoefde dat niet te weten gezien context en strekking van het bericht.
AH is dus pas aansprakelijk voor haar keuze om die werknemer de briefjes te laten voorlezen als het bedrijf gezien context en strekking had moeten weten dat de briefjes onrechtmatig waren. Ik zie dat niet direct bij briefjes met dieettips en afvalprogramma’s. Een briefje met hoe je ozempic kunt krijgen zonder recept, discreet aan de deur en een Belgisch mobiel nummer zou ik wel onrechtmatig vinden om voor te lezen.
Oke voor zover volg ik je. Maar dat is dus anders dan de 100% bescherming die section 230 zou moeten bieden.
Had TikTok gezien de context en strekking moeten weten dat die blackout-challenge levensgevaarlijk (en dus onrechtmatig) is ?
Dat is het hele punt van Section 230: aansprakelijkheid ontzeggen in situaties waarin die er normaal wel zou zijn. Providers en platforms krijgen dus méér bescherming dan kranten of televisieprogramma’s of Albert Heijns met prikbordjes. Dit omdat vanwege hun schaalgrootte de kans op claims veel groter zou worden.
Ik ben het compleet met je eens dat de plaatser van content aangesproken hoort te worden voor de inhoud van zijn/haar content. Het ongevraagd aanraden van bepaalde content is daarentegen een actieve actie van de platformbeheerder. Ik verdedig de stelling dat de platformbeheerder niet verantwoordelijk is voor de inhoud van de content, maar wel een zorgplicht heeft tegenover (kwetsbare) gebruikers om te voorkomen dat zij schade oplopen door content waarvan de platformbeheerder heeft gesuggereerd om deze ook te bekijken.
Hierbij gaat het niet om antwoorden op een specifieke zoekvraag, maar meer om ongevraagd advies als “Wilt U bij Uw gebak ook afslanktabletten kopen?”