Via Reddit:
[Mijn ex] beweert dat ik de GDPR geschonden heb omdat ik fragmenten van onze WhatsApp-gesprekken gedeeld heb met een AI-assistent (ChatGPT). Dit was niet publiek, enkel anoniem en privé, en bedoeld om psychologisch advies te krijgen in een verwarrende periode. … Toch beweert ze dat ze “een advocaat heeft” en dat ik vervolgd zal worden voor schending van haar privacy.Gebruik van ChatGPT om psychologische inzichten of hulp te krijgen is een serieus populair ding. Ik kan me dus voorstellen dat iemand dit doet in de emotionele toestand van een vervelend geëindigde relatie.
In dergelijke situaties zie je ook veel dat mensen alle mogelijke juridische haakjes aangrijpen als stok om nog even na te trappen. Ook hier: de gebruikte taal van de ex is zeer herkenbaar als boosheid. Maar zit er een juridische kern van waarheid in?
De vraagsteller geeft aan dat het gebruik alleen voor hemzelf was. Het voor de hand liggende antwoord is dan ook dat dit valt binnen de uitzondering voor een “zuiver persoonlijke of huishoudelijke activiteit” (art. 2(2)(c) AVG). De AVG geldt dan niet, en een schadeclaim of wat dan ook kun je daar niet op baseren.
Het even zo voor de hand liggende tegenargument is dat de dienstverlener OpenAI achter de dienst ChatGPT eigen dingen doet met de ontvangen gegevens, zoals de chats lezen voor verbeteren van het taalmodel of de interactie gebruiken om Terminator-robots te ontwikkelen.
De vraag wordt dan: geldt de uitzondering voor zuiver persoonlijk gebruik ook bij een overdracht van persoonsgegevens aan een derde? Ik neig naar nee, omdat de gegevens dan buiten de directe invloedssfeer komen van de particulier.
Probleem daarmee is dat je dan geen enkele internetdienst kunt gebruiken. Oftewel: die conclusie vereist enige nuance.
In haar handreiking over persoonsgegevens op internet zegt de Autoriteit Persoonsgegevens dat gegevens op internet gepubliceerd mogen worden binnen deze uitzondering, mits onder een aantal voorwaarden. Belangrijkste daarvan is dat de informatie zo beperkt mogelijk verspreid wordt, bijvoorbeeld alleen gedeeld met familie en zeker niet openbaar en voor zoekmachines bereikbaar.
Die interpretatie hier analoog toepassend lijkt het dan alsnog in orde. Weliswaar staat de chat in andermans internetdienst, maar hij wordt niet openbaar voor derden. Dat die internetdiensten er zélf analyses mee doen, valt dan buiten jouw verantwoordelijkheid.
Arnoud

Stel ik heb mijn telefoon ingesteld staan om altijd mijn telefoongesprekken op te nemen. Deze gesprekken mag ik dan niet publiekelijk op het internet zetten, maar het van (onder andere) deze audiofragmenten iets maken en dat online zetten mag dan dus wel zolang de inhoud van de gesprekken maar te achterhalen is.
Zou ik dan een text-to-speed AI stem van deze persoon maken zonder zijn toestemming en deze online zetten (zonder zijn naam erbij te hebben staan)?
Of is het belangrijk dat percentueel het chatgesprek een kleiner onderdeel van een complete LLM is dan de audiofragmenten onderdeel zijn van een AI stem?
Stel de partner van Wim deelt uitgebreid en jarenlang haar gevoelens over het feit dat hij in de avonduren een brony is met ChatGPT en ik vraag een jaar later aan ChatGPT wie de grootste brony ter wereld is en hij zegt “dat is Wim, en trouwens, zijn vrouw heeft het echt moeilijk daarmee”.
Wat dan?
Beetje grappig gesteld, maar LLM SEO begint wel een ding te worden natuurlijk, dus we krijgen alle drama van de jaren 0 weer all over again.
“Dat die internetdiensten er zélf analyses mee doen, valt dan buiten jouw verantwoordelijkheid.”
Het gaat hier toch niet om ‘doen van analyses’? Maar om schenden van vertrouwelijkheid door het risico te accepteren dat een AI-systeem getraind wordt op vertrouwelijke informatie en dat derden (door het AI-systeem te gebruiken) vervolgens (delen van) die vertrouwelijke informatie op een of andere manier als output gesouffleerd kunnen krijgen door dat AI-systeem? Op welke manier is het via deze route schenden van vertrouwelijkheid dan niet mede de verantwoordelijkheid van degene die diensten als ChatGPT gebruikt?
Mogelijk is ‘gebruiken van ChatGPT’ in deze casus niet zo zeer een schending van de AVG. Maar het gedrag van de vraagsteller zou best op een andere grondslag onrechtmatig mogen of moeten zijn. Want vertrouwelijke gegevens over derden in AI-systemen stoppen die daarop getraind kunnen worden en vervolgens delen van die info kunnen lekken naar derden is maatschappelijk gezien laakbaar. Tijd voor aanscherping van de wet op dit punt? En moet de wet dan zo aangepast worden dat de eindgebruiker wel aansprakelijk kan zijn? Of zodat de aanbieder van AI-systemen er maar voor moet zorgen dat zijn systeem nooit getraind wordt op vertrouwelijke gegevens?
Of zou een aanbieder van een AI-systeem dat desgevraagd (desgeprompt) vertrouwelijke persoonsgegevens uitspuwt nu al aansprakelijk gesteld kunnen worden vanwege een gebrek aan privacy-by-design?
Is dat werkelijk het risico? Mij is geen geval bekend waarin gegevens uit chats letterlijk terugkomen in nieuwe uitvoer bij anderen, afgezien van dat ene lek bij Samsung en zelfs daar is nooit gedocumenteerd dát gevoelige informatie naar buiten kwam. Ik weet dat men traint op chats, maar daaruit volgt niet dat jouw chatgesprek vervolgens integraal gereproduceerd gaat worden in andermans conversatie.
Het risico is niet zo zeer het integraal als output uitdraaien van chats, maar het lekken van gevoelige informatie over een persoon. Als ChatGPT bepaalde dingen over iemand ‘weet’ dankzij het met ChatGPT delen van vertrouwelijke info door een ChatGPT-gebruiker, dan kan die kennis dus door ChatGPT gebruikt worden. Het gaat hierbij dus om de losse (vermeende) feiten. Ik zou het heel raar vinden als gebruikers van ChatGPT die naar mij vragen door ChatGPT info over mij als output krijgen die ChatGPT alleen maar kon weten doordat mijn (ex)partner over zijn/haar problemen met mij heeft gechat met ChatGPT.
Prompt: “Wie is Jan Deux Cheveaux en gedraagt hij zich altijd netjes?” Antwoord door ChatGPT: “Jan Deux Cheveaux is een reageerder op IusMentis die zijn partner soms uitscheldt voor achterbaks viswijf (m/v)”.
Dit is notabene precies waarom ChatGPT bij veel grote bedrijven niet gebruikt mag worden door personeel. Die bedrijven erkennen dat AI-Systemen die getraind kunnen worden op prompts/interacties een risico op schenden van de vertrouwelijkheid oplevert. En die bedrijven kopen dus abonnementen op versies van ChatGPT die niet getraind kunnen worden op prompts/interacties.
Mijn vraag blijft: gebéurt dat ook echt? Er is mij geen enkel geval bekend waarin zo’n LLM dienst uitvoer gaf die uitsluitend uit een private chat bekend kon zijn.
Ik snap de zorgen over vertrouwelijkheid, want Allemaal Gretigtypende Indiërs lezen die logs door en maken correcties in het model. En het klópt gewoon niet met de NDA die je had getekend. Maar ik blijf het moeilijk vinden dit te concretiseren naar daadwerkelijk misbruik van de gegevens.
De evidente tegenvraag is: Wil je afwachten tot het een keer heel hard(*) misgaat, voordat je er actie tegen wil ondernemen?
*) Zo erg dat het in het nieuws komt en een juridisch blogger er van hoort.
Dat lijkt wel de algemene insteek bij AI. Ze laten tenslotte ook auto’s met AI in het wild rondrijden en pas als er een paar mensen overhoop gereden worden, trekt er iemand aan de bel.
Dat is flauw; bij alles “kan het misgaan” op niet nader te definiëren wijze met allerlei gevolgen voor mens en maatschappij. Daar kun je niet op sturen.
Het is goed om risico-inventarisatie te doen (zoals met de MIT Risk database) en daar op te sturen. Maar ik vind het óók belangrijk om door FUD heen te prikken. Als ik dan vele berichten lees over “ChatGPT leert van je chats en alles dat je zegt, kan openbaar worden gemaakt” en dat gaat terug tot één incident uit 2023 waarbij nota bene dat risico zich niet voordeed, dan wil ik graag iets concreter weten waarom dát risico speelt.
Daar kan je wel op sturen en grote bedrijven doen dit dus. En leveranciers als OpenAI en Microsoft voorzien daarom dus in for business oplossingen door varianten van ChatGPT aan te bieden die niet trainbaar zijn en door verwerking/hosting in de EU aan te bieden (je verhaal op security.nl t.a.v. doorgifte naar de VS bij gebruik van GPT lijkt dus ook wat te ongenuanceerd https://www.security.nl/posting/891813/Aan+welke+eisen+moet+bedrijven+voldoen+die+AI+voor+klantenservice+inzetten%3F ).
Er zijn door de jaren heen al meerdere gevallen bekend waar er trainingsdata 1-op-1 tevoorschijn kwam in de output (zij het in de context van broncode), en dit is ook een logische uitkomst van hoe LLMs intern werken. Het is feitelijk een statistisch model, en het is dus heel goed mogelijk dat iets verbatim in de uitvoer terechtkomt als er onvoldoende andere informatie is om dat te ‘verstoren’.
Ik heb op deze site eerder gevraagd of het oké is om mijn persoonlijke adresboek te syncen met Google, en of ik toestemming nodig heb van mijn contacten.
Het antwoord was toen nee, omdat het voor persoonlijk gebruik was ging de AVG daar niet op (kort door de bocht gesteld, heb het oorspronkelijke genuanceerde antwoord even niet paraat)
Zou dit niet onder diezelfde uitzondering vallen?
Google is 1 ding, maar Facebook: Toen ik een reisgenoot mijn telefoonnummer gaf en zij die opsloeg in haar telefoon kreeg ik daarna van Facebook meteen haar als een friend suggestie. De enige relatie die er electronisch tussen ons bestond was dat telefoonnummer in haar adresboek!
Dit een probleem is, dan overtreedt half Nederland de AVG dagelijks.
Mogelijk gaat dit goed omdat dit deel is van de door jullie beiden afgenomen dienst Facebook.
Het probleem is dat jij dan een derde inzet om jouw persoonlijk gebruik te faciliteren. Bij persoonlijk gebruik is dat eigenlijk niet de bedoeling. Het compromis lijkt te zijn dat het mag zolang die derde maar een zuivere verwerker is, die levert dan enkel jou een dienst. Ik zeg altijd “wat jij zelf mag, mag een verwerker in jouw plaats”.
Bij de dienst ChatGPT is het zeer de vraag of aanbieder OpenAI telt als verwerker, omdat ze de chats voor eigen (trainings-)doeleinden gebruiken. En dan komen we dus in onontgonnen terrein.
De lol is er al af vanaf het moment dat het geanonimiseerd aan ChatGPT wordt aangeboden 😉
Laat ik dit eens doorspelen naar Google Gemini. 😀
Analyse van juridische dreiging na delen van WhatsApp-gesprek met ChatGPT
Een recente Reddit-post, uitgelicht in een blogpost, werpt een interessante en zeer actuele juridische vraag op: is het delen van een WhatsApp-gesprek met een AI-assistent zoals ChatGPT een schending van de privacywetgeving (AVG)? In de casus dreigt een ex-partner met juridische stappen nadat haar voormalige partner fragmenten van hun gesprek deelde met de AI voor psychologisch advies. De blogpost van “Arnoud” analyseert de situatie en komt tot een genuanceerde conclusie.
De Kern van de Zaak: Persoonlijk Gebruik versus Derde Partijen
De centrale vraag is of deze handeling valt onder de “huishoudelijke vrijstelling” van de Algemene Verordening Gegevensbescherming (AVG). Artikel 2, lid 2, onder c, van de AVG stelt dat de verordening niet van toepassing is op de verwerking van persoonsgegevens die wordt verricht “in het kader van een zuiver persoonlijke of huishoudelijke activiteit”. Het verkrijgen van psychologisch inzicht in een privérelatie lijkt op het eerste gezicht perfect binnen deze omschrijving te passen.
Het wordt echter complexer doordat de gegevens worden gedeeld met een externe partij: OpenAI, het bedrijf achter ChatGPT. Zoals de auteur van de blogpost terecht opmerkt, gebruikt OpenAI de ingevoerde data mogelijk voor eigen doeleinden, zoals het trainen van zijn taalmodellen. De vraag is dan of de huishoudelijke vrijstelling nog steeds geldt wanneer persoonsgegevens de directe invloedssfeer van de particulier verlaten en bij een commerciële derde terechtkomen.
Interpretatie van de Autoriteit Persoonsgegevens
De auteur verwijst naar een handreiking van de Autoriteit Persoonsgegevens (AP) over het publiceren van persoonsgegevens op internet. De AP stelt dat de huishoudelijke vrijstelling ook online kan gelden, mits aan bepaalde voorwaarden wordt voldaan. De belangrijkste voorwaarde is dat de verspreiding van de informatie beperkt blijft. Het delen met een selecte groep, zoals familie, valt hier doorgaans onder, terwijl het openbaar maken voor zoekmachines dat niet doet.
Door deze lijn analoog toe te passen op de ChatGPT-casus, concludeert de auteur dat de handeling waarschijnlijk toch onder de vrijstelling valt. De chat is immers niet openbaar gemaakt voor willekeurige derden. Hoewel de gegevens op de servers van OpenAI staan, is de interactie privé tussen de gebruiker en de dienst. Dat OpenAI interne analyses uitvoert, zou dan buiten de verantwoordelijkheid van de individuele gebruiker vallen.
Conclusie: Een Lege Juridische Huls?
De analyse suggereert dat de juridische dreiging van de ex-partner waarschijnlijk ongegrond is. Hoewel het delen van persoonsgegevens met een derde partij als OpenAI de situatie compliceert, lijkt de context – privégebruik voor persoonlijke reflectie zonder openbaarmaking – zwaar te wegen. De intentie was niet om de privacy van de ex te schenden of de informatie publiek te maken, maar om persoonlijke inzichten te verkrijgen.
De blogpost karakteriseert de actie van de ex-partner als een herkenbare boze reactie, waarbij juridische argumenten worden gebruikt “als stok om nog even na te trappen”. Hoewel de boosheid en het gevoel van privacyschending vanuit het perspectief van de ex-partner begrijpelijk kunnen zijn, lijkt een succesvolle juridische vervolging op basis van de AVG in dit specifieke geval onwaarschijnlijk. De huishoudelijke vrijstelling, zelfs in het digitale tijdperk van AI-assistenten, lijkt hier robuust genoeg, zolang de gedeelde informatie niet publiekelijk wordt verspreid.