Het is verboden om zonder toestemming naaktfoto’s te maken met AI-apps, maar het is doodsimpel om het tóch te doen. Dat meldde Nu.nl onlangs. De aanleiding is de recente waarschuwing van Meta over ‘nudify’-apps, beeldbewerking die een naakt lijf verzint binnen de contouren van degene die jij fotografeert. Oké dan.
Meta heeft een rechtszaak aangespannen tegen de maker van CrushAI, een populaire app in dit genre, om te zorgen dat die niet meer adverteert op de Meta-platforms zoals Instagram. Dit op grond van de gebruiksvoorwaarden. Maar de app zelf blijft dus te vinden.
“Jijzelf weet dat de beelden nep zijn, maar je omgeving en anderen die de beelden zien weten dat niet”, zo citeert Nu.nl een woordvoerder van Slachtofferhulp. Daarmee worden mensen alsnog kwetsbaar voor chantage en andere onfrisse praktijken. Er moet dus wat gebeuren, en de organisatie stelt een apart verbod voor.
Een verbod staat of valt met handhaving, maar heeft hier ook een signaalwaarde. Als je op scholen en andere plekken waar dit speelt kunt zeggen “zo’n app hebben is verboden”, dan kun je jongeren en hun ouders (hopelijk) via een moreel appèl aanspreken. En wie deze toch gebruikt, kun je dan via schoolregels aanpakken – net zoals bij jongeren die messen naar school brengen, bijvoorbeeld.
Als het slachtoffer nog geen 18 is, dan is het gebruik van zo’n app strafbaar als het vervaardigen van kindermisbruikmateriaal (art. 252 Strafrecht). Maar ook als het gaat om een volwassene is het strafbaar als het vervaardigen “opzettelijk en wederrechtelijk” gebeurt (art. 254ba). Bij zo’n app is daar zonder twijfel sprake van.
Het punt is vooral: er is geen strafbaarheid op bezit of verspreiden van de app. Dat was nooit echt relevant: dergelijk beeld maakten mensen met camera’s of andere algemene middelen, dus je komt er niet uit hoe je “stiekeme camera voor strafbaar beeld” onderscheidt van “camera”. Dit is ook waarom stiekem fotograferen (art. 139f) strafbaar is maar stiekemfotograferencamera’s niet.
Zou het kunnen? We hebben het voorbeeld van de hackhulpmiddelen (art. 139d), een “technisch hulpmiddel dat hoofdzakelijk geschikt gemaakt of ontworpen is tot”. Zet erachter “het maken van beelden bedoeld in 254ba of 252” en je bent er. Gewone camera’s zijn niet specifiek geschikt voor dergelijk beeld, deze naaktapps wel.
Net als bij hackmiddelen krijg je dan gelijk discussie over waar de grens ligt. Software kan zowel voor een legitiem securityonderzoek geschikt zijn als voor illegaal werk, soms hangt dat alleen af van het hebben van een pentestopdrachtovereenkomst. Het wettelijk criterium moet je dan van geval tot geval oplossen.
Hier is het probleem dat deze apps (meestal) niet letterlijk zeggen “upload een foto van eender wie en wij plakken er een naakt lijf onder”. De verpakking zijn “AI girlfriend” apps (want het gaat altijd over vrouwen) die je dan in staat stellen afbeeldingen samen te stellen met allerlei parameters. En ergens verstopt zit dan “upload sample image”.
Anderen presenteren zich explicieter maar presenteren zich dan als neutrale tool: jij kiest de foto, maar jij verklaart dan tevens dat alles helemaal juridisch in orde is. En daar is het dan op papier misschien nog wel makkelijk tegen optreden, maar het bedrijf zit dan in Hong Kong en kan zo weer verder vanuit een nieuwe Ltd.
Arnoud

Moet je tegenwoordig een rechtzaak aanspannen om advertenties op je eigen platform tegen te houden?
Ik denk om een dwangsom of boete te kunnen incasseren. Dat schrikt meer af dan een IP van of een boze mail.
Maar het is hun eigen platform. Meta gaat zelf de overeenkomst aan, ontvangt geld en publiceert de advertentie.
Dat gaat allemaal automatisch. Geen mens screent het vooraf. En dan kunnen kwaadwillenden dit soort dingen plaatsen en moet Meta er achteraan rennen.
Misschien moeten de advertentienetwerken dan verplicht worden advertenties vooraf te laten screenen door een mens.
Het kan iets slimmer. Niets staat een “know-your-customer” systeem voor advertenties in de weg (en de klant is vaak een advertentiebureau). Adverteerders met goede reputatie krijgen geen/minder review (en de mogelijkheid last minute advertenties te plaatsen met beperkt overzicht), en rare advertenties die bijna of helemaal misleidend zijn hebben review nodig (en zijn dus duurder). Als kleine adverteerder kun je dan met een advertentiebureau werken met goede reputatie en dus lage kosten.
Als kleine adverteerder (soms draai ik een campagne van een paar weken / van een paar tientjes op Facebook voor een ANBI) zou het volstrekt onwerkbaar zijn om daarvoor met een advertentiebureau te werken. Daarnaast werkt dat advertentiebureau ook niet voor niets.
Het is overigens voor die campagnes nu al bijna onwerkbaar – het duurt soms een dag voordat Facebook een advertentie goedkeurt. En als ik een typo wil herstellen dan kan ik de advertentie niet wijzigen, dan moet ik hem terugtrekken en een nieuwe maken.
Ik snap heel goed dat de goeden hier onder de kwaden lijden maar doe niet net alsof dat makkelijk is op te lossen.
Ik betwijfel of dit op de lange termijn een probleem is. Toen photoshop net een ding werd waren mensen ook geschokeerd door hoe makkelijk foto’s te manipuleren waren. Was dat voorheen voorbehouden aan professionals die dat in Donkere Kamers (doka’s) deden, kon toen ineens ‘iedereen’ het. Inmiddels ligt niemand meer wakker van een bewerkte foto.
Zo’n zelfde trend is nu gaande met video. Dat was altijd lastig om te bewerken, en dus dachten mensen dat als ze een video zagen het wel echt zo gebeurd moest zijn. Nu met AI moeten mensen er ook even aan wennen dat als ze een video zien dat niet betekent dat dat ook écht gebeurd is.
Ik houd zelf rekening met iets vergelijkbaar voor dit soort apps. Nu lijkt het nog iets bijzonders waar je qua wetgeving wellicht iets mee moet. Maar het is zeker mogelijk dat op termijn dit niet anders is dan wanneer je iemands schoolfoto boven een lichaam uit de playboy plakt. Iedereen snapt dan dat er iemand aan ’t knutselen geweest is en gaat weer door met z’n dag.
Ik snap je, maar heb toch moeite met het verschil in realisme. Dat voelt iets fundamenteler dan het aloude gefotoshopte hoofd-op-lijf plakken.
Als iedereen weet dat dat soort apps bestaan, zal niemand denken dat dat echt het lichaam is van die persoon, ipv een set pixels.
En wie dat wel denkt… ‘zalig zijn de simpelen van geest’.
Je kunt geen wetgeving maken om te compenseren voor de domheid van mensen,
Ik vind dat te kort door de bocht. Jij en ik zitten in die new-tech bubbel, maar voor veel mensen is ChatGPT echt nog een zeer nieuwe ervaring.
Het idee dat iemand het gezicht van X realistisch in video heeft verwerkt op het lijf van Y, is écht niet een voor de hand liggende verklaring. Bovendien: als de maker hard stelt dat de video wel echt is, gaan veel mensen toch aarzelen. Ik vind dus dat X wel degelijk juridische middelen moet hebben om hier wat tegen te doen.
Ja, ik begrijp dat wel, maar toch.
Het is geen ‘echt’ probleem, maar een probleem dat spontaan ontstaat in de hoofden van mensen, net als complottheorien: Mensen geloven spontaan iets wat niet waar is. Vandaag dit, morgen dat. Daar valt niet tegenop te wetgeven. Wetgeving moet op feiten gebaseerd zijn.
In dit geval geloven (sommige) mensen dat dat echt het lichaam van die persoon iets. Andere mensen geloven misschien dat er een Scientology boodschap in die pixels verborgen zit, en weer anderen geloven misschien dat het het lichaam van Elvis Presley is.
Allen hebben het mis, waarom krijgt de ene groep wetgeving om hen te ‘helpen’ en de andere groep niet?
Je moet kijken naar de maatschappelijke impact en schade die een misvatting kan hebben. Het idee dat Elvis Presley niet dood is, doet weinig tot geen schade. Het idee dat klasgenote X van 14 zichzelf in pornografie aanbiedt, doet wél schade: sociale uitsluiting, chantage, wat al niet meer. Daar moet dus harder tegen opgetreden worden dan tegen elvispresleywappies.
Natuurlijk zou het beter zijn dat iedereen supermediawijs is en bij iedere foto scherp onderzoek doet om vast te stellen of deze echt is alvórens X uit te sluiten en tot zelfbeschadiging aan te zetten. Helaas werkt het niet zo. En het strafrecht is dan de brandweer: het liefst heeft iedereen brandmelders en vuurvertragende middelen én zijn alle apparaten regelmatig gekeurd, maar bij brand gaan we blussen en niet meteen de schuldvraag.
Natuurlijk wil ik niet dat die 14 jarige X allerlei ellende over zich heen krijgt.
Maar is dit niet gewoon een variant van ‘roddelen’/’pesten’? Als de klasgenoten van X hem/haar sociaal willen uitsluiten of chanteren zullen ze wel een verzonnen middel of vermeende reden vinden.
Ik zeg niet dat het een non-probleem is, maar ik betwijfel dat wetgeving een oplossing voor het probleem is.
Terecht, dat is altijd het probleem. Ik wou dat de politiek ophield met “er is een probleem we gaan een wet maken” en startte met “er is een probleem we gaan de handhavers meer geld geven”.
Hear hear..We hebben geen gebrek aan wetten en regels maar aan fatsoenlijke handhaving, door goed opgeleide en redelijke en billijke handhavers.
“Natuurlijk zou het beter zijn dat iedereen supermediawijs is en bij iedere foto scherp onderzoek doet om vast te stellen of deze echt is alvórens X uit te sluiten”
Zeg; je bent jurist. De maker moet dan toch bewijzen, dat de foto echt is. De enige mogelijkheid is een notaris, die vaststelt, dat maker X een foto van persoon Y maakt, terwijl deze naakt is. De notaris zal hij niet vinden, dus gaan we ervan uit, dat de foto onecht is.
Omdat op dit moment 99,9+% van de foto’s echt is, is dit niet hoe het werkt. Foto’s zijn echt tenzij iemand er een onderbouwd punt van maakt dat ze concreet in dit geval nep zijn en waarom. De fotograaf hoeft dus niets te bewijzen als jij zegt “deepfakes en Photoshop bestaan”. Kom met argumenten waarom deze fotograaf in deze situatie deze specifieke foto heeft bewerkt, bij voorkeur met ronde cirkeltjes die aangeven wáár.
Geef het een paar jaar een de bulk van alle foto’s, video’s en teksten zijn niet meer door een mens gemaakt.
Met als nuance dat soms na enige tijd blijkt dat sommige complottheorieen inderdaad waar waren of zijn.
Het is heel zelden dat complottheorieën waar blijken te zijn.
Tenzij je een complottheorie hebt die hele simpele dingen voorspelt. “De overheid verbergt fouten” is misschien volgens sommigen een complottheorie maar volgens anderen gewoon iets wat gewoon voor zich spreekt omdat bijna iedereen wel een zijn/haar fouten verbergt.
Misschien, maar de enige andere verklaring: dat de bekende persoon X of de persoon X uit jouw vriendenkring zich, al poserend, heeft uitgekleed en heel erg niet opgelet heeft waar dat filmpje naar toe is gestuurd, en toevallig is dat filmpje in jouw inbox gekomen, is ook niet erg voor de hand liggend.
Iedereen gaat dit op den duur snappen. Jij en ik noemen dan de app bij de naam en het gebruikte proces en je tante van 80 zegt: “Dat kunnen ze tegenwoordig zo maken, dat het net echt lijkt.” Bij Photoshop was het in 2003 ook ‘choquerend’. Ik speelde daar wel eens mee om iemand een oubollig kapsel of een lelijke kleur hemd te geven; nu weet men dat. Men zal eraan moeten wennen, dat zien niet meer geloven is en de beeldcultuur moeten relativeren. Trucage is overigens van alle tijden.
Een groot deel van de wetgeving is voor de domheid van mensen. Elk nadenkend mens zou een gordel en kinderstoel in de auto gebruiken, of stoppen voor rood licht. Echter, strafbaarstelling is blijkbaar toch nodig.
Dit is wat genuanceerder. Zonder wetgeving zouden er geen veiligheidsgordels standaard ingebouwd zijn in nieuwe auto’s. Als iedereen het voor zichzelf had moeten bedenken wat wijsheid was, zouden veel mensen het uiteindelijk toch niet gedaan hebben (want hoge kosten voor montage + sociale druk/norm die je voor gek verklaart als je dat onverplicht doet). Dit is hetzelfde als nu speelt met fietshelmen. Veel ouders van schoolgaande kinderen zouden maar wat graag willen dat het in Nederland wettelijk verplicht werd om (in ieder geval tot een bepaalde leeftijd) verplicht een fietshelm te dragen. Iedereen weet dat het beter zou zijn als elk kind altijd een helm op moest. Maar bijna niemand dwingt zijn kind hiertoe. De sociale druk (van kinderen onderling) en de angst bij kinderen om op te vallen c.q. af te wijken is zo groot dat het praktisch onmogelijk is om je kind (vanaf een jaar of 8 nog) een helm te laten dragen. Wetgeving hieromtrent is er in de meeste EU-landen schijnbaar al lang. Maar Nederland-fietsland heeft hier vooral last van de wet op de remmende voorsprong. Laten we eens beginnen met een helmplicht voor alle fietsen/steps (en al het andere berijdbare op de openbare weg) voor kinderen tot 12 jaar. Daar moet toch een Tweede Kamermeerderheid – die snapt dat ouders dit zonder wettelijke hulp nooit voor elkaar krijgen – voor te vinden zijn?
Ook dat is genuanceerder. Veiligheidsgordels waren er (in sommige autos) al voordat ze verplicht waren. Tegenwoordig zijn gordels zo normaal dat de meeste mensen zich gelijk onprettig voelen zonder gordel in de auto.
Skihelmen daarentegen zijn niet verplicht in de grote skigebieden. Toch draagt vrijwel iedereen een helm.
Meh. Een “nudity” app om mensen virtueel uit te kleden vind ik nog niet eens zo bijzonder. (Maar wel opvallend dat het vrijwel altijd vrouwen zijn die zo uitgekleed worden.) Maar ik vind het gebruik van AI om afbeeldingen mee te maken op zich wel leuk. Ik maak alleen geen fakes van echte personen. In plaats daarvan wil ik afbeeldingen hebben voor verhaaltjes die ik (met AI) schrijf. Daarvoor gebruik ik de Google Gemini AI en die heeft enkele beperkingen betreffende de afbeeldingen die ik gebruik. Dus ik hou het nog redelijk netjes, hoewel de AI wel in staat is om zeer expliciete verhalen te schrijven. (In een mooie leesstijl, overigens.)
Maar wat ik heb opgemerkt is dat veel AI het genereren van expliciete afbeeldingen voorkomen. En je zullen verbannen als je het alsnog probeert. Maar sommige AI heeft er verder geen problemen mee om expliciete afbeeldingen te maken. En daarbij is het soms mogelijk om AI-afbeeldingen van kinderen te maken in zeer expliciete posities. (Inclusief objecten die in bepaalde lichaamsopeningen steken.) Ja, de grote AI-KP, om het zo maar te noemen.
En dan heb je een probleem, want is het een kind of is het een volwassen vrouw met een kleine cupmaat? (Keira Knightley, Natalie Portman, Kristen Stewart of een andere acrice met kleine voorgevel.) Er is AI die op basis van een gezicht de leeftijd van een persoon kan inschatten, maar dat is niet erg betrouwbaar. En voor normale mensen is het ook lastig in te schatten, als je kennis van leeftijden op televisie-series is gebaseerd. (Want veel actrices in TV-series die minderjarigen spelen zijn gewoon volwassen. Da’s handiger gezien de leerplicht.)
Dus ja, er kan veel meer mis gaan met AI-gegenereerde afbeeldingen dan alleen nep-foto’s van je vriendin. Want dat is niet veel anders dan een beetje fotoshoppen. (Alleen hoef je bij AI geen kennis daarvan te hebben.)