Een probleem bij Facebook en collega’s: je krijgt al vrij snel het label “AI assisted” of vergelijkbaar aan je beeldmateriaal. Moederbedrijf Meta worstelt met hoe dit aan te pakken, omdat zij nepbeeld wil aanpakken maar er nauwelijks goede criteria zijn. Maar op dit moment is het “als je Adobe®? Photoshop gebruikt, krijg je het label” en dat is ook weer niet heel handig.
De opkomst van AI-beeldgeneratoren heeft geleid tot een stortvloed aan nepbeeld en AI-revisies. Soms bizar (zoals Shrimp Jesus), soms gewoon nieuwe kunst en soms welbewuste manipulatie van de werkelijkheid – en van alles daar tussenin.
Dit aanpakken begint bij het herkennen, en daar ligt ook meteen het probleem. De meeste bedrijven in deze sector doen mee aan wat Adobe Content Credentials heeft genoemd: een label in de metadata waarin kort opgesomd staan welke handelingen met AI zijn uitgevoerd. Deze is via een stevige hash verbonden aan de afbeelding, en kan dus ook geverifieerd worden als het label uit het beeld gehaald worden (en ook na bepaalde triviale manipulaties zoals roteren).
Facebook, Instagram en collega’s screenen op dit label, en tonen dan een waarschuwing: “Made with AI”, tegenwoordig “AI Info”. Van tegenhouden of andere maatregelen is (vooralsnog) geen sprake, en in het kader van transparantie is dit al een mooie stap natuurlijk. (Het moet ook in het kader van de zorgplicht onder de DSA die deze platforms hebben.)
Probleem is natuurlijk: wanneer is iets “made with AI” of “AI assisted”. Heel veel aanpassingen die we de afgelopen twintig jaar als “image was enhanced using Adobe® Photoshop® software” (deze frase is verplicht) hebben omschreven, worden tegenwoordig als AI-aanpassingen gezien. Niet alleen generatief (het uitbreiden van je canvas) maar ook basale zaken als objecten herkennen en vervangen. Dit speelt natuurlijk ook bij andere tools.
Ik denk niet dat je hier ooit echt uitkomt. Het compromis dat nu gevonden is, komt neer op een onderscheid tussen “de afbeelding kwam in de basis uit een genAI tool” en “de afbeelding is aangepast met AI-achtige tools”. Die eerste krijgen het label, bij die tweede zie je het pas als je de foto-informatie opvraagt. Ideaal is dat niet, maar ik weet niet hoe het beter zou moeten.
Arnoud
Adobe Photoshop (zonder die kerstboom aan rare tekentjes, want dat is echt niet verplicht) heeft al heel wat jaren tools die dingen kunnen verwijderen, en daarbij de achtergrond slim invullen op basis van de context. Dit kan uitermate manipulatief zijn, en zal tegenwoordig best wel gebaseerd zijn op technieken die nu onder het label “AI” vallen, maar verschillen in manipulatief gehalte niet veel van waar dat vroeger met nijver handwerk in een fotobewerkingsprogramma gebeurde, of nog eerder met mesjes en kwastjes in het analoge domain (de beruchte foto van verdwijnende sovjetleiders uit het Stalintijdperk verschijnt nu op mijn netvlies)
Een bekende grap onder AI-onderzoekers is dat elke techniek die uit het AI onderzoek voortvloeit het label “AI” verliest zodra het gemeengoed wordt, en mensen het beginnen te begrijpen.
Waar het omgaat is dat je met de huidige tools in een krankzinnig tempo kunt liegen met plaatjes, zodat iedere Jan, Piet, of Klaas het kan doen, en je geen specialisten meer nodig hebt, die alleen overheden zich kunnen veroorloven… Een label “dit is een leugen” is misschien zinvol, maar wie bepaalt dat dan, en is een vakantiekiekje waar ik een hinderlijke collega-toerist uit heb weggefotoshopt dan ook een probleem.
Het bewerken van foto’s gebeurt al jaren. (In de donkere kamer kon je met maskers een heleboel dat Photoshop nu digitaal makkelijker doet.) Personen en organisaties zijn daarop ook aangesproken als ze de grens van misleiding overschreden.
Ik denk dat het grootste probleem is dat er op Internet onder het motto “vrijheid van meningsuiting” ongecontroleerd gelogen wordt. Of dat nu in de vorm van foto’s, video’s, audio of tekst is. Dit is een groot probleem wanneer er sprake is van laster, opruiing en beïnvloeding van de publieke opinie. Helaas willen velen niet zien dat de leugens op het Internet zich zo snel verspreiden dat de waarheid ze niet meer allemaal kan achterhalen.
Waarom precies zou het uitmaken of het door AI gedaan is of niet? Voorheen werder er ook fake c.q. gephotoshopte (sorry, ik bedoel natuurlijk “Door Adobe (c)(tm) Photoshop (c)(tm) bewerkte afbeeldingen”) afbeeldingen gemaakt. Het enige echte verschil is dat iedereen met een account op een van honderd verschillende websites dat nu kan laten maken. Het is dus breder toegangelijk geworden, maar dat een afbeelding iets kan laten zien wat niet echt is maar er wel fotorealistisch uit ziet is niet nieuw.
Is het misschien beter om gewoon te vermelden als de afbeelding bewerkt is op zo’n wijze dat de inhoud aangepast is? Dus lichter maken of contrast verhogen is prima, maar een persoon verwijderen of Donald Trump op een T-rex zetten met een geweer in z’n handen vereist dan de melding “deze afbeelding is bewerkt”.
Het zit hem eerder in de massaliteit en het gemak. Dat een enkeling dit met schaar en lijmpot kon, is één ding, en het vervolgens gepubliceerd krijgen was daarbij behoorlijk ingewikkeld. Dat iedereen met een snel te vinden promptvoorbeeld het kan én massaal kan publiceren zodat het publiek al snel denkt dat het echt is, vind ik fundamenteel wat anders.
De term “AI” is op zich irrelevant, maar dient als een handige proxy om het fenomeen mee aan te duiden. Beoordelen of iets “authentiek” is of “minimaal aangepast met gebruikelijke technieken” is niet haalbaar. “Dit komt uit een generator” of “Elementen vervangen of verwijderd, achtergrond andere kleur” is dat wel (Content Credentials).