Heb je auteursrecht op bugfixes op andermans software?

“Het herstellen van een bug is in het algemeen geen grote bewerking”. Aldus de rechtbank Rotterdam in een recent geschil over broncodes. Voordat iedereen boos wordt: het ging hier over auteursrechtelijk grote bewerkingen, en dat is wat anders dan hoe moeilijk het is om voor elkaar te krijgen.

De zaak komt erop neer dat de koper van een stuk software de oude eigenaar (en ik vermoed, maker) daarvan inhuurde als zzp’er om hier bepaalde bug fixes in uit te voeren. Die leverde dat aan in de vorm van gecompileerde binaries, maar wilde geen broncode verstrekken en beriep zich op auteursrecht op de fixes.

Je kunt op zich ook op een klein werk (als in: weinig regels of woorden) auteursrecht hebben. Waar het om gaat, is of je een eigen intellectuele schepping dan wel eigen oorspronkelijk karakter/persoonlijk stempel daar in hebt zitten. Wat de rechter hier “banale of triviale elementen” noemt, valt buiten het auteursrecht. Die interrupt héét nou eenmaal 13h, dus dat getal zul je moeten noemen en daar is auteursrechtelijk niets intellectueels aan.

Intrigerender wordt het door de vervolgzin:

[D]e keuzes van de maker mogen niet louter een technisch effect dienen of te zeer het resultaat zijn van een door technische uitgangspunten beperkte keuze.
Dat je bij programmeren creatief bezig bent, erkent iedereen. Maar er zijn randgevallen waarin daar geen (of weinig) sprake van is. Het herstellen van fouten is zo’n randgeval: je bent dan niet iets nieuws en eigens aan het toevoegen, je herstelt andermans fouten (of denkt dat te doen), en dat is haast per definitie niet een eigen inbreng.

Natuurlijk, het hangt af van het soort fout. Als je een naiëve eenregelige aanroep van een functie vervangt door een pagina vol met checks en balances inclusief security best practices, dan is die pagina vast auteursrechtelijk creatief. Deze zaak lijkt te zijn gegaan om het meer standaardwerk, het corrigeren van kleine misstappen in het origineel.

Een punt is nog wel dat een bug best moeilijk kan zijn om op te sporen (ik heb veel bewondering voor deze) maar niet perse moeilijk om op te lossen áls je het probleem gevonden hebt. Iedereen kent het verschijnsel van een hele middag bezig zijn om een ongewenste puntkomma te lokaliseren. Het frustrerende is dan dat die activiteit niet auteursrechtelijk relevant is – het gaat alleen om creativiteit die in het resultaat te herkennen is.

Als laatste bleek de bugfixer/programmeur niet inhoudelijk diep te zijn ingegaan op wáár dan de creativiteit zat. Als je je op auteursrecht beroept, moet je (desgevraagd) wel kunnen aantonen waarom het jouw intellectuele schepping was.

Arnoud

Mag een dienst zomaar een AI-hergebruiksrecht in de voorwaarden zetten?

Photo by Anete Lusina on Pexels

Mensen hebben kennis genomen van de bijgewerkte gebruiksvoorwaarden voor het gebruik van Adobe-software en zijn verontwaardigd, omdat ze vrezen dat Adobe volledige toegang heeft tot de inhoud van een gebruiker. Aldus nieuwssite Petapixel. Het is een ander aspect van de AI-hergebruikdiscussie: ditmaal gaat het over auteursrechten en contractuele afspraken.

Adobe is niet zozeer op zoek naar gesprekken en dergelijke content, maar heeft dringend behoefte aan bergen beeldmateriaal waarmee ze haar beeldgeneratoren kan voeden. Dat vereist een licentie onder het auteursrecht van de makers, plus toegang tot hun bestanden.

Adobe is een clouddienst, dus dat is een kwestie van een daartoe strekkend beding opstellen:

Solely for the purposes of operating or improving the Services and Software, you grant us a non-exclusive, worldwide, royalty-free sublicensable, license, to use, reproduce, publicly display, distribute, modify, create derivative works based on, publicly perform, and translate the Content. For example, we may sublicense our right to the Content to our service providers or to other users to allow the Services and Software to operate with others, such as enabling you to share photos.
Zoals al vele malen gesignaleerd de afgelopen decennia bij dit soort clausules: hier staat dat men álles mag. (De “For example” is leuk maar juridisch niet relevant.) Dat was in het verleden vaak wat speculatief – gaat Facebook jouw leuke statusupdate op mokken verkopen soms? Maar er is nu een duidelijke use case, namelijk dat trainen van AI modellen. En ja, dat mag naar de letter van deze tekst.

Dit werd op X gesignaleerd met de constatering dat iedere Adobe-gebruiker met enige geheimhoudingsplicht naar cliënten nu een probleem heeft. Immers, Adobe mag je beelden analyseren en als dat werk in opdracht onder NDA is – of werk van een geheimhouder zoals advocaten of artsen – dan doorkruist dat je bestaande afspraken.

Ja, dat is een probleem, ook als je aanneemt dat bij Adobe geen mens naar jouw beeld kijkt en ze echt niet jouw afbeeldingen gaan lezen om daar onthullende publicaties mee te doen. Als je afspraak is dat niemand je werk krijgt behalve de opdrachtgever, dan mag je ook niet toestaan dat Adobe dat doet. Ik snap dan ook goed de vele geluiden van mensen die op zoek zijn naar een alternatief.

Is er juridisch wat aan te doen? Vooralsnog niet: Adobe is geen VLOP en dus niet onderworpen aan de strengste regels van de DSA. Zuiver contractueel is de wijziging in de voorwaarden toegestaan, omdat het een business-to-business dienst is.

Arnoud

Is mijn persoonlijk motto juridisch te beschermen?

Photo by Nathan Dumlao on Unsplash

Een lezer vroeg me:

Ik heb me de afgelopen jaren online geprofileerd met een specifieke slogan of motto, en ben daarmee heel herkenbaar en zichtbaar geworden. Nu wil ik mijn kennis in boekvorm uitgeven, maar ik ontdek net dat er al enkele maanden een semi-concurrent met een zeer vergelijkbare titel op de markt is. Kan ik me ergens op beroepen?
Een motto of slogan mag dan goed werken in je marketing, maar juridisch gezien is het een best lastig iets om wat mee te doen.

Vaak zie ik dat mensen denken auteursrecht te hebben op een slogan, soms zelfs met het ©-teken er bij. Dat is juridisch vrij kansloos: één enkele zin wordt vrijwel nooit als auteursrechtelijk beschermd gezien. En zeker als de ander er een variatie in aanbrengt, houdt het al heel snel op.

Een merkdepot is mogelijk. Je slogan moet dan onderscheidend zijn, in die zin dat mensen de slogan met jóu associëren. Het Hof van Justitie omschreef dat als volgt:

Dit kan in het bijzonder het geval zijn wanneer deze merken niet een gewone reclameboodschap zijn, maar in zekere mate origineel of pregnant zijn, een zekere uitleggingsinspanning vragen of bij het relevante publiek een denkproces in gang zetten.
Dat denkproces moet vervolgens wel bij jou uitkomen, wat mogelijk is door langdurig gebruik – we denken allemaal aan dezelfde persoon als we Tsjakka! horen, bijvoorbeeld. Wereldberoemd in Nederland hoeft niet: ik zou Er vis er een jarig hoera hoera ook een te beschermen merk achten.

Kern van een merk is wel dat je het gebruikt om naar jezelf te verwijzen. Een titel van een boek, hoe zeer dat boek ook met jou geassocieerd wordt, is dus niet geschikt als merk. Dat zou wel kunnen als je een reeks boeken uitgeeft onder een bepaalde groepstitel. Bij juristen is bijvoorbeeld de Tekst&Commentaar een zeer bekende reeks, en dat mag dus een merk zijn. (Andere juristen moeten hun commentaren op wetsteksten dus anders noemen, zoals ik met Artikelsgewijs commentaar.)

Hier gaat het om de titel van een boek die lijkt op een lang gebruikt merk. Allereerst is dan de vraag of dat merk vastgelegd is, zonder depot geen bescherming. Ten tweede is dan de discussie of die concurrent het merk gebruikt, oftewel hoe groot is de variatie, en lijkt het nog genoeg op het vastgelegde merk. En ten derde is de vraag of het merk als merk wordt gebruikt, doet die concurrent of hij je zakenpartner is of wil hij meeliften met jouw bekendheid?

Zonder de namen naast elkaar te leggen (wat in een blog wat onhandig is), is het moeilijk hier een definitieve uitspraak over te doen. In de zaken die ik ken, is voor mij de algemene regel wel ontstaan dat dit niet heel kansrijk is. Mensen hebben zelden een merk, en boeken die (variaties op) andermans slogan gebruiken doen dat zelden op een manier die inbreuk oplevert.

Je kunt natuurlijk een boos mailtje naar de concullega eruit doen, maar als het boek al in de winkel ligt is de kans vrij klein dat die op basis daarvan een terugroepactie organiseert. De beste tegenactie die ik ooit zag, was hard online reclame maken onder de slogan en kleine variaties daarop (toevallig lijkend op de boektitel) en zo de boekenlezers bij jou binnenhalen als klant.

Arnoud

Scarlett Johansson beschuldigt OpenAI ervan haar stem te gebruiken voor ChatGPT

Photo by Jason Rosewell on Unsplash

Scarlett Johanson zegt dat OpenAI haar stem zonder toestemming heeft gebruikt als AI-stem voor ChatGPT, las ik bij Tweakers. De betreffende stem, Sky geheten, leek sterk op de stem van Johansson, maar volgens OpenAI was dat niet bewust. Weinigen die dat geloven, want de stem werd vrij snel daarna weggehaald. Onder juridische druk heet dat dan – maar wat zou dat precies moeten zijn?

Het artikel legt uit:

In een verklaring van Johansson, die door journalist Bobby Allyn op sociale media werd gezet, zegt ze dat Altman haar in september vorig jaar had benaderd om de stem van ChatGPT in te spreken. Naar eigen zeggen sloeg zij dat aanbod toen af. Vlak voor de demonstratie zou Altman haar opnieuw hebben benaderd om haar stem in te spreken, maar voordat ze kon antwoorden, was Sky al gedemonstreerd.
Versie 4o van ChatGPT komt met stembediening en -uitvoer, en de stem Sky is er daar een van. Het is een gekloonde stemacteur wiens identiteit niet bekend wordt gemaakt aldus het bedrijf. Op zich kan dat, de technologie om stemsynthese te doen nadat iemand flink wat zinnen inspreekt is niet nieuw. Dat de vrouwen clichématig moesten klinken ook niet, maar dat terzijde.

Wel opmerkelijk is dat een van de gevraagde stemacteurs diezelfde Scarlett Johanson was. Helemaal als je bedenkt dat zij de stem van de AI insprak in de film herwaar OpenAI-directeur Sam Altman bij de lancering van GPT 4o expliciet naar refereerde. Dat elke gelijkenis met echte gebeurtenissen of locaties of personen, levend of dood, geheel toevallig is, wil er bij mij dan niet in.

Na een stevige brief van Johanssons advocaat werd de stem teruggetrokken. Maar voor mij begint het dan pas: welke juridische basis is er om een claim te leggen?

In Californië – waar dit speelt – zijn er iets meer mogelijkheden dan bij ons. Rechters hebben daar diverse malen geoordeeld dat het specifieke feit van “voice misappropriation” onrechtmatig is wanneer 

a distinctive voice of a professional singer is widely known and is deliberately imitated in order to sell a product, the sellers have appropriated What is not theirs and have committed a tort in California.
Het is dan een korte stap van ‘zanger’ naar ‘acteur’, dus die juridische gestalte zie ik wel opdoemen.

Minstens zo interessant is het argument dat hier een audio-deepfake wordt gemaakt van Johanssen. Dat is voor zover ik kan vinden niet strafbaar – alleen video-deepfakes en dan ook nog eens met het motief van beschamen of beschadigen – maar als bewezen zou worden dat OpenAI, al is het impliciet, de stem van Johanssen wilde laten horen dan ben je daar een heel eind.

In Nederland is er ook geen algemeen strafrechtelijk verbod op audio-deepfakes, maar daar hebben we binnenkort wél artikel 50 van de AI Act dat bij het produceren van deepfakes een duidelijke markering vereist. Dat betekent volgens mij dat het er expliciet bij moet staan, je deepfake ‘Sky’ noemen is echt te weinig.

Arnoud

Mag dat eigenlijk wel, generatieve AI zoekresultaten aan elkaar laten praten?

Photo by Mohamed_hassan on Pixabay

Soms wilt u snel antwoord, maar heeft u geen tijd om alle benodigde informatie bij elkaar te zoeken. Search doet het werk voor u met AI Overviews. Met die marketingblaat maakte Google onlangs bekend dat haar zoekdienst AI gaat krijgen: deze verwerkt resultaten tot een mooi klinkend verhaal. Wat leidt tot de juridische vraag, mag dat eigenlijk wel?

Technisch gezien is “AI Overviews” niet meer dan een herziening van het resultaatscherm. In plaats van een lijst met webpagina’s neemt Google de daarop gevonden informatie en laat een genAI systeem daar een verhaaltje van maken. Dat lijkt vooral handig voor een snel overzicht en het opnemen van de informatie.

Er zit echter een fundamenteel verschil met de ouderwetse lijst. Waar die lijst niet meer doet dan suggereren waar je heen kan gaan, met bij wijze van citaat een paar mogelijk relevante frases, geeft dit verhaaltje al direct het antwoord. Doorklikken is daarmee niet meer nodig.

Dit wringt, omdat zoekmachines altijd juist vanwege die quid pro quo van het aanleveren van bezoekers in ruil voor het mogen scrapen van content als soort-van-legaal zijn gezien onder het auteursrecht.

Een genAI-zoekmachine haalt echter die balans onderuit. Wel alle content binnenhalen, maar niet als hoofdregel mensen doorverwijzen. Dat kost de contentaanbieders dus alleen maar, terwijl ze er niets (of veel minder) voor terugkrijgen.

Alleen: dit is vrij ongrijpbaar, juridisch gezien. Er is nooit letterlijk een uitspraak over geweest. We hebben wel zaken zoals het Zoekallehuizen-arrest (huizenadvertenties) gehad, maar daar ging het om het vertonen van stukjes informatie in zoekresultaatpagina’s, niet om het onderliggende scrapen en opbouwen van een databank met heel internet.

Natuurlijk, we hebben ondertussen diverse nieuwe wetten – de AI Act (bijna), de Digital Markets Act, de nodige aanpassingen aan de Auteurswet, enzovoorts. Maar geen daarvan bevat iets waarmee deze transformatie van zoekresultaten aan te pakken is.

Ja, ik ben een tikje cynisch maar sowieso erger ik me al geruime tijd aan de achteruitgang van de ooit bliksemsnelle en verrassend goed werkende zoekmachine. Als ik dan óók nog de bronsites moet gaan vissen uit een mooi klinkend verhaal dan houdt het wel een beetje op hiermee.

Arnoud

 

Franse toezichthouder beboet Google wegens trainen AI op nieuwsberichten

Photo by Patrick Tomasso on Unsplash

De Franse toezichthouder legt Google een boete van 271 miljoen dollar op wegens auteursrechtschending op generatieve AI, las ik bij CIO Magazine. Niet precies: het is geen schadevergoeding of boete voor het overtreden van de Auteurswet, maar wegens een schending van een eerdere schikking rondom toen nog Bard.

Zoals het artikel nader uitlegt:

De Autorité de la concurrence zei woensdag dat de zoekgigant niet heeft voldaan aan een schikking uit juni 2022 over het gebruik van nieuwsverhalen in zijn zoekresultaten, Nieuws- en Discover-pagina’s. Google vermeed op dat moment een boete door onder meer te beloven te goeder trouw te gaan onderhandelen over compensatie met nieuwsaanbieders voor hun inhoud.
Deze schikking betrof een breder onderzoek naar vermeende auteursrechtinbreuk door Google met hun News-dienst. De discussie was toen of het overnemen van snippets en kleine afbeeldingen telt als inbreuk, citaatrecht of iets anders.

Over zo’n dispuut kun je schikken, en dan kun je allerlei afspraken maken. En als je daarbij niet uitkijkt dan komen die afspraken terug in een geheel andere context:

With regard to “Bard”, the artificial intelligence service launched by Google in July 2023, the Autorité found in particular that Bard had used content from press agencies and publishers to train its foundation model, without notifying either them or the Autorité. Google subsequently linked the use by its artificial intelligence service of the content concerned to the display of protected content, by failing to propose a technical solution for press agencies and publishers to opt out of the use of their content by Bard without affecting the display of content protected by related rights on other Google services, thus obstructing the ability of press agencies and publishers to negotiate remuneration.
Voor mij is met name dat “technical solution” heel relevant: Google zal nu een opt-out moeten gaan ontwikkelen voor Franse nieuwsdiensten. Dat kan zo simpel zijn als duidelijk maken hoe men hun aparte AI-scraper bot kan weren met een robots.txt-bestand (want het zou oneerlijk zijn om als je daarmee ook de gewone Googlebot zou weren).

Interessanter is als men een nieuw protocol ontwikkelt (ai.txt?) waarmee je als uitgever kan aangeven dat data mining voor AI-training niet toegestaan is. Dat zou dan bredere consequenties hebben, omdat onder de Europese auteursrechtregels tekst- en datamining (TDM) is toegestaan op beschermd werk tenzij dit machinaal leesbaar is voorbehouden. Tot nu toe is er geen enkele standaard op dit gebied, en machineleesbaarheid bestaat niet zonder standaard.

Arnoud

 

Mag je andermans bedrijfsnaam in je emailadres gebruiken?

Photo by OpenIcons on Pixabay

Via Reddit:

[Ik gebruik] andermans bedrijfsnaam in mijn emailadres,  bijvoorbeeld: reddit@ed_random.bla. … Nu vertelde iemand mij dus dat dit niet mag en dat zo’n bedrijf hier melding van zou kunnen maken. Dat vind ik interessant, en ik ben benieuwd waar ik daar meer over kan lezen. Ik snap dat impersonatie verboden is, maar dat doe ik dus niet want ik doe mij niet voor als iemand van het bedrijf, mijn domeinnaam is niet verborgen en lijkt ook niet op die van het bedrijf.
Het is een bekende truc: gebruik niet overal hetzelfde mailadres, maar varieer dit. Daarmee kun je bij een datalek of doorverkoop van je mailadres achterhalen welke partij hiervoor verantwoordelijk is.

De makkelijkste manier om dit te doen, is door de naam van de betreffende partij te gebruiken. Ik zie diverse mensen die hier reageren met een mailadres zoals “iusmentis@example.com”. Op de blog van mijn kantoor zouden ze dan “ictrecht@example.com” gebruiken, bijvoorbeeld.

Dat gaat goed als je je eigen domeinnaam hebt, want dan kun je (zoals ook de vraagsteller) het systeem zo instellen dat alle mailtjes in je eigen inbox komen, ongeacht wat er voor het @-teken staat. Als je dat niet hebt, is gebruik van het + teken een goed alternatief: wim.tenbrink+iusmentis@example.com komt bij veel mailsystemen gewoon in de mailbox van Wim.

Als die naam een merknaam is (wat voor de hand ligt), dan kan ik me voorstellen dat iemand denkt, is dat geen merkinbreuk. Zomaar iemands merk gebruiken, het zou verboden moeten worden. Maar nee, dit is echt legaal, al is het maar omdat je de merknaam alleen passief en privé gebruikt in een registratie of aanvraag.

Pas als de merknaam ergens zichtbaar is (je usernaam dus, op Reddit) dan kunnen we een juridische discussie starten of hier wellicht sprake is van inbreuk door jezelf voor te doen als (geaffilieerd aan) de merkhouder.

Arnoud

 

Herman van Veen slaat alarm om diefstal eigen stem, Tweede Kamer wil ingrijpen bij AI-app Udio

Photo by Andy Makely on Unsplash

Een meerderheid van de Tweede Kamer wil actie ondernemen tegen de grootschalige ‘diefstal’ van stemmen en teksten van Nederlandse artiesten en tekstschrijvers door aanbieders van kunstmatige intelligentie. Dat meldde het AD onlangs. Apps zoals Udio kunnen middels AI liedjes maken met de stemmen van bekende artiesten, zoals Herman van Veen die zich hier erg kwaad over maakt.

Het artikel noemt twee juridische routes en stelt verder dat de Tweede Kamer iets kan doen om de positie van artiesten en tekstschrijvers kan verbeteren. Allereerst de Digital Services Act: deze regelt het verwijderen van illegale content (notice/action) en verplicht tot transparantie over de werking van algoritmen. Of Udio daaraan voldoet is de vraag, maar belangrijker: het is zeker niet gezegd dat een liedje “in de stijl van” of “klinkend zoals” onrechtmatig is en dus verwijderd zou moeten worden.

Dan komt ook de AI Act langs:

Het CDA wijst naar nog een andere wet: de Europese AI Act, een wet die vanaf 2025 eist dat creatieve makers eerst toestemming moeten geven. ,,De opkomst van Udio laat zien dat er geen tijd te verliezen is om die te vertalen naar concrete regels”, waarschuwt CDA-Kamerlid Herman Krul.
Ik denk dat hier sprake is van een misverstand, want de AI Act zegt alleen dat de producenten van algemene AI modellen (zoals LLaMa of GPT) iets met auteursrecht moeten en dan ook nog eens alleen in de vorm van een duidelijk beleid over hoe zij aan de wet voldoen. Toestemming vragen is zeer zeker niet genoemd in de AI Act.

Ook wie de Auteurswet erbij pakt, komt niet uit bij toestemming. Deze wet kent namelijk een uitzondering voor tekst- en datamining, die neerkomt op “je mag een AI trainen met auteursrechtelijk beschermde data”. De uitzondering daar weer op is als het auteursrecht op machinaal leesbare manier is voorbehouden – en dát kan alleen als er een standaard is over hoe je dat voorbehoud maakt. In een tekstbestand de letters op een rij zetten “Auteursrecht voorbehouden” is geen machinaal leesbaar voorbehoud. Dat is dus nog een probleem.

Meer algemeen is mij niet duidelijk wat de Tweede Kamer zou moeten doen aan dit probleem. Het auteursrecht is Europees geregeld, en onze wetgever kan en mag geen eigen regels aannemen die strenger zijn op dit punt. Ook collectief beheer (AI voor muziekuitvoer trainen mag mits Buma/Stemra geld krijgt) is niet mogelijk binnen het Europese stelsel.

De AI Act is ook een Europese wet, net als de DSA, en beiden bieden geen optie om aparte auteursrechtregels of toestemmingsvereisten in te voeren. De enige route die ik kan bedenken is dat de DSA-toezichthouder ACM via de open norm van een systemic risk assessment bij de app-aanbieders afdwingt dat deze anders met auteursrecht omgaan. Maar dat kan alleen als die apps VLOP zijn (zeer groot online platform), en volgens mij voldoen die bij lange na niet aan deze definitie.

Daar komt bij dat de ACM nog steeds niet formeel aangewezen is als toezichthouder onder de DSA. Dat is dan weer wél iets dat de Tweede Kamer snel zou kunnen regelen, overigens.

Arnoud

 

 

 

 

Is Meta’s LLaMa 3 model echt open source of niet?

Bron: LLaMA 3 Github repository, Meta

Meta brengt Llama 3 binnen een maand uit, zo las ik bij Tweakers. Het gaat niet om één model, maar om een samensmelting van meerdere modellen die samen Llama 3 vormen. Over de kracht laat ik me even niet uit, maar ik lees overal dat het model “open source” is. En dat is hier niet zomaar een term: het kan het verschil maken tussen wel of niet onder de AI Act vallen.

De FAQ van Meta zelf noemt het een maatwerk commerciële licentie:

Llama models are licensed under a bespoke commercial license that balances open access to the models with responsibility and protections in place to help address potential misuse. Our license allows for broad commercial use, as well as for developers to create and redistribute additional work on top of Llama models. We want to enable more innovation in both research and commercial use cases, but believe in taking a responsible approach to releasing AI technologies.
Alleen al deze tekst wijst erop dat we het niet echt open source kunnen noemen. De open source definitie eist immers het tegenovergestelde van “responsible approach”, namelijk “No Discrimination Against Fields of Endeavor”. Alles moet kunnen, ook Het Kwaad, als je dat zou willen.

De licentie van Llama 3 bevat inderdaad forse restricties op de gebruikelijke vrijheden die we in open source kennen:

  • Je wordt verplicht je aan de wet én de AUP van Meta te houden. Dat eerste lijkt triviaal, maar waar bemoeit Meta zich mee, mijn compliance is iets tussen mij en de toezichthouder. En dat tweede is natuurlijk wel een probleem want AUP’s kunnen wel van alles zeggen.
  • Je mag geen andere LLM’s trainen met Llama of haar output.
  • Als je meer dan 700 miljoen actieve maandelijkse gebruikers hebt, dan moet je een aparte licentie kopen.
  • Een rechtskeuze voor Californië en een forumkeuze aldaar.
Twijfelachtig is de reclame-eis (“Built with Meta Llama 3”), dit doet denken aan de aloude “All advertising materials mentioning features or use of this software must display the following acknowledgement”-tekst uit de BSD licentie. Die wordt meestal niet als problematisch gezien, maar het maakt de licentie GPL-incompatibel.

Ook staat er een patentengifpil in:

c. If you institute litigation or other proceedings against Meta or any entity (including a cross-claim or counterclaim in a lawsuit) alleging that the Llama Materials or Meta Llama 3 outputs or results, or any portion of any of the foregoing, constitutes infringement of intellectual property or other rights owned or licensable by you, then any licenses granted to you under this Agreement shall terminate as of the date such litigation or claim is filed or instituted. You will indemnify and hold harmless Meta from and against any claim by any third party arising out of or related to your use or distribution of the Llama Materials.
Deze is niet nieuw: de Mozilla Public License versie 2 had al zo’n bepaling die zegt dat als jij een octrooirechtszaak start tegen iemand wegens inbreuk veroorzaakt door de MPL-software, dan vervalt je licentie op de software. Daarmee zijn dan auteursrechtelijke tegenclaims mogelijk. Apache heeft dat overgenomen.

De clausule is hier generieker: ieder IE-recht, niet alleen octrooien. En dat is logisch, want de grote zorg van Meta is aangeklaagd worden voor auteursrechtinbreuk door wat er in de trainingsdata zit of wat Llama voor uitvoer geeft. Gezien de precedenten lijkt dat niet erg genoeg om het label “open source” te ontzeggen.

Het is in zoverre van belang omdat de AI Act in artikel 2 lid 12 bepaalt dat

12. This Regulation does not apply to to AI systems released under free and open-source licences, unless they are placed on the market or put into service as high-risk AI systems or as an AI system that falls under Article 5 or 50.
Llama 3 is een zogeheten general-purpose AI, geen AI systeem. Hiervoor gelden dan de iets generiekere verplichtingen van artikel 53, zoals uitgebreide technische documentatie, API documentatie en een uitleg over gebruikte bronnen (waar auteursrechthebbenden dan in kunnen grasduinen). De documentatieplichten vervallen voor open source modellen mits
2. The obligations set out in paragraph 1, points (a) and (b), shall not apply to providers of AI models that are released under a free and open-source licence that allows for the access, usage, modification, and distribution of the model, and whose parameters, including the weights, the information on the model architecture, and the information on model usage, are made publicly available. This exception shall not apply to general-purpose AI models with systemic risks.
Het moet allereerst dus gaan om een open source model, en daarbij moeten de parameters van het AI model zelf (de weights en architectuur) ook nog eens openbaar zijn. Dat laatste heeft Meta wél gedaan (“open weights“), en ik heb sterk het vermoeden dat zo veel mogelijk buiten de AI Act vallen daarbij een doelstelling was.

Het onderliggende probleem is dat er niet écht een definitie van FOSS (free and open-source software) is. Noch OSI noch de FSF hebben een gezaghebbende stem, al lijkt me erkenning door een of beiden wel zwaarwegend. Het zou me niets verbazen als Meta inzet op dat “that allows for the access, usage, modification, and distribution of the model” en gaat betogen dat haar licentie dat toestaat – waarbij de licentiebeperkingen voor het goede doel zijn, en dus zouden moeten mogen. (Overweging 102 helpt hierbij niets.)

Arnoud

Kan Spanje met gerechtelijk bevel zo Telegram uit de lucht halen?

manfredrichter / Pixabay

Spaanse telecombedrijven zijn bezig de chatapp Telegram uit de lucht te halen. Dat meldde RTL Nieuws afgelopen zaterdag. Twee dagen later trok men het bevel in, maar bij velen zat de schrik er goed in: kan dat dan zomaar als een rechter dat wil?

De blokkade is het gevolg van een serie claims van Spaanse rechthebbenden over content die wordt gedeeld op het chatplatform:

Judge Santiago Pedraz agreed to temporarily ban the platform after four of the country’s main media groups – Mediaset, Atresmedia, Movistar and Egeda – complained that the app was disseminating content generated by them and protected by copyright without authorisation from the creators.
Wie nu denkt: dan doen ze toch een notice&action en dan moet Telegram het weghalen (DSA), zo simpel is het niet. Een “een aanbieder van een onlinedienst voor het delen van content” is niét beschermd als provider, maar wordt zelf gezien als de publicist van gedeelde content (artikel 17 Auteursrechtrichtlijn). Die moet dus toestemming kopen of effectieve blokkades nemen.

Ik zie de discussie wel hoe Telegram onder deze definitie valt:

“aanbieder van een onlinedienst voor het delen van content”: een aanbieder van een dienst van de informatiemaatschappij die als belangrijkste of een van de belangrijkste doelstellingen heeft een grote hoeveelheid door de gebruikers van de dienst geüploade auteursrechtelijk beschermde werken of andere beschermde materialen op te slaan en toegankelijk te maken voor het publiek, waarbij hij deze werken en materialen ordent en promoot met een winstoogmerk.
Dus ik zie wel hoe de rechthebbenden dit proberen. Ook kunnen ze ‘gewoon’ de insteek nemen dat Telegram te weinig doet om notice&action verzoeken op te volgen. In beide routes kán de ultieme consequentie zijn dat internetproviders de dienst moeten blokkeren. Inderdaad, net zoals The Pirate Bay bij ons.

Bovendien, en dat was hier de kern: Telegram weigerde überhaupt input te geven in de rechtszaak. Wie niet meewerkt, moet de gevolgen daarvan dragen. In Nederland staat zoiets bijvoorbeeld in artikel 21 Rechtsvordering:

Partijen zijn verplicht de voor de beslissing van belang zijnde feiten volledig en naar waarheid aan te voeren. Wordt deze verplichting niet nageleefd, dan kan de rechter daaruit de gevolgtrekking maken die hij geraden acht.
Als je dus in een civiele zaak (strafrecht is even wat anders) geen uitleg geeft over je handelen, mag de rechter zelf bedenken wat daar achter zit. Is dat onjuist, dan is dat pech voor jou: had je het maar moeten toelichten. Maar de rechter mag meer, ook acties nemen is mogelijk – denk aan het toewijzen van een eis tot ontruiming of teruggave van spullen. Een tijdelijke blokkade van een dienst is dus in principe mogelijk.

Natuurlijk moet de rechter wel redelijk zijn en een proportionele maatregel kiezen. En dat was waar dit misging: de héle applicatie voor álle Spanjaarden blokkeren omdat een relatief klein deel van de gedeelde content inbreukmakend is, dat is een disproportionele reactie. Ook als je boos bent omdat Telegram je hof minacht (zouden de Yanks zeggen).

Arnoud