AI

Eind 2022 werden een aantal generatieve AI's openbaar. Sindsdien zijn er veel ontwikkelingen en vraagstukken ontstaan rond deze nieuwe technolgie. Op deze pagina vind je het dossier en de meest actuele ontwikkelingen.

over-ons

Vragen

Heb je vragen over AI, de activiteiten van de BBK rondom AI of een specifieke hulpvraag met AI mail ons via bbk[at]bbknet.nl

Wat is er nu eigenlijk aan de hand?

In 2022 werden de eerste generatieve AI's openbaar voor het publiek. Voor beeldgeneratieve AI's hebben we het over bijvoorbeeld Stable Diffusion, Midjourney en DALL-E.

Deze beeldgenerators creëren een beeld naar aanleiding van een 'prompt', een tekstuele input die de gebruiker geeft. Om tot dit beeld te komen heeft de AI heel veel plaatjes bekeken. Dit noemen we de trainingsdata of dataset. 

Waar het nu mis gaat is dat in zo'n dataset heel vermoedelijk auteursrechtelijk beschermd materiaal van onder andere beeldend kunstenaars zit. Van Midjourney en DALL-E weten we niet welk materiaal gebruikt is voor de training van de AI. Van Stable Diffusion weten we dat de dataset van Common Crawl gebruikt is. In die dataset zit vooral materiaal dat tot het publiek domein behoort. Denk aan wikipedia, maar er zitten ook afbeeldingen in van bijvoorbeeld Flickr. 

Het is de vraag of het inlezen van afbeeldingen door een AI een schending van auteursrecht is. Dit blijkt niet eenvoudig te beantwoorden. Meer hierover lees je in het vraag en antwoord op deze pagina.

Het tweede punt van conflict in de kunstwereld is het gebruik van deze generatieve AI door kunstenaars zelf en door derden. Veel kunstenaars zijn bang dat dit de markt verpest, want er is nu heel goedkoop aan afbeeldingen te komen, waar anders een fotograaf, ontwerper of kunstenaar ingehuurd had moeten worden of een kunstwerk had moeten worden aangekocht. 

Het derde punt van discussie is dat het moeilijk tot niet te zien is of een afbeelding door een AI is gegeneerd of door een kunstenaar is gemaakt. Zo won fotograaf Boris Eldagsen de Sony World Photgraphy Award met een AI-gegenereerde afbeelding. HIj zond de afbeelding in om te testen hoe men met AI-gegenereerde afbeeldingen om ging. Na afloop kwam hij naar voren en weigerde hij de prijs. Er gaan stemmen op dat AI-gegeneerde afbeeldingen een label moeten krijgen waardoor het voor iedereen zichtbaar is dat ze niet door een mens gemaakt zijn.

Huidige stand van zaken in Europa

Op 14 juni 2023 stemde het Europees Parlement over de AI Act (zie nieuwsbericht). Op 18 juli 2023 begint de onderhandeling van de Raad van Europa. Het is het streven dat eind 2023 overeenstemming wordt bereikt. Daarna duurt het nog een lange tijd voor de AI Act daadwerkelijk van kracht is. Dit staat gepland voor 2026.

Verschil tussen Europa en de Verenigde Staten

Er zijn de laatste tijd nieuwsberichten van kunstenaars die verschillende Ai's aanklagen in de VS. De uitkomsten van die rechtszaken kunnen een effect hebben op de situatie in Europa. Er is echter een groot verschil in het auteursrechtelijk systeem tussen de VS en Europa. In de VS is er een uitzondering voor 'fair use'. En veel van de rechtszaken die nu aangespannen worden gaan juist over dat aspect. Europa kent in het auteursrecht geen 'fair use', maar heeft een limitatieve lijst van uitzonderingen wanneer iets gebruikt mag worden. 

Verenigd Koninkrijk en AI

Nu het Verenigd Koninkrijk niet langer onderdeel van de EU is doen zij niet mee aan de AI Act. Het VK zal daarom een eigen pad volgen en het lijkt er nu op dat ze juist enorm open gaan zijn voor AI en innovaties rondom AI. 

Vraag en antwoord

Wat is de impact van recente ontwikkelingen in AI-technologie op het auteursrecht en de beeldsector?

In het AI-dossier spelen voor de beeldsector verschillende zaken. Deze dienen goed uit elkaar gehouden te worden, nu elke kwestie een andere benadering vereist, en mogelijk ook verschillende niveaus van urgentie heeft.

Allereerst zijn daar de vragen wat betreft de ‘output’ van AI: kunnen AI-creaties auteursrechtelijke bescherming genieten, of is dit voorbehouden aan het werk van menselijke makers? En kan AI-output inbreuk maken op de auteursrechten van menselijke makers? Het antwoord op deze vragen hangt sterk af van de omstandigheden, waaronder ook de manier waarop het AI-systeem wordt gebruikt en de eigen input van de gebruiker. Zie hierover verder in de FAQ meer.

Daarnaast is er de vraag wat de positie is van de makers wiens werk wordt gebruikt als trainingsdata voor AI-systemen, de zogenaamde ‘input’-kant. Zonder de input van menselijke makers kan een AI-systeem niets genereren: het systeem wordt immers getraind op basis van de data (in dit geval: de beelden) die aan het systeem worden gevoed, en door middel van machine learning creëert het AI-systeem vervolgens output op basis van wat het heeft geleerd en de ingevoerde opdracht. In dit proces vinden mogelijk auteursrechtelijk relevante handelingen plaats. Om te kijken of dit is toegestaan moeten we kijken naar de wet. Daarbinnen zijn de zogenaamde ‘TDM’-bepalingen mogelijk relevant. Voor het ‘trainen’ van het systeem is tekst- en datamining (TDM) namelijk heel belangrijk. TDM is volgens de wet “een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.” Op deze gegevens, die dus ook eventueel afbeeldingen kunnen zijn, kan auteursrecht rusten. In dat geval kan verwerking hiervan een inbreuk opleveren. Bovendien wordt er in die gevallen door de ontwikkelaar van het AI-systeem geprofiteerd van andermans werk, zonder dat deze mensen hier iets van terug zien. Door middel van de TDM-excepties heeft de Europese wetgever getracht een balans te vinden tussen de verschillende belangen. De vraag is echter of deze balans inderdaad is gevonden. Zie hierover verder in de FAQ meer.

Tot slot is daar de vraag van concurrentie: nemen AI-systemen het stokje op den duur over van de menselijke beeldmakers, illustratoren en fotografen? Zullen de menselijke beeldmakers worden weggeconcurreerd door de tijd- en kosten efficiënte AI tools? Pictoright en zijn partners van de Federatie Beeldrechten, waaronder BNO, NVJ/NVF, Dupho, BBK, BOK, Kunstenbond en Platform BK houden deze ontwikkelingen goed in de gaten. In concrete gevallen vangen wij soms al signalen op van situaties waarin sprake is van dat bepaalde opdrachten naar makers gaan die (enkel) AI-tools gebruiken, in plaats van naar makers die dit niet doen. Bovendien wordt AI steeds meer als aanvulling op regulier beeldmateriaal gebruikt en ingezet in de conceptontwikkelingsfase. Hoe dit zich in de toekomst zal ontwikkelen, en wat de impact hiervan op de sector zal zijn, is nog niet duidelijk.

Tekst: Luna Schümacher - Pictoright

 
Worden AI-creaties beschermd door het auteursrecht?

Over de auteursrechtelijke bescherming van werk gemaakt met behulp van of door AI-creaties wordt nog veel gediscussieerd. In de VS werd recent door de Copyright Office in eerste instantie toestemming gegeven tot het registreren van een werk dat was gemaakt met behulp van een AI-tool. Deze inschrijving bij de Copyright Office werd later na groot protest echter ingetrokken en was aanleiding voor de Copyright Office om Guidelines te ontwikkelen en een serie bijeenkomsten te organiseren.

In de EU wordt dezelfde discussie gevoerd. De consensus lijkt op het moment dat AI-systemen mógelijk auteursrechtelijk beschermde output kunnen produceren, indien door de gebruiker aan aanvullende voorwaarden wordt voldaan. Zélf kunnen AI-systemen geen auteursrechthebbende zijn: Artificial Intelligence is nog niet zo ver ontwikkeld dat het zelf een drager van rechten kan zijn. De ontwikkelaar van het AI-systeem zal in de meeste gevallen ook niet de auteursrechthebbende op de output zijn, maar mogelijk wel de rechthebbende op het werkingssysteem of de code achter de AI.

In sommige gevallen kan de gebruiker van een AI-systeem, degene die het systeem de opdracht geeft om iets te ontwikkelen, wél auteursrechtelijke bescherming verkrijgen over diens AI(-geassisteerde) creaties. Dat kan het geval zijn wanneer er voldoende creatieve keuzes worden gemaakt, bijvoorbeeld bij het kiezen van de trainingsdata (wanneer niet van een bestaand systeem met een vaste database gebruik wordt gemaakt) of van de instructies die aan het systeem worden gegeven. Denk hierbij aan een situatie waarin een persoon een concept ontwikkelt en daarvoor een heel originele ‘prompt’ (opdracht voor het systeem) invoert. Hierbij kan deze persoon mogelijk voldoende creatieve keuzes maken om voor bescherming in aanmerking te komen. In zulke gevallen wordt het AI-systeem in feite gebruikt als een soort ‘tool’, zoals je ook een kwast of bijvoorbeeld Photoshop gebruikt. Het zal echter in weinig gevallen voorkomen dat de ‘prompt’ alleen voldoende is voor bescherming. Wel kan bijvoorbeeld nog door voldoende creatieve nabewerking van de AI-output alsnog bescherming worden verkregen door de bewerker. Hoe dit bewijsrechtelijk echter in elkaar zou moeten zitten, daarover is nog discussie.

Indien een AI-creatie echter zonder relevante menselijke creatieve inbreng tot stand is gekomen, kan voor deze output geen beroep worden gedaan op het auteursrecht.

Tekst: Luna Schümacher - Pictoright

 
Maken AI-creaties waarin mijn naam in de prompt is genoemd (bijvoorbeeld: een afbeelding in de stijl van ‘artiest’), inbreuk op mijn auteursrecht?

In principe vallen kunststromingen of -stijlen niet onder de auteursrechtelijke bescherming: dat zou de artistieke ontwikkeling kunnen remmen. Stel je bijvoorbeeld voor dat één iemand de rechten op het ‘kubisme’ zich had kunnen toe-eigenen: dit had tot onwenselijke situaties geleid. Iemand mag dus iets maken in een bepaalde stijl, of dit nu met de hulp van AI is of niet.

Dit gaat echter niet op wanneer een werk ‘in de stijl van’ verder gaat dan enkel stijlimitatie, en er echt zogenaamde ‘auteursrechtelijk beschermde trekken’ zijn overgenomen, bijvoorbeeld door de overname van herkenbare auteursrechtelijk beschermde figuren van een bepaalde maker. De beoordeling hiervan is erg afhankelijk van de omstandigheden van het geval, en dient voor elk geval individueel beoordeeld te worden. Ook komt het af en toe voor dat het algoritme, ondanks dat het is getraind om originele output te genereren, in sommige gevallen herkenbaar specifieke trainingsdata reproduceert. In deze gevallen maakt de output mogelijk ook inbreuk op de auteursrechten van een maker.

Tekst: Luna Schümacher - Pictoright

 
Mag mijn werk gebruikt worden als trainingsdata voor een AI-systeem?

Uiteraard mag de trainingsdata waarmee een AI-systeem getraind wordt niet illegaal zijn. Dat betekent niet alleen dat er niet zonder toestemming persoonsgegevens mogen worden verwerkt, of dat er geen kinderporno of terroristische content in de database mag worden opgenomen, maar ook dat rekening gehouden dient te worden met het auteursrecht.

Er wordt wel gezegd dat wat AI doet, iets maken op basis van wat het zelf tot zich heeft genomen, erg lijkt op wat menselijke makers doen. In feite wordt de AI, net als een menselijke maker die inspiratie opdoet in diens omgeving, ‘geïnspireerd’ door wat het tot zich neemt. Toch is deze situatie heel anders. AI wordt niet geïnspireerd, maar verwerkt en dus reproduceert beelden als zijnde data, herstructureert deze, en gebruikt het dan op een andere manier. Dit zijn auteursrechtelijk relevante handelingen, in tegenstelling tot een menselijke maker die zich door diens omgeving laat inspireren tot het creëren van iets nieuws.

Om te kijken hoe dit auteursrechtelijk gezien beoordeeld moet worden moeten we terugvallen op de bestaande wetgeving. Daarbij kan gekeken worden naar bepaalde uitzonderingen op het auteursrecht, waaronder mogelijk de uitzondering voor ‘tijdelijke reproductie’, maar ook de uitzonderingen voor tekst- en datamining (TDM). In deze FAQ wordt gefocust op deze laatste bepalingen, omdat deze de meest concrete aanknopingspunten voor actie bieden. TDM is volgens de wet “een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.” Een dergelijke techniek wordt ook gebruikt voor het trainen van AI om bepaalde output te genereren. Deze uitzonderingen in de wet maken duidelijk in welke gevallen tekst- en datamining van auteursrechtelijk beschermd werk eventueel is toegestaan.

Dat is allereerst wanneer dit wordt gedaan door onderzoeksorganisaties en cultureel erfgoedinstellingen met het oog op wetenschappelijk onderzoek. Zij mogen op basis van deze uitzondering waarschijnlijk gebruik maken van auteursrechtelijk beschermde werken voor TDM-doeleinden (waaronder het trainen van experimentele AI), wanneer zij rechtmatige toegang hiertoe hebben. Zij mogen ook een database maken van hun trainingsdata, wanneer zij deze goed beschermen.

De tweede uitzondering ziet op gebruik voor andere doeleinden, waaronder commerciële doeleinden. Ook bij dit gebruik mag aan tekst- en datamining worden gedaan wanneer de gebruiker rechtmatige toegang heeft tot de auteursrechtelijk beschermde content, maar rechthebbenden hebben de mogelijk om te ‘opt-out’-en van gebruik voor deze doeleinden. Wanneer zij expliciet het auteursrecht voorbehouden en door hen dus duidelijk is aangegeven dat het werk niet gebruikt mag worden voor tekst- en datamining, kan er geen beroep worden gedaan op deze uitzondering. Bovendien mag geen database van de trainingsdata worden aangelegd.

De vraag is echter in hoeverre deze ‘opt-out’ -mogelijkheid daadwerkelijk een uitkomst biedt voor makers en hen effectief de mogelijkheid geeft om hun eigen rechten te beheren. Allereerst is (nog) onduidelijk of een ‘opt-out’ wordt gerespecteerd of in welke vorm dit dient te gebeuren. Zeker wanneer de maker sociale media platforms gebruikt, heeft zij weinig controle over wat er met haar uploads gebeurt. Bovendien kan een opt-out eigenlijk alleen worden ingeroepen vóórdat AI met het ge-opt-oute werk is getraind: een AI-systeem kan iets eigenlijk niet ‘ontleren’. Er wordt dus wel gezegd dat ‘het kwaad al is geschied’ wat betreft het werk dat tot op heden nog niet onder een opt-out is gepubliceerd. Momenteel zijn verschillende organisaties zich aan het beraden over wat hieraan te doen, en of bijvoorbeeld met een geldelijke vergoeding tegemoet gekomen kan worden aan deze makers.

Tekst: Luna Schümacher - Pictoright

 
Wat kan ik doen om te voorkomen dat mijn werk, dat is geplaatst op een door mij beheerde site, wordt gebruikt als trainingsdata voor een AI-systeem?

Zoals hierboven beschreven kun je als maker niet voorkomen dat je werk wordt ‘gescraped’ van het internet, en gebruikt voor TDM-doeleinden, wanneer dit wordt gedaan door non-profit wetenschappelijk onderzoeksorganisaties en cultureel erfgoedinstellingen. De Auteurswet biedt wél de mogelijkheid om te ‘opt-out’-en van commerciële tekst- en datamining. Dit moet echter wel op een manier worden gedaan die leesbaar is voor de TDM-software (‘machine-leesbaar’). Hoe dit precies gedaan dient te worden is nog onduidelijk: enige coördinatie op dit gebied wordt op den duur vanuit Europa wel verwacht. Tot die tijd moeten we het doen met wat er nu voor handen is. Hoewel Pictoright de werkbaarheid en juridische status van onderstaande methoden niet kan garanderen, helpen deze je wellicht op weg om, wanneer je dat wilt, de ‘opt-out’ te implementeren in je artistieke praktijk.

Er zijn verschillende manieren om dit te doen. Allereerst kan dit bijvoorbeeld door het gebruiken van het zogenaamde ‘robots.txt-protocol’ op je website. LAION, de database achter Stable Diffusion AI, heeft aangegeven dat diens crawler het robots.txt-protocol respecteert. Het risico hiervan is echter dat je webpagina ook niet meer vindbaar is via Google, wat eventueel slecht zou kunnen uitpakken voor je online aanwezigheid als maker. Een andere optie is om een soort ‘mantel’ over je werk heen te leggen, die het moeilijker maakt voor AI om je werk te reproduceren. Deze optie wordt bijvoorbeeld aangeboden door Glaze. Online kun je meer vinden over hoe dit alles technisch in elkaar zit.

Waar mogelijk kun je daarnaast gebruik maken van vaste instellingen op platforms waar veel beeldend werk wordt gedeeld. Zo hebben ArtStation en DeviantArt inmiddels een ‘tag’ ontwikkeld, de zogenaamde NoAI of NoImageAI- tags, die je kunt selecteren bij het uploaden van je werk op deze platforms. Hiermee geef je aan dat je dit specifieke werk uitzondert van de mogelijkheid om het voor TDM te gebruiken. Dit wordt geïntegreerd in de HTML, en is leesbaar voor crawling software.

Tot slot hanteren sommige makers ook veelal een geschreven disclaimer op de website, bijvoorbeeld in de algemene voorwaarden of onderaan de eigen webpagina. Hoewel onduidelijk is of dit voldoende machine-leesbaar is of volledig sluitend voor de (Nederlandse) juridische situatie, is dit een makkelijke en toegankelijke manier om te opt-outen. Denk er hierbij aan dat het het beste is om dit in het Engels te doen, vanwege de veelal Engelstalige AI-producenten, en kijk ter illustratie bijvoorbeeld eens naar het voorbehoud dat door de Authors Guild wordt gesuggereerd hiervoor.

In de toekomst komt er mogelijk een standaardprocedure voor een gestandaardiseerde opt-out procedure, die door alle AI-ontwikkelaars geaccepteerd zal worden. Dit zal mogelijk op EU-niveau gecoördineerd worden.

Tekst: Luna Schümacher - Pictoright

 
Wat doet de BBK om te voorkomen dat mijn werk wordt gebruikt als trainingsdata voor een AI-systeem?

De BBK is, in samenwerking met haar partners van de Federatie Beeldrechten, waaronder BNO, NVJ/NVF, Dupho, BOK, Kunstenbond, Pictoright en Platform BK, bezig zich verder te verdiepen in wat zij concreet in hun dagelijkse praktijk kunnen doen om aan de zorgen van makers omtrent AI tegemoet te komen. 

Ondertussen heeft de Europese koepelorganisatie van Pictoright EVA een statement gemaakt en ook de Europese koepel van de BBK, IAA Europe kwam met een statement.

 
Wat kan ik doen als mijn werk al in een AI-database is opgenomen?

Allereerst zul je moeten vaststellen of dit het geval is: is je werk opgenomen in een AI-database? Dit kun je controleren door bijvoorbeeld gebruik te maken van de website: Have I Been Trained? Met deze tool kun je controleren of jouw werk is opgenomen in LAION, de Stable Diffusion V3 database. Dit is een Open Software database, waar meerdere AI-ontwikkelaars gebruik van maken. Je dekt hiermee dus een groot deel van de beeld-AI tools.

Daarnaast lijk je met de gerelateerde tool, Spawning, een opt-out verzoek te kunnen doen. Hiermee vraag je dus of jouw werk verwijderd kan worden uit de database. Hoewel Stability AI stelt deze opt-out verzoeken te zullen honoreren, is de juridische status hiervan tot op heden onduidelijk. Het beste lijkt om te voorkomen dat werk in de database belandt, door bij het uploaden van je werk al een opt-out verzoek op te nemen.

In de toekomst zal je een dergelijk verzoek mogelijk direct bij de AI-ontwikkelaar kunnen doen.

Tekst: Luna Schümacher - Pictoright

 

Vertegenwoordigers

Jonna van 't Hof

Juridisch adviseur/ Federatie Beeldrechten/ Werkgroep AI

 

Telefonisch spreekuur

De BBK is telefonisch bereikbaar op
ma t/m do van 10-12 uur op 020 - 623 5456.

Contact

Heesterveld 58
1102 SB Amsterdam Zuidoost

T. +31 (0)20 – 623 54 56
E. bbk[at]bbknet.nl

Volg ons op

Privacybeleid

De BBK verwerkt persoonsgegevens, lees ons privacybeleid (pdf) voor meer informatie.

KvK 40530026

IBAN NL 71 INGB 0000 5834 58