Dossier AI

Eind 2022 werden een aantal generatieve AI's openbaar. Sindsdien zijn er veel ontwikkelingen en vraagstukken ontstaan rond deze nieuwe technolgie. Op deze pagina vind je het dossier en de meest actuele ontwikkelingen.

In de teksten op deze pagina staan sommige woorden in vette letters. Die woorden worden uitgelegd in de woordenlijst onderaan deze pagina.

We geven zo goed mogelijk tekst en uitleg. Mocht je toch nog vragen hebben, informatie missen of ons willen tippen op nieuwe ontwikkelingen, geef het door via kbb.[antispam].@bbknet.nl.

Wat is generatieve AI?

Generatieve AI zijn programma's die zelf teksten, afbeeldingen, muziek en video kunnen maken.Deze technologie groeit enorm snel en wat ze kunnen genereren wordt steeds beter. Zo kunnen er al heel realistische afbeeldingen gemaakt worden, wordt er heel acceptabele muziek gemaakt en kunnen mensenstemmen heel goed nagebootst worden. 

Hoe werkt generatieve AI?

Niemand weet precies hoe een AI tot een afbeelding komt. Zelfs de makers van de AI weten niet precies hoe het proces binnen de AI werkt. Dat maakt generatieve AI heel ongrijpbaar. 

Wat we wel weten is dat een AI gebruik maakt van een dataset met afbeeldingen. Deze datasets worden door crawlers gecreëerd. Crawlers zoeken onder andere op internet naar afbeeldingen om aan de dataset toe te voegen. Dit proces heet scraping. De dataset wordt ingelezen door de AI en behoort vervolgens tot de beschikbare kennis. Zodra een gebruiker van de AI een prompt ingeeft creëert de AI een beeld.

Wat is het probleem?

Om afbeeldingen te vinden worden door crawlers allerlei afbeeldingen van internet gescrapet. Hieronder ook afbeeldingen van kunstwerken van beeldend kunstenaars. Dit terwijl deze kunstenaars daar helemaal geen toestemming voor hebben gegeven. Daar is de BBK het natuurlijk niet mee eens. 

Wat doet de BBK?

De BBK en haar partners binnen Federatie Beeldrechten, waaronder Pictoright, NVJ/NVF, Dupho, BNO, BOK, Kunstenbond en Platform BK houden de ontwikkelingen rondom beeldgeneratieve AI in de gaten. Zowel op het gebied van technologische ontwikkelingen als op het gebied van (auteursrechtelijke) wet- en regelgeving. 

Wat kan je zelf doen om je werken te beschermen?

Er zijn verschillende manieren om je werk te beschermen tegen scrapen

Glaze en Nightshade

De Universiteit van Chicago heeft technologie ontwikkeld die afbeeldingen onbruikbaar maken voor crawlers.

  • Glaze is een downloadbaar programma (MAC en Windows) dat is ontwikkeld om stijlnabootsing (style mimicry) tegen te gaan. 
  • Nightshade is een downloadbaar programma (MAC en Windows) dat is ontwikkeld om de AI te verstoren.
  • Webglaze is een webtool voor Glaze voor kunstenaars die geen programma op een computer willen downloaden.

Downloadpagina Glaze

Downloadpagina Nightshade

Aanmeldpagina Webglaze

 
Mist

Mist is software die een laag over je afbeelding legt, waardoor deze door sommige generatieve AI's moeilijker te lezen is en waardoor een gegenereerd beeld op basis van jouw afbeelding vervormt uit de AI komt.

Mist is beschikbaar voor Windows en Linux.

Downloadpagina Mist

 
Have I Been Trained?

Op de website Have I Been Trained? kan je in de datasets van LAION zoeken of jouw afbeeldingen zijn gebruikt om bv. Stable Diffusion en Imagen te trainen. 

 
Robot.txt

Een manier om er voor te zorgen dat je website niet gescrapet wordt door een crawler is de crawler via code in de robot.txt geen toestemming geven. 

Dit doe je door een stukje code toe te voegen aan de robot.txt die mogelijk al op je website staat of, als je nog geen robot.txt hebt deze toe te voegen. Helaas accepteren nog niet alle crawlers deze uitsluiting. 

We stelden een robot.txt voor jullie op. Het lastige is dat er steeds nieuwe crawlers gebouwd worden en het dus een kwestie is van steeds opnieuw nieuwe crawlers toevoegen.

Heb je nog nooit van ftp gehoord, vraag dan je webbouwer iets met de robot.txt te doen.

Heb je zelf toegang tot de ftp van je website? Dan kan je de robot.txt in de root van je website zetten. Staat er al een robot.txt? Overschrijf deze dan niet, maar voeg de code aan het bestaande bestand toe.

Voor de techneuten. Op Github wordt een uitgebreide lijst van crawlers bijgehouden.

 
TDM Recervation Protocol

W3C is een organisatie die standaarden en richtlijnen voor (internet)code maakt. Hun community heeft een stukje code ontwikkelt dat een mogelijke auteursrechtelijke licentie kan geven (of duidelijk kan maken dat je deze niet geeft) aan crawlers in de code van je website of EPUB (ebook). 

De code is geen standaard en hoeft niet gehonoreerd te worden door crawlers. Ben je bekend met HTML en JSON dan kan je hier eens naar kijken. 

Naar W3.org

 

Woordenlijst

Voor velen onder ons zijn de termen rondom AI nieuw. Daarom hier een woordenlijst.

Mis je woorden en termen? Laat het ons weten via kbb.[antispam].@bbknet.nl.

AI

AI staat voor Artificiële Intelligentie. Vroeger werd het Kunstmatige Intelligentie genoemd.

Wil je meer weten over wat AI is, lees dan de informatie van de Rijksinspectie Digitale Infrastructuur.

 
Dataset

Een dataset is een verzameling gegevens.

 
Crawler

Een crawler (ookwel spider of bot genoemd) is software die het internet afzoekt naar informatie.

 
Prompt

Een prompt is een instructie die door een gebruiker (mens) aan een AI wordt gegeven om een uitvoer te genereren. In het geval van beeldgeneratieve AI is de uitvoer een afbeelding.

 
Scrapen/ gescrapet

Scrapen is een techniek waarbij software (een crawler) informatie van het internet te extraheren en te analyseren.

 

Vertegenwoordigers

Jonna van 't Hof

Juridisch adviseur/ Federatie Beeldrechten/ Werkgroep AI

 

Telefonisch spreekuur

De BBK is telefonisch bereikbaar op
ma t/m do van 10-12 uur op 020 - 623 5456.

Contact

Heesterveld 58
1102 SB Amsterdam Zuidoost

T. +31 (0)20 – 623 54 56
E. bbk[at]bbknet.nl

Volg ons op

Privacybeleid

De BBK verwerkt persoonsgegevens, lees ons privacybeleid (pdf) voor meer informatie.

KvK 40530026

IBAN NL 71 INGB 0000 5834 58