AI-bedrijf Anthropic mocht boeken gebruiken voor training, maar opslag van kopieën schendt auteursrecht
Een Amerikaanse rechter heeft geoordeeld dat het AI-bedrijf Anthropic auteursrechtelijk beschermde boeken mocht gebruiken om zijn taalmodel te trainen, zonder toestemming van de schrijvers. Toch is niet al het gebruik geoorloofd: het opslaan van miljoenen illegaal verkregen boeken ging volgens de rechter te ver. Deze uitspraak kan belangrijke gevolgen hebben voor de hele AI-sector, waar veel modellen afhankelijk zijn van grote hoeveelheden tekstmateriaal.
Training was ‘fair use’, maar opslag niet
Een Amerikaanse rechter, William Alsup, uit San Francisco heeft geoordeeld dat Anthropic op basis van ‘fair use’ gebruikmaakte van het werk van auteurs Andrea Bartz, Charles Graeber en Kirk Wallace Johnson. Hun boeken werden gebruikt om Claude, een groot taalmodel (Large Language Model, ‘LLM’), te trainen. Volgens de rechter lijkt dit op ‘een lezer die geïnspireerd wordt om schrijver te worden’ en boeken niet gebruikt om ze te vervangen, maar om iets nieuws te creëren.
Tegelijkertijd stelde de rechter dat het kopiëren en opslaan van meer dan 7 miljoen illegale digitale boeken in een centrale database wel degelijk een schending van het auteursrecht was. Ook al kocht Anthropic later miljoenen papieren boeken, dit maakte de eerdere inbreuk niet ongedaan. Er volgt in december een rechtszaak waarin bepaald wordt hoeveel schadevergoeding het bedrijf moet betalen.
Wat is Claude?
Claude is een AI-taalmodel dat teksten genereert als antwoord op opdrachten van gebruikers. Net als ChatGPT wordt het getraind op enorme hoeveelheden tekst, waaronder boeken, artikelen en andere documenten. Veel van dat materiaal is auteursrechtelijk beschermd, wat wereldwijd tot juridische conflicten leidt tussen technologiebedrijven en makers.
Anthropic stelt dat het gebruik van deze teksten nodig is om ‘ongeëvenaarde technologie te ontwikkelen’ en dat de Amerikaanse auteurswet juist dit soort gebruik aanmoedigt om creativiteit te stimuleren.
Belangrijke gevolgen voor de AI-sector
De voornoemde schrijvers hadden een groepsvordering ingediend, omdat zij vinden dat hun boeken zonder toestemming of vergoeding zijn gebruikt om Anthropic’s model te trainen. Anthropic verklaarde in de rechtbank dat zij op basis van ‘fair use’ gebruik heeft gemaakt van auteursrechtelijk beschermd materiaal om nieuwe, transformatieve content te creëren, en dat de gedwongen betaling van auteursrechthouders voor hun werk de opkomende industrie zou kunnen belemmeren.
Omdat er meerdere vergelijkbare zaken lopen tegen onder meer OpenAI, Meta en Microsoft, zal deze beslissing waarschijnlijk een belangrijke richtlijn vormen.
Fair use en AI
Deze uitspraak is de eerste die expliciet ingaat op de vraag of generatieve AI-modellen op basis van ‘fair use’ gebruik mogen maken van beschermde werken. Fair use is een belangrijk juridisch argument voor de technologiebedrijven.
Fair use is een juridisch begrip uit het Amerikaanse auteursrecht dat inhoudt dat je in bepaalde gevallen werken van anderen mag kopiëren of hergebruiken zonder vooraf toestemming te vragen. Denk bijvoorbeeld aan gebruik voor onderwijs, satire, commentaar, nieuwsverslaggeving of wetenschappelijk onderzoek. Het idee achter fair use is dat dit soort gebruik het publieke belang dient en de vrijheid van meningsuiting bevordert.
Volgens John Strand, advocaat gespecialiseerd in auteursrecht, is het een ‘zeer belangrijke’ uitspraak. Omdat er meerdere vergelijkbare zaken lopen tegen onder meer OpenAI, Meta en Microsoft, zal deze beslissing waarschijnlijk een belangrijke richtlijn vormen. Strand verwacht zelfs dat uiteindelijk het Amerikaanse Hooggerechtshof zich zal buigen over de vraag of AI-training op basis van auteursrechtelijk materiaal wettelijk toelaatbaar is.
Ook in het Verenigd Koninkrijk woedt een debat over vergelijkbare kwesties. Daar bestaat een veel beperktere fair use-verdediging, waardoor AI-bedrijven minder ruimte hebben om beschermd materiaal zonder toestemming te gebruiken. Britse auteurs en uitgevers verzetten zich hevig tegen voorstellen om de regels te versoepelen, omdat zij vrezen dat AI-content hun inkomsten bedreigt.
Opslag in centrale bibliotheek problematisch
Rechter Alsup was met name kritisch over het bewaren van miljoenen illegaal verkregen digitale boeken in een ‘centrale bibliotheek met alle boeken ter wereld’, los van het daadwerkelijke trainingsproces. Volgens de rechter schendt dit de rechten van auteurs op een manier die niet te rechtvaardigen is met het argument van fair use.
Conclusie
Deze rechtszaak laat zien hoe ingewikkeld het spanningsveld is tussen technologische vooruitgang en auteursrechtelijke bescherming. Hoewel het trainen van AI-modellen onder bepaalde voorwaarden mag, blijft het opslaan en verspreiden van ongeautoriseerd materiaal een serieuze overtreding. De uitkomst van het vervolgproces en vergelijkbare zaken zal bepalend zijn voor de manier waarop AI-bedrijven wereldwijd werken.
Disclaimer:
– Cyber Charlie is geen financieel adviseur. De informatie op cybercharlie.nl is geen individueel beleggingsadvies, maar is enkel bedoeld om algemene informatie te verstrekken over AI, ondernemen en investeren. Investeren brengt risico’s met zich mee – informeer jezelf goed voordat je financiële beslissingen maakt.
– Dit artikel bevat affiliatelinks. Dat betekent dat Cyber Charlie een commissie kan verdienen als iemand doorklikt en een aankoop doet of dienst afsluit.
