AI nieuwsWet

EU presenteert gedragscode voor AI: nadruk op auteursrecht en veiligheid

De Europese Unie zet opnieuw een grote stap richting strengere regels voor kunstmatige intelligentie (AI). De Europese Commissie heeft een gedragscode gepresenteerd die bedrijven moet helpen voldoen aan de nieuwe AI wetgeving. Vooral bescherming van auteursrechten en het beperken van risico’s van krachtige AI systemen staan centraal in deze plannen.

AI gedragscode

De gedragscode, de General-Purpose AI Code of Practice,  is opgesteld door 13 onafhankelijke experts en richt zich op bedrijven die algemene AI modellen ontwikkelen, zoals Google, Meta, OpenAI, Anthropic en Mistral. Het ondertekenen van de gedragscode is vrijwillig. Toch is het niet zonder consequenties om niet mee te doen: wie de code niet onderschrijft, profiteert ook niet van de juridische duidelijkheid die deelnemers wél krijgen.

Henna Virkkunen, vicevoorzitter van de Europese Commissie voor technologische soevereiniteit, veiligheid en democratie, roept alle AI aanbieders op om de gedragscode te volgen: “De publicatie van de definitieve versie van de General-Purpose AI Code of Practice markeert een belangrijke stap om de meest geavanceerde AI modellen die in Europa beschikbaar zijn, niet alleen innovatief, maar ook veilig en transparant te maken. De Code is mede ontworpen door AI belanghebbenden en is afgestemd op hun behoeften. Daarom nodig ik alle aanbieders van AI modellen uit om zich aan de Code te houden. Zo garanderen zij een duidelijke, gezamenlijke route naar naleving van de AI wet van de EU.”

De gedragscode maakt deel uit van de bredere AI wet die stapsgewijs in werking treedt. Voor veel bedrijven wordt het dus een belangrijk hulpmiddel om toekomstige sancties en juridische onzekerheid te voorkomen.

De publicatie van de General-Purpose AI Code of Practice markeert een belangrijke stap om de meest geavanceerde AI modellen die in Europa beschikbaar zijn, niet alleen innovatief, maar ook veilig en transparant te maken.

Nadruk op auteursrecht

Een opvallend onderdeel van de gedragscode is de nadruk op auteursrecht. AI aanbieders moeten straks openheid geven over welke content is gebruikt om hun modellen te trainen. Concreet moeten ze openbare samenvattingen publiceren over trainingsdata en bij het gebruik van webcrawlers mogen ze alleen werken gebruiken waarvoor het auteursrecht geregeld is. Ook moeten bedrijven maatregelen nemen om te voorkomen dat hun modellen output genereren die inbreuk maakt op copyright.

Dit is belangrijk omdat grote taalmodellen – zoals ChatGPT van OpenAI en Gemini van Google – vaak getraind zijn op enorme hoeveelheden tekst, waaronder boeken, artikelen en andere creatieve werken. In de afgelopen tijd zijn hier al meerdere rechtszaken over aangespannen door auteurs en mediabedrijven.

➡️ Bekende auteurs dagen Microsoft voor rechter wegens gebruik van boeken in AI-training

➡️ Meta wint rechtszaak over AI en auteursrecht, maar rechter waarschuwt voor toekomstig misbruik

➡️ AI-bedrijf Anthropic mocht boeken gebruiken voor training, maar opslag van kopieën schendt auteursrecht

Richtlijnen over veiligheid 

De gedragscode bevat daarnaast richtlijnen over veiligheid en beveiliging, vooral voor de meest geavanceerde AI systemen. Denk aan OpenAI’s ChatGPT, Meta’s Llama, Google’s Gemini en Anthropic’s Claude. Deze zogeheten GPAI modellen (General Purpose AI) hebben volgens de EU een groter risico om schadelijke of foutieve informatie te verspreiden, omdat ze breed inzetbaar zijn en steeds krachtiger worden.

Bedrijven moeten daarom een raamwerk ontwikkelen om zogeheten systemische risico’s te identificeren en te analyseren. Dit betekent dat ze continu moeten monitoren hoe hun systemen presteren en of er risico’s ontstaan voor bijvoorbeeld desinformatie, privacy of publieke veiligheid.

Inwerkingtreding

De AI Act, de Europese wetgeving waarin dit allemaal is vastgelegd, is vorig jaar in werking getreden. De regels voor grote taalmodellen worden vanaf 2 augustus juridisch bindend. Voor nieuwe modellen geldt dat ze vanaf volgend jaar aan de regels moeten voldoen. Voor bestaande modellen geldt een overgangstermijn tot augustus 2027.

Voordat de gedragscode definitief ingevoerd kan worden, moeten de EU lidstaten en de Europese Commissie nog hun goedkeuring geven. Naar verwachting gebeurt dat aan het einde van dit jaar.

Conclusie

Met deze gedragscode wil de EU zorgen voor meer transparantie en verantwoordelijkheid bij bedrijven die AI ontwikkelen. Vooral het gebruik van auteursrechtelijk beschermde content en het beperken van risico’s bij krachtige AI modellen staan centraal. Bedrijven die voorop willen lopen, doen er goed aan zich nu alvast voor te bereiden op de nieuwe verplichtingen.

Disclaimer:
– Cyber Charlie is geen financieel adviseur. De informatie op cybercharlie.nl is geen individueel beleggingsadvies, maar is enkel bedoeld om algemene informatie te verstrekken over AI, ondernemen en investeren. Investeren brengt risico’s met zich mee – informeer jezelf goed voordat je financiële beslissingen maakt.
– Dit artikel bevat affiliatelinks. Dat betekent dat Cyber Charlie een commissie kan verdienen als iemand doorklikt en een aankoop doet of dienst afsluit.