Deze Q&A vergezelt de raadpleging van de Commissie en oproep tot het indienen van blijken van belangstelling voor belanghebbenden om input te leveren voor de richtsnoeren en een praktijkcode inzake transparante generatieve AI-systemen en om deel te nemen aan het proces van de praktijkcode.
- Transparantie met betrekking tot de kunstmatige oorsprong van door AI gegenereerde of door AI gemanipuleerde inhoud is van essentieel belang. De beschikbaarheid van een verscheidenheid aan AI-systemen met groeiende mogelijkheden om allerlei soorten inhoud te genereren, maakt het steeds moeilijker om AI-inhoud te onderscheiden van door mensen gegenereerde en authentieke inhoud. Dit brengt nieuwe risico’s met zich mee op het gebied van onjuiste informatie en manipulatie op grote schaal, fraude, nabootsing en misleiding van de consument.
- In dit verband bevat artikel 50 van de AI-verordening transparantieverplichtingen voor aanbieders en exploitanten van bepaalde AI-systemen, met inbegrip van generatieve en interactieve AI-systemen en deepfakes.
- Deze verplichtingen zijn bedoeld om het risico op bedrog, nabootsing en onjuiste informatie te verminderen en het vertrouwen en de integriteit in het informatie-ecosysteem te bevorderen. Mensen zullen weten wanneer ze interactie hebben met AI of worden blootgesteld aan door AI gegenereerde inhoud, wat hen zal helpen om weloverwogen beslissingen te nemen.
- Artikel 50 van de AI-verordening heeft betrekking op vier soorten AI-systemen. Ten eerste moeten aanbieders van AI-systemen die interageren met mensen hen informeren dat zij interageren met een AI-systeem en niet met een mens, tenzij dit duidelijk is.
- Ten tweede moeten aanbieders van door AI gegenereerde of gemanipuleerde inhoud de identificatie van dergelijke inhoud vergemakkelijken en deze op een machineleesbare manier markeren en daarmee verband houdende detectiemechanismen mogelijk maken.
- Ten derde moeten exploitanten van systemen voor emotieherkenning of biometrische categorisering ervoor zorgen dat personen die aan deze systemen worden blootgesteld, worden geïnformeerd.
- Ten vierde moeten exploitanten van AI-systemen die deep fake-inhoud genereren of manipuleren, of door AI gegenereerde of gemanipuleerde tekstpublicaties die bedoeld zijn om het publiek te informeren over aangelegenheden van algemeen belang, gebruikers informeren over de kunstmatige oorsprong van de inhoud, behalve in bepaalde gevallen. Tot slot moet de verstrekte informatie in een duidelijk en toegankelijk formaat zijn.
- Technieken of methoden voor het markeren en detecteren van door AI gegenereerde inhoud omvatten watermerken, identificatie van metagegevens en cryptografische methoden voor het aantonen van de oorsprong en authenticiteit van inhoud, loggingmethoden, vingerafdrukken of andere technieken.
- Relevante technieken en methoden moeten voldoende betrouwbaar, interoperabel, doeltreffend en robuust zijn, voor zover dit technisch haalbaar is. Aanbieders moeten ook rekening houden met de specifieke kenmerken en beperkingen van de verschillende soorten inhoud en de relevante technologische en marktontwikkelingen op dit gebied.
- Het verder in kaart brengen van opkomende state-of-the-art technieken en praktijken zal een belangrijk onderdeel zijn van het werk dat moet worden verricht in het kader van de praktijkcode inzake transparante generatieve AI-systemen.
De praktijkcode inzake transparante generatieve AI-systemen zal een vrijwillig instrument zijn om de correcte naleving van de verplichtingen van artikel 50, leden 2 en 4, van de AI-verordening voor aanbieders en exploitanten van generatieve AI-systemen te waarborgen. Indien het door de Commissie als adequaat wordt goedgekeurd, zal het voorzien in duidelijke maatregelen voor exploitanten en aanbieders die generatieve AI-systemen binnen het toepassingsgebied ontwikkelen of van plan zijn te ontwikkelen. De code zal garanderen dat generatieve AI-systemen die op de Europese markt worden gebracht door aangesloten aanbieders en exploitanten voldoende transparant zijn, in overeenstemming met de respectieve transparantievereisten van de AI-verordening.
- De praktische maatregelen van de praktijkcode hebben alleen betrekking op de verplichtingen van artikel 50, leden 2 en 4, van de AI-wet. De richtsnoeren hebben betrekking op artikel 50 in zijn geheel.
- Daarnaast zal de praktijkcode worden ontwikkeld door middel van een proces met meerdere belanghebbenden en technische uitvoeringsmiddelen bieden.
- De door de Commissie te ontwikkelen en goed te keuren richtsnoeren zullen het toepassingsgebied, de relevante wettelijke definities, de transparantieverplichtingen, de uitzonderingen en daarmee verband houdende horizontale kwesties verduidelijken.
- Aanbieders en exploitanten van generatieve AI-systemen, met inbegrip van kmo’s, die aan de verplichtingen onderworpen zijn, zijn de belangrijkste adressaten van de code. Aanbieders van transparantietechnieken, maatschappelijke organisaties, academische deskundigen en andere relevante organisaties of brancheorganisaties wordt verzocht het redactieproces te ondersteunen. Door al deze belanghebbenden te betrekken, zal de praktijkcode de doeltreffende uitvoering van de respectieve transparantieverplichtingen vergemakkelijken. De code zal ook praktische regelingen ondersteunen om opsporingsmechanismen toegankelijk te maken en de samenwerking met andere actoren in de waardeketen te vergemakkelijken.
- Belanghebbenden worden aangemoedigd om tot 9 oktober hun belangstelling voor deelname aan het redactieproces kenbaar te maken. Het AI-bureau zal de subsidiabiliteit verifiëren op basis van ingediende en openbaar beschikbare informatie en de deelname aan de respectieve belanghebbenden bevestigen.
- De transparantieverplichtingen uit hoofde van artikel 50 van de AI-verordening vormen een aanvulling op de transparantieregels die van toepassing zijn op AI-modellen voor algemene doeleinden (artikelen 53 en 55). Deze laatste zijn nader uitgewerkt in de praktijkcode voor AI-modellen voor algemene doeleinden (GPAI) en het model van de Commissie voor de samenvatting van de inhoud die voor de modelopleiding wordt gebruikt.
- Hoewel de GPAI-praktijkcode met name gericht is op GPAI-modellen en documentatie en informatie die aan het AI-bureau, de nationale bevoegde autoriteiten en downstreamaanbieders moet worden verstrekt, en op transparantie van de inputopleidingsgegevens, heeft de code over transparante generatieve AI-systemen betrekking op markeringstechnieken en transparantie van de door AI gegenereerde of gemanipuleerde outputs ten aanzien van de personen die eraan worden blootgesteld.
- De code inzake transparante generatieve AI-systemen is gericht op transparantieverplichtingen op systeemniveau, met inbegrip van, maar niet beperkt tot, GPAI-systemen. Transparantietechnieken die aanbieders van GPAI-modellen kunnen toepassen om transparantieverplichtingen voor downstreamaanbieders van AI-systemen te vergemakkelijken, zullen ook in het kader van deze code worden overwogen.
- Het AI-bureau nodigt alle in aanmerking komende belanghebbenden uit om deel te nemen aan het opstellen van de praktijkcode en selecteert voorzitters en ondervoorzitters voor de verschillende werkgroepen.
- Begin november vindt een openingszitting plaats met alle geselecteerde deelnemers. Het redactieproces zal naar verwachting uiterlijk begin juni 2026 duren.
Indien de code door de Commissie wordt goedgekeurd, kunnen de ondertekenaars zich op de code beroepen om de naleving van de verplichtingen aan te tonen. Met betrekking tot aanbieders en exploitanten die de code naleven, zal de Commissie haar handhavingsactiviteiten toespitsen op het toezicht op hun naleving van de code.
Zij zullen profiteren van het toegenomen vertrouwen van de Commissie en andere belanghebbenden.
Related content
De AI-verordening is het allereerste rechtskader inzake AI, dat de risico’s van AI aanpakt en Europa in staat stelt wereldwijd een leidende rol te spelen.