Denne adfærdskodeks har til formål at støtte overholdelsen af gennemsigtighedsforpligtelserne i forordningen om kunstig intelligens i forbindelse med mærkning af AI-genereret indhold.
Mærkning af AI-genereret indhold
Forpligtelserne i henhold til artikel 50 i forordningen om kunstig intelligens (gennemsigtighedsforpligtelser for udbydere og udbredere af generative AI-systemer) har til formål at sikre gennemsigtighed i AI-genereret eller manipuleret indhold såsom deepfakes. Artiklen omhandler risici for bedrag og manipulation og fremmer informationsøkosystemets integritet. Disse gennemsigtighedsforpligtelser vil supplere andre regler såsom reglerne for højrisiko-AI-systemer eller AI-modeller til almen brug.
For at bidrage til overholdelsen af disse gennemsigtighedsforpligtelser har AI-kontoret indledt processen med at udarbejde en adfærdskodeks for gennemsigtighed i AI-genereret indhold. Kodeksen vil blive udarbejdet af uafhængige eksperter udpeget af AI-kontoret i en inklusiv proces. Støtteberettigede interessenter vil blive inddraget i udarbejdelsen af kodeksen. Hvis den godkendes af Kommissionen, vil den endelige kodeks tjene som et frivilligt redskab for udbydere og udbredere af generative AI-systemer til at påvise overholdelse af deres respektive forpligtelser i henhold til artikel 50, stk. 2 og 4, i forordningen om kunstig intelligens. Disse forpligtelser vedrører mærkning og afsløring af AI-genereret indhold og mærkning af deepfakes og visse AI-genererede publikationer.
Arbejdsgruppernes arbejdsområde
Udarbejdelsen af kodeksen er centreret omkring to arbejdsgrupper, der følger strukturen i gennemsigtighedsforpligtelserne for AI-genereret indhold i artikel 50.
Arbejdsgruppe 1: Udbydere
fokuserer på forpligtelser, der kræver, at udbydere af generative AI-systemer sikrer:
- AI-systemers output (lyd, billede, video, tekst) er markeret i et maskinlæsbart format og kan påvises som kunstigt genereret eller manipuleret.
- De anvendte tekniske løsninger er effektive, interoperable, robuste og pålidelige, så vidt det er teknisk muligt. Disse skal tage hensyn til de særlige forhold og begrænsninger, der gør sig gældende for forskellige typer indhold, gennemførelsesomkostningerne og det generelt anerkendte aktuelle tekniske niveau, som kan afspejles i relevante tekniske standarder.
Arbejdsgruppe 2: Udbredere
fokuserer på forpligtelser, der kræver, at udbredere af generative AI-systemer offentliggør:
- Indhold, der er kunstigt genereret eller manipuleret, og som udgør en deepfake (billede, lyd eller video, der ligner eksisterende personer, genstande, steder, enheder eller begivenheder, og som fejlagtigt forekommer en person at være autentisk eller sandfærdig).
- AI-genererede/manipulerede tekstpublikationer, der informerer offentligheden om spørgsmål af offentlig interesse, medmindre publikationen har gennemgået en menneskelig gennemgang og er underlagt redaktionelt ansvar.
Begge grupper vil også overveje tværgående spørgsmål, herunder horisontale krav til de oplysninger, der skal gives til fysiske personer i henhold til artikel 50, stk. 5, og sigte mod at fremme samarbejdet mellem relevante aktører i hele værdikæden for at nå AI-forordningens mål om mærkning og etikettering af AI-genereret indhold.
Hver arbejdsgruppe vil blive ledet af uafhængige formænd og næstformænd, som forventes at yde strategisk ledelse og vejledning og sikre, at drøftelserne forbliver fokuserede og produktive. Du kan downloade den fulde liste over deltagere i arbejdsgruppe 1&2(PDF).
Udarbejdelsesproces
Udarbejdelsen af kodeksen involverer støtteberettigede interessenter, som besvarede en offentlig indkaldelse iværksat af AI-kontoret. Inden for denne gruppe findes udbydere af specifikke generative AI-systemer, udviklere af mærknings- og detektionsteknikker, sammenslutninger af udbredere af generative AI-systemer, civilsamfundsorganisationer, akademiske eksperter og specialiserede organisationer med ekspertise inden for gennemsigtighed og meget store onlineplatforme.
I sin rolle som formidler opfordrede AI-kontoret også internationale og europæiske observatører til at deltage i udarbejdelsen af adfærdskodeksen. Disse organisationer opfyldte ikke kriterierne for støtteberettigelse i indkaldelsen, men kan stadig bidrage med værdifuld ekspertise og indsende skriftlige bidrag. Alle deltagere og observatører vil blive inviteret til at deltage i plenarforsamlinger, arbejdsgruppemøder og tematiske workshopper, der har til formål at drøfte kodeksens tekniske aspekter.
I forbindelse med udarbejdelsen vil der blive taget hensyn til:
- Feedback fra multiinteressenthøringen om gennemsigtighedskrav til visse AI-systemer
- Ekspertundersøgelser bestilt af AI-kontoret og input fra støtteberettigede interessenter, der deltager i udarbejdelsen af adfærdskodeksen
Den fulde øvelse forventes at vare i 7 måneder. Denne tidsplan giver udbydere og udbredere tilstrækkelig tid til at forberede sig på overholdelse, inden reglerne træder i kraft i august 2026. Gennemsigtighedsforpligtelserne i artikel 50 i forordningen om kunstig intelligens vil supplere andre regler såsom reglerne for højrisiko-AI-systemer eller AI-modeller til almen brug.
Kommissionen vil sideløbende udarbejde retningslinjer for at præcisere anvendelsesområdet for de retlige forpligtelser og behandle aspekter, der ikke er omfattet af kodeksen.
Tidslinje
Arbejdsgruppens møder og workshopper med deltagere, formænd og næstformænd finder sted mellem november 2025 og maj 2026.
Nedenstående datoer er vejledende og skal muligvis bekræftes (skal bekræftes).
-
september 2025Indkaldelse af interessetilkendegivelser med henblik på deltagelse i adfærdskodeksen (også via ovenstående link)
-
Oktober 2025Kontrol af støtteberettigelse og udvælgelse af ansøgninger til formænd og næstformænd
-
18. november 2025
-
17. december 2025
-
21.-22. januar 2026
-
Marts 2026 (skal bekræftes)Offentliggørelse af det andet udkastPåbegyndelse af den afsluttende udarbejdelsesrunde
-
April 2026 (skal bekræftes)Møder i arbejdsgrupper
-
Maj-juni 2026Afsluttende plenarforsamlingOffentliggørelse af den endelige adfærdskodeks
Se også
Det store billede