Skip to main content
Shaping Europe’s digital future

Adfærdskodeks for mærkning af AI-genereret indhold

Denne adfærdskodeks har til formål at støtte overholdelsen af gennemsigtighedsforpligtelserne i forordningen om kunstig intelligens i forbindelse med mærkning af AI-genereret indhold.

Mærkning af AI-genereret indhold

Forpligtelserne i henhold til artikel 50 i forordningen om kunstig intelligens (gennemsigtighedsforpligtelser for udbydere og udbredere af generative AI-systemer) har til formål at sikre gennemsigtighed i AI-genereret eller manipuleret indhold såsom deepfakes. Artiklen omhandler risici for bedrag og manipulation og fremmer informationsøkosystemets integritet. Disse gennemsigtighedsforpligtelser vil supplere andre regler såsom reglerne for højrisiko-AI-systemer eller AI-modeller til almen brug.

For at bidrage til overholdelsen af disse gennemsigtighedsforpligtelser har AI-kontoret indledt processen med at udarbejde en adfærdskodeks for gennemsigtighed i AI-genereret indhold. Kodeksen vil blive udarbejdet af uafhængige eksperter udpeget af AI-kontoret i en inklusiv proces. Støtteberettigede interessenter vil blive inddraget i udarbejdelsen af kodeksen. Hvis den godkendes af Kommissionen, vil den endelige kodeks tjene som et frivilligt redskab for udbydere og udbredere af generative AI-systemer til at påvise overholdelse af deres respektive forpligtelser i henhold til artikel 50, stk. 2 og 4, i forordningen om kunstig intelligens. Disse forpligtelser vedrører mærkning og afsløring af AI-genereret indhold og mærkning af deepfakes og visse AI-genererede publikationer.

Arbejdsgruppernes arbejdsområde

Udarbejdelsen af kodeksen er centreret omkring to arbejdsgrupper, der følger strukturen i gennemsigtighedsforpligtelserne for AI-genereret indhold i artikel 50.

Arbejdsgruppe 1: Udbydere

fokuserer på forpligtelser, der kræver, at udbydere af generative AI-systemer sikrer:

  • AI-systemers output (lyd, billede, video, tekst) er markeret i et maskinlæsbart format og kan påvises som kunstigt genereret eller manipuleret.
  • De anvendte tekniske løsninger er effektive, interoperable, robuste og pålidelige, så vidt det er teknisk muligt. Disse skal tage hensyn til de særlige forhold og begrænsninger, der gør sig gældende for forskellige typer indhold, gennemførelsesomkostningerne og det generelt anerkendte aktuelle tekniske niveau, som kan afspejles i relevante tekniske standarder.

Arbejdsgruppe 2: Udbredere

fokuserer på forpligtelser, der kræver, at udbredere af generative AI-systemer offentliggør:

  • Indhold, der er kunstigt genereret eller manipuleret, og som udgør en deepfake (billede, lyd eller video, der ligner eksisterende personer, genstande, steder, enheder eller begivenheder, og som fejlagtigt forekommer en person at være autentisk eller sandfærdig).
  • AI-genererede/manipulerede tekstpublikationer, der informerer offentligheden om spørgsmål af offentlig interesse, medmindre publikationen har gennemgået en menneskelig gennemgang og er underlagt redaktionelt ansvar.

Begge grupper vil også overveje tværgående spørgsmål, herunder horisontale krav til de oplysninger, der skal gives til fysiske personer i henhold til artikel 50, stk. 5, og sigte mod at fremme samarbejdet mellem relevante aktører i hele værdikæden for at nå AI-forordningens mål om mærkning og etikettering af AI-genereret indhold.

Hver arbejdsgruppe vil blive ledet af uafhængige formænd og næstformænd, som forventes at yde strategisk ledelse og vejledning og sikre, at drøftelserne forbliver fokuserede og produktive. Du kan downloade den fulde liste over deltagere i arbejdsgruppe 1&2(PDF).

Udarbejdelsesproces

Udarbejdelsen af kodeksen involverer støtteberettigede interessenter, som besvarede en offentlig indkaldelse iværksat af AI-kontoret. Inden for denne gruppe findes udbydere af specifikke generative AI-systemer, udviklere af mærknings- og detektionsteknikker, sammenslutninger af udbredere af generative AI-systemer, civilsamfundsorganisationer, akademiske eksperter og specialiserede organisationer med ekspertise inden for gennemsigtighed og meget store onlineplatforme.

I sin rolle som formidler opfordrede AI-kontoret også internationale og europæiske observatører til at deltage i udarbejdelsen af adfærdskodeksen. Disse organisationer opfyldte ikke kriterierne for støtteberettigelse i indkaldelsen, men kan stadig bidrage med værdifuld ekspertise og indsende skriftlige bidrag. Alle deltagere og observatører vil blive inviteret til at deltage i plenarforsamlinger, arbejdsgruppemøder og tematiske workshopper, der har til formål at drøfte kodeksens tekniske aspekter.

I forbindelse med udarbejdelsen vil der blive taget hensyn til:

  • Feedback fra multiinteressenthøringen om gennemsigtighedskrav til visse AI-systemer
  • Ekspertundersøgelser bestilt af AI-kontoret og input fra støtteberettigede interessenter, der deltager i udarbejdelsen af adfærdskodeksen

Den fulde øvelse forventes at vare i 7 måneder. Denne tidsplan giver udbydere og udbredere tilstrækkelig tid til at forberede sig på overholdelse, inden reglerne træder i kraft i august 2026. Gennemsigtighedsforpligtelserne i artikel 50 i forordningen om kunstig intelligens vil supplere andre regler såsom reglerne for højrisiko-AI-systemer eller AI-modeller til almen brug.

Kommissionen vil sideløbende udarbejde retningslinjer for at præcisere anvendelsesområdet for de retlige forpligtelser og behandle aspekter, der ikke er omfattet af kodeksen.

Tidslinje

Arbejdsgruppens møder og workshopper med deltagere, formænd og næstformænd finder sted mellem november 2025 og maj 2026.

Nedenstående datoer er vejledende og skal muligvis bekræftes (skal bekræftes).

Se også

Det store billede

EU's tilgang til kunstig intelligens fremmer ekspertise og tillid ved at fremme forskning og industriel kapacitet, samtidig med at sikkerheden og de grundlæggende rettigheder garanteres.