Skip to main content
Utváření digitální budoucnosti Evropy

Uppförandekod för märkning och etikettering av AI-genererat innehåll

Denna uppförandekod syftar till att stödja efterlevnaden av transparenskraven i AI-akten när det gäller märkning och etikettering av AI-genererat innehåll.

Märkning och märkning av AI-genererat innehåll

Skyldigheterna enligt artikel 50 i AI-akten (insynsskyldigheter för leverantörer och spridare av generativa AI-system) syftar till att säkerställa transparens i AI-genererat eller manipulerat innehåll, såsom deepfake. Artikeln behandlar risker för bedrägeri och manipulation och främjar integriteten i informationsekosystemet. Dessa transparenskrav kommer att komplettera andra regler, t.ex. för AI-system med hög risk eller AI-modeller för allmänna ändamål.

För att bidra till efterlevnaden av dessa transparenskrav har AI-byrån inlett processen med att utarbeta en uppförandekod om transparens för AI-genererat innehåll. Uppförandekoden kommer att utarbetas av oberoende experter som utses av AI-byrån i en inkluderande process. Berättigade intressenter kommer att delta i utarbetandet av uppförandekoden. Om den slutliga uppförandekoden godkänns av kommissionen kommer den att fungera som ett frivilligt verktyg för leverantörer och spridare av generativa AI-system för att visa att de fullgör sina respektive skyldigheter enligt artikel 50.2 och 50.4 i AI-akten. Dessa skyldigheter avser märkning och upptäckt av AI-genererat innehåll och märkning av deepfake och vissa AI-genererade publikationer.

Arbetsgruppernas omfattning

Utarbetandet av uppförandekoden är centrerat kring två arbetsgrupper, i enlighet med strukturen för transparenskraven för AI-genererat innehåll i artikel 50.

Arbetsgrupp 1: Leverantörer

Fokuserar på skyldigheter som kräver att leverantörer av generativa AI-system säkerställer följande:

  • Utdata från AI-system (ljud, bild, video, text) markeras i ett maskinläsbart format och kan detekteras som artificiellt genererade eller manipulerade.
  • De tekniska lösningar som används är effektiva, driftskompatibla, robusta och tillförlitliga så långt det är tekniskt möjligt. Dessa måste ta hänsyn till särdragen och begränsningarna hos olika typer av innehåll, genomförandekostnaderna och den allmänt erkända bästa tekniken, vilket kan återspeglas i relevanta tekniska standarder.

Arbetsgrupp 2: Deployers

Fokuserar på skyldigheter som kräver att spridare av generativa AI-system offentliggör

  • Innehåll som är artificiellt genererat eller manipulerat och som utgör en deepfake (bild, ljud eller video som liknar befintliga personer, föremål, platser, enheter eller händelser och som för en person felaktigt skulle framstå som autentiskt eller sanningsenligt).
  • AI-genererade/manipulerade textpublikationer som informerar allmänheten om frågor av allmänt intresse, såvida inte publikationen har genomgått en mänsklig granskningsprocess och omfattas av redaktionellt ansvar.

Båda grupperna kommer också att överväga övergripande frågor, inbegripet övergripande krav på den information som ska lämnas till de fysiska personerna enligt artikel 50.5, och sträva efter att främja samarbete mellan relevanta aktörer i hela värdekedjan för att uppnå AI-aktens mål om märkning och etikettering av AI-genererat innehåll.

Varje arbetsgrupp kommer att ledas av oberoende ordförande och vice ordförande, som förväntas tillhandahålla strategiskt ledarskap och vägledning och se till att diskussionerna förblir fokuserade och produktiva. Du kan ladda ner hela deltagarlistan för arbetsgrupperna 1&2(PDF).

Utarbetandeprocess

Uppförandekoden utarbetas av berättigade berörda parter som har svarat på en offentlig ansökningsomgång som inletts av AI-byrån. Inom denna grupp finns leverantörer av specifika generativa AI-system, utvecklare av märknings- och detekteringsteknik, sammanslutningar av användare av generativa AI-system, organisationer i det civila samhället, akademiska experter och specialiserade organisationer med sakkunskap om transparens och mycket stora onlineplattformar.

I sin roll som förmedlare bjöd AI-byrån också in internationella och europeiska observatörer att delta i utarbetandet av uppförandekoden. Dessa organisationer uppfyllde inte ansökningsomgångens kriterier för stödberättigande, men kan ändå bidra med värdefull sakkunskap och lämna skriftliga synpunkter. Alla deltagare och observatörer kommer att bjudas in att delta i plenarsessioner, arbetsgruppsmöten och tematiska workshoppar för att diskutera uppförandekodens tekniska aspekter.

Vid utarbetandet kommer följande att övervägas:

  • Återkoppling från flerpartssamrådet om transparenskrav för vissa AI-system
  • Expertstudier som beställts av AI-byrån och bidrag från berättigade berörda parter som deltar i utarbetandet av uppförandekoden

Hela övningen förväntas pågå i sju månader. Denna tidsplan ger leverantörer och spridare tillräckligt med tid för att förbereda sig för efterlevnad innan reglerna träder i kraft i augusti 2026. Transparensskyldigheterna i artikel 50 i AI-akten kommer att komplettera andra regler, t.ex. för AI-system med hög risk eller AI-modeller för allmänna ändamål.

Kommissionen kommer parallellt att utarbeta riktlinjer för att klargöra omfattningen av de rättsliga skyldigheterna och ta itu med aspekter som inte omfattas av uppförandekoden.

Tidslinje

Arbetsgruppens möten och workshoppar med deltagare, ordförande och vice ordförande kommer att äga rum mellan november 2025 och maj 2026.

Datumen nedan är vägledande och kan behöva bekräftas (bekräftas senare).

Läs mer

Översikt

EU:s strategi för artificiell intelligens främjar spetskompetens och förtroende genom att främja forskning och industriell kapacitet och samtidigt säkerställa säkerhet och grundläggande rättigheter.