Skip to main content
Plasmare il futuro digitale dell'Europa

Codice di buone pratiche sulla marcatura e l'etichettatura dei contenuti generati dall'IA

Il presente codice di buone pratiche mira a sostenere il rispetto degli obblighi di trasparenza della legge sull'IA relativi alla marcatura e all'etichettatura dei contenuti generati dall'IA.

Marcatura ed etichettatura dei contenuti generati dall'IA

Gli obblighi di cui all'articolo 50 della legge sull'IA (obblighi di trasparenza per i fornitori e gli operatori di sistemi di IA generativa) mirano a garantire la trasparenza dei contenuti generati o manipolati dall'IA, come i deep fake. L'articolo affronta i rischi di inganno e manipolazione, promuovendo l'integrità dell'ecosistema dell'informazione. Tali obblighi di trasparenza integreranno altre norme come quelle per i sistemi di IA ad alto rischio o i modelli di IA per finalità generali.

Per contribuire al rispetto di tali obblighi di trasparenza, l'Ufficio per l'IA ha avviato il processo di elaborazione di un codice di buone pratiche sulla trasparenza dei contenuti generati dall'IA. Il codice sarà redatto da esperti indipendenti nominati dall'Ufficio per l'IA in un processo inclusivo. Le parti interessate ammissibili contribuiranno all'elaborazione del codice. Se approvato dalla Commissione, il codice definitivo fungerà da strumento volontario per i fornitori e gli operatori di sistemi di IA generativa al fine di dimostrare il rispetto dei rispettivi obblighi a norma dell'articolo 50, paragrafi 2 e 4, della legge sull'IA. Tali obblighi riguardano la marcatura e il rilevamento dei contenuti generati dall'IA e l'etichettatura dei deep fake e di determinate pubblicazioni generate dall'IA.

Ambito di applicazione dei gruppi di lavoro

La redazione del codice è incentrata su 2 gruppi di lavoro, seguendo la struttura degli obblighi di trasparenza per i contenuti generati dall'IA di cui all'articolo 50.

Gruppo di lavoro 1: Fornitori

si concentra sugli obblighi, imponendo ai fornitori di sistemi di IA generativa di garantire:

  • Le uscite dei sistemi di IA (audio, immagini, video, testo) sono contrassegnate in un formato leggibile dalla macchina e rilevabili come generate o manipolate artificialmente.
  • Le soluzioni tecniche impiegate sono efficaci, interoperabili, robuste e affidabili per quanto tecnicamente fattibile. Questi devono tenere conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell'arte generalmente riconosciuto, come può riflettersi nelle pertinenti norme tecniche.

Gruppo di lavoro 2: Distributori

si concentra sugli obblighi, imponendo ai deployer di sistemi di IA generativi di divulgare:

  • Contenuti generati o manipolati artificialmente, che costituiscono un falso profondo (immagine, audio o video che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e apparirebbe falsamente a una persona autentica o veritiera).
  • Pubblicazioni di testo generate/manipolate dall'IA che informano il pubblico su questioni di interesse pubblico, a meno che la pubblicazione non sia stata sottoposta a un processo di revisione umana e sia soggetta a responsabilità editoriale.

Entrambi i gruppi prenderanno inoltre in considerazione questioni trasversali, compresi i requisiti orizzontali per le informazioni da fornire alle persone fisiche a norma dell'articolo 50, paragrafo 5, e mireranno a promuovere la cooperazione tra gli attori pertinenti lungo tutta la catena del valore per conseguire gli obiettivi della legge sull'IA in materia di marcatura ed etichettatura dei contenuti generati dall'IA.

Ogni gruppo di lavoro sarà guidato da presidenti e vicepresidenti indipendenti, che dovrebbero fornire leadership strategica e orientamento, garantendo che le discussioni rimangano focalizzate e produttive. È possibile scaricare l'elenco completo dei partecipanti ai gruppi di lavoro 1&2(PDF).

Processo di redazione

L'elaborazione del codice coinvolge i portatori di interessi ammissibili che hanno risposto a un invito pubblico lanciato dall'Ufficio per l'IA. All'interno di questo gruppo vi sono fornitori di specifici sistemi di IA generativa, sviluppatori di tecniche di marcatura e rilevamento, associazioni di operatori di sistemi di IA generativa, organizzazioni della società civile, esperti accademici e organizzazioni specializzate con competenze in materia di trasparenza e piattaforme online di dimensioni molto grandi.

Nel suo ruolo di facilitatore, l'Ufficio per l'IA ha inoltre invitato osservatori internazionali ed europei ad aderire all'elaborazione del codice di buone pratiche. Queste organizzazioni non soddisfacevano i criteri di ammissibilità dell'invito, ma possono comunque contribuire con competenze preziose e presentare contributi scritti. Tutti i partecipanti e gli osservatori saranno invitati a partecipare alle sessioni plenarie, alle riunioni dei gruppi di lavoro e ai seminari tematici dedicati alla discussione degli aspetti tecnici del codice.

Il processo di elaborazione prenderà in considerazione:

  • Resoconto della consultazione multilaterale sui requisiti di trasparenza per determinati sistemi di IA
  • Studi di esperti commissionati dall'Ufficio per l'IA e contributi dei portatori di interessi ammissibili che partecipano all'elaborazione del codice di buone pratiche

L'esercizio completo dovrebbe durare 7 mesi. Questo calendario consente ai fornitori e ai deployer di disporre di tempo sufficiente per prepararsi alla conformità prima che le norme entrino in vigore nell'agosto 2026. Gli obblighi di trasparenza di cui all'articolo 50 della legge sull'IA integreranno altre norme come quelle per i sistemi di IA ad alto rischio o i modelli di IA per finalità generali.

La Commissione elaborerà parallelamente orientamenti per chiarire la portata degli obblighi giuridici e affrontare aspetti non contemplati dal codice.

Cronologia

Le riunioni e i seminari del gruppo di lavoro con i partecipanti, i presidenti e i vicepresidenti si terranno tra novembre 2025 e maggio 2026.

Le date che seguono sono indicative e potrebbero dover essere confermate (da confermare).

Contenuti correlati

Quadro generale

L'approccio dell'UE all'intelligenza artificiale promuove l'eccellenza e la fiducia, promuovendo la ricerca e la capacità industriale, garantendo nel contempo la sicurezza e i diritti fondamentali.