La presente domanda e risposta accompagna la consultazione della Commissione e l'invito a manifestare interesse affinché le parti interessate forniscano contributi per gli orientamenti e un codice di buone pratiche sui sistemi di IA generativa trasparenti e partecipino al processo del codice di buone pratiche.
- La trasparenza per quanto riguarda l'origine artificiale dei contenuti generati o manipolati dall'IA è essenziale. La disponibilità di una varietà di sistemi di IA con crescenti capacità di generare tutti i tipi di contenuti rende sempre più difficile distinguere i contenuti di IA dai contenuti generati dall'uomo e autentici. Ciò aumenta i nuovi rischi di disinformazione e manipolazione su vasta scala, frode, finzione e inganno dei consumatori.
- In tale contesto, l'articolo 50 della legge sull'IA stabilisce obblighi di trasparenza per i fornitori e gli operatori di determinati sistemi di IA, compresi i sistemi di IA generativi e interattivi e i deep fake.
- Tali obblighi intendono ridurre i rischi di inganno, impersonificazione e disinformazione e promuovere la fiducia e l'integrità nell'ecosistema dell'informazione. Le persone sapranno quando interagiscono con l'IA o sono esposte a contenuti generati dall'IA, il che le aiuterà a prendere decisioni informate.
- L'articolo 50 della legge sull'IA riguarda quattro tipi di sistemi di IA. In primo luogo, i fornitori di sistemi di IA che interagiscono con le persone devono informarle che interagiscono con un sistema di IA e non con un essere umano, a meno che ciò non sia ovvio.
- In secondo luogo, i fornitori di contenuti generati o manipolati dall'IA devono facilitare l'identificazione e la marcatura di tali contenuti in modo leggibile meccanicamente e consentire i relativi meccanismi di rilevamento.
- In terzo luogo, gli operatori di sistemi di riconoscimento delle emozioni o di categorizzazione biometrica devono garantire che le persone esposte a tali sistemi siano informate.
- In quarto luogo, gli operatori di sistemi di IA che generano o manipolano contenuti deep fake o pubblicazioni di testo generate o manipolate dall'IA destinate a informare il pubblico su questioni di interesse pubblico devono informare gli utenti in merito all'origine artificiale dei contenuti, tranne in casi definiti. Infine, le informazioni fornite dovrebbero essere in un formato chiaro e accessibile.
- Le tecniche o i metodi per contrassegnare e rilevare i contenuti generati dall'IA comprendono filigrane, identificazioni di metadati e metodi crittografici per dimostrare l'origine e l'autenticità dei contenuti, metodi di registrazione, impronte digitali o altre tecniche.
- Le tecniche e i metodi pertinenti dovrebbero essere sufficientemente affidabili, interoperabili, efficaci e solidi nella misura in cui ciò sia tecnicamente fattibile. I fornitori dovrebbero inoltre tenere conto delle specificità e dei limiti dei diversi tipi di contenuti e dei pertinenti sviluppi tecnologici e di mercato nel settore.
- L'ulteriore individuazione di tecniche e pratiche all'avanguardia emergenti costituirà una parte importante del lavoro da svolgere nel contesto del codice di buone pratiche sui sistemi di IA generativa trasparenti.
Il codice di buone pratiche sui sistemi di IA generativa trasparenti sarà uno strumento volontario per garantire il corretto rispetto degli obblighi di cui all'articolo 50, paragrafi 2 e 4, della legge sull'IA per i fornitori e gli operatori di sistemi di IA generativa. Se approvato dalla Commissione come adeguato, fornirà misure chiare per i deployer e i fornitori che sviluppano o pianificano di sviluppare sistemi di IA generativa all'interno dell'ambito di applicazione. Il codice garantirà che i sistemi di IA generativa immessi sul mercato europeo dai fornitori e dagli operatori aderenti siano sufficientemente trasparenti, in linea con i rispettivi requisiti di trasparenza della legge sull'IA.
- Le misure pratiche del codice di buone pratiche riguarderanno solo gli obblighi di cui all'articolo 50, paragrafi 2 e 4, della legge sull'IA. Gli orientamenti riguarderanno l'articolo 50 nel suo complesso.
- Inoltre, il codice di buone pratiche sarà sviluppato attraverso un processo multipartecipativo e fornirà mezzi di attuazione tecnica.
- Gli orientamenti che saranno elaborati e adottati dalla Commissione chiariranno l'ambito di applicazione, le pertinenti definizioni giuridiche, gli obblighi di trasparenza, le eccezioni e le relative questioni orizzontali.
- I fornitori e gli operatori di sistemi di IA generativa, comprese le PMI, soggetti agli obblighi sono i principali destinatari del codice. I fornitori di tecniche di trasparenza, le organizzazioni della società civile, gli esperti accademici e altre organizzazioni o associazioni industriali pertinenti sono invitati a sostenere il processo di elaborazione. Coinvolgendo tutte queste parti interessate, il codice di buone pratiche faciliterà l'effettiva attuazione dei rispettivi obblighi di trasparenza. Il codice sosterrà inoltre le modalità pratiche per rendere accessibili i meccanismi di individuazione e facilitare la cooperazione con altri attori lungo la catena del valore.
- Le parti interessate sono incoraggiate a manifestare il loro interesse a partecipare al processo di elaborazione fino al 9 ottobre. L'ufficio per l'IA verificherà l'ammissibilità sulla base delle informazioni presentate e pubblicamente disponibili e confermerà la partecipazione dei rispettivi portatori di interessi.
- Gli obblighi di trasparenza di cui all'articolo 50 della legge sull'IA sono complementari alle norme in materia di trasparenza applicabili ai modelli di IA per finalità generali (articoli 53 e 55). Questi ultimi sono stati ulteriormente dettagliati nel codice di buone pratiche per i modelli di IA per finalità generali (GPAI) e nel modello della Commissione per la sintesi del contenuto utilizzato per la formazione sui modelli.
- In particolare, mentre il codice di buone pratiche GPAI si concentra sui modelli GPAI e sulla documentazione e sulle informazioni da fornire all'ufficio per l'IA, alle autorità nazionali competenti e ai fornitori a valle e sulla trasparenza dei dati di addestramento degli input, il codice sui sistemi di IA generativa trasparenti affronta le tecniche di marcatura e la trasparenza degli output generati o manipolati dall'IA nei confronti delle persone loro esposte.
- Il codice sui sistemi di IA generativa trasparenti riguarda gli obblighi di trasparenza a livello di sistema, compresi, ma non solo, i sistemi GPAI. Nel contesto del presente codice saranno prese in considerazione anche le tecniche di trasparenza che possono essere attuate dai fornitori di modelli GPAI per agevolare gli obblighi di trasparenza per i fornitori di sistemi di IA a valle.
- L'ufficio per l'IA inviterà tutte le parti interessate ammissibili a partecipare al processo di elaborazione del codice di buone pratiche e selezionerà i presidenti e i vicepresidenti per i diversi gruppi di lavoro.
- All'inizio di novembre si terrà una sessione plenaria di apertura con tutti i partecipanti selezionati. Il processo di redazione dovrebbe durare fino al più tardi all'inizio di giugno 2026.
Se il codice è approvato dalla Commissione, i firmatari potranno fare affidamento sul codice per dimostrare il rispetto degli obblighi. Per quanto riguarda i fornitori e gli operatori che aderiscono al codice, la Commissione concentrerà le sue attività di applicazione sul monitoraggio della loro conformità al codice.
Essi beneficeranno di una maggiore fiducia da parte della Commissione e di altre parti interessate.
Related content
La legge sull'IA è il primo quadro giuridico in assoluto in materia di IA, che affronta i rischi dell'IA e posiziona l'Europa a svolgere un ruolo guida a livello mondiale.