Skip to main content
Shaping Europe’s digital future

Codul de bune practici privind marcarea și etichetarea conținutului generat de IA

Prezentul Cod de bune practici urmărește să sprijine respectarea obligațiilor de transparență prevăzute în Regulamentul privind IA în ceea ce privește marcarea și etichetarea conținutului generat de IA.

Marcarea și etichetarea conținutului generat de IA

Obligațiile prevăzute la articolul 50 din Regulamentul privind IA (obligații de transparență pentru furnizorii și implementatorii de sisteme de IA generativă) urmăresc să asigure transparența conținutului generat sau manipulat de IA, cum ar fi deepfake-urile. Articolul abordează riscurile de înșelăciune și manipulare, promovând integritatea ecosistemului informațional. Aceste obligații de transparență vor completa alte norme, cum ar fi cele pentru sistemele de IA cu grad ridicat de risc sau modelele de IA de uz general.

Pentru a contribui la respectarea acestor obligații de transparență, Oficiul pentru IA a demarat procesul de elaborare a unui cod de bune practici privind transparența conținutului generat de IA. Codul va fi elaborat de experți independenți numiți de Oficiul pentru IA în cadrul unui proces incluziv. Părțile interesate eligibile vor fi implicate în elaborarea codului. Dacă va fi aprobat de Comisie, codul final va servi drept instrument voluntar pentru furnizorii și operatorii de sisteme de IA generativă pentru a demonstra conformitatea cu obligațiile care le revin în temeiul articolului 50 alineatele (2) și (4) din Regulamentul privind IA. Aceste obligații se referă la marcarea și detectarea conținutului generat de IA și la etichetarea deepfake-urilor și a anumitor publicații generate de IA.

Domeniul de aplicare al grupurilor de lucru

Elaborarea codului este centrată în jurul a două grupuri de lucru, urmând structura obligațiilor de transparență pentru conținutul generat de IA de la articolul 50.

Grupul de lucru 1: Furnizori

Se axează pe obligații, impunând furnizorilor de sisteme de IA generativă să asigure:

  • Ieșirile sistemelor de IA (audio, imagine, video, text) sunt marcate într-un format prelucrabil automat și detectabile ca fiind generate sau manipulate artificial.
  • Soluțiile tehnice utilizate sunt eficace, interoperabile, solide și fiabile, în măsura în care acest lucru este fezabil din punct de vedere tehnic. Acestea trebuie să țină seama de particularitățile și limitările diferitelor tipuri de conținut, de costurile de punere în aplicare și de stadiul actual al tehnologiei general recunoscut, astfel cum se poate reflecta în standardele tehnice relevante.

Grupul de lucru 2: Exploatatori

Se axează pe obligații, impunând implementatorilor de sisteme de IA generativă să divulge:

  • Conținut care este generat sau manipulat artificial, constituind un deepfake (imagine, audio sau video care seamănă cu persoane, obiecte, locuri, entități sau evenimente existente și care ar apărea în mod fals unei persoane ca fiind autentic sau veridic).
  • Publicațiile sub formă de text generate/manipulate de IA care informează publicul cu privire la chestiuni de interes public, cu excepția cazului în care publicarea a fost supusă unui proces de revizuire umană și este supusă responsabilității editoriale.

Ambele grupuri vor lua în considerare, de asemenea, aspecte transversale, inclusiv cerințe orizontale privind informațiile care trebuie furnizate persoanelor fizice în temeiul articolului 50 alineatul (5) și vor urmări să promoveze cooperarea dintre actorii relevanți de-a lungul lanțului valoric pentru a atinge obiectivele Regulamentului privind IA în ceea ce privește marcarea și etichetarea conținutului generat de IA.

Fiecare grup de lucru va fi condus de președinți și vicepreședinți independenți, care trebuie să asigure conducerea strategică și îndrumarea, asigurându-se că discuțiile rămân concentrate și productive. Puteți descărca lista completă a participanților la grupurile de lucru 1&2(PDF).

Procesul de elaborare

Elaborarea codului implică părțile interesate eligibile care au răspuns la o cerere publică lansată de Oficiul pentru IA. În cadrul acestui grup sunt furnizori de sisteme specifice de IA generativă, dezvoltatori de tehnici de marcare și detectare, asociații de implementatori de sisteme de IA generativă, organizații ale societății civile, experți universitari și organizații specializate cu expertiză în materie de transparență și platforme online foarte mari.

În calitatea sa de facilitator, Oficiul pentru IA a invitat, de asemenea, observatori internaționali și europeni să se alăture elaborării Codului de bune practici. Aceste organizații nu au îndeplinit criteriile de eligibilitate ale cererii de propuneri, dar pot contribui în continuare cu expertiză valoroasă și pot transmite contribuții scrise. Toți participanții și observatorii vor fi invitați să participe la sesiuni plenare, la reuniuni ale grupurilor de lucru și la ateliere tematice dedicate discutării aspectelor tehnice ale codului.

Procesul de elaborare va lua în considerare:

  • Feedback în urma consultării multipartite privind cerințele de transparență pentru anumite sisteme de IA
  • Studii de specialitate comandate de Oficiul pentru IA și contribuții din partea părților interesate eligibile care participă la elaborarea Codului de bune practici

Se preconizează că exercițiul complet va dura 7 luni. Acest calendar acordă suficient timp furnizorilor și operatorilor să se pregătească pentru conformitate înainte ca normele să intre în vigoare în august 2026. Obligațiile în materie de transparență prevăzute la articolul 50 din Regulamentul privind IA vor completa alte norme, cum ar fi cele pentru sistemele de IA cu grad ridicat de risc sau modelele de IA de uz general.

Comisia va pregăti în paralel orientări pentru a clarifica domeniul de aplicare al obligațiilor legale și pentru a aborda aspecte care nu sunt reglementate de cod.

Cronologie

Reuniunile grupului de lucru și atelierele cu participanții, președinții și vicepreședinții vor avea loc în perioada noiembrie 2025-mai 2026.

Datele de mai jos sunt orientative și ar putea fi necesar să fie confirmate (de confirmat).

Conținut asociat

Imaginea de ansamblu

Abordarea UE privind inteligența artificială promovează excelența și încrederea, prin stimularea cercetării și a capacității industriale, asigurând în același timp siguranța și drepturile fundamentale.