Acest Q&A însoțește consultarea Comisiei și cererea de exprimare a interesului adresată părților interesate pentru a contribui la elaborarea orientărilor și a Codului de bune practici privind sistemele transparente de IA generativă și pentru a participa la procesul aferent Codului de bune practici.
- Transparența în ceea ce privește originea artificială a conținutului generat sau manipulat de IA este esențială. Disponibilitatea unei varietăți de sisteme de IA cu capacități tot mai mari de a genera tot felul de conținut face din ce în ce mai dificilă diferențierea conținutului IA de conținutul generat de om și autentic. Acest lucru generează noi riscuri de dezinformare și manipulare la scară largă, fraudă, uzurpare a identității și înșelăciune a consumatorilor.
- În acest context, articolul 50 din Regulamentul privind IA stabilește obligații de transparență pentru furnizorii și operatorii anumitor sisteme de IA, inclusiv ai sistemelor de IA generative și interactive și ai deepfake-urilor.
- Aceste obligații urmăresc să reducă riscurile de înșelăciune, de uzurpare a identității și de dezinformare și să promoveze încrederea și integritatea în ecosistemul informațional. Oamenii vor ști când interacționează cu IA sau când sunt expuși la conținut generat de IA, ceea ce îi va ajuta să ia decizii în cunoștință de cauză.
- Articolul 50 din Regulamentul privind IA acoperă patru tipuri de sisteme de IA. În primul rând, furnizorii de sisteme de IA care interacționează cu oamenii trebuie să îi informeze că interacționează cu un sistem de IA și nu cu un om, cu excepția cazului în care acest lucru este evident.
- În al doilea rând, furnizorii de conținut generat sau manipulat de IA trebuie să faciliteze identificarea și marcarea unui astfel de conținut într-un mod care să poată fi citit automat și care să permită mecanisme de detectare conexe.
- În al treilea rând, operatorii sistemelor de recunoaștere a emoțiilor sau de clasificare biometrică trebuie să se asigure că persoanele expuse la aceste sisteme sunt informate.
- În al patrulea rând, implementatorii sistemelor de IA care generează sau manipulează conținut deepfake sau publicații sub formă de text generate sau manipulate de IA destinate să informeze publicul cu privire la chestiuni de interes public trebuie să informeze utilizatorii cu privire la originea artificială a conținutului, cu excepția cazurilor definite. În cele din urmă, informațiile furnizate ar trebui să fie într-un format clar și accesibil.
- Printre tehnicile sau metodele de marcare și detectare a conținutului generat de IA se numără filigranele, identificarea metadatelor și metodele criptografice pentru dovedirea originii și autenticității conținutului, metodele de înregistrare, amprentele digitale sau alte tehnici.
- Tehnicile și metodele relevante ar trebui să fie suficient de fiabile, interoperabile, eficace și solide, în măsura în care acest lucru este fezabil din punct de vedere tehnic. Furnizorii ar trebui, de asemenea, să țină seama de particularitățile și limitările diferitelor tipuri de conținut, precum și de evoluțiile tehnologice și ale pieței relevante în domeniu.
- Identificarea în continuare a tehnicilor și practicilor emergente de ultimă generație va reprezenta o parte importantă a activității care trebuie desfășurată în contextul Codului de bune practici privind sistemele transparente de IA generativă.
Codul de bune practici privind sistemele transparente de IA generativă va fi un instrument voluntar pentru a asigura respectarea corespunzătoare a obligațiilor prevăzute la articolul 50 alineatele (2) și (4) din Regulamentul privind IA pentru furnizorii și implementatorii de sisteme de IA generativă. Dacă va fi aprobat de Comisie ca fiind adecvat, acesta va oferi măsuri clare pentru implementatorii și furnizorii care dezvoltă sau intenționează să dezvolte sisteme de IA generativă care intră în domeniul de aplicare. Codul va garanta că sistemele de IA generativă introduse pe piața europeană de către furnizorii și implementatorii aderenți sunt suficient de transparente, în conformitate cu cerințele respective de transparență prevăzute în Regulamentul privind IA.
- Măsurile practice din Codul de bune practici vor acoperi numai obligațiile prevăzute la articolul 50 alineatele (2) și (4) din Legea privind IA. Orientările vor acoperi articolul 50 în ansamblul său.
- În plus, Codul de bune practici va fi elaborat printr-un proces multipartit și va oferi mijloace tehnice de punere în aplicare.
- Orientările care urmează să fie elaborate și adoptate de Comisie vor clarifica domeniul de aplicare, definițiile juridice relevante, obligațiile de transparență, excepțiile și aspectele orizontale conexe.
- Furnizorii și operatorii de sisteme de IA generativă, inclusiv IMM-urile, care fac obiectul obligațiilor, sunt principalii destinatari ai codului. Furnizorii de tehnici de transparență, organizațiile societății civile, experții universitari și alte organizații sau asociații industriale relevante sunt invitați să sprijine procesul de elaborare. Prin implicarea tuturor acestor părți interesate, Codul de bune practici va facilita punerea în aplicare efectivă a obligațiilor de transparență respective. Codul va sprijini, de asemenea, modalitățile practice de asigurare a accesibilității mecanismelor de detectare și va facilita cooperarea cu alți actori de-a lungul lanțului valoric.
- Părțile interesate sunt încurajate să își exprime interesul până la 9 octombrie pentru a participa la procesul de elaborare. Oficiul pentru IA va verifica eligibilitatea pe baza informațiilor transmise și puse la dispoziția publicului și va confirma participarea părților interesate respective.
- Obligațiile de transparență prevăzute la articolul 50 din Regulamentul privind IA sunt complementare normelor de transparență aplicabile modelelor de IA de uz general (articolele 53 și 55). Acestea din urmă au fost detaliate în Codul de bune practici pentru modelele de IA de uz general (GPAI) și în modelul Comisiei pentru rezumatul conținutului utilizat pentru formarea modelelor.
- În special, în timp ce Codul de bune practici GPAI se axează pe modelele GPAI și pe documentația și informațiile care trebuie furnizate Oficiului pentru IA, autorităților naționale competente și furnizorilor din aval și pe transparența datelor de antrenament de intrare, Codul privind sistemele transparente de IA generativă abordează tehnicile de marcare și transparența rezultatelor generate sau manipulate de IA față de persoanele expuse la acestea.
- Codul privind sistemele transparente de IA generativă vizează obligațiile de transparență la nivel de sistem, inclusiv sistemele GPAI, dar fără a se limita la acestea. Tehnicile de transparență care pot fi puse în aplicare de furnizorii de modele GPAI pentru a facilita obligațiile de transparență pentru furnizorii de sisteme de IA din aval vor fi, de asemenea, luate în considerare în contextul prezentului cod.
- Oficiul pentru IA va invita toate părțile interesate eligibile să participe la procesul de elaborare a Codului de bune practici și va selecta președinții și vicepreședinții pentru diferitele grupuri de lucru.
- O sesiune plenară de deschidere va avea loc la începutul lunii noiembrie, cu toți participanții selectați. Se preconizează că procesul de elaborare va dura până cel târziu la începutul lunii iunie 2026.
În cazul în care codul este aprobat de Comisie, semnatarii se vor putea baza pe acesta pentru a demonstra respectarea obligațiilor. În ceea ce privește furnizorii și operatorii care aderă la cod, Comisia își va concentra activitățile de asigurare a respectării legii pe monitorizarea respectării codului de către aceștia.
Aceștia vor beneficia de o încredere sporită din partea Comisiei și a altor părți interesate.
Related content
Regulamentul privind IA este primul cadru juridic privind IA, care abordează riscurile IA și poziționează Europa pentru a juca un rol de lider la nivel mondial.