Skip to main content
Shaping Europe’s digital future

Propunere-cadru de reglementare privind inteligența artificială

Comisia propune primul cadru juridic privind IA, care abordează riscurile IA și poziționează Europa să joace un rol de lider la nivel mondial.

    un bărbat și o femeie care lucrează pe un ecran de înaltă tehnologie

© gorodenkoff - iStock Getty Images Plus

Propunerea de reglementare urmărește să ofere dezvoltatorilor de IA, dezvoltatorilor și utilizatorilor de IA cerințe și obligații clare în ceea ce privește utilizările specifice ale IA. În același timp, propunerea urmărește să reducă sarcinile administrative și financiare pentru întreprinderi, în special pentru întreprinderile mici și mijlocii (IMM-uri).

Propunerea face parte dintr-un pachet mai larg privind IA, care include, de asemenea, planul coordonat actualizat privind IA. Împreună, cadrul de reglementare și planul coordonat vor garanta siguranța și drepturile fundamentale ale cetățenilor și ale întreprinderilor în ceea ce privește IA. Și vor consolida adoptarea, investițiile și inovarea în IA în întreaga UE.

De ce avem nevoie de reguli privind IA?

Propunerea de regulament privind IA garantează că europenii pot avea încredere în ceea ce are de oferit IA. Deși majoritatea sistemelor de IA nu prezintă niciun risc și pot contribui la soluționarea multor provocări societale, anumite sisteme de IA creează riscuri pe care trebuie să le abordăm pentru a evita rezultate nedorite.

De exemplu, adesea nu este posibil să aflăm de ce un sistem de IA a luat o decizie sau o predicție și a luat o anumită acțiune. Prin urmare, poate deveni dificil să se evalueze dacă o persoană a fost dezavantajată în mod neloial, cum ar fi o decizie de angajare sau o cerere de acordare a unui sistem de interes public.

Deși legislația existentă oferă o anumită protecție, aceasta este insuficientă pentru a aborda provocările specifice pe care le pot aduce sistemele de IA.

Normele propuse vor:

  • abordarea riscurilor create în mod specific de aplicațiile IA;
  • să propună o listă a cererilor cu grad ridicat de risc;
  • stabilirea unor cerințe clare pentru sistemele de IA pentru aplicațiile cu risc ridicat;
  • definirea unor obligații specifice pentru utilizatorii de IA și furnizorii de aplicații cu risc ridicat;
  • să propună o evaluare a conformității înainte ca sistemul IA să fie pus în funcțiune sau introdus pe piață;
  • să propună punerea în aplicare după introducerea pe piață a unui astfel de sistem de IA;
  • propunerea unei structuri de guvernanță la nivel european și național.

O abordare bazată pe riscuri

piramida prezintă cele patru niveluri de risc: Risc inacceptabil; Risc ridicat; risc limitat, risc minim sau inexistent

Cadrul de reglementare definește patru niveluri de risc în IA:

  • Risc inacceptabil
  • Risc ridicat
  • Risc limitat
  • Risc minim sau inexistent

Risc inacceptabil

Toate sistemele de IA considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor oamenilor vor fi interzise, de la notarea socială de către guverne la jucăriile care utilizează asistență vocală care încurajează un comportament periculos.

Risc ridicat

Sistemele de IA identificate ca având un grad ridicat de risc includ tehnologia IA utilizată în:

  • infrastructuri critice (de exemplu, transporturi), care ar putea pune în pericol viața și sănătatea cetățenilor;
  • formare educațională sau profesională, care poate determina accesul la educație și la cursul profesional din viața cuiva (de exemplu, notarea examenelor);
  • componentele de siguranță ale produselor (de exemplu, aplicația IA în chirurgia asistată de roboți);
  • ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente (de exemplu, software de sortare a CV-urilor pentru procedurile de recrutare);
  • servicii private și publice esențiale (de exemplu, scoruri de credit care refuză cetățenilor posibilitatea de a obține un împrumut);
  • aplicarea legii care poate interfera cu drepturile fundamentale ale cetățenilor (de exemplu, evaluarea fiabilității probelor);
  • gestionarea migrației, azilului și controlului frontierelor (de exemplu, verificarea autenticității documentelor de călătorie);
  • administrarea justiției și a proceselor democratice (de exemplu, aplicarea legii la un set concret de fapte).

Sistemele de IA cu grad ridicat de risc vor face obiectul unor obligații stricte înainte de a putea fi introduse pe piață:

  • sisteme adecvate de evaluare și atenuare a riscurilor;
  • calitatea ridicată a seturilor de date care alimentează sistemul pentru a reduce la minimum riscurile și rezultatele discriminatorii;
  • înregistrarea activității pentru a asigura trasabilitatea rezultatelor;
  • documentație detaliată care să furnizeze toate informațiile necesare privind sistemul și scopul acestuia pentru ca autoritățile să evalueze conformitatea acestuia;
  • informații clare și adecvate pentru utilizator;
  • măsuri adecvate de supraveghere umană pentru a reduce la minimum riscurile;
  • nivel ridicat de robustețe, securitate și precizie.

Toate sistemele de identificare biometrică la distanță sunt considerate ca având un risc ridicat și sunt supuse unor cerințe stricte. Utilizarea identificării biometrice la distanță în spațiile accesibile publicului în scopul aplicării legii este, în principiu, interzisă.

Excepțiile restrânse sunt strict definite și reglementate, cum ar fi atunci când este necesar pentru a căuta un copil dispărut, pentru a preveni o amenințare teroristă specifică și iminentă sau pentru a detecta, localiza, identifica sau urmări penal un autor sau un suspect de infracțiune gravă.

O astfel de utilizare este condiționată de autorizarea de către un organism judiciar sau de alt organism independent și de limite adecvate de timp, de acoperire geografică și de bazele de date căutate.

Risc limitat

Riscul limitat se referă la sistemele de IA cu obligații specifice în materie de transparență. Atunci când utilizează sisteme AI, cum ar fi roboții de chat, utilizatorii ar trebui să fie conștienți de faptul că interacționează cu o mașină, astfel încât să poată lua o decizie în cunoștință de cauză de a continua sau de a face un pas înapoi.

Risc minim sau inexistent

Propunerea permite utilizarea gratuită a IA cu risc minim. Printre acestea se numără aplicații precum jocuri video cu AI sau filtre de spam. Marea majoritate a sistemelor de IA utilizate în prezent în UE se încadrează în această categorie.

proces pas cu pas pentru declararea conformității
How does it all work in practice for providers of high risk AI systems?

Odată ce un sistem de IA este pe piață, autoritățile sunt responsabile de supravegherea pieței, utilizatorii asigură supravegherea și monitorizarea umană, iar furnizorii dispun de un sistem de monitorizare ulterioară introducerii pe piață. Furnizorii și utilizatorii vor raporta, de asemenea, incidente grave și disfuncționalități.

Legislație adaptată exigențelor viitorului

Întrucât IA este o tehnologie cu evoluție rapidă, propunerea are o abordare adaptată exigențelor viitorului, permițând adaptarea normelor la schimbările tehnologice. Aplicațiile IA ar trebui să rămână de încredere chiar și după ce au fost introduse pe piață. Acest lucru necesită o gestionare continuă a calității și a riscurilor de către furnizori.

Pașii următori

În urma propunerii Comisiei din aprilie 2021, regulamentul ar putea intra în vigoare la sfârșitul anului 2022/începutul anului 2023 într-o perioadă de tranziție. În această perioadă, standardele vor fi mandatate și elaborate, iar structurile de guvernanță instituite ar fi operaționale. A doua jumătate a anului 2024 este prima dată când regulamentul ar putea deveni aplicabil operatorilor cu standardele pregătite și cu primele evaluări ale conformității efectuate.

Ca o punere în aplicare suplimentară în materie de reglementare a Cărții albe privind IA, la 28 septembrie 2022 a fost adoptată o propunere de directivă privind răspunderea în materie de IA.

Cele mai recente știri

PRESS RELEASE |
EU to invest €13.5 billion in research and innovation for 2023-2024

The Commission has adopted the main Horizon Europe work programme 2023-24, with around €13.5 billion to support researchers and innovators in Europe to pursue breakthrough solutions for environmental, energy, digital and geopolitical challenges.

Related Content

Big Picture

O abordare europeană a inteligenței artificiale

Abordarea UE în ceea ce privește inteligența artificială se axează pe excelență și încredere, cu scopul de a stimula capacitatea industrială și de cercetare, asigurând în același timp siguranța și drepturile fundamentale.

See Also

Planul coordonat privind inteligența artificială

Planul coordonat privind inteligența artificială urmărește să accelereze investițiile în IA, să acționeze cu privire la strategiile și programele de IA și să alinieze politica IA pentru a evita fragmentarea în Europa.

Alianța europeană a IA

Alianța europeană în domeniul IA este o inițiativă a Comisiei Europene de a stabili un dialog politic deschis privind inteligența artificială. De la lansarea sa în 2018, Alianța AI a implicat aproximativ 6 000 de părți interesate prin evenimente periodice, consultări publice și...