Skip to main content
Shaping Europe’s digital future

Legea privind IA este primul cadru juridic privind IA, care abordează riscurile IA și poziționează Europa să joace un rol de lider la nivel mondial.

    un bărbat și o femeie care lucrează pe un ecran de înaltă tehnologie

© gorodenkoff - iStock Getty Images Plus

Legea privind IAurmărește să ofere dezvoltatorilor și operatorilor de IA cerințe și obligații clare în ceea ce privește utilizările specifice ale IA. În același timp, regulamentul urmărește să reducă sarcinile administrative și financiare pentru întreprinderi, în special pentru întreprinderile mici și mijlocii (IMM-uri).

Legea privind IA face partedintr-un pachet mai amplu de măsuri de politică menite să sprijine dezvoltarea unei IA fiabile, care include, de asemenea, pachetul privind inovarea în domeniul IA și Planul coordonat privind IA. Împreună, aceste măsuri vor garanta siguranța și drepturile fundamentale ale cetățenilor și întreprinderilor în ceea ce privește IA. Acestea vor consolida, de asemenea, adoptarea, investițiile și inovarea în IA în întreaga UE.

Legea privindIA este primul cadru juridic cuprinzător privind IA la nivel mondial. Scopul noilor norme este de a promova o IA de încredere în Europa și în afara acesteia, prin asigurarea faptului că sistemele de IA respectă drepturile fundamentale, siguranța și principiile etice și prin abordarea riscurilor unor modele de IA foarte puternice și de impact.

De ce avem nevoie de reguli privind IA?

Legea privind IA garantează că europenii pot avea încredere în ceea ce are de oferit IA. Deși majoritatea sistemelor de IA prezintă un risc limitat și pot contribui la soluționarea multor provocări societale, anumite sisteme de IA creează riscuri pe care trebuie să le abordăm pentru a evita rezultatele nedorite.

De exemplu, adesea nu este posibil să se afle de ce un sistem de IA a luat o decizie sau o predicție și a luat o anumită măsură. Prin urmare, poate deveni dificil să se evalueze dacă o persoană a fost dezavantajată în mod inechitabil, de exemplu într-o decizie de angajare sau într-o cerere pentru un sistem de interes public.

Deși legislația existentă oferă o anumită protecție, aceasta este insuficientă pentru a aborda provocările specifice pe care le pot aduce sistemele de IA.

Normele propuse:

  • abordarea riscurilor create în mod specific de aplicațiile IA;
  • interzicerea practicilor de IA care prezintă riscuri inacceptabile;
  • stabilirea unei liste de aplicații cu grad ridicat de risc;
  • să stabilească cerințe clare pentru sistemele de IA pentru aplicațiile cu grad ridicat de risc;
  • definirea unor obligații specifice pentru operatorii și furnizorii de aplicații de IA cu grad ridicat de risc;
  • să solicite o evaluare a conformității înainte ca un anumit sistem de IA să fie pus în funcțiune sau introdus pe piață;
  • punerea în aplicare a legii după introducerea pe piață a unui anumit sistem de IA;
  • stabilirea unei structuri de guvernanță la nivel european și național.

O abordare bazată pe riscuri

Cadrul de reglementare definește 4 niveluri de risc pentru sistemele de IA:

piramida prezintă cele patru niveluri de risc: Un risc inacceptabil; Cu grad ridicat de risc; risc limitat, minim sau inexistent

 

Toate sistemele de IA considerate o amenințare clară la adresa siguranței, mijloacelor de subzistență și drepturilor persoanelor vor fi interzise, de la scorul social al guvernelor la jucăriile care utilizează asistență vocală care încurajează comportamentul periculos.

Risc ridicat

Sistemele de IA identificate ca având un grad ridicat de risc includ tehnologia IA utilizată în:

  • infrastructurile critice (de exemplu, transportul), care ar putea pune în pericol viața și sănătatea cetățenilor;
  • formarea educațională sau profesională, care poate determina accesul la educație și la cursul profesional al vieții unei persoane (de exemplu, notarea examenelor);
  • componentele de siguranță ale produselor (de exemplu, aplicarea IA în chirurgia asistată de roboți);
  • ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente (de exemplu, software de sortare a CV-urilor pentru procedurile de recrutare);
  • servicii private și publice esențiale (de exemplu, punctajul de credit prin care cetățenilor li se refuză posibilitatea de a obține un împrumut);
  • asigurarea respectării legii care poate aduce atingere drepturilor fundamentale ale cetățenilor (de exemplu, evaluarea fiabilității probelor);
  • gestionarea migrației, azilului și controlului la frontiere (de exemplu, examinarea automată a cererilor de viză);
  • administrarea justiției și a proceselor democratice (de exemplu, soluții IA pentru căutarea hotărârilor judecătorești).

Sistemele de IA cu grad ridicat de risc vor face obiectul unor obligații stricte înainte de a putea fi introduse pe piață:

  • sisteme adecvate de evaluare și atenuare a riscurilor;
  • înaltă calitate a seturilor de date care alimentează sistemul pentru a reduce la minimum riscurile și rezultatele discriminatorii;
  • înregistrarea activității pentru a asigura trasabilitatea rezultatelor;
  • documentația detaliată care furnizează toate informațiile necesare privind sistemul și scopul acestuia pentru ca autoritățile să evalueze conformitatea acestuia;
  • informații clare și adecvate pentru operator;
  • măsuri adecvate de supraveghere umană pentru a reduce la minimum riscul;
  • nivel ridicat de robustețe, securitate și precizie.

Toate sistemele de identificare biometrică la distanță sunt considerate cu grad ridicat de risc și fac obiectul unor cerințe stricte. Utilizarea identificării biometrice la distanță în spații accesibile publicului în scopul asigurării respectării legii este, în principiu, interzisă.

Excepțiile restrânse sunt strict definite și reglementate, cum ar fi atunci când este necesar pentru a căuta un copil dispărut, pentru a preveni o amenințare teroristă specifică și iminentă sau pentru a detecta, localiza, identifica sau urmări penal un autor sau un suspect al unei infracțiuni grave.

Aceste utilizări sunt condiționate de autorizarea de către un organism judiciar sau de un alt organism independent și de limite adecvate în ceea ce privește timpul, acoperirea geografică și bazele de date căutate.

Risc limitat

Riscul limitat sereferă la riscurile asociate cu lipsa de transparență în utilizarea IA. Legea privind IA introduce obligații specifice de transparență pentru a se asigura că oamenii sunt informați atunci când este necesar, stimulând încrederea. De exemplu, atunci când utilizează sisteme de IA, cum ar fi roboții de chat, oamenii ar trebui să fie conștienți de faptul că interacționează cu o mașină, astfel încât să poată lua o decizie în cunoștință de cauză de a continua sau de a face un pas înapoi. Furnizorii vor trebui, de asemenea, să se asigure că conținutul generat de IA este identificabil. În plus, textul generat de IA publicat în scopul informării publicului cu privire la chestiuni de interes public trebuie etichetat ca fiind generat artificial. Acest lucru este valabil și pentru conținutul audio și video care constituie falsuri profunde.

Riscuri minime sau inexistente

Legea IA permite utilizarea liberă a IA cu risc minim. Acestea includ aplicații, cum ar fi jocuri video bazate pe IA sau filtre de spam. Marea majoritate a sistemelor de IA utilizate în prezent în UE se încadrează în această categorie.

Cum funcționează toate acestea în practică pentru furnizorii de sisteme de IA cu grad ridicat de risc?

proces pas cu pas pentru declarația de conformitate
How does it all work in practice for providers of high risk AI systems?

Odată ce un sistem de IA este pe piață, autoritățile sunt responsabile de supravegherea pieței, operatorii asigură supravegherea și monitorizarea umană, iar furnizorii dispun de un sistem de monitorizare ulterioară introducerii pe piață. Furnizorii și operatorii vor raporta, de asemenea, incidente grave și disfuncționalități.

O soluție pentru utilizarea de încredere a modelelor mari de IA

Din ce în ce mai mult, modelele de IA de uz general devin componente ale sistemelor de IA. Aceste modele pot efectua și adapta nenumărate sarcini diferite.

Deși modelele de IA de uz general pot permite soluții IA mai bune și mai puternice, este dificil să se supravegheze toate capacitățile.

Acolo, Legea privind IA introduce obligații de transparență pentru toate modelele de IA de uz general pentru a permite o mai bună înțelegere a acestor modele și obligații suplimentare de gestionare a riscurilor pentru modelele foarte capabile și cu impact. Aceste obligații suplimentare includ autoevaluarea și atenuarea riscurilor sistemice, raportarea incidentelor grave, efectuarea de evaluări ale testelor și modelelor, precum și cerințele în materie de securitate cibernetică.

Legislație adaptată exigențelor viitorului

Întrucât IA este o tehnologie cu evoluție rapidă, propunerea are o abordare adaptată exigențelor viitorului, care permite adaptarea normelor la schimbările tehnologice. Aplicațiile IA ar trebui să rămână fiabile chiar și după ce au fost introduse pe piață. Acest lucru necesită o gestionare continuă a calității și a riscurilor de către furnizori.

Asigurarea respectării și punerea în aplicare

Biroul European de IA, înființat în februarie 2024 în cadrul Comisiei, supraveghează asigurarea respectării și punerea în aplicare a Legii privind IA împreună cu statele membre. Scopul său este de a crea un mediu în care tehnologiile IA să respecte demnitatea umană, drepturile și încrederea. De asemenea, încurajează colaborarea, inovarea și cercetarea în domeniul IA în rândul diferitelor părți interesate. În plus, aceasta se angajează într-un dialog internațional și în cooperare cu privire la aspecte legate de IA, recunoscând necesitatea alinierii la nivel mondial în ceea ce privește guvernanța IA. Prin aceste eforturi, Oficiul European de IA se străduiește să poziționeze Europa ca lider în dezvoltarea etică și durabilă a tehnologiilor IA.

Pașii următori

În decembrie 2023, Parlamentul European și Consiliul UE au ajuns la un acord politic cu privire la Actul privind IA. Textul este în curs de adoptare și traducere oficială. Legea privind IA va intra în vigoare la 20 de zile de la publicarea sa în Jurnalul Oficial și va fi pe deplin aplicabilă doi ani mai târziu, cu câteva excepții: interdicțiile vor intra în vigoare după șase luni, normele de guvernanță și obligațiile pentru modelele de IA de uz general vor deveni aplicabile după 12 luni, iar normele pentru sistemele de IA – integrate în produse reglementate – se vor aplica după 36 de luni. Pentru a facilita tranziția către noul cadru de reglementare, Comisia a lansat Pactul privind IA, o inițiativă voluntară care urmărește să sprijine viitoarea punere în aplicare și invită dezvoltatorii de IA din Europa și din afara acesteia să respecte în timp util obligațiile-cheie ale Actului privind IA.

Ultimele știri

UE și Republica Coreea își reafirmă parteneriatul pentru o transformare digitală favorabilă incluziunii și rezilientă

Astăzi, UE și Republica Coreea au organizat cel de-al doilea Consiliu de parteneriat digital la Bruxelles. Consiliul a fost coprezidat de comisarul pentru piața internă, Thierry Breton, și de ministrul coreean al științei și tehnologiei informației și comunicațiilor, Dr. Lee Jong-Ho.

PRESS RELEASE |
Comisia lansează cereri de propuneri pentru a investi peste 176 de milioane EUR în capacități digitale și tehnologie

Comisia Europeană a deschis un nou set de cereri de propuneri în cadrul programelor de lucru 2023-2024 ale programului Europa digitală pentru consolidarea capacităților digitale în întreaga UE. Aceste cereri de propuneri sunt deschise întreprinderilor, administrațiilor publice și altor entități din statele membre ale UE, din țările AELS/SEE și din țările asociate. Bugetul pentru acest set de cereri de propuneri depășește 176 milioane EUR.

PRESS RELEASE |
Commission makes first payment of €202 million to Finland under the Recovery Facility

The European Commission opened a new set of calls for proposals under the 2023-2024 Work Programmes of the Digital Europe Programme to strengthen digital capacities across EU. These calls are open to businesses, public administrations, and other entities from the EU Member States, EFTA/EEA countries, and associated countries. The budget for this set of calls is over €176 million.

Conținut asociat

Imaginea de ansamblu

Abordarea europeană a inteligenței artificiale

Abordarea UE în ceea ce privește inteligența artificială se axează pe excelență și încredere, cu scopul de a stimula cercetarea și capacitatea industrială, asigurând în același timp siguranța și drepturile fundamentale.

Aprofundați subiectul

Pactul IA

Pactul privind IA va încuraja și va sprijini întreprinderile în planificarea măsurilor prevăzute în Legea privind IA.

Citiți și

Planul coordonat privind inteligența artificială

Planul coordonat privind inteligența artificială urmărește să accelereze investițiile în IA, să pună în aplicare strategii și programe în domeniul IA și să alinieze politica în domeniul IA pentru a preveni fragmentarea în Europa.

Alianța europeană pentru IA

Alianța europeană pentru IA este o inițiativă a Comisiei Europene de a stabili un dialog politic deschis privind inteligența artificială. De la lansarea sa în 2018, Alianța pentru IA a implicat aproximativ 6000 de părți interesate prin evenimente periodice, consultări publice și...