Legea privind IA este primul cadru juridic privind IA, care abordează riscurile IA și poziționează Europa pentru a juca un rol de lider la nivel mondial.
Legea privindIA [Regulamentul(UE) 2024/1689 de stabilire a unor norme armonizate privind inteligența artificială]prevede cerințe și obligații clare pentru dezvoltatorii și operatorii de IA în ceea ce privește utilizările specifice ale IA. În același timp, regulamentul urmărește să reducă sarcinile administrative și financiare pentru întreprinderi, în special pentru întreprinderile mici și mijlocii (IMM-uri).
Legea privind IA face parte dintr-un pachet mai amplu de măsuri de politică menite să sprijine dezvoltarea unei IA de încredere, care include, de asemenea, pachetul privind inovarea în domeniul IA șiPlanul coordonat privind IA. Împreună, aceste măsuri garantează siguranța și drepturile fundamentale ale cetățenilor și ale întreprinderilor în ceea ce privește IA. Ele consolidează, de asemenea, adoptarea, investițiile și inovarea în domeniul IA în întreaga UE.
Legea privindIA este primul cadru juridic cuprinzător privind IA la nivel mondial. Scopul noilor norme este de a promova o IA de încredere în Europa și în afara acesteia, asigurându-se că sistemele de IA respectă drepturile fundamentale, siguranța și principiile etice și abordând riscurile unor modele de IA foarte puternice și cu impact.
De ce avem nevoie de norme privind IA?
Legea privind IA asigură faptul că europenii pot avea încredere în ceea ce are de oferit IA. Deși majoritatea sistemelor de IA nu prezintă niciun risc și pot contribui la soluționarea multor provocări societale, anumite sisteme de IA creează riscuri pe care trebuie să le abordăm pentru a evita rezultate nedorite.
De exemplu, adesea nu este posibil să se afle de ce un sistem de IA a luat o decizie sau o predicție și a luat o anumită măsură. Prin urmare, poate deveni dificil să se evalueze dacă o persoană a fost dezavantajată pe nedrept, cum ar fi într-o decizie de angajare sau într-o cerere pentru un sistem de interes public.
Deși legislația existentă oferă o anumită protecție, aceasta este insuficientă pentru a aborda provocările specifice pe care le pot aduce sistemele de IA.
Noile norme:
- abordarea riscurilor create în mod specific de aplicațiile IA
- să interzică practicile IA care prezintă riscuri inacceptabile
- să stabilească o listă a cererilor cu grad ridicat de risc
- stabilirea unor cerințe clare pentru sistemele de IA pentru aplicațiile cu grad ridicat de risc
- să definească obligații specifice pentru operatorii și furnizorii de aplicații de IA cu grad ridicat de risc
- să solicite o evaluare a conformității înainte ca un anumit sistem de IA să fie pus în funcțiune sau introdus pe piață
- punerea în aplicare după introducerea pe piață a unui anumit sistem de IA
- să instituie o structură de guvernanță la nivel european și național
O abordare bazată pe riscuri
Cadrul de reglementare definește patru niveluri de risc pentru sistemele de IA:
Toate sistemele de IA considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor persoanelor sunt interzise, de la evaluarea socială de către guverne la jucăriile care utilizează asistența vocală care încurajează comportamentul periculos.
Risc ridicat
Printre sistemele de IA identificate ca prezentând un grad ridicat de risc se numără tehnologia IA utilizată în:
- infrastructuri critice (de exemplu, transporturile), care ar putea pune în pericol viața și sănătatea cetățenilor
- formare educațională sau profesională, care poate determina accesul la educație și la cursul profesional al vieții unei persoane (de exemplu, notarea examenelor)
- componente de siguranță ale produselor (de exemplu, aplicarea IA în chirurgia asistată de roboți)
- ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente (de exemplu, software de sortare a CV-urilor pentru procedurile de recrutare)
- servicii publice și private esențiale (de exemplu, evaluarea bonității care refuză cetățenilor posibilitatea de a obține un împrumut)
- asigurarea respectării legii care poate interfera cu drepturile fundamentale ale persoanelor (de exemplu, evaluarea fiabilității probelor)
- gestionarea migrației, a azilului și a controlului la frontiere (de exemplu, examinarea automată a cererilor de viză)
- administrarea justiției și a proceselor democratice (de exemplu, soluții IA pentru căutarea hotărârilor judecătorești)
Sistemele de IA cu grad ridicat de risc fac obiectul unor obligații stricte înainte de a putea fi introduse pe piață:
- sisteme adecvate de evaluare și atenuare a riscurilor
- calitatea ridicată a seturilor de date care alimentează sistemul pentru a reduce la minimum riscurile și rezultatele discriminatorii
- înregistrarea activității pentru a asigura trasabilitatea rezultatelor
- documentație detaliată care să furnizeze toate informațiile necesare cu privire la sistem și scopul acestuia pentru ca autoritățile să evalueze conformitatea acestuia
- informații clare și adecvate pentru operator
- măsuri adecvate de supraveghere umană pentru a reduce la minimum riscurile
- nivel ridicat de robustețe, securitate și precizie
Toate sistemele de identificare biometrică la distanță sunt considerate ca prezentând un risc ridicat și fac obiectul unor cerințe stricte. Utilizarea identificării biometrice la distanță în spațiile accesibile publicului în scopul asigurării respectării legii este, în principiu, interzisă.
Excepțiile restrânse sunt strict definite și reglementate, de exemplu atunci când este necesar să se caute un copil dispărut, să se prevină o amenințare teroristă specifică și iminentă sau să se detecteze, să se localizeze, să se identifice sau să se urmărească penal un autor sau o persoană suspectată de săvârșirea unei infracțiuni grave.
Aceste utilizări fac obiectul autorizării de către un organism judiciar sau de către un alt organism independent și al unor limite adecvate în ceea ce privește timpul, raza geografică și bazele de date căutate.
Risc limitat
Riscurile limitatese referă la riscurile asociate lipsei de transparență în utilizarea IA. Legea privind IA introduce obligații specifice de transparență pentru a se asigura că oamenii sunt informați atunci când este necesar, stimulând încrederea. De exemplu, atunci când utilizează sisteme de IA, cum ar fi roboții de chat, oamenii ar trebui să fie informați că interacționează cu o mașină, astfel încât să poată lua o decizie în cunoștință de cauză de a continua sau de a face un pas înapoi. Furnizorii trebuie, de asemenea, să se asigure că conținutul generat de IA este identificabil. În plus, textul generat de IA publicat cu scopul de a informa publicul cu privire la chestiuni de interes public trebuie etichetat ca fiind generat artificial. Acest lucru este valabil și pentru conținutul audio și video care constituie deepfake-uri.
Risc minim sau fără risc
Legea privind IA permite utilizarea gratuită a IA cu risc minim. Printre acestea se numără aplicații precum jocurile video bazate pe IA sau filtrele de spam. Marea majoritate a sistemelor de IA utilizate în prezent în UE se încadrează în această categorie.
Cum funcționează toate acestea în practică pentru furnizorii de sisteme de IA cu grad ridicat de risc?
Odată ce un sistem de IA este pe piață, autoritățile sunt responsabile de supravegherea pieței, operatorii asigură supravegherea și monitorizarea umană, iar furnizorii dispun de un sistem de monitorizare ulterioară introducerii pe piață. Furnizorii și operatorii vor raporta, de asemenea, incidentele grave și disfuncționalitățile.
O soluție pentru utilizarea fiabilă a modelelor IA de mari dimensiuni
Din ce în ce mai multe modele de IA de uz general devin componente ale sistemelor de IA. Aceste modele pot efectua și adapta nenumărate sarcini diferite.
Deși modelele IA de uz general pot permite soluții IA mai bune și mai puternice, este dificil să se supravegheze toate capacitățile.
Acolo, Legea privind IA introduce obligații de transparență pentru toate modelele de IA de uz general, pentru a permite o mai bună înțelegere a acestor modele, precum și obligații suplimentare de gestionare a riscurilor pentru modelele foarte capabile și cu impact puternic. Aceste obligații suplimentare includ autoevaluarea și atenuarea riscurilor sistemice, raportarea incidentelor grave, efectuarea de teste și evaluări ale modelelor, precum și cerințele în materie de securitate cibernetică.
O legislație adaptată exigențelor viitorului
Întrucât IA este o tehnologie cu evoluție rapidă, regulamentul are o abordare adaptată exigențelor viitorului, care permite adaptarea normelor la schimbările tehnologice. Aplicațiile IA ar trebui să rămână fiabile chiar și după ce au fost introduse pe piață. Acest lucru necesită o gestionare continuă a calității și a riscurilor de către furnizori.
Asigurarea respectării și punerea în aplicare
Oficiul European pentru IA, înființat în februarie 2024 în cadrul Comisiei, supraveghează punerea în aplicare și asigurarea respectării Legii privind IA împreună cu statele membre. Scopul său este de a crea un mediu în care tehnologiile IA respectă demnitatea umană, drepturile și încrederea. De asemenea, promovează colaborarea, inovarea și cercetarea în domeniul IA între diferitele părți interesate. În plus, se angajează în dialog și cooperare internațională cu privire la aspectele legate de IA, recunoscând necesitatea alinierii globale la guvernanța IA. Prin aceste eforturi, Oficiul European pentru IA depune eforturi pentru a poziționa Europa ca lider în dezvoltarea etică și durabilă a tehnologiilor IA.
Etapele următoare
Legea privindIA a intrat în vigoare la 1 august și va fi pe deplin aplicabilă doi ani mai târziu, cu unele excepții: interdicțiile vor intra în vigoare după șase luni, normele de guvernanță și obligațiile pentru modelele de IA de uz general vor deveni aplicabile după 12 luni, iar normele pentru sistemele de IA – încorporate în produsele reglementate – se vor aplica după 36 de luni. Pentru a facilita tranziția către noul cadru de reglementare, Comisia a lansatPactul privind IA,o inițiativă voluntară care urmărește să sprijine viitoarea punere în aplicare și invită dezvoltatorii de IA din Europa și din afara acesteia să respecte în prealabil obligațiile-cheie prevăzute în Legea privind IA.
Ultimele știri
Report / Study
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
- 05-04-2024Ai pentru binele public: Alianța UE-SUA pentru cercetare în domeniul IA pentru binele public
- 30-11-2023Potențialul Europei în domeniul informaticii de bază: Sprijinirea inovării industriale prin proiecte-pilot la scară largă
Factsheet / infographic
Conținut asociat
Imaginea de ansamblu
Abordarea UE în ceea ce privește inteligența artificială se axează pe excelență și încredere, vizând stimularea cercetării și a capacității industriale, asigurând în același timp siguranța și drepturile fundamentale.
Aprofundați subiectul
Pactul privind IA încurajează și sprijină organizațiile să planifice în avans punerea în aplicare a măsurilor prevăzute în Legea privind IA.
Citiți și
Inițiativa internațională privind inteligența artificială centrată pe factorul uman va contribui la promovarea viziunii UE privind o IA durabilă și de încredere.
Planul coordonat privind inteligența artificială urmărește să accelereze investițiile în IA, să pună în aplicare strategii și programe în domeniul IA și să alinieze politica în domeniul IA pentru a preveni fragmentarea în Europa.
Comisia Europeană a numit un grup de experți care să ofere consiliere cu privire la strategia sa privind inteligența artificială.
Alianța europeană pentru IA este o inițiativă a Comisiei Europene de a stabili un dialog politic deschis privind inteligența artificială. De la lansarea sa în 2018, Alianța pentru IA a implicat aproximativ 6000 de părți interesate prin evenimente periodice, consultări publice și...