Skip to main content
Shaping Europe’s digital future
Report / Study | Publicație

Orientări etice pentru o IA de încredere

La 8 aprilie 2019, Grupul de experți la nivel înalt privind inteligența artificială a prezentat orientările etice pentru inteligența artificială de încredere. Aceasta a urmat publicării, în decembrie 2018, a primului proiect de orientări, cu privire la care au fost primite peste 500 de observații în cadrul unei consultări deschise.

În conformitate cu orientările, IA de încredere ar trebui să fie:

(1) legal – respectarea tuturor actelor cu putere de lege și normelor administrative aplicabile

(2) etică – respectarea principiilor și valorilor etice

(3) robust – ambele din punct de vedere tehnic, ținând seama, în același timp, de mediul său social

Descărcați orientările în limba dumneavoastră de mai jos:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

Orientările au prezentat un set de 7 de cerințe-cheie pe care sistemele de IA ar trebui să le îndeplinească pentru a fi considerate demne de încredere. O listă de evaluare specifică are scopul de a contribui la verificarea aplicării fiecăreia dintre cerințele-cheie:

  • Implicare și supraveghere umană: Sistemele de IA ar trebui să capaciteze oamenii, permițându-le să ia decizii în cunoștință de cauză și promovând drepturile lor fundamentale. În același timp, trebuie asigurate mecanisme de supraveghere adecvate, care pot fi realizate prin abordări de tip human-in-the-loop, human-on-the-loop și human-in-command.
  • Robustețe tehnică și siguranță: Sistemele de IA trebuie să fie reziliente și sigure. Acestea trebuie să fie sigure, asigurând un plan de revenire în cazul în care apar probleme, precum și să fie exacte, fiabile și reproductibile. Aceasta este singura modalitate de a garanta că și vătămările neintenționate pot fi reduse la minimum și prevenite.
  • Respectarea vieții private și guvernanța datelor: pe lângă asigurarea respectării depline a vieții private și a protecției datelor, trebuie asigurate, de asemenea, mecanisme adecvate de guvernanță a datelor, ținând seama de calitatea și integritatea datelor și asigurând accesul legitim la date.
  • Transparență: modelele de afaceri privind datele, sistemele și IA ar trebui să fie transparente. Mecanismele de trasabilitate pot contribui la realizarea acestui obiectiv. În plus, sistemele de IA și deciziile acestora ar trebui explicate într-un mod adaptat la părțile interesate în cauză. Oamenii trebuie să fie conștienți de faptul că interacționează cu un sistem de IA și trebuie să fie informați cu privire la capacitățile și limitările sistemului.
  • Diversitate, nediscriminare și echitate: Prejudecățile neloiale trebuie evitate, deoarece ar putea avea implicații negative multiple, de la marginalizarea grupurilor vulnerabile până la exacerbarea prejudecăților și a discriminării. Promovând diversitatea, sistemele de IA ar trebui să fie accesibile tuturor, indiferent de orice dizabilitate, și să implice părțile interesate relevante de-a lungul întregului lor cerc de viață.
  • Bunăstare societală și de mediu: Sistemele de IA ar trebui să aducă beneficii tuturor ființelor umane, inclusiv generațiilor viitoare. Prin urmare, trebuie să se asigure că acestea sunt durabile și ecologice. În plus, acestea ar trebui să țină seama de mediu, inclusiv de alte ființe vii, iar impactul lor social și societal ar trebui analizat cu atenție. 
  • Responsabilizare: Ar trebui instituite mecanisme care să asigure responsabilitatea și răspunderea sistemelor de IA și a acțiunilor acestora. Posibilitatea auditării, care permite evaluarea algoritmilor, a datelor și a proceselor de proiectare, joacă un rol esențial în acest sens, în special în aplicațiile critice. În plus, ar trebui să se asigure o cale de atac adecvată și accesibilă.

De asemenea, AI HLEG a pregătit un document care detaliază o definiție a inteligenței artificiale utilizată în sensul orientărilor.

Descărcați definiția IA în limba dumneavoastră de mai jos:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

 

Procesul pilot

Documentul oferă, de asemenea, o listă de evaluare care operaționalizează cerințele-cheie și oferă orientări pentru punerea lor în practică. Începând cu 26 iunie, această listă de evaluare a făcut obiectul unui proces pilot, la care toate părțile interesate au fost invitate să testeze lista de evaluare și să ofere feedback practic cu privire la modul în care aceasta poate fi îmbunătățită.

Feedbackul a fost primit pe diferite căi:

  • Un sondaj deschis sau o „analiză cantitativă” trimisă tuturor celor care s-au înregistrat la proiectul-pilot
  • Interviuri aprofundate cu o serie de organizații reprezentative pentru a colecta feedback mai detaliat pentru diferite sectoare 
  • Posibilitatea continuă de a încărca feedback și bune practici prin intermediul Alianței europene pentru IA

Faza-pilot s-a încheiat la 1 decembrie 2019

Pe baza feedbackului primit, AI HLEG a prezentat lista finală de evaluare pentru o IAfiabilă (ALTAI) în iulie 2020. Altai este un instrument practic care transpune orientările în materie de etică într-o listă de verificare accesibilă și dinamică (autoevaluare). Lista de verificare poate fi utilizată de dezvoltatorii și operatorii de IA care doresc să pună în practică cerințele-cheie. Această nouă listă este disponibilă ca prototip de instrument web și în format PDF.