Skip to main content
Shaping Europe’s digital future
Report / Study | Objava

Etične smernice za zaupanja vredno umetno inteligenco

Strokovna skupina na visoki ravni za umetno inteligenco je 8. aprila 2019 predstavila etične smernice za zaupanja vredno umetno inteligenco. To je sledilo objavi prvega osnutka smernic decembra 2018, v zvezi s katerim je bilo v okviru odprtega posvetovanja prejetih več kot 500 pripomb.

V skladu s smernicami bi morala biti zaupanja vredna umetna inteligenca:

(1) zakonita – ob upoštevanju vseh veljavnih zakonov in drugih predpisov

(2) etično – spoštovanje etičnih načel in vrednot

(3) zanesljiv – oboje s tehničnega vidika ob upoštevanju njegovega družbenega okolja

Prenesite smernice v spodnjem jeziku:

BG |[ /NOTRANSLATE] CS [NOTRANSLATE]==DELETE==| DE | DA EL EN ¹ ES ¹ ETFIFR |0|1|2|3|4|5|6|7[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]8[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]9|[ /NOTRANSLATE]0[NOTRANSLATE]==DELETE==| 1 |2 [NOTRANSLATE] ==DELETE==|[/NOTRANSLATE]3[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]4[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]5| [ /NOTRANSLATE]6[NOTRANSLATE]==DELETE==| 7 |8[ NOTRANSLATE]==DELETE==|[/NOTRANSLATE]9[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]0[NOTRANSLATE]==DELETE = =|[/NOTRANSLATE]1[NOTRANSLATE]==DELETE==| [/NOTRANSLATE]2

V smernicah je predstavljen sklop sedmih ključnih zahtev, ki bi jih morali izpolnjevati umetnointeligenčni sistemi, da bi se šteli za zaupanja vredne. Namen posebnega ocenjevalnega seznama je pomagati pri preverjanju izpolnjevanja posameznih ključnih zahtev, ki so:

  • Človekovo delovanje in nadzor: Umetnointeligenčni sistemi bi morali opolnomočiti ljudi, da bi lahko sprejemali informirane odločitve in spodbujali njihove temeljne pravice. Hkrati je treba zagotoviti ustrezne nadzorne mehanizme, ki jih je mogoče doseči s pristopi človek v zanki, človek na zanki in s pristopom, ki ga vodi človek.
  • Tehnična zanesljivost in varnost: Umetnointeligenčni sistemi morajo biti odporni in varni. Biti morajo varni, zagotoviti nadomestni načrt, če gre kaj narobe, ter biti točni, zanesljivi in ponovljivi. To je edini način za zagotovitev, da je mogoče čim bolj zmanjšati in preprečiti tudi nenamerno škodo.
  • Zasebnost in upravljanje podatkov: poleg zagotavljanja popolnega spoštovanja zasebnosti in varstva podatkov je treba zagotoviti tudi ustrezne mehanizme upravljanja podatkov, pri čemer je treba upoštevati kakovost in celovitost podatkov ter zagotoviti legitimiziran dostop do podatkov.
  • Transparentnost: poslovni modeli podatkov, sistema in umetne inteligence bi morali biti pregledni. K temu lahko pripomorejo mehanizmi sledljivosti. Poleg tega bi bilo treba umetnointeligenčne sisteme in njihove odločitve pojasniti na način, prilagojen zadevnemu deležnikom. Ljudje se morajo zavedati, da so v stiku s sistemom umetne inteligence, ter biti obveščeni o zmogljivostih in omejitvah sistema.
  • Raznolikost, nediskriminacija in pravičnost: Izogibati se je treba nepravični pristranskosti, saj bi lahko imela številne negativne posledice, od marginalizacije ranljivih skupin do povečanja predsodkov in diskriminacije. S spodbujanjem raznolikosti bi morali biti umetnointeligenčni sistemi dostopni vsem, ne glede na invalidnost, in vključevati ustrezne deležnike v njihovem celotnem življenjskem krogu.
  • Družbena in okoljska blaginja: Umetnointeligenčni sistemi bi morali koristiti vsem ljudem, tudi prihodnjim generacijam. Zato je treba zagotoviti, da so trajnostni in okolju prijazni. Poleg tega bi morali upoštevati okolje, vključno z drugimi živimi bitji, njihov družbeni in družbeni vpliv pa bi bilo treba skrbno preučiti. 
  • Odgovornost: Vzpostavljeni morajo biti mehanizmi za zagotavljanje odgovornosti za sisteme umetne inteligence in njihove izide Možnost revizije, ki omogoča oceno algoritmov, podatkov in postopkov oblikovanja, ima pri tem ključno vlogo, zlasti v kritičnih aplikacijah. Poleg tega bi bilo treba zagotoviti ustrezno dostopno pravno sredstvo.

Strokovna skupina na visoki ravni za umetno inteligenco je pripravila tudi dokument o opredelitvi umetne inteligence, ki se uporablja za namene smernic.

Prenesite opredelitev umetne inteligence v spodnjem jeziku:

BG |[ /NOTRANSLATE] CS [NOTRANSLATE]==DELETE==| DE | DA EL EN ¹ ES ¹ ETFIFR |0|1|2|3|4|5|6|7[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]8[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]9|[ /NOTRANSLATE]0[NOTRANSLATE]==DELETE==| 1 |2 [NOTRANSLATE] ==DELETE==|[/NOTRANSLATE]3[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]4[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]5| [ /NOTRANSLATE]6[NOTRANSLATE]==DELETE==| 7 |8[ NOTRANSLATE]==DELETE==|[/NOTRANSLATE]9[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]0[NOTRANSLATE]==DELETE = =|[/NOTRANSLATE]1[NOTRANSLATE]==DELETE==| [/NOTRANSLATE]2

 

Postopek pilotiranja

Dokument vsebuje tudi ocenjevalni seznam, ki operacionalizira ključne zahteve in ponuja smernice za njihovo izvajanje v praksi. Od 26. junija je bil ta ocenjevalni seznam predmet pilotnega postopka, v katerega so bile vse zainteresirane strani pozvane, naj preizkusijo ocenjevalni seznam in zagotovijo praktične povratne informacije o tem, kako ga je mogoče izboljšati.

Povratne informacije so bile prejete na različne načine:

Pilotna faza se je končala 1. decembra 2019.

Strokovna skupina na visoki ravni za umetno inteligenco je na podlagi prejetih povratnih informacij julija 2020 predstavila končni ocenjevalni seznam za zaupanja vredno umetno inteligenco (ALTAI). Altai je praktično orodje, s katerim se etične smernice pretvorijo v dostopen in dinamičen kontrolni seznam (samoocenjevanje). Kontrolni seznam lahko uporabljajo razvijalci in uvajalci umetne inteligence, ki želijo ključne zahteve izvajati v praksi. Ta novi seznam je na voljo kot prototip spletno orodje in v obliki PDF.