Skip to main content
Shaping Europe’s digital future
Report / Study | Leidinys

Patikimo dirbtinio intelekto etikos gairės

2019 m. balandžio 8 d. Aukšto lygio ekspertų grupė dirbtinio intelekto klausimais pristatė patikimo dirbtinio intelekto etikos gaires. 2018 m. gruodžio mėn. paskelbus pirmąjį gairių projektą, dėl kurio per atviras konsultacijas gauta daugiau kaip 500 pastabų.

Remiantis gairėmis, patikimas dirbtinis intelektas turėtų būti:

Teisėti – laikytis visų taikomų įstatymų ir kitų teisės aktų

Etiška – etikos principų ir vertybių laikymasis

3) tvirtas – tiek techniniu požiūriu, tiek atsižvelgiant į jos socialinę aplinką

Atsisiųskite gaires šia kalba:

BG [NOTRANSLATE]== DELETE==|[ /NOTRANSLATE] CS [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] DE [NOTRANSLATE]==DELETE==|[/NOTRANSLATE] DA ⇨ EL ⇨ ENESETFR |0| 1 |3[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]3 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]4[NOTRANSLATE]==DELETE = =|[/NOTRANSLATE]5[NOTRANSLATE] ==DELETE==|[/NOTRANSLATE] 7[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]8[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]9 [ NOTRANSLATE]==DELETE==| [ /NOTRANSLATE]0[NOTRANSLATE]== DELETE ==|[/NOTRANSLATE]1[ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

Gairėse pateikiamas 7 pagrindinių reikalavimų, kuriuos DI sistemos turėtų atitikti, kad būtų laikomos patikimomis, rinkinys. Konkretus vertinimo klausimų sąrašas skirtas padėti patikrinti, kaip taikomas kiekvienas pagrindinis reikalavimas:

  • Žmogiškasis veiksnys ir žmogaus atliekama priežiūra. Di sistemos turėtų įgalinti žmones, kad jie galėtų priimti informacija pagrįstus sprendimus ir puoselėti savo pagrindines teises. Tuo pat metu reikia užtikrinti tinkamus priežiūros mechanizmus, kuriuos būtų galima pasiekti taikant metodus, susijusius su žmogaus dalyvavimu tinkle, žmogaus darbo vietoje ir žmogaus valdymo principu.
  • Techninis racionalumas ir sauga: Di sistemos turi būti atsparios ir saugios. Jie turi būti saugūs, užtikrinti atsarginį planą, jei kiltų problemų, taip pat būti tikslūs, patikimi ir atkuriami. Tai vienintelis būdas užtikrinti, kad taip pat būtų galima kuo labiau sumažinti netyčinę žalą ir užkirsti jai kelią.
  • Privatumas ir duomenų valdymas. reikia ne tik užtikrinti visapusišką pagarbą privatumui ir duomenų apsaugai, bet ir užtikrinti tinkamus duomenų valdymo mechanizmus, atsižvelgiant į duomenų kokybę ir vientisumą, taip pat užtikrinant teisėtą prieigą prie duomenų.
  • Skaidrumą: duomenys, sistemos ir dirbtinio intelekto verslo modeliai turėtų būti skaidrūs. Atsekamumo mechanizmai gali padėti tai pasiekti. Be to, DI sistemos ir jų sprendimai turėtų būti paaiškinti atitinkamam suinteresuotajam subjektui pritaikytu būdu. Žmonės turi žinoti, kad sąveikauja su DI sistema, ir būti informuoti apie sistemos pajėgumus ir apribojimus.
  • Įvairovė, nediskriminavimas ir teisingumas. Reikia vengti nesąžiningo šališkumo, nes jis gali turėti daugialypių neigiamų pasekmių – nuo pažeidžiamų grupių marginalizacijos iki išankstinio nusistatymo ir diskriminacijos paaštrėjimo. Skatinant įvairovę, DI sistemos turėtų būti prieinamos visiems, nepriklausomai nuo negalios, ir įtraukti atitinkamus suinteresuotuosius subjektus per visą jų gyvavimo ciklą.
  • Visuomenės ir aplinkos gerovė. Di sistemos turėtų būti naudingos visiems žmonėms, įskaitant ateities kartas. Todėl reikia užtikrinti, kad jos būtų tvarios ir nekenksmingos aplinkai. Be to, jose turėtų būti atsižvelgiama į aplinką, įskaitant kitas gyvenamąsias būtybes, ir reikėtų atidžiai apsvarstyti jų socialinį ir socialinį poveikį. 
  • Atskaitomybė: Turėtų būti nustatyti mechanizmai, kuriais būtų užtikrinta atsakomybė už dirbtinio intelekto sistemas ir jų rezultatus. Galimybė atlikti auditą, kuris suteikia galimybę įvertinti algoritmus, duomenis ir projektavimo procesus, atlieka labai svarbų vaidmenį, visų pirma ypatingos svarbos prietaikose. Be to, turėtų būti užtikrintos tinkamos prieinamos teisių gynimo priemonės.

Aukšto lygio ekspertų grupė DI klausimais taip pat parengė dokumentą, kuriame išsamiai aprašoma gairėse naudojama dirbtinio intelekto apibrėžtis.

Atsisiųskite toliau pateiktą DI apibrėžtį savo kalba:

BG [NOTRANSLATE]== DELETE==|[ /NOTRANSLATE] CS [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] DE [NOTRANSLATE]==DELETE==|[/NOTRANSLATE] DA ⇨ EL ⇨ ENESETFR |0| 1 |3[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]3 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]4[NOTRANSLATE]==DELETE = =|[/NOTRANSLATE]5[NOTRANSLATE] ==DELETE==|[/NOTRANSLATE] 7[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]8[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]9 [ NOTRANSLATE]==DELETE==| [ /NOTRANSLATE]0[NOTRANSLATE]== DELETE ==|[/NOTRANSLATE]1[ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

 

Bandomasis procesas

Dokumente taip pat pateikiamas vertinimo sąrašas, kuriuo įgyvendinami pagrindiniai reikalavimai, ir pateikiamos jų praktinio įgyvendinimo gairės. Nuo birželio 26 d. šis vertinimo sąrašas buvo bandomas ir visi suinteresuotieji subjektai buvo kviečiami išbandyti vertinimo sąrašą ir pateikti praktinės informacijos apie tai, kaip jį būtų galima patobulinti.

Atsiliepimai buvo gauti įvairiais būdais:

  • Atvirą apklausą arba kiekybinę analizę, išsiųstą visiems bandomajame projekte užsiregistravusiems asmenims;
  • Išsamūs pokalbiai su keliomis atstovaujančiomis organizacijomis, siekiant surinkti išsamesnės grįžtamosios informacijos apie įvairius sektorius 
  • Nuolatinė galimybė per Europos dirbtinio intelekto aljansąįkelti grįžtamąją informaciją ir geriausią patirtį

Bandomasis etapas baigtas 2019 m. gruodžio 1 d.

Remdamasi gautais atsiliepimais, aukšto lygio ekspertų grupė DI klausimais 2020 m. liepos mėn. pateikė galutinį patikimo DI vertinimo sąrašą (ALTAI). „Altai“ yra praktinė priemonė, kuria etikos gairės paverčiamos prieinamu ir dinaminiu (savarankiško vertinimo) kontroliniu sąrašu. Kontroliniu sąrašu gali naudotis DI kūrėjai ir diegėjai, norintys praktiškai įgyvendinti pagrindinius reikalavimus. Šis naujas sąrašas pateikiamas kaip internetinės priemonės prototipas PDF formatu.