Skip to main content
Shaping Europe’s digital future
Report / Study | Publikácia

Etické usmernenia pre dôveryhodnú umelú inteligenciu

Expertná skupina na vysokej úrovni pre umelú inteligenciu predstavila 8. apríla 2019 etické usmernenia pre dôveryhodnú umelú inteligenciu. Nasledovalo to po uverejnení prvého návrhu usmernení v decembri 2018, ku ktorému bolo prostredníctvom otvorenej konzultácie doručených viac ako 500 pripomienok.

Podľa usmernení by dôveryhodná umelá inteligencia mala byť:

1) zákonné – dodržiavanie všetkých platných zákonov a iných právnych predpisov

(2) etický – dodržiavanie etických zásad a hodnôt

(3) robustné – z technického hľadiska, pričom sa zohľadňuje jeho sociálne prostredie

Stiahnite si usmernenia vo vašom jazyku:

BG [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] CS [NOTRANSLATE] ==DELETE== |[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DA К EL К EN Ό ES Ό ET Ό FI К FR |0|1|2| [ /NOTRANSLATE]3[NOTRANSLATE]==DELETE = =|4[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]5 [ NOTRANSLATE]==DELETE==| [ /NOTRANSLATE]6[NOTRANSLATE]==DELETE = =|[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]8 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]1 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

V usmerneniach sa predkladá súbor 7 kľúčových požiadaviek, ktoré by systémy umelej inteligencie mali spĺňať, aby sa považovali za dôveryhodné. Osobitný zoznam bodov na posudzovanie má pomôcť overiť uplatňovanie každej kľúčovej požiadavky:

  • Ľudské riadenie a dohľad: Systémy umelej inteligencie by mali posilniť postavenie ľudí, umožniť im prijímať informované rozhodnutia a podporovať ich základné práva. Zároveň je potrebné zabezpečiť náležité mechanizmy dohľadu, ktoré možno dosiahnuť prostredníctvom prístupov „human-in-the-loop“, „human-on the-the-loop“ a „human-in-Command“ (human-in-the-loop) a človek vo velení.
  • Technická odolnosť a bezpečnosť: Systémy umelej inteligencie musia byť odolné a bezpečné. Musia byť bezpečné, musia zabezpečiť záložný plán v prípade problémov a byť presný, spoľahlivý a reprodukovateľný. To je jediný spôsob, ako zabezpečiť, aby bolo možné minimalizovať a zabrániť neúmyselnej ujme.
  • Ochrana súkromia a riadenie údajov: okrem zabezpečenia úplného rešpektovania súkromia a ochrany údajov sa musia zabezpečiť aj primerané mechanizmy správy údajov, pričom sa zohľadní kvalita a integrita údajov a zabezpečí sa legitímny prístup k údajom.
  • Transparentnosť: obchodné modely údajov, systémov a umelej inteligencie by mali byť transparentné. Mechanizmy vysledovateľnosti môžu pomôcť dosiahnuť tento cieľ. Okrem toho by sa systémy umelej inteligencie a ich rozhodnutia mali vysvetliť spôsobom prispôsobeným dotknutej zainteresovanej strane. Ľudia si musia byť vedomí toho, že komunikujú so systémom umelej inteligencie, a musia byť informovaní o schopnostiach a obmedzeniach systému.
  • Rozmanitosť, nediskriminácia a spravodlivosť: Treba sa vyhnúť nespravodlivej zaujatosti, pretože by mohla mať viaceré negatívne dôsledky, od marginalizácie zraniteľných skupín až po zhoršenie predsudkov a diskriminácie. Systémy umelej inteligencie by mali byť prístupné pre všetkých bez ohľadu na akékoľvek zdravotné postihnutie a mali by zahŕňať príslušné zainteresované strany počas celého ich životného cyklu.
  • Dobré spoločenské a environmentálne podmienky na život: Systémy umelej inteligencie by mali byť prospešné pre všetkých ľudí vrátane budúcich generácií. Preto sa musí zabezpečiť, aby boli udržateľné a šetrné k životnému prostrediu. Okrem toho by mali zohľadňovať životné prostredie vrátane iných živých bytostí a ich sociálny a spoločenský vplyv by sa mal starostlivo zvážiť. 
  • Zodpovednosť: Mali by sa zaviesť mechanizmy na zabezpečenie zodpovednosti za systémy umelej inteligencie a ich výstupy. Kontrolovateľnosť, ktorá umožňuje posudzovanie algoritmov, údajov a procesov navrhovania zohráva v nich kľúčovú úlohu, najmä v kritických aplikáciách. Okrem toho by sa mala zabezpečiť primeraná dostupná náprava.

Expertná skupina na vysokej úrovni pre umelú inteligenciu vypracovala aj dokument, v ktorom sa rozpracúva vymedzenie umelej inteligencie používanej na účely usmernení.

Stiahnite si definíciu umelej inteligencie vo vašom jazyku:

BG [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] CS [NOTRANSLATE] ==DELETE== |[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DA К EL К EN Ό ES Ό ET Ό FI К FR |0|1|2| [ /NOTRANSLATE]3[NOTRANSLATE]==DELETE = =|4[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]5 [ NOTRANSLATE]==DELETE==| [ /NOTRANSLATE]6[NOTRANSLATE]==DELETE = =|[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]8 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]1 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

 

Pilotný proces

V dokumente sa uvádza aj zoznam posúdení, v ktorom sa uvádzajú kľúčové požiadavky do praxe, a poskytuje usmernenia na ich vykonávanie v praxi. Od 26. júna prešiel tento zoznam posúdení pilotným procesom, v rámci ktorého boli všetky zainteresované strany vyzvané, aby otestovali hodnotiaci zoznam a poskytli praktickú spätnú väzbu o tom, ako ho možno zlepšiť.

Spätná väzba bola prijatá prostredníctvom rôznych línií:

Pilotná fáza sa skončila 1. decembra 2019

Na základe prijatej spätnej väzby predložila expertná skupina na vysokej úrovni pre umelú inteligenciu v júli 2020 konečný zoznam na posúdenie dôveryhodnej umelej inteligencie (ALTAI). Altai je praktický nástroj, ktorý pretavuje etické usmernenia do dostupného a dynamického kontrolného zoznamu (samohodnotenia). Kontrolný zoznam môžu používať vývojári a nasadzujúce subjekty umelej inteligencie, ktorí chcú v praxi zaviesť kľúčové požiadavky. Tento nový zoznam je k dispozícii ako prototyp webového nástroja a vo formáte PDF.