Skip to main content
Shaping Europe’s digital future
Report / Study | Publikace

Etické pokyny pro důvěryhodnou umělou inteligenci

Dne 8. dubna 2019 předložila odborná skupina na vysoké úrovni pro umělou inteligenci etické pokyny pro důvěryhodnou umělou inteligenci. To následovalo po zveřejnění prvního návrhu pokynů v prosinci 2018, k němuž bylo prostřednictvím otevřené konzultace obdrženo více než 500 připomínek.

Podle pokynů by důvěryhodná UI měla být:

(1) zákonné – v souladu se všemi platnými právními a správními předpisy

2) etické – dodržování etických zásad a hodnot

3) robustní – obojí z technického hlediska při zohlednění sociálního prostředí

Stáhněte si pokyny ve vašem jazyce níže:

BG [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] CS [NOTRANSLATE] ==DELETE= =|[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DAEL ≠ ENESETFI FR |0|1|2|[ /NOTRANSLATE]3[NOTRANSLATE]==DELETE = =|4[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]5 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]6[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]8 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]1 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

Pokyny obsahují soubor sedmi klíčových požadavků, které by systémy UI měly splňovat, aby byly považovány za důvěryhodné. K posouzení, zda jsou jednotlivé klíčové požadavky splněny, poslouží zvláštní seznam otázek. Požadavky jsou:

  • Možnost řízení a dohledu ze strany člověka: Systémy UI by měly posílit postavení lidí, umožnit jim činit informovaná rozhodnutí a podporovat jejich základní práva. Zároveň je třeba zajistit řádné mechanismy dohledu, jichž lze dosáhnout prostřednictvím přístupu „human-in-the-loop“, „human-on-the-op“ a „human-in-command“.
  • Technická odolnost a bezpečnost: Systémy UI musí být odolné a bezpečné. Musí být bezpečné, musí zajistit záložní plán v případě problémů a musí být přesné, spolehlivé a reprodukovatelné. To je jediný způsob, jak zajistit, aby bylo možné minimalizovat a předejít i neúmyslné újmě.
  • Ochrana soukromí a správa údajů: kromě zajištění plného respektování soukromí a ochrany údajů musí být rovněž zajištěny odpovídající mechanismy správy údajů, které zohlední kvalitu a integritu údajů a zajistí legitimizovaný přístup k údajům.
  • Průhlednost: obchodní modely dat, systémů a umělé inteligence by měly být transparentní. K dosažení tohoto cíle mohou pomoci mechanismy sledovatelnosti. Kromě toho by systémy UI a jejich rozhodnutí měly být vysvětleny způsobem přizpůsobeným dotčeným zúčastněným stranám. Lidé si musí být vědomi toho, že komunikují se systémem UI, a musí být informováni o schopnostech a omezeních systému.
  • Rozmanitost, zákaz diskriminace a rovné zacházení: Je třeba se vyvarovat nespravedlivé podjatosti, neboť by mohla mít četné negativní důsledky, od marginalizace zranitelných skupin až po prohlubování předsudků a diskriminace. Podpora rozmanitosti, systémy UI by měly být přístupné všem bez ohledu na jakékoli zdravotní postižení a měly by do nich být zapojeny příslušné zúčastněné strany během celého jejich životního cyklu.
  • Společenský a environmentální prospěch: Systémy UI by měly být přínosem pro všechny lidské bytosti, včetně budoucích generací. Je proto třeba zajistit, aby byly udržitelné a šetrné k životnímu prostředí. Kromě toho by měly zohledňovat životní prostředí, včetně jiných živých bytostí, a jejich sociální a společenský dopad by měl být pečlivě zvážen. 
  • Odpovědnosti: Měly by být zavedeny mechanismy, které zajistí odpovědnost za systémy umělé inteligence a za výsledky jejich činnosti. V této souvislosti hraje klíčovou úlohu kontrolovatelnost, která umožňuje posouzení algoritmů, dat a procesů navrhování, zejména v kritických aplikacích. Kromě toho by měla být zajištěna přiměřená a dostupná náprava.

Skupina na vysoké úrovni pro umělou inteligenci rovněž připravila dokument, který rozpracovává definici umělé inteligence používané pro účely pokynů.

Níže si stáhněte definici umělé inteligence ve vašem jazyce:

BG [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] CS [NOTRANSLATE] ==DELETE= =|[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DAEL ≠ ENESETFI FR |0|1|2|[ /NOTRANSLATE]3[NOTRANSLATE]==DELETE = =|4[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]5 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]6[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]8 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]1 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

 

Pilotní proces

Dokument rovněž obsahuje hodnotící seznam, který uvádí klíčové požadavky do praxe a nabízí pokyny k jejich uplatňování v praxi. Od 26. června prošel tento hodnotící seznam pilotním procesem, k němuž byly všechny zúčastněné strany vyzvány, aby testovaly hodnotící seznam a poskytly praktickou zpětnou vazbu ohledně toho, jak jej lze zlepšit.

Zpětná vazba byla získána prostřednictvím různých směrů:

Pilotní fáze byla ukončena dne 1. prosince 2019

Na základě obdržené zpětné vazby předložila skupina AI HLEG v červenci 2020 konečný hodnotící seznam pro důvěryhodnou UI (ALTAI). Altai je praktický nástroj, který převádí etické pokyny do přístupného a dynamického kontrolního seznamu (sebehodnocení). Kontrolní seznam mohou používat vývojáři a provozovatelé umělé inteligence, kteří chtějí klíčové požadavky uplatňovat v praxi. Tento nový seznam je k dispozici jako prototyp internetového nástroje a ve formátu PDF.