
© gorodenkoff - iStock Getty Images Plus
Cieľom regulačného návrhu je poskytnúť vývojárom umelej inteligencie, nasadzujúcim subjektom a používateľom jasné požiadavky a povinnosti týkajúce sa konkrétnych použití umelej inteligencie. Cieľom návrhu je zároveň znížiť administratívnu a finančnú záťaž pre podniky, najmä malé a stredné podniky (MSP).
Návrh je súčasťou širšieho balíka opatrení v oblasti umelej inteligencie, ktorý zahŕňa aj aktualizovaný koordinovaný plán v oblasti umelej inteligencie. Regulačný rámec a koordinovaný plán spoločne zaručia bezpečnosť a základné práva ľudí a podnikov, pokiaľ ide o umelú inteligenciu. Okrem toho posilnia zavádzanie, investície a inovácie v oblasti umelej inteligencie v celej EÚ.
Prečo potrebujeme pravidlá o umelej inteligencii?
Navrhovaným nariadením o umelej inteligencii sa zabezpečuje, že Európania môžu dôverovať tomu, čo umelá inteligencia ponúka. Hoci väčšina systémov umelej inteligencie predstavuje obmedzené na žiadne riziko a môže prispieť k riešeniu mnohých spoločenských výziev, určité systémy umelej inteligencie vytvárajú riziká, ktoré musíme riešiť, aby sme sa vyhli nežiaducim výsledkom.
Napríklad často nie je možné zistiť, prečo systém umelej inteligencie urobil rozhodnutie alebo predpoveď a prijal konkrétne opatrenie. Preto môže byť ťažké posúdiť, či bol niekto nespravodlivo znevýhodnený, napríklad v rozhodnutí o prijatí do zamestnania alebo v žiadosti o verejnoprospešný systém.
Hoci existujúce právne predpisy poskytujú určitú ochranu, nie sú dostatočné na riešenie osobitných výziev, ktoré môžu systémy umelej inteligencie priniesť.
Navrhované pravidlá:
- riešiť riziká osobitne vytvorené aplikáciami umelej inteligencie;
- navrhnúť zoznam vysokorizikových žiadostí;
- stanoviť jasné požiadavky na systémy umelej inteligencie pre vysokorizikové aplikácie;
- vymedziť osobitné povinnosti pre používateľov umelej inteligencie a poskytovateľov vysokorizikových aplikácií;
- navrhne posúdenie zhody pred uvedením systému umelej inteligencie do prevádzky alebo pred uvedením na trh;
- navrhnúť presadzovanie po uvedení takéhoto systému umelej inteligencie na trh;
- navrhnúť štruktúru riadenia na európskej a vnútroštátnej úrovni.
Prístup založený na riziku
V regulačnom rámci sa vymedzujú štyri úrovne rizika v umelej inteligencii:
- Neprijateľné riziko
- Vysoké riziko
- Obmedzené riziko
- Minimálne alebo žiadne riziko
Neprijateľné riziko
Všetkým systémom umelej inteligencie, ktoré sa považujú za jasnú hrozbu pre bezpečnosť, živobytie a práva ľudí, sa zakáže sociálne hodnotenie zo strany vlád až po hračky využívajúce hlasovú pomoc, ktorá podporuje nebezpečné správanie.
Vysoké riziko
Systémy umelej inteligencie identifikované ako vysokorizikové zahŕňajú technológiu umelej inteligencie používanú v:
- kritické infraštruktúry (napr. doprava), ktoré by mohli ohroziť život a zdravie občanov;
- vzdelávanie alebo odborná príprava, ktorá môže určovať prístup k vzdelaniu a odbornému kurzu niekoho života (napr. bodovanie skúšok);
- bezpečnostné komponenty výrobkov (napr. aplikácia umelej inteligencie v chirurgii asistovanej robotom);
- zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti (napr. softvér na triedenie životopisov pre postupy prijímania zamestnancov);
- základné súkromné a verejné služby (napr. bodové hodnotenie úverov, ktoré občanom znemožňuje získať pôžičku);
- presadzovanie práva, ktoré môže zasahovať do základných práv ľudí (napr. hodnotenie spoľahlivosti dôkazov),
- riadenie migrácie, azylu a kontroly hraníc (napr. overovanie pravosti cestovných dokladov),
- výkon spravodlivosti a demokratických procesov (napr. uplatňovanie práva na konkrétny súbor skutočností).
Vysokorizikové systémy umelej inteligencie budú podliehať prísnym povinnostiam pred ich uvedením na trh:
- primerané systémy posudzovania a zmierňovania rizika;
- vysoká kvalita súborov údajov, ktoré sú súčasťou systému, aby sa minimalizovali riziká a diskriminačné výsledky;
- zaznamenávanie činností s cieľom zabezpečiť vysledovateľnosť výsledkov;
- podrobnú dokumentáciu poskytujúcu všetky potrebné informácie o systéme a jeho účele pre orgány na posúdenie jeho súladu;
- jasné a primerané informácie pre používateľa;
- primerané opatrenia ľudského dohľadu na minimalizáciu rizika;
- vysoká úroveň robustnosti, bezpečnosti a presnosti.
Všetky systémy diaľkovej biometrickej identifikácie sa považujú za vysoko rizikové a podliehajú prísnym požiadavkám. Používanie diaľkovej biometrickej identifikácie vo verejne prístupných priestoroch na účely presadzovania práva je v zásade zakázané.
Prísne sa vymedzujú a regulujú úzke výnimky, napríklad ak je to potrebné na vyhľadávanie nezvestného dieťaťa, na predchádzanie konkrétnej a bezprostrednej hrozbe terorizmu alebo na odhaľovanie, lokalizáciu, identifikáciu alebo stíhanie páchateľa alebo podozrivého zo závažného trestného činu.
Takéto použitie podlieha schváleniu súdnym alebo iným nezávislým orgánom a primeraným časovým obmedzeniam, geografickému dosahu a vyhľadávaným databázam.
Obmedzené riziko
Obmedzené riziko sa vzťahuje na systémy umelej inteligencie s osobitnými povinnosťami týkajúcimi sa transparentnosti. Pri používaní systémov umelej inteligencie, ako sú chatboty, by si používatelia mali byť vedomí toho, že interagujú so strojom, aby sa mohli informovane rozhodnúť, či budú pokračovať alebo ustúpiť.
Minimálne alebo žiadne riziko
Návrh umožňuje bezplatné používanie umelej inteligencie s minimálnym rizikom. Patria sem aplikácie, ako sú videohry založené na umelej inteligencii alebo spamové filtre. Prevažná väčšina systémov umelej inteligencie, ktoré sa v súčasnosti používajú v EÚ, patrí do tejto kategórie.
Po uvedení systému umelej inteligencie na trh sú orgány zodpovedné za dohľad nad trhom, používatelia zabezpečujú ľudský dohľad a monitorovanie a poskytovatelia majú zavedený systém monitorovania po uvedení na trh. Poskytovatelia a používatelia nahlasujú aj závažné incidenty a nesprávne fungovanie.
Nadčasové právne predpisy
Keďže umelá inteligencia je rýchlo sa vyvíjajúcou technológiou, návrh má nadčasový prístup, ktorý umožňuje pravidlá prispôsobiť sa technologickým zmenám. Aplikácie umelej inteligencie by mali zostať dôveryhodné aj po uvedení na trh. To si vyžaduje nepretržitú kvalitu a riadenie rizík zo strany poskytovateľov.
Ďalšie kroky
V nadväznosti na návrh Komisie z apríla 2021 by nariadenie mohlo nadobudnúť účinnosť koncom roka 2022/začiatkom roku 2023 v prechodnom období. V tomto období by sa mali poveriť a vypracovať normy a vytvorené riadiace štruktúry by boli funkčné. Druhý polrok 2024 je najskorším obdobím, kedy by sa nariadenie mohlo začať uplatňovať na prevádzkovateľov s pripravenými normami a prvým vykonaným posúdením zhody.
Najnovšie správy
Factsheet / infographic
Súvisiaci obsah
Širšia perspektíva
Prístup EÚ k umelej inteligencii sa zameriava na excelentnosť a dôveru s cieľom posilniť výskumnú a priemyselnú kapacitu a zároveň zaistiť bezpečnosť a základné práva.
Pozri aj
Medzinárodná iniciatíva zameraná na umelú inteligenciu zameranú na človeka pomôže presadzovať víziu EÚ v oblasti udržateľnej a dôveryhodnej umelej inteligencie.
Cieľom koordinovaného plánu pre umelú inteligenciu je urýchliť investície do umelej inteligencie, konať v oblasti stratégií a programov umelej inteligencie a zosúladiť politiku umelej inteligencie s cieľom zabrániť fragmentácii v Európe.
Európska komisia vymenovala skupinu expertov, ktorá bude poskytovať poradenstvo v súvislosti so svojou stratégiou v oblasti umelej inteligencie.
Európska aliancia pre umelú inteligenciu je iniciatívou Európskej komisie na vytvorenie otvoreného politického dialógu o umelej inteligencii. Aliancia pre umelú inteligenciu od svojho založenia v roku 2018 zapojila približne 6000 zainteresovaných strán prostredníctvom...