Skip to main content
Shaping Europe’s digital future

Návrh regulačního rámce pro umělou inteligenci

Komise navrhuje vůbec první právní rámec pro umělou inteligenci, který řeší rizika spojená s umělou inteligencí a staví Evropu k tomu, aby hrála vedoucí úlohu v celosvětovém měřítku.

    muž a žena pracující na high-tech obrazovce

© gorodenkoff - iStock Getty Images Plus

Cílem regulačního návrhu je poskytnout vývojářům, provozovatelům a uživatelům umělé inteligence jasné požadavky a povinnosti, pokud jde o konkrétní použití umělé inteligence. Návrh zároveň usiluje o snížení administrativní a finanční zátěže podniků, zejména malých a středních podniků.

Návrh je součástí širšího balíčku týkajícího se umělé inteligence, který rovněž zahrnuje aktualizovaný koordinovaný plán pro umělou inteligenci. Regulační rámec a koordinovaný plán společně zaručí bezpečnost a základní práva lidí a podniků, pokud jde o umělou inteligenci. A posílí zavádění, investice a inovace v oblasti umělé inteligence v celé EU.

Proč potřebujeme pravidla pro umělou inteligenci?

Navrhované nařízení o umělé inteligenci zajišťuje, aby Evropané mohli důvěřovat tomu, co umělá inteligence nabízí. Zatímco většina systémů umělé inteligence je omezena na žádné riziko a může přispět k řešení mnoha společenských výzev, některé systémy umělé inteligence vytvářejí rizika, která musíme řešit, abychom se vyhnuli nežádoucím výsledkům.

Například často není možné zjistit, proč systém UI učinil rozhodnutí nebo předpověď a přijal konkrétní opatření. Proto může být obtížné posoudit, zda byl někdo nespravedlivě znevýhodněn, například v rozhodnutí o přijetí nebo v žádosti o veřejné dávky.

Ačkoli stávající právní předpisy poskytují určitou ochranu, nepostačují k řešení konkrétních problémů, které mohou systémy UI přinést.

Navrhovaná pravidla budou:

  • řešit rizika, která konkrétně vytvářejí aplikace umělé inteligence;
  • navrhnout seznam vysoce rizikových žádostí;
  • stanovit jasné požadavky na systémy UI pro vysoce rizikové aplikace;
  • stanovit konkrétní povinnosti pro uživatele umělé inteligence a poskytovatele vysoce rizikových aplikací;
  • navrhne posouzení shody před uvedením systému UI do provozu nebo před uvedením na trh;
  • navrhnout prosazování práva poté, co je takový systém UI uveden na trh;
  • navrhnout strukturu řízení na evropské a vnitrostátní úrovni.

Přístup založený na posouzení rizik

pyramida znázorňující čtyři úrovně rizika: Nepřijatelné riziko; Vysoce rizikové; omezené riziko, minimální nebo žádné riziko

Regulační rámec definuje 4 úrovně rizika v oblasti umělé inteligence:

  • Nepřijatelné riziko
  • Vysoké riziko
  • Omezené riziko
  • Minimální nebo žádné riziko

Nepřijatelné riziko

Všechny systémy umělé inteligence považované za jasnou hrozbu pro bezpečnost, živobytí a práva lidí budou zakázány, od sociálního bodování vládami po hračky využívající hlasovou pomoc, která podporuje nebezpečné chování.

Vysoké riziko

Systémy UI, které byly označeny za vysoce rizikové, zahrnují technologie umělé inteligence používané v:

  • kritické infrastruktury (např. doprava), které by mohly ohrozit život a zdraví občanů;
  • vzdělání nebo odborné vzdělávání, které může určit přístup ke vzdělání a profesnímu průběhu něčího života (např. bodování zkoušek);
  • bezpečnostní komponenty výrobků (např. aplikace umělé inteligence v chirurgickém zákroku s pomocí robota);
  • zaměstnávání, řízení pracovníků a přístup k samostatné výdělečné činnosti (např. software pro výběr životopisů pro přijímací řízení);
  • základní soukromé a veřejné služby (např. úvěrové hodnocení, které občanům upírá možnost získat půjčku);
  • prosazování práva, které může zasahovat do základních práv občanů (např. hodnocení spolehlivosti důkazů);
  • řízení migrace, azylu a ochrany hranic (např. ověření pravosti cestovních dokladů);
  • výkon spravedlnosti a demokratických procesů (např. uplatňování práva na konkrétní soubor skutečností).

Vysoce rizikové systémy UI budou podléhat přísným povinnostem, než budou moci být uvedeny na trh:

  • odpovídající systémy posuzování a zmírňování rizik;
  • vysoká kvalita datových souborů, které jsou zdrojem systému, aby se minimalizovala rizika a diskriminační výsledky;
  • protokolování činností s cílem zajistit sledovatelnost výsledků;
  • podrobnou dokumentaci poskytující veškeré informace o systému a jeho účelu, aby orgány mohly posoudit jeho soulad;
  • jasné a přiměřené informace pro uživatele;
  • vhodná opatření lidského dohledu k minimalizaci rizika;
  • vysoká úroveň robustnosti, bezpečnosti a přesnosti.

Všechny systémy biometrické identifikace na dálku jsou považovány za vysoce rizikové a podléhají přísným požadavkům. Používání biometrické identifikace na dálku ve veřejně přístupných prostorách pro účely vymáhání práva je v zásadě zakázáno.

Úzké výjimky jsou přísně definovány a regulovány, například pokud je to nezbytné pro pátrání po pohřešovaném dítěti, pro předcházení konkrétní a bezprostřední teroristické hrozbě nebo pro odhalování, lokalizaci, identifikaci nebo stíhání pachatele nebo podezřelého ze závažného trestného činu.

Takové použití podléhá schválení soudním nebo jiným nezávislým orgánem a příslušným časovým omezením, zeměpisnému dosahu a vyhledávaným databázím.

Omezené riziko

Omezené riziko se týká systémů umělé inteligence se zvláštními povinnostmi v oblasti transparentnosti. Při používání systémů umělé inteligence, jako jsou chatboti, by si uživatelé měli být vědomi toho, že interagují se strojem, aby mohli učinit informované rozhodnutí pokračovat nebo ustoupit zpět.

Minimální nebo žádné riziko

Návrh umožňuje bezplatné využívání umělé inteligence s minimálním rizikem. To zahrnuje aplikace, jako jsou videohry s podporou umělé inteligence nebo filtry spamu. Do této kategorie spadá převážná většina systémů umělé inteligence, které se v současné době v EU používají.

postupný postup prohlášení o shodě
How does it all work in practice for providers of high risk AI systems?

Jakmile je systém umělé inteligence na trhu, jsou orgány odpovědné za dozor nad trhem, uživatelé zajišťují lidský dohled a monitorování a poskytovatelé mají zaveden systém monitorování po uvedení na trh. Poskytovatelé a uživatelé budou také hlásit závažné incidenty a poruchy.

Právní předpisy, které obstojí i v budoucnu

Vzhledem k tomu, že umělá inteligence je rychle se vyvíjející technologií, návrh má přístup, který obstojí i v budoucnu a umožňuje, aby se pravidla přizpůsobila technologickým změnám. Aplikace umělé inteligence by měly zůstat důvěryhodné i po jejich uvedení na trh. To vyžaduje průběžnou kvalitu a řízení rizik ze strany poskytovatelů.

Další kroky

V návaznosti na návrh Komise v dubnu 2021 by nařízení mohlo vstoupit v platnost koncem roku 2022/začátkem roku 2023 v přechodném období. V tomto období by byly nařízeny a rozvíjeny normy a zavedené správní struktury by byly funkční. Druhou polovinou roku 2024 je nejranější doba, kdy by nařízení mohlo být použitelné na hospodářské subjekty s hotovými normami a prvním posouzením shody.

Jako dodatečné regulační plnění bílé knihy o umělé inteligenci byla dne 28. září 2022 přijata navrhovaná směrnice o odpovědnosti za umělou inteligenci.

Nejnovější zprávy

Související obsah

Souvislosti

Evropský přístup k umělé inteligenci

Přístup EU k umělé inteligenci se zaměřuje na excelenci a důvěru s cílem posílit výzkum a průmyslovou kapacitu a zároveň zajistit bezpečnost a základní práva.

Viz také

Koordinovaný plán pro umělou inteligenci

Cílem koordinovaného plánu pro umělou inteligenci je urychlit investice do umělé inteligence, reagovat na strategie a programy v oblasti umělé inteligence a sladit politiku v oblasti umělé inteligence, aby se zabránilo roztříštěnosti v Evropě.

Evropská aliance UI

Evropská aliance pro umělou inteligenci je iniciativou Evropské komise navázat otevřený politický dialog o umělé inteligenci. Od svého založení v roce 2018 se Aliance umělé inteligence zapojila prostřednictvím pravidelných akcí, veřejných konzultací a on-line výměny na fórech...