Skip to main content
Shaping Europe’s digital future

Akt o umělé inteligenci

Akt o umělé inteligenci je vůbec prvním právním rámcem pro umělou inteligenci, který se zabývá riziky umělé inteligence a staví Evropu do vedoucí úlohy v celosvětovém měřítku.

Akt o umělé inteligenci (nařízení (EU) 2024/1689, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci) je vůbec prvním komplexním právním rámcem pro umělou inteligenci na světě. Cílem pravidel je podpořit důvěryhodnou umělou inteligenci v Evropě.

Akt o umělé inteligenci stanoví jasný soubor pravidel založených na posouzení rizik pro vývojáře a provozovatele umělé inteligence, pokud jde o konkrétní použití umělé inteligence. Akt o umělé inteligenci je součástí širšího balíčku politických opatření na podporu rozvoje důvěryhodné umělé inteligence, který zahrnuje také balíček inovací v oblasti umělé inteligence, zahájení továren na umělou inteligenci a koordinovaný plán pro umělou inteligenci. Tato opatření společně zaručují bezpečnost, základní práva a umělou inteligenci zaměřenou na člověka a posilují zavádění, investice a inovace v oblasti umělé inteligence v celé EU.

S cílem usnadnit přechod na nový regulační rámec zahájila Komise Pakt o umělé inteligenci, dobrovolnou iniciativu, jejímž cílem je podpořit budoucí provádění, spolupracovat se zúčastněnými stranami a vyzvat poskytovatele a provozovatele umělé inteligence z Evropy i mimo ni, aby s předstihem splnili klíčové povinnosti vyplývající z aktu o umělé inteligenci. 

Proč potřebujeme pravidla pro umělou inteligenci?

Akt o umělé inteligenci zajišťuje, že Evropané mohou důvěřovat tomu, co umělá inteligence nabízí. Zatímco většina systémů UI představuje pouze nulové riziko a může přispět k řešení mnoha společenských výzev, některé systémy UI vytvářejí rizika, která musíme řešit, abychom se vyhnuli nežádoucím výsledkům.

Často například není možné zjistit, proč se systém UI rozhodl nebo předpověděl a přijal konkrétní opatření. Proto může být obtížné posoudit, zda někdo nebyl nespravedlivě znevýhodněn, například v rozhodnutí o přijetí do zaměstnání nebo v žádosti o veřejně prospěšný systém.

Ačkoli stávající právní předpisy poskytují určitou ochranu, nepostačují k řešení konkrétních výzev, které mohou systémy UI přinést.

Přístup založený na posouzení rizik

Akt o umělé inteligenci definuje čtyři úrovně rizika pro systémy UI:

pyramida zobrazující čtyři úrovně rizika: nepřijatelné riziko; vysoce rizikové; omezené riziko, minimální riziko nebo žádné riziko

Nepřijatelné riziko

Všechny systémy umělé inteligence považované za jasnou hrozbu pro bezpečnost, živobytí a práva lidí jsou zakázány. Akt o umělé inteligenci zakazuje osm postupů, konkrétně:

  1. škodlivé manipulace a klamání založené na umělé inteligenci
  2. škodlivé využívání zranitelností na základě umělé inteligence
  3. sociální bodování
  4. Posouzení nebo předpověď rizik jednotlivých trestných činů
  5. necílené škrábání internetu nebo CCTV materiálu za účelem vytvoření nebo rozšíření databází rozpoznávání obličeje
  6. rozpoznávání emocí na pracovištích a ve vzdělávacích institucích
  7. biometrická kategorizace k odvození určitých chráněných vlastností
  8. biometrická identifikace na dálku v reálném čase pro účely vymáhání práva na veřejně přístupných místech

Vysoké riziko

Případy použití UI, které mohou představovat závažná rizika pro zdraví, bezpečnost nebo základní práva, jsou klasifikovány jako vysoce rizikové. K těmto vysoce rizikovým případům použití patří:

  • Bezpečnostní prvky UI v kritických infrastrukturách (např. doprava), jejichž selhání by mohlo ohrozit život a zdraví občanů
  • řešení umělé inteligence používaná ve vzdělávacích institucích, která mohou určovat přístup ke vzdělávání a průběh profesního života (např. bodování zkoušek)
  • Bezpečnostní komponenty výrobků založené na umělé inteligenci (např. aplikace umělé inteligence v roboticky asistované chirurgii)
  • Nástroje UI pro zaměstnanost, řízení pracovníků a přístup k samostatné výdělečné činnosti (např. software pro třídění životopisů pro nábor)
  • Některé případy použití umělé inteligence používané k poskytování přístupu k základním soukromým a veřejným službám (např. úvěrové hodnocení, které občanům znemožňuje získat půjčku)
  • systémy UI používané pro biometrickou identifikaci na dálku, rozpoznávání emocí a biometrickou kategorizaci (např. systém UI pro zpětnou identifikaci zloděje)
  • Případy použití umělé inteligence při prosazování práva, které mohou zasahovat do základních práv lidí (např. hodnocení spolehlivosti důkazů)
  • Případy použití umělé inteligence při řízení migrace, azylu a ochrany hranic (např. automatizované posuzování žádostí o víza)
  • Řešení umělé inteligence používaná při výkonu spravedlnosti a demokratických procesů (např. řešení umělé inteligence pro přípravu soudních rozhodnutí)

Vysoce rizikové systémy UI podléhají před uvedením na trh přísným povinnostem:

  • odpovídající systémy posuzování a zmírňování rizik
  • vysoce kvalitní datové soubory doplňující systém, aby se minimalizovalo riziko diskriminačních výsledků
  • protokolování činnosti s cílem zajistit sledovatelnost výsledků
  • podrobnou dokumentaci poskytující veškeré nezbytné informace o systému a jeho účelu, aby orgány mohly posoudit jeho soulad
  • jasné a přiměřené informace pro provozovatele
  • vhodná opatření v oblasti lidského dohledu
  • vysoká úroveň odolnosti, kybernetické bezpečnosti a přesnosti

Omezené riziko

To se týká rizik spojených s potřebou transparentnosti, pokud jde o používání umělé inteligence. Akt o umělé inteligenci zavádí zvláštní povinnosti týkající se zveřejňování informací s cílem zajistit, aby byli lidé informováni, je-li to nezbytné k zachování důvěry. Například při používání systémů umělé inteligence, jako jsou chatboti, by si lidé měli být vědomi toho, že komunikují se strojem, aby mohli učinit informované rozhodnutí.

Poskytovatelé generativní umělé inteligence musí navíc zajistit, aby byl obsah vytvořený umělou inteligencí identifikovatelný. Kromě toho by měl být určitý obsah vytvořený umělou inteligencí jasně a viditelně označen, konkrétně deep fakes a text zveřejňovaný za účelem informování veřejnosti o záležitostech veřejného zájmu.

Minimální nebo žádné riziko

Akt o umělé inteligenci nezavádí pravidla pro umělou inteligenci, která jsou považována za minimální nebo žádná rizika. Převážná většina systémů UI, které se v současné době používají v EU, spadá do této kategorie. To zahrnuje aplikace, jako jsou videohry s umělou inteligencí nebo spamové filtry.

Jak to v praxi funguje pro poskytovatele vysoce rizikových systémů UI?

Jak to v praxi funguje pro poskytovatele vysoce rizikových systémů UI?

postupný postup pro prohlášení o shodě

Jakmile je systém UI uveden na trh, jsou za dozor nad trhem odpovědné orgány, provozovatelé zajišťují lidský dohled a monitorování a poskytovatelé mají zaveden systém monitorování po uvedení na trh. Poskytovatelé a provozovatelé budou rovněž hlásit závažné incidenty a poruchy.

Řešení pro důvěryhodné používání velkých modelů umělé inteligence

Obecné modely UI mohou plnit širokou škálu úkolů a stávají se základem mnoha systémů UI v EU. Některé z těchto modelů by mohly nést systémová rizika, pokud jsou velmi schopné nebo široce používané. Aby byla zajištěna bezpečná a důvěryhodná umělá inteligence, zavádí akt o umělé inteligenci pravidla pro poskytovatele těchto modelů. To zahrnuje pravidla týkající se transparentnosti a autorského práva. U modelů, které mohou nést systémová rizika, by poskytovatelé měli tato rizika posoudit a zmírnit.

Pravidla aktu o umělé inteligenci týkající se obecné umělé inteligence nabudou účinnosti v srpnu 2025. Úřad pro umělou inteligenci usnadňuje vypracování kodexu zásad pro upřesnění těchto pravidel. Kodex by měl pro poskytovatele představovat ústřední nástroj k prokázání souladu s aktem o umělé inteligenci, který zahrnuje nejmodernější postupy. 

Správa a provádění

Evropský úřad pro umělou inteligenci a orgány členských států odpovídají za provádění aktu o umělé inteligenci, dohled nad ním a jeho prosazování. Rada pro umělou inteligenci, vědecká komise a poradní fórum řídí správu aktu o umělé inteligenci a poskytují jí poradenství. Další podrobnosti o správě a prosazování aktu o umělé inteligenci.  

Další kroky

Akt o umělé inteligenci vstoupil v platnost dne 1. srpna 2024 a bude plně použitelný o dva roky později, dne 2. srpna 2026, s několika výjimkami:

  • zákazy a povinnosti týkající se gramotnosti v oblasti UI, které vstoupily v platnost dne 2. února 2025
  • pravidla správy a povinnosti týkající se obecných modelů AI začnou platit dne 2. srpna 2025
  • pravidla pro vysoce rizikové systémy UI – zabudované do regulovaných produktů – mají prodloužené přechodné období do 2. srpna 2027

Nejnovější zprávy

Související obsah

Souvislosti

Přístup EU k umělé inteligenci se zaměřuje na excelenci a důvěru a jeho cílem je posílit výzkumnou a průmyslovou kapacitu a zároveň zajistit bezpečnost a základní práva.

Hlubší pohled