Skip to main content
Shaping Europe’s digital future

Akt o umělé inteligenci

Akt o umělé inteligenci je vůbec prvním právním rámcem pro umělou inteligenci, který se zabývá riziky umělé inteligence a staví Evropu do vedoucí úlohy v celosvětovém měřítku.

Akt oumělé inteligenci (nařízení(EU) 2024/1689, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci)poskytuje vývojářům a provozovatelům umělé inteligence jasné požadavky a povinnosti týkající se konkrétních použití umělé inteligence. Cílem nařízení je zároveň snížit administrativní a finanční zátěž podniků, zejména malých a středních podniků.

Akt o umělé inteligenci je součástí širšího balíčku politických opatření na podporu rozvoje důvěryhodné umělé inteligence, který zahrnuje rovněžbalíček týkající se inovací voblasti umělé inteligence a koordinovaný plán v oblasti umělé inteligence. Tato opatření společně zaručují bezpečnost a základní práva lidí a podniků, pokud jde o umělou inteligenci. Rovněž posilují zavádění, investice a inovace v oblasti umělé inteligence v celé EU.

Akt oumělé inteligenci je vůbec prvním komplexním právním rámcem pro umělou inteligenci na celém světě. Cílem nových pravidel je podpořit důvěryhodnou UI v Evropě i mimo ni zajištěním toho, aby systémy UI dodržovaly základní práva, bezpečnost a etické zásady, a řešením rizik velmi výkonných a účinných modelů UI.

Proč potřebujeme pravidla pro umělou inteligenci?

Akt o umělé inteligenci zajišťuje, že Evropané mohou důvěřovat tomu, co umělá inteligence nabízí. Zatímco většina systémů UI představuje omezené riziko a může přispět k řešení mnoha společenských výzev, některé systémy UI vytvářejí rizika, která musíme řešit, abychom se vyhnuli nežádoucím výsledkům.

Často například není možné zjistit, proč systém UI učinil rozhodnutí nebo předpověď a přijal konkrétní opatření. Proto může být obtížné posoudit, zda byl někdo nespravedlivě znevýhodněn, například v rozhodnutí o přijetí nebo v žádosti o veřejně prospěšný režim.

Ačkoli stávající právní předpisy poskytují určitou ochranu, nepostačují k řešení konkrétních problémů, které mohou systémy UI přinést.

Nová pravidla:

  • řešit rizika specificky vytvořená aplikacemi umělé inteligence
  • zakázat postupy UI, které představují nepřijatelná rizika
  • stanovit seznam vysoce rizikových aplikací
  • stanovit jasné požadavky na systémy UI pro vysoce rizikové aplikace
  • definovat konkrétní povinnosti provozovatelů a poskytovatelů vysoce rizikových aplikací UI
  • požadovat posouzení shody před uvedením daného systému UI do provozu nebo uvedením na trh
  • zavést prosazování po uvedení daného systému UI na trh
  • vytvořit správní strukturu na evropské a vnitrostátní úrovni

Přístup založený na posouzení rizik

Regulační rámec definuje čtyři úrovně rizika pro systémy UI:

Pyramida znázorňuje čtyři úrovně rizika: nepřijatelné riziko; vysoce rizikové; omezené riziko, minimální nebo žádné riziko

 

Všechny systémy UI, které jsou považovány za jasnou hrozbu pro bezpečnost, živobytí a práva lidí, jsou zakázány, od sociálního hodnocení vládami až po hračky využívající hlasovou pomoc, která podporuje nebezpečné chování.

Vysoké riziko

Systémy UI označené jako vysoce rizikové zahrnují technologii UI používanou při:

  • kritické infrastruktury (např. doprava), které by mohly ohrozit život a zdraví občanů
  • vzdělávání nebo odborné přípravy, které mohou určovat přístup ke vzdělání a profesní průběh něčího života (např. bodování zkoušek)
  • bezpečnostní součásti výrobků (např. aplikace umělé inteligence v roboticky asistované chirurgii)
  • zaměstnanost, řízení pracovníků a přístup k samostatné výdělečné činnosti (např. software pro třídění životopisů pro přijímací řízení)
  • základní soukromé a veřejné služby (např. bodové hodnocení úvěrů, které občanům odepírá možnost získat půjčku)
  • prosazování práva, které může zasahovat do základních práv lidí (např. hodnocení spolehlivosti důkazů)
  • řízení migrace, azylu a ochrany hranic (např. automatizované posuzování žádostí o víza)
  • výkon spravedlnosti a demokratických procesů (např. řešení v oblasti umělé inteligence pro vyhledávání soudních rozhodnutí)

Vysoce rizikové systémy UI podléhají přísným povinnostem předtím, než mohou být uvedeny na trh:

  • odpovídající systémy posuzování a zmírňování rizik
  • vysoká kvalita souborů údajů dodávajících do systému, aby se minimalizovala rizika a diskriminační výsledky
  • protokolování činnosti s cílem zajistit sledovatelnost výsledků
  • podrobnou dokumentaci poskytující veškeré nezbytné informace o systému a jeho účelu, aby orgány mohly posoudit jeho soulad
  • jasné a přiměřené informace pro provozovatele
  • vhodná opatření lidského dohledu k minimalizaci rizika
  • vysoká úroveň robustnosti, bezpečnosti a přesnosti

Všechny systémy biometrické identifikace na dálku jsou považovány za vysoce rizikové a podléhají přísným požadavkům. Používání biometrické identifikace na dálku na veřejně přístupných místech pro účely vymáhání práva je v zásadě zakázáno.

Úzké výjimky jsou přísně definovány a regulovány, například je-li to nezbytné k pátrání po pohřešovaném dítěti, k zabránění konkrétní a bezprostřední teroristické hrozbě nebo k odhalení, lokalizaci, identifikaci nebo stíhání pachatele nebo podezřelého ze závažného trestného činu.

Tato použití podléhají povolení soudního nebo jiného nezávislého orgánu a přiměřeným časovým omezením, zeměpisnému dosahu a prohledávaným databázím.

Omezené riziko

Omezené riziko souvisí s rizikyspojenými s nedostatečnou transparentností při používání umělé inteligence. Akt o umělé inteligenci zavádí zvláštní povinnosti týkající se transparentnosti s cílem zajistit, aby lidé byli v případě potřeby informováni, a posílit tak důvěru. Například při používání systémů umělé inteligence, jako jsou chatboti, by lidé měli být upozorněni na to, že komunikují se strojem, aby se mohli informovaně rozhodnout pokračovat nebo ustoupit. Poskytovatelé musí rovněž zajistit, aby byl obsah vytvořený umělou inteligencí identifikovatelný. Kromě toho musí být text vytvořený umělou inteligencí zveřejněný za účelem informování veřejnosti o záležitostech veřejného zájmu označen jako uměle vytvořený. To platí i pro audio a video obsah, který představuje tzv. deep fakes.

Minimální nebo žádné riziko

Akt o umělé inteligenci umožňuje bezplatné využívání umělé inteligence s minimálním rizikem. To zahrnuje aplikace, jako jsou videohry s podporou umělé inteligence nebo spamové filtry. Převážná většina systémů UI, které se v současné době v EU používají, spadá do této kategorie.

Jak to všechno funguje v praxi pro poskytovatele vysoce rizikových systémů UI?

postupný postup pro prohlášení o shodě
How does it all work in practice for providers of high risk AI systems?

 

Jakmile je systém UI na trhu, jsou orgány odpovědné za dozor nad trhem, provozovatelé zajišťují lidský dohled a monitorování a poskytovatelé mají zaveden systém monitorování po uvedení na trh. Poskytovatelé a provozovatelé budou rovněž hlásit závažné incidenty a poruchy.

Řešení pro důvěryhodné používání velkých modelů umělé inteligence

Univerzální modely UI se stále více stávají součástí systémů UI. Tyto modely mohou provádět a přizpůsobovat nespočet různých úkolů.

Zatímco univerzální modely umělé inteligence mohou umožnit lepší a výkonnější řešení umělé inteligence, je obtížné dohlížet na všechny schopnosti.

Akt o umělé inteligencizavádí povinnosti týkající se transparentnosti pro všechny univerzální modely umělé inteligence, aby bylo možné těmto modelům lépe porozumět, a další povinnosti v oblasti řízení rizik pro velmi schopné a účinné modely. Tyto dodatečné povinnosti zahrnují sebehodnocení a zmírňování systémových rizik, ohlašování závažných incidentů, provádění hodnocení testů a modelů, jakož i požadavky na kybernetickou bezpečnost.

Právní předpisy, které obstojí i v budoucnu

Vzhledem k tomu, že umělá inteligence je rychle se vyvíjející technologie, nařízení má přístup, který obstojí i v budoucnu a umožňuje, aby se pravidla přizpůsobila technologickým změnám. Aplikace umělé inteligence by měly zůstat důvěryhodné i po uvedení na trh. To vyžaduje průběžné řízení kvality a rizik ze strany poskytovatelů.

Prosazování a provádění

Evropský úřad pro umělou inteligenci, zřízený v únoru 2024 v rámci Komise, dohlíží spolu s členskými státy na prosazování a provádění aktu o umělé inteligenci. Jejím cílem je vytvořit prostředí, v němž technologie umělé inteligence respektují lidskou důstojnost, práva a důvěru. Podporuje také spolupráci, inovace a výzkum v oblasti umělé inteligence mezi různými zúčastněnými stranami. Kromě toho se zapojuje do mezinárodního dialogu a spolupráce v otázkách umělé inteligence, přičemž uznává potřebu globálního sladění v oblasti správy umělé inteligence. Prostřednictvím tohoto úsilí usiluje Evropský úřad pro umělou inteligenci o to, aby se Evropa stala lídrem v oblasti etického a udržitelného rozvoje technologií umělé inteligence.

Další kroky

Akt oumělé inteligenci vstoupil v platnost dne 1. srpna a bude plně použitelný o dva roky později, s některými výjimkami: zákazy vstoupí v platnost po šesti měsících, pravidla správy a povinnosti pro univerzální modely UI se stanou použitelnými po 12 měsících a pravidla pro systémy UI – začleněné do regulovaných produktů – se použijí po 36 měsících. S cílem usnadnit přechod na nový regulační rámec zahájila Komisedobrovolnouiniciativu Pakt o umělé inteligenci, která se snaží podpořit budoucí provádění a vyzývá vývojáře umělé inteligence z Evropy i mimo ni, aby včas splnili klíčové povinnosti vyplývající z aktu o umělé inteligenci.

Nejnovější zprávy

EU a Singapur posilují spolupráci v oblasti bezpečnosti umělé inteligence

Útvary Komise a singapurské ministerstvo pro digitální rozvoj a informace podepsaly správní ujednání u příležitosti zahájení spolupráce mezi Úřadem EU pro umělou inteligenci (UI) a singapurským institutem pro bezpečnost UI.

Související obsah

Souvislosti

European approach to artificial intelligence

The EU’s approach to artificial intelligence centers on excellence and trust, aiming to boost research and industrial capacity while ensuring safety and fundamental rights.

Viz také

Pakt o umělé inteligenci

Pakt o umělé inteligenci povzbuzuje a podporuje organizace, aby plánovaly provádění opatření aktu o umělé inteligenci.

Koordinovaný plán v oblasti umělé inteligence

Cílem koordinovaného plánu pro umělou inteligenci je urychlit investice do umělé inteligence, provádět strategie a programy v oblasti umělé inteligence a sladit politiku v oblasti umělé inteligence, aby se zabránilo roztříštěnosti v Evropě.

Evropská aliance pro umělou inteligenci

Evropská aliance pro umělou inteligenci je iniciativou Evropské komise, jejímž cílem je navázat otevřený politický dialog o umělé inteligenci. Od svého založení v roce 2018 Aliance pro umělou inteligenci zapojila přibližně 6000 zúčastněných stran prostřednictvím pravidelných akcí...