Skip to main content
Shaping Europe’s digital future

Akt o umělé inteligenci

Akt o umělé inteligenci je vůbec prvním právním rámcem v oblasti umělé inteligence, který se zabývá riziky umělé inteligence a staví Evropu k tomu, aby hrála vedoucí úlohu v celosvětovém měřítku.

    muž a žena pracující na high-tech obrazovce

© gorodenkoff - iStock Getty Images Plus

Cílem aktu o umělé inteligenci je poskytnout vývojářům a provozovatelům umělé inteligence jasné požadavky a povinnosti týkající se konkrétních použití umělé inteligence. Nařízení zároveň usiluje o snížení administrativní a finanční zátěže pro podniky, zejména pro malé a střední podniky (MSP).

Akt oumělé inteligenci je součástí širšího balíčku politických opatření na podporu rozvoje důvěryhodné UI, který zahrnuje rovněž balíček týkající se inovací v oblasti umělé inteligence a koordinovaný plán v oblasti umělé inteligence. Tato opatření společně zaručí bezpečnost a základní práva lidí a podniků, pokud jde o umělou inteligenci. Posílí rovněž zavádění, investice a inovace v oblasti umělé inteligence v celé EU.

Zákon o umělé inteligenci je vůbec prvním komplexním právním rámcem v oblasti umělé inteligence na celém světě. Cílem nových pravidel je podporovat důvěryhodnou UI v Evropě i mimo ni zajištěním toho, aby systémy UI dodržovaly základní práva, bezpečnost a etické zásady, a řešením rizik velmi výkonných a účinných modelů umělé inteligence.

Proč potřebujeme pravidla týkající se umělé inteligence?

Akt o umělé inteligenci zajišťuje, že Evropané mohou důvěřovat tomu, co UI nabízí. Zatímco většina systémů UI představuje omezené riziko a mohou přispět k řešení mnoha společenských výzev, některé systémy UI vytvářejí rizika, která musíme řešit, abychom se vyhnuli nežádoucím výsledkům.

Například často není možné zjistit, proč systém UI učinil rozhodnutí nebo předpověď a přijal konkrétní opatření. Proto může být obtížné posoudit, zda byl někdo nespravedlivě znevýhodněn, například v rozhodnutí o náboru nebo v žádosti o veřejně prospěšný systém.

Ačkoli stávající právní předpisy poskytují určitou ochranu, nepostačují k řešení konkrétních výzev, které systémy UI mohou přinést.

Navrhovaná pravidla budou:

  • řešit rizika specificky vytvořená aplikacemi umělé inteligence;
  • zakázat praktiky umělé inteligence, které představují nepřijatelná rizika;
  • stanovit seznam vysoce rizikových aplikací;
  • stanovit jasné požadavky na systémy UI pro vysoce rizikové aplikace;
  • definovat konkrétní povinnosti provozovatelů a poskytovatelů vysoce rizikových aplikací UI;
  • požadovat posouzení shody před uvedením daného systému UI do provozu nebo před jeho uvedením na trh;
  • zavést prosazování předpisů po uvedení daného systému UI na trh;
  • vytvořit správní strukturu na evropské a vnitrostátní úrovni.

Přístup založený na posouzení rizik

Regulační rámec definuje 4 úrovně rizika pro systémy UI:

pyramida zobrazující čtyři úrovně rizika: Nepřijatelné riziko; Vysoce rizikové; omezené riziko, minimální nebo žádné riziko

 

Všechny systémy UI považované za jasnou hrozbu pro bezpečnost, živobytí a práva lidí budou zakázány, od sociálního bodování ze strany vlád až po hračky pomocí hlasové pomoci, která podporuje nebezpečné chování.

Vysoké riziko

Systémy UI označené jako vysoce rizikové zahrnují technologie UI používané v:

  • kritické infrastruktury (např. doprava), které by mohly ohrozit život a zdraví občanů;
  • vzdělávací nebo odborné vzdělávání, které může určovat přístup ke vzdělání a profesnímu průběhu něčího života (např. bodování zkoušek);
  • bezpečnostní komponenty výrobků (např. aplikace umělé inteligence v chirurgii podporované roboty);
  • zaměstnávání, řízení pracovníků a přístup k samostatné výdělečné činnosti (např. software pro třídění životopisů pro přijímací řízení);
  • základní soukromé a veřejné služby (např. úvěrové hodnocení, které občanům znemožňuje získat půjčku);
  • prosazování práva, které může zasahovat do základních práv občanů (např. hodnocení spolehlivosti důkazů);
  • řízení migrace, azylu a ochrany hranic (např. automatizované posuzování žádostí o víza);
  • výkon spravedlnosti a demokratických procesů (např. řešení umělé inteligence pro vyhledávání soudních rozhodnutí).

Vysoce rizikové systémy UI budou před uvedením na trh podléhat přísným povinnostem:

  • přiměřené systémy posuzování a zmírňování rizik;
  • vysoká kvalita datových souborů, které systém zásobují, aby se minimalizovala rizika a diskriminační výsledky;
  • zaznamenávání činností s cílem zajistit sledovatelnost výsledků;
  • podrobná dokumentace poskytující veškeré nezbytné informace o systému a jeho účelu, aby orgány mohly posoudit jeho soulad;
  • jasné a přiměřené informace pro provozovatele;
  • vhodná opatření lidského dohledu k minimalizaci rizik;
  • vysoká úroveň robustnosti, bezpečnosti a přesnosti.

Všechny systémy biometrické identifikace na dálku jsou považovány za vysoce rizikové a podléhají přísným požadavkům. Používání biometrické identifikace na dálku na veřejně přístupných místech pro účely vymáhání práva je v zásadě zakázáno.

Úzké výjimky jsou přísně definovány a regulovány, například pokud je to nezbytné pro pátrání po pohřešovaném dítěti, aby se zabránilo konkrétní a bezprostřední teroristické hrozbě nebo aby bylo možné odhalovat, lokalizovat, identifikovat nebo stíhat pachatele nebo podezřelého ze závažného trestného činu.

Tato použití podléhají povolení soudního nebo jiného nezávislého orgánu a přiměřeným časovým omezením, zeměpisnému dosahu a prohledávaným databázím.

Omezené riziko

Omezené riziko rse vztahuje k rizikům spojeným s nedostatečnou transparentností při používání umělé inteligence. Zákon o umělé inteligenci zavádí zvláštní povinnosti transparentnosti s cílem zajistit, aby lidé byli v případě potřeby informováni, a posílit důvěru. Například při používání systémů umělé inteligence, jako jsou chatboty, by lidé měli být upozorněni na to, že interagují se strojem, aby mohli učinit informované rozhodnutí pokračovat nebo ustoupit. Poskytovatelé budou rovněž muset zajistit, aby obsah vytvořený umělou inteligencí byl identifikovatelný. Kromě toho musí být text vytvořený umělou inteligencí zveřejněný za účelem informování veřejnosti o záležitostech veřejného zájmu označen jako uměle vytvořený. To platí i pro audio a video obsah tvořící hluboké padělky.

Minimální nebo žádné riziko

Zákon o umělé inteligenci umožňuje bezplatné využívání umělé inteligence s minimálním rizikem. To zahrnuje aplikace, jako jsou videohry s umělou inteligencí nebo spamové filtry. Převážná většina systémů UI, které se v současné době používají v EU, spadá do této kategorie.

Jak to všechno funguje v praxi pro poskytovatele vysoce rizikových systémů UI?

postupný postup pro prohlášení o shodě
How does it all work in practice for providers of high risk AI systems?

Jakmile je systém UI na trhu, jsou orgány odpovědné za dozor nad trhem, provozovatelé zajišťují lidský dohled a monitorování a poskytovatelé mají zaveden systém monitorování po uvedení na trh. Poskytovatelé a provozovatelé budou rovněž hlásit závažné incidenty a poruchy.

Řešení pro důvěryhodné použití velkých modelů umělé inteligence

Stále více se univerzální modely UI stávají součástmi systémů UI. Tyto modely mohou provádět a přizpůsobovat nespočet různých úkolů.

Zatímco univerzální modely umělé inteligence mohou umožnit lepší a výkonnější řešení UI, je obtížné dohlížet na všechny možnosti.

Zákono umělé inteligenci zavádí povinnosti transparentnosti pro všechny univerzální modely UI s cílem umožnit lepší pochopení těchto modelů a dalších povinností v oblasti řízení rizik u velmi schopných a účinných modelů. Tyto dodatečné povinnosti zahrnují sebehodnocení a zmírnění systémových rizik, hlášení závažných incidentů, provádění hodnocení testů a modelů, jakož i požadavky na kybernetickou bezpečnost.

Právní předpisy, které obstojí i v budoucnu

Vzhledem k tomu, že umělá inteligence je rychle se vyvíjející technologií, návrh má přístup, který obstojí i v budoucnu, což umožňuje pravidla přizpůsobit se technologickým změnám. Aplikace UI by měly zůstat důvěryhodné i po jejich uvedení na trh. To vyžaduje trvalé řízení kvality a rizik ze strany poskytovatelů.

Prosazování a provádění

Evropský úřad pro umělou inteligenci, zřízený v únoru 2024 v rámci Komise, dohlíží na prosazování a provádění aktu o umělé inteligenci s členskými státy. Jejím cílem je vytvořit prostředí, v němž technologie umělé inteligence respektují lidskou důstojnost, práva a důvěru. Podporuje také spolupráci, inovace a výzkum v oblasti umělé inteligence mezi různými zúčastněnými stranami. Kromě toho se zapojuje do mezinárodního dialogu a spolupráce v otázkách umělé inteligence a uznává potřebu celosvětového sladění v oblasti řízení umělé inteligence. Prostřednictvím tohoto úsilí usiluje Evropský úřad pro umělou inteligenci o postavení Evropy jako lídra v etickém a udržitelném rozvoji technologií umělé inteligence.

Další kroky

V prosinci 2023 dosáhly Evropský parlament a Rada EU politické dohody o aktu o umělé inteligenci. Text je v současné době formálně přijímán a překládán. Akt o umělé inteligenci vstoupí v platnost 20 dnů po vyhlášení v Úředním věstníku a bude plně použitelný o dva roky později, až na některé výjimky: zákazy vstoupí v platnost po šesti měsících, pravidla řízení a povinnosti týkající se univerzálních modelů UI začnou platit po 12 měsících a pravidla pro systémy UI – začleněné do regulovaných produktů – se použijí po 36 měsících. S cílem usnadnit přechod na nový regulační rámec zahájila Komise pakt o umělé inteligenci, dobrovolnou iniciativu, jejímž cílem je podpořit budoucí provádění, a vyzývá vývojáře umělé inteligence z Evropy i ze zemí mimo ni, aby včas splnili klíčové povinnosti vyplývající z aktu o umělé inteligenci.

Nejnovější zprávy

EU a Korejská republika znovu potvrzují své partnerství pro inkluzivní a odolnou digitální transformaci

EU a Korejská republika dnes uspořádaly v Bruselu druhé zasedání Rady pro digitální partnerství. Radě spolupředsedali komisař pro vnitřní trh Thierry Breton a korejský ministr pro vědu a informační a komunikační technologie Dr. Lee Jong-Ho.

TISKOVÁ ZPRÁVA |
Komise zahajuje výzvy k investování více než 176 milionů eur do digitálních kapacit a technologií

Evropská komise zveřejnila nový soubor výzev k předkládání návrhů v rámci pracovních programů programu Digitální Evropa na období 2023–2024 s cílem posílit digitální kapacity v celé EU. Tyto výzvy jsou otevřeny podnikům, orgánům veřejné správy a dalším subjektům z členských států EU, zemí ESVO/EHP a přidružených zemí. Rozpočet na tento soubor výzev přesahuje 176 milionů EUR.

PRESS RELEASE |
Commission makes first payment of €202 million to Finland under the Recovery Facility

The European Commission opened a new set of calls for proposals under the 2023-2024 Work Programmes of the Digital Europe Programme to strengthen digital capacities across EU. These calls are open to businesses, public administrations, and other entities from the EU Member States, EFTA/EEA countries, and associated countries. The budget for this set of calls is over €176 million.

Související obsah

Souvislosti

Evropský přístup k umělé inteligenci

Přístup EU k umělé inteligenci se zaměřuje na excelenci a důvěru s cílem posílit výzkum a průmyslovou kapacitu a zároveň zajistit bezpečnost a základní práva.

Hlubší pohled

Pakt o umělé inteligenci

Pakt o umělé inteligenci podpoří a podpoří společnosti při plánování opatření stanovených v aktu o umělé inteligenci.

Viz také

Koordinovaný plán umělé inteligence

Cílem koordinovaného plánu pro umělou inteligenci je urychlit investice do umělé inteligence, provádět strategie a programy umělé inteligence a sladit politiku v oblasti umělé inteligence, aby se zabránilo roztříštěnosti v Evropě.

Evropská aliance pro umělou inteligenci

Evropská aliance pro umělou inteligenci je iniciativou Evropské komise, jejímž cílem je zahájit otevřený politický dialog o umělé inteligenci. Od svého zahájení v roce 2018 zapojila aliance UI přibližně 6000 zúčastněných stran prostřednictvím pravidelných akcí, veřejných...