Oblast působnosti a cíle
Akt o umělé inteligenci je prvním komplexním zákonem o umělé inteligenci na světě. Jeho cílem je řešit rizika pro zdraví, bezpečnost a základní práva. Cílem nařízení je rovněž chránit demokracii, právní stát a životní prostředí.
Zavádění systémů UI a obecných modelů UI má velký potenciál přinést společenské výhody, hospodářský růst a posílit inovace v EU a globální konkurenceschopnost. V některých případech však mohou specifické vlastnosti některých systémů UI a obecných modelů UI vytvářet nová rizika související s bezpečností uživatelů, včetně fyzické bezpečnosti, a základními právy. Některé obecné modely UI, nejpokročilejší, by dokonce mohly představovat tzv. „systémová rizika“.
To vede k právní nejistotě a potenciálně pomalejšímu zavádění technologií UI ze strany veřejných orgánů, podniků a občanů v důsledku nedostatku důvěry. Nejednotné regulační reakce vnitrostátních orgánů by mohly vést k roztříštění vnitřního trhu.
V reakci na tyto výzvy byla zapotřebí legislativní opatření k zajištění dobře fungujícího vnitřního trhu pro systémy UI a obecné modely UI, v jehož rámci jsou odpovídajícím způsobem řešena rizika a zohledněny přínosy.
Právní rámec se vztahuje na veřejné i soukromé subjekty v EU i mimo ni, které uvádějí systém UI nebo obecný model UI na trh EU nebo uvádějí systém UI do provozu nebo jej používají v EU.
Povinnosti se vztahují mimo jiné na poskytovatele (např. vývojáře nástroje pro prověřování životopisů) a provozovatele systémů UI (např. banku používající tento nástroj pro prověřování), jakož i na poskytovatele obecných modelů UI. Z nařízení existují určité výjimky. Toto nařízení se nevztahuje na činnosti v oblasti výzkumu, vývoje a vývoje prototypů, které probíhají před uvedením systému nebo modelu UI na trh. Od daně jsou rovněž osvobozeny systémy UI, které jsou určeny výhradně pro vojenské účely, účely obrany nebo účely národní bezpečnosti, bez ohledu na typ subjektu, který tyto činnosti provádí.
Akt o umělé inteligenci zavádí jednotný rámec ve všech členských státech EU založený na přístupu založeném na posouzení rizik.
Zakázané systémy UI
Velmi omezený soubor obzvláště škodlivých použití systémů UI, které jsou v rozporu s hodnotami EU, protože porušují základní práva, a proto budou zakázány:
- Zneužívání zranitelnosti osob, manipulace a používání podprahových technik
- Sociální bodování pro veřejné a soukromé účely
- Individuální prediktivní policejní práce založená výhradně na profilování osob
- Necílené škrábání internetu nebo kamerového systému pro zobrazení obličeje za účelem vytvoření nebo rozšíření databází
- Rozpoznávání emocí na pracovišti a ve vzdělávacích institucích, pokud to není ze zdravotních nebo bezpečnostních důvodů (tj. sledování míry únavy pilota)
- Biometrická kategorizace fyzických osob za účelem vyvození nebo odvození jejich rasy, politických názorů, členství v odborových organizacích, náboženského nebo filozofického přesvědčení nebo sexuální orientace. Označování nebo filtrování datových souborů a kategorizace údajů budou stále možné
- biometrická identifikace na dálku v reálném čase na veřejně přístupných místech pro účely vymáhání práva, s výhradou úzkých výjimek (viz níže)
Komise vydala pokyny k zakázaným postupům v oblasti UI a pokyny k definici systému UI v aktu o UI. Ty poskytují právní vysvětlení a praktické příklady, které zúčastněným stranám pomohou tato pravidla dodržovat.
Vysoce rizikové systémy UI
Akt o umělé inteligenci považuje omezený počet systémů UI za vysoce rizikový, protože mohou mít nepříznivý dopad na bezpečnost lidí nebo jejich základní práva (jak jsou chráněna Listinou základních práv EU). K aktu jsou připojeny seznamy vysoce rizikových systémů UI, které lze přezkoumat, aby byly v souladu s vývojem případů použití UI.
Mezi vysoce rizikové systémy UI patří například systémy UI, které posuzují, zda je někdo schopen získat určitou lékařskou péči, získat určitou práci nebo půjčku na koupi bytu. Jiné vysoce rizikové systémy UI jsou ty, které používá policie k posouzení rizika, že někdo spáchá trestný čin (pokud to není zakázáno podle článku 5).
Vysoce rizikové systémy UI zahrnují rovněž bezpečnostní součásti produktů, na něž se vztahují odvětvové právní předpisy Unie, nebo systémy UI, které samy tyto produkty tvoří. Vždy budou považovány za vysoce rizikové, pokud budou předmětem posouzení shody třetí stranou podle uvedených odvětvových právních předpisů. To by mohlo zahrnovat například systémy umělé inteligence provozující roboty, drony nebo zdravotnická zařízení.
Požadavky na transparentnost některých systémů UI
V zájmu posílení důvěry je důležité zajistit transparentnost ohledně umělého původu určitého obsahu nebo interakcí umělé inteligence. Akt o umělé inteligenci proto zavádí zvláštní požadavky na transparentnost pro poskytovatele nebo provozovatele určitých interaktivních nebo generativních systémů umělé inteligence (např. chatbotů nebo deep fakes). Cílem těchto požadavků na transparentnost je řešit rizika dezinformací a manipulace, podvodů, vydávání se za jinou osobu a klamání spotřebitelů.
Systémy umělé inteligence s minimálním rizikem
Většina systémů UI může být vyvíjena a používána v souladu se stávajícími právními předpisy bez dalších právních povinností.
Obecné modely AI
Akt o umělé inteligenci rovněž upravuje obecné modely umělé inteligence. Ty lze využít pro různé úkoly a stávají se základem mnoha systémů UI v EU. Poskytovatelé obecných modelů AI musí zdokumentovat určité informace (pokud nesplňují podmínky pro výjimku z otevřeného zdroje) a přijmout opatření, která zajistí, že budou dodržovat právní předpisy EU v oblasti autorského práva a práv s ním souvisejících.
Nejpokročilejší modely GPAI by rovněž mohly představovat systémová rizika. Výkonné modely by například mohly umožnit chemické, biologické, radiologické nebo jaderné (CBRN) útoky nebo rozsáhlé sofistikované kybernetické útoky, uniknout lidské kontrole nebo umožnit strategické zkreslení lidského chování nebo přesvědčení. Poskytovatelé obecných modelů AI se systémovými riziky musí navíc posuzovat a zmírňovat systémová rizika.
Akt o umělé inteligenci vytváří právní rámec, který reaguje na nový vývoj, snadno a rychle se přizpůsobuje a umožňuje časté hodnocení. Nařízení stanoví požadavky a povinnosti zaměřené na výsledky, ale konkrétní technická řešení a uvedení do praxe ponechává na průmyslových normách a kodexech správné praxe, které jsou flexibilní, aby mohly být přizpůsobeny různým případům použití a umožňovaly nová technologická řešení.
Akt o umělé inteligenci lze změnit prostřednictvím aktů v přenesené pravomoci a prováděcích aktů, například za účelem přezkumu seznamu vysoce rizikových případů použití v příloze III. Bude docházet k častým hodnocením některých částí aktu o umělé inteligenci a případně celého nařízení, aby se zajistilo, že bude zjištěna jakákoli potřeba revize a změn.
Podle aktu o umělé inteligenci budou vysoce rizikové systémy umělé inteligence podléhat zvláštním požadavkům. Evropské harmonizované normy poskytnou podrobné specifikace pro provádění a soulad s vysoce rizikovými požadavky. Na poskytovatele, kteří vyvíjejí vysoce rizikový systém UI v souladu s harmonizovanými normami, se bude vztahovat předpoklad shody.
V květnu 2023 pověřila Evropská komise evropské normalizační organizace CEN a CENELEC vypracováním norem pro tyto vysoce rizikové požadavky. Tento mandát byl v červnu 2025 změněn tak, aby byl v souladu s konečným zněním aktu o umělé inteligenci. CEN a CENELEC nebyly schopny vypracovat normy v požadovaném harmonogramu ze srpna 2025. Normalizační práce stále probíhají.
Normy jsou dobrovolné, ale rozhodující pro právní jistotu. Pomáhají společnostem pochopit, co je třeba udělat, a orgánům, aby věděly, co je třeba zkontrolovat. Opožděná dostupnost norem ohrožuje úspěšný vstup vysoce rizikových pravidel v platnost dne 2. srpna 2026. Komise se proto domnívá, že je vhodné poskytnout více času na účinné provádění pravidel, pro něž mají normy značný význam (viz návrh digitálního souhrnného nařízení).
Příležitosti a dopad umělé inteligence překračují hranice. Výzvy jsou globální, a proto je spolupráce důležitá a nezbytná. Úřad pro umělou inteligenci stojí v čele mezinárodní angažovanosti Komise v oblasti umělé inteligence na základě aktu o umělé inteligenci a koordinovaného plánu pro umělou inteligenci. EU se snaží:
- Vést celosvětové úsilí v oblasti umělé inteligence podporou inovací, vytvořením vhodných ochranných opatření v oblasti umělé inteligence a rozvojem globální správy v oblasti umělé inteligence
- Podporovat odpovědnou správu a řádnou správu umělé inteligence
- Zajistit, aby mezinárodní dohody byly v souladu s naším přístupem
Vzhledem k tomu, že se globální prostředí mění, stává se proaktivní zapojení do umělé inteligence – úzce koordinované s našimi spojenci – zásadní a rostoucí prioritou. EU je proaktivním, spolupracujícím a spolehlivým partnerem, který jde příkladem a spolupracuje na mezinárodní úrovni a zároveň chrání své zájmy, bezpečnost a hodnoty.
Zapojuje se na dvoustranné i mnohostranné úrovni s cílem podporovat důvěryhodnou umělou inteligenci zaměřenou na člověka. Na dvoustranné úrovni EU spolupracuje s rostoucím počtem zemí a regionů, jako je Kanada, USA, Indie, Japonsko, Korejská republika, Singapur, Austrálie, Spojené království, Latinská Amerika a Karibik, Afrika atd. Na mnohostranné úrovni je EU zapojena do klíčových fór a iniciativ, v nichž se o umělé inteligenci diskutuje – zejména G7, G20, OECD a globální partnerství v oblasti umělé inteligence, Rada Evropy, Mezinárodní síť pro pokročilé měření, hodnocení a vědu umělé inteligence, ale také v kontextu Organizace spojených národů.
EU staví na strategických přednostech a silných stránkách – jako jsou talenty, výzkum, průmyslová síla a velký jednotný trh s jednotnými pravidly – a nasazuje je na mezinárodní úrovni v rámci technologické nabídky EU s cílem budovat vzájemně prospěšná partnerství a aliance po celém světě.
Vysoce rizikové systémy UI
Akt o UI stanoví spolehlivou metodiku pro klasifikaci systémů UI jako vysoce rizikových. Cílem je poskytnout právní jistotu podnikům a dalším provozovatelům.
Klasifikace rizik vychází ze zamýšleného účelu systému UI v souladu se stávajícími právními předpisy EU v oblasti bezpečnosti výrobků. Znamená to, že klasifikace závisí na funkci vykonávané systémem UI a na konkrétním účelu a způsobech, pro které je systém používán.
Systémy UI mohou být klasifikovány jako vysoce rizikové ve dvou případech:
- Pokud je systém UI začleněn jako bezpečnostní součást do produktů, na něž se vztahují stávající právní předpisy o produktech (příloha I), nebo tyto produkty sám tvoří. Může se jednat například o lékařský software založený na umělé inteligenci.
- Pokud je systém UI určen k použití pro vysoce rizikový případ použití uvedený v příloze III aktu o UI. Seznam zahrnuje případy použití v oblastech, jako je vzdělávání, zaměstnanost, vymáhání práva nebo migrace. Komise jej každoročně přezkoumává a může být aktualizován.
Komise připravuje pokyny pro klasifikaci vysoce rizikových látek, které budou zveřejněny před datem použitelnosti těchto pravidel.
Příloha III aktu o umělé inteligenci obsahuje 8 oblastí, v nichž může být používání umělé inteligence obzvláště citlivé, a uvádí konkrétní případy použití pro každou oblast. Systém UI se klasifikuje jako vysoce rizikový, pokud je určen k použití pro jeden z těchto případů použití. Několik příkladů:
- systémy UI používané jako bezpečnostní komponenty v některých kritických infrastrukturách. Například v oblasti silniční dopravy a dodávek vody, plynu, tepla a elektřiny.
- systémy UI používané pro určité úkoly ve vzdělávání a odborné přípravě. Např. vyhodnotit výsledky učení a řídit proces učení a monitorování podvádění.
- systémy UI používané pro určité úkoly v oblasti zaměstnanosti a řízení pracovníků a přístupu k samostatné výdělečné činnosti. Např. umísťovat cílené inzeráty na pracovní místa, analyzovat a filtrovat žádosti o zaměstnání a hodnotit uchazeče.
- systémy UI používané v přístupu k základním soukromým a veřejným službám a dávkám (např. zdravotní péče), hodnocení úvěruschopnosti fyzických osob a posuzování rizik a stanovování cen v souvislosti s životním a zdravotním pojištěním.
- systémy UI používané pro určité úkoly v oblasti prosazování práva, migrace a ochrany hranic, pokud již nejsou zakázány, jakož i při výkonu spravedlnosti a demokratických procesů.
- systémy UI používané pro biometrickou identifikaci, biometrickou kategorizaci a rozpoznávání emocí, pokud nejsou zakázány.
Před uvedením vysoce rizikového systému UI na trh EU nebo jeho jiným uvedením do provozu musí poskytovatelé provést posouzení shody. To jim umožní prokázat, že jejich systém splňuje povinné požadavky na důvěryhodnou UI (např. řízení rizik, kvalitu údajů, dokumentaci a sledovatelnost, transparentnost, lidský dohled, přesnost, kybernetickou bezpečnost a spolehlivost). Toto posouzení musí být zopakováno, pokud se systém nebo jeho účel podstatně změní. V závislosti na typu vysoce rizikového systému UI může být nutné, aby posouzení shody provedl nezávislý subjekt posuzování shody. Poskytovatelé vysoce rizikových systémů UI budou rovněž muset zavést systémy řízení kvality, aby zajistili jejich soulad s novými požadavky a minimalizovali rizika pro uživatele a dotčené osoby po celou dobu životního cyklu systému UI.
Aby byl umožněn dohled a zajištěna veřejná transparentnost, musí poskytovatelé vysoce rizikových systémů UI zaregistrovat systém ve veřejné databázi EU.
Poskytovatelé vysoce rizikových systémů UI nesou i nadále odpovědnost za bezpečnost a soulad systému s předpisy po celou dobu jeho životního cyklu. V případě potřeby musí hlásit závažné nežádoucí příhody a reagovat na ně , přijímat nápravná opatření v případě zjištěných rizik nebo nesouladu, poskytovat informace a spolupracovat s orgány dozoru nad trhem.
Zavádějící subjekty musí používat vysoce rizikový systém UI v souladu s návodem k použití a musí za tímto účelem použít veškeré technické prostředky. Na základě návodu k použití musí provozovatelé vysoce rizikových systémů UI sledovat provoz systému UI a reagovat na zjištěná rizika nebo závažné incidenty. Zaměstnavatelé musí osobě ve své organizaci přidělit lidský dohled. Tato osoba nebo osoby musí být dostatečně vybaveny a musí jim být umožněno vykonávat lidský dohled. Pokud zavádějící subjekt poskytuje vstupní data pro vysoce rizikový systém UI, akt o UI vyžaduje, aby vstupní data byla relevantní a dostatečně reprezentativní pro určený účel systému UI.
Provozovatelé, kteří jsou orgány veřejné moci nebo poskytují veřejné služby, musí před prvním použitím provést posouzení dopadu na základní práva.
Kromě toho může mít provozovatel informační povinnosti:
- Vysoce rizikové systémy UI, které zavádějí orgány veřejné moci nebo subjekty jednající jejich jménem, budou muset být registrovány ve veřejné databázi EU, s výjimkou vysoce rizikových systémů UI pro kritickou infrastrukturu. Systémy UI používané pro prosazování práva a migraci musí být registrovány v neveřejné části databáze, která bude přístupná pouze příslušným orgánům dohledu.
- Je-li vysoce rizikový systém UI zaveden na pracovišti, musí provozovatelé předem informovat dotčené zaměstnance a zástupce zaměstnanců. To doplňuje veškerá pravidla pro konzultace se zaměstnanci, která již mohou platit.
- Pokud je vysoce rizikový systém UI navržen tak, aby činil rozhodnutí nebo pomáhal při rozhodování o fyzických osobách, musí provozovatel dotčenou osobu informovat.
Akt o umělé inteligenci rovněž zavádí právo fyzických osob na vysvětlení. To platí, pokud byl výstup vysoce rizikového systému UI použit k přijetí rozhodnutí o fyzické osobě a toto rozhodnutí má právní účinky. Provozovatelé vysoce rizikových systémů UI musí této možnosti vyhovět a v případě žádosti poskytnout dotčené osobě jasné a smysluplné vysvětlení.
Testování vysoce rizikových systémů UI v reálném světě lze provádět po dobu nejvýše 6 měsíců (může být prodlouženo o dalších 6 měsíců). Před zkouškou je třeba vypracovat plán a předložit jej orgánu dozoru nad trhem, který musí plán a zvláštní zkušební podmínky schválit, se standardním tichým souhlasem, pokud do 30 dnů neobdrží odpověď. Zkoušky mohou být podrobeny neohlášeným inspekcím ze strany orgánu.
Testování v reálném provozu lze provádět pouze s ohledem na konkrétní záruky, např. uživatelé systémů v rámci testování v reálném provozu musí poskytnout informovaný souhlas, testování na ně nesmí mít žádný negativní dopad, výsledky musí být vratné nebo nedbalé a jejich údaje musí být po ukončení testování vymazány. Zvláštní ochrana má být poskytnuta zranitelným skupinám, např. z důvodu jejich věku, tělesného nebo duševního postižení.
Systémy UI nevytvářejí ani nereprodukují zkreslení. Jsou-li systémy UI správně navrženy a používány, mohou spíše přispět ke snížení předpojatosti a stávající strukturální diskriminace, a vést tak ke spravedlivějším a nediskriminačním rozhodnutím (např. při náboru pracovníků).
K tomuto účelu budou sloužit nové povinné požadavky na všechny vysoce rizikové systémy UI. Systémy UI musí být technicky spolehlivé, aby bylo zajištěno, že jsou vhodné pro daný účel a nepřinášejí zkreslené výsledky, jako jsou falešně pozitivní nebo negativní výsledky, které neúměrně postihují marginalizované skupiny, včetně skupin založených na rasovém nebo etnickém původu, pohlaví, věku a dalších chráněných vlastnostech.
Vysoce rizikové systémy budou rovněž muset být vyškoleny a testovány s dostatečně reprezentativními soubory údajů, aby se minimalizovalo riziko nespravedlivých předsudků zakotvených v modelu a zajistilo se, že je lze řešit vhodným odhalováním předsudků, jejich nápravou a dalšími zmírňujícími opatřeními. Musí být rovněž sledovatelné a kontrolovatelné, přičemž je třeba zajistit, aby byla vedena příslušná dokumentace, včetně údajů použitých pro přípravu algoritmu, který by byl klíčový při vyšetřování ex post.
Systémy dodržování předpisů musí být pravidelně monitorovány a potenciální rizika musí být neprodleně řešena, a to před uvedením na trh i po něm.
Biometrická identifikace může mít různé podoby. Biometrické ověřování a ověřování, tj. odemykání chytrého telefonu nebo ověřování/autentizace na hraničních přechodech za účelem ověření totožnosti osoby na základě jejích cestovních dokladů (srovnávání jednoho s druhým), zůstává neregulováno, protože nepředstavuje významné riziko pro základní práva.
Naproti tomu biometrická identifikace na dálku (např. za účelem identifikace osob v davu) může mít významný dopad na soukromí ve veřejném prostoru. Přesnost systémů pro rozpoznávání obličeje může být významně ovlivněna širokou škálou faktorů, jako je kvalita kamery, světlo, vzdálenost, databáze, algoritmus a etnický původ, věk nebo pohlaví subjektu. Totéž platí pro rozpoznávání chůze a hlasu a další biometrické systémy.
Zatímco 99% míra přesnosti se může zdát obecně dobrá, je značně riskantní, když výsledek může vést k podezření nevinné osoby. Dokonce i 0,1% míra chyb může mít významný dopad, pokud je aplikována na velké populace, například na vlakových nádražích.
Používání biometrické identifikace na dálku v reálném čase na veřejně přístupných místech (tj. rozpoznávání obličeje pomocí CCTV) pro účely vymáhání práva je zakázáno. Členské státy mohou ze zákona zavést výjimky, které by umožnily používání biometrické identifikace na dálku v reálném čase v těchto případech:
- Činnosti v oblasti prosazování práva související s 16 konkrétními velmi závažnými trestnými činy
- Cílené vyhledávání konkrétních obětí, únosů, obchodování s lidmi a sexuálního vykořisťování lidí a pohřešovaných osob
- Prevence ohrožení života nebo fyzické bezpečnosti osob nebo teroristického útoku
Jakékoli výjimečné použití by muselo být nezbytné a přiměřené a podléhalo by předchozímu povolení soudního nebo nezávislého správního orgánu, jehož rozhodnutí je závazné. V naléhavých případech je možné požádat o schválení do 24 hodin. Pokud je povolení zamítnuto, musí být všechny údaje a výstupy z použití vymazány.
Používání biometrické identifikace na dálku v reálném čase by mělo být oznámeno příslušnému orgánu dozoru nad trhem a orgánu pro ochranu údajů.
Používání systémů UI pro následnou biometrickou identifikaci na dálku (identifikace osob v dříve sebraném materiálu) vyšetřovaných osob není zakázáno, ale vyžaduje předchozí povolení justičního nebo správního orgánu, jakož i oznámení příslušnému orgánu pro ochranu údajů a dozor nad trhem.
Na úrovni EU a členských států již existuje silná ochrana základních práv a nediskriminace, ale složitost a neprůhlednost některých aplikací UI („černé skříňky“) může představovat problém.
Přístup k umělé inteligenci zaměřený na člověka znamená zajistit, aby aplikace umělé inteligence byly v souladu s právními předpisy v oblasti základních práv. Začleněním požadavků na odpovědnost a transparentnost do vývoje vysoce rizikových systémů UI a zlepšením schopností v oblasti prosazování práva můžeme zajistit, aby tyto systémy byly od samého počátku navrhovány s ohledem na dodržování právních předpisů. Dojde-li k porušení, umožní tyto požadavky vnitrostátním orgánům přístup k informacím potřebným k prošetření toho, zda je používání UI v souladu s právem EU.
Akt o umělé inteligenci vyžaduje, aby někteří provozovatelé vysoce rizikových systémů umělé inteligence provedli posouzení dopadu na základní práva.
Poskytovatelé vysoce rizikových systémů UI musí provést posouzení rizik a navrhnout systém tak, aby byla minimalizována rizika pro zdraví, bezpečnost a základní práva.
Některá rizika pro základní práva však lze plně identifikovat pouze s vědomím kontextu používání vysoce rizikového systému UI. Pokud se vysoce rizikové systémy UI používají ve zvláště citlivých oblastech s možnou asymetrií výkonu, jsou zapotřebí další úvahy o těchto rizicích.
Provozovatelé, kteří jsou veřejnoprávními subjekty nebo soukromými provozovateli poskytujícími veřejné služby, jakož i provozovatelé poskytující vysoce rizikové systémy UI, kteří provádějí posouzení úvěruschopnosti nebo posouzení cen a rizik v životním a zdravotním pojištění, proto provedou posouzení dopadu na základní práva a oznámí výsledky vnitrostátnímu orgánu.
V praxi bude muset posouzení dopadu na ochranu údajů provést také mnoho zavádějících subjektů. Aby se v takových případech zabránilo podstatnému překrývání, provádí se posouzení dopadu na základní práva ve spojení s tímto posouzením dopadu na ochranu údajů.
Modely umělé inteligence pro všeobecné účely (GPAI)
Obecné modely UI, včetně modelů generativní UI , lze použít pro různé úkoly. Mohou být integrovány do velkého počtu systémů UI.
Poskytovatel systému UI, který integruje obecný model UI, musí mít přístup k nezbytným informacím, aby tak mohl učinit, a musí zajistit, že systém je v souladu s aktem o UI. Akt o umělé inteligenci ukládá poskytovatelům těchto modelů povinnost zdokumentovat technické informace o modelech a zpřístupnit určité informace navazujícím poskytovatelům systémů. Tato transparentnost umožňuje lepší pochopení těchto modelů.
Poskytovatelé modelů musí mít zavedeny politiky, které zajistí soulad s právními předpisy EU v oblasti autorského práva a práv s ním souvisejících. Zejména určit a dodržovat výhrady týkající se práv v rámci výjimky pro vytěžování textů a dat. Poskytovatelé musí rovněž zveřejnit shrnutí obsahu použitého k trénování modelu na základě šablony od úřadu pro umělou inteligenci.
Nejpokročilejší z těchto modelů by mohly představovat systémová rizika. V současné době se předpokládá, že obecné modely AI trénované za použití celkového množství výpočetních zdrojů, které přesahuje 10^25 FLOP (operace s pohyblivou řádovou čárkou), představují systémová rizika. Komise může tuto prahovou hodnotu aktualizovat s ohledem na technologický vývoj. Na žádost poskytovatele může Komise rovněž vyvrátit domněnku, že model přesahující prahovou hodnotu FLOP představuje systémové riziko, není-li model považován za jeden z nejpokročilejších. Komise může rovněž určit modely pod prahovou hodnotou FLOP jako obecné modely AI se systémovým rizikem na základě kritérií uvedených v příloze XIII aktu o AI.
Poskytovatelé modelů se systémovým rizikem musí tato rizika posoudit a zmírnit, mimo jiné prováděním nejmodernějších hodnocení modelů, hlášením závažných incidentů a zajištěním odpovídající kybernetické bezpečnosti svých modelů a jejich fyzické infrastruktury.
Na podporu poskytovatelů při plnění těchto povinností Komise usnadnila vypracování kodexu zásad pro obecnou umělou inteligenci (GPAI). Kodex zásad GPAI je dobrovolný nástroj, který vypracovali nezávislí odborníci v procesu zahrnujícím více zúčastněných stran a jehož cílem je pomoci průmyslu plnit povinnosti vyplývající z aktu o umělé inteligenci pro poskytovatele obecných modelů umělé inteligence. Kodex je doplněn pokyny Komise týkajícími se rozsahu povinností poskytovatelů obecných modelů AI podle aktu o AI.
První kodex zásad obecné umělé inteligence (GPAI) podrobně popisuje pravidla aktu o umělé inteligenci pro poskytovatele obecných modelů umělé inteligence a obecných modelů umělé inteligence se systémovými riziky. Kodex zásad GPAI je dobrovolný nástroj, který vypracovali nezávislí odborníci v procesu zahrnujícím více zúčastněných stran a jehož cílem je pomoci průmyslu plnit povinnosti vyplývající z aktu o umělé inteligenci pro poskytovatele obecných modelů umělé inteligence.
Úřad pro umělou inteligenci usnadnil vypracování kodexu. Procesu předsedali nezávislí odborníci, jichž se zúčastnilo téměř 1 000 zúčastněných stran, jakož i zástupci členských států EU a evropští a mezinárodní pozorovatelé. Komise a Rada pro umělou inteligenci potvrdily, že kodex je vhodným dobrovolným nástrojem pro poskytovatele modelů GPAI k prokázání souladu s aktem o umělé inteligenci.
Po schválení mohou poskytovatelé modelů GPAI, kteří jej dobrovolně podepíší, prokázat, že dodržují akt o umělé inteligenci, a to dodržováním kodexu. To sníží jejich administrativní zátěž a poskytne jim větší právní jistotu, než kdyby prokázali soulad jinými metodami. Kodex je doplněn pokyny Komise ke klíčovým koncepcím týkajícím se obecných modelů UI.
Úřad pro umělou inteligenci bude podle potřeby podporovat a usnadňovat přezkum a úpravu kodexu tak, aby odrážel technologický pokrok a nejnovější vývoj. Jakmile bude harmonizovaná norma zveřejněna a posouzena jako vhodná k pokrytí příslušných povinností ze strany úřadu pro umělou inteligenci, měl by soulad s evropskou harmonizovanou normou poskytovatelům poskytnout předpoklad shody.
Poskytovatelé obecných modelů AI by měli být schopni prokázat soulad pomocí alternativních vhodných prostředků, pokud kodexy správné praxe nebo harmonizované normy nejsou k dispozici nebo se rozhodnou na ně nespoléhat.
Akt o umělé inteligenci zavádí zvláštní požadavky na transparentnost pro poskytovatele a provozovatele určitých interaktivních nebo generativních systémů umělé inteligence (včetně chatbotů nebo deep fakes). Cílem těchto požadavků na transparentnost je řešit rizika dezinformací a manipulace, podvodů, vydávání se za jinou osobu a klamání spotřebitelů:
- Poskytovatelé systémů UI, kteří přímo interagují s fyzickými osobami, musí tyto systémy navrhnout a vyvinout tak, aby byly dotčené fyzické osoby informovány o tom, že interagují se systémem UI.
- Poskytovatelé generativních systémů UI musí označit výstupy UI ve strojově čitelném formátu a zajistit, aby byly detekovatelné jako uměle vytvořené nebo manipulovatelné d. Technická řešení musí být účinná, interoperabilní, spolehlivá a spolehlivá, pokud je to technicky proveditelné, s přihlédnutím ke zvláštnostem a omezením různých druhů obsahu, nákladům na provádění a obecně uznávanému stavu techniky, jak se může odrazit v příslušných technických normách.
- Provozovatelé systémů rozpoznávání emocí nebo biometrické kategorizace musí zajistit, aby osoby vystavené těmto systémům byly informovány.
- Zavádění generativních systémů UI, které vytvářejí obrazový, zvukový nebo video obsah nebo s ním manipulují a které představují „deep fake“, musí být viditelně blízko skutečnosti, že obsah byl uměle vytvořen nebo s ním bylo manipulováno. Obdobně musí provozovatelé systémů UI, kteří vytvářejí text zveřejněný za účelem informování veřejnosti o záležitostech veřejného zájmu nebo s ním manipulují, rovněž zveřejnit, že text byl uměle vytvořen nebo s ním bylo manipulováno.
Na všechny uvedené povinnosti týkající se transparentnosti se vztahují zvláštní výjimky.
Úřad pro umělou inteligenci vydá pokyny s cílem poskytnout poskytovatelům a zavádějícím subjektům další pokyny ohledně povinností uvedených v článku 50, které vstoupí v platnost dne 2. srpna 2026.
S cílem napomoci dodržování některých z těchto povinností týkajících se transparentnosti zahájil úřad pro umělou inteligenci proces vypracování kodexu zásad transparentnosti obsahu vytvořeného umělou inteligencí. Kodex vypracují nezávislí odborníci jmenovaní Úřadem pro umělou inteligenci na základě inkluzivního procesu. K vypracování kodexu přispívá více než 200 zúčastněných stran z různých odvětví. Pokud bude konečný kodex schválen Komisí, bude sloužit jako dobrovolný nástroj pro poskytovatele a provozovatele generativních systémů UI k prokázání souladu s jejich příslušnými povinnostmi.
Správa, prosazování a provádění
Akt o umělé inteligenci se použije dva roky po vstupu v platnost dne 2. srpna 2026, s výjimkou těchto zvláštních ustanovení:
- Zákazy, definice a ustanovení týkající se gramotnosti v oblasti umělé inteligence se použijí ode dne 2. února 2025. Komise zveřejnila pokyny k zákazům a definicím, jakož i živé úložiště postupů v oblasti gramotnosti v oblasti umělé inteligence a zvláštní často kladené otázky.
- Pravidla pro správu a povinnosti týkající se umělé inteligence pro obecné účely se stala použitelnými dne 2. srpna 2025.
- Povinnosti pro vysoce rizikové systémy UI, které jsou klasifikovány jako vysoce rizikové, protože jsou začleněny do regulovaných produktů uvedených v příloze II (seznam harmonizačních právních předpisů EU), se použijí 36 měsíců po vstupu v platnost dne 2. srpna 2027.
Dne 19. listopadu 2025 Komise v rámci návrhu digitálního souhrnného nařízení navrhla upravit harmonogram pro uplatňování vysoce rizikových pravidel propojením data použitelnosti s dostupností podpůrných opatření, jako jsou harmonizované normy, společné specifikace nebo pokyny Komise.
Tento návrh v souvislosti se zpožděním při přípravě norem na podporu uplatňování vysoce rizikových požadavků a zřízení příslušných orgánů v členských státech EU. To ohrožuje hladký vstup v platnost dne 2. srpna 2026. Digitální omnibus nyní projednává Evropský parlament a Rada EU.
Akt o UI zavádí dvoustupňový systém správy, v němž jsou příslušné vnitrostátní orgány odpovědné za dohled nad pravidly pro systémy UI a jejich prosazování, zatímco úřad pro UI odpovídá za řízení a prosazování povinností poskytovatelů obecných modelů UI a podskupiny některých systémů UI.
Evropská rada pro umělou inteligenci (dále jen „rada pro umělou inteligenci“) byla zřízena s cílem zajistit soudržnost a spolupráci v celé EU. Skládá se ze zástupců na vysoké úrovni z členských států a specializovaných podskupin pro vnitrostátní regulační orgány a další příslušné orgány.
Akt o umělé inteligenci zřizuje dva poradní orgány, které poskytují odborné informace: vědecká komise a poradní sbor. Tyto orgány poskytnou cenné poznatky od zúčastněných stran a interdisciplinárních vědeckých komunit, poskytnou informace pro rozhodování a zajistí vyvážený přístup k vývoji umělé inteligence.
Evropská rada pro umělou inteligenci se skládá ze zástupců členských států na vysoké úrovni a evropského inspektora ochrany údajů (EIOÚ). Jakožto klíčový poradce poskytuje Rada pro umělou inteligenci pokyny ke všem záležitostem souvisejícím s politikou v oblasti umělé inteligence, zejména k regulaci umělé inteligence, politice inovací a excelence a mezinárodní spolupráci v oblasti umělé inteligence.
Rada pro umělou inteligenci hraje klíčovou úlohu při zajišťování hladkého, účinného a harmonizovaného provádění aktu o umělé inteligenci. Má specializované podskupiny složené z technických odborníků, vnitrostátních regulačních orgánů a dalších příslušných orgánů. Rada je fórem, kde mohou regulační orgány pro umělou inteligenci koordinovat důsledné uplatňování aktu o umělé inteligenci.
Členské státy musí stanovit účinné, přiměřené a odrazující sankce za porušení pravidel pro systémy UI. Nařízení stanoví prahové hodnoty, které je třeba zohlednit:
- Až 35 milionů EUR nebo 7 % celkového celosvětového ročního obratu za předchozí účetní období (podle toho, která hodnota je vyšší) za porušení zakázaných postupů nebo nedodržení požadavků na údaje
- Až 15 milionů EUR nebo 3 % celkového celosvětového ročního obratu za předchozí účetní období v případě nedodržení kteréhokoli z ostatních požadavků nebo povinností stanovených v nařízení
- Až 7,5 milionu EUR nebo 1,5 % celkového celosvětového ročního obratu za předchozí účetní období za poskytnutí nesprávných, neúplných nebo zavádějících informací oznámeným subjektům a příslušným vnitrostátním orgánům v reakci na žádost
- Pro každou kategorii protiprávního jednání by prahová hodnota byla nižší ze dvou částek pro malé a střední podniky a vyšší pro ostatní společnosti.
Komise může rovněž vymáhat pravidla týkající se poskytovatelů obecných modelů AI prostřednictvím pokut s přihlédnutím k prahové hodnotě:
- Až 15 milionů EUR nebo 3 % celkového celosvětového ročního obratu za předchozí rozpočtový rok v případě nedodržení povinností nebo opatření požadovaných Komisí podle nařízení.
Očekává se, že orgány, agentury nebo subjekty EU půjdou příkladem, a proto se na ně budou vztahovat i pravidla a případné sankce. Evropský inspektor ochrany údajů (EIOÚ) bude mít pravomoc ukládat jim pokuty v případě nedodržování předpisů.
Pakt o umělé inteligenci, který byl zahájen v květnu 2023, podporuje spolupráci mezi úřadem pro umělou inteligenci a organizacemi (pilíř I) a podporuje dobrovolný závazek odvětví začít provádět požadavky aktu o umělé inteligenci před uplynutím zákonné lhůty (pilíř II).
V rámci pilíře I účastníci přispívají k vytvoření komunity založené na spolupráci a sdílejí své zkušenosti a znalosti. To zahrnuje webináře pořádané Úřadem pro umělou inteligenci, které účastníkům umožní lépe porozumět aktu o umělé inteligenci, jejich povinnostem a tomu, jak se připravit na jeho provádění. Tyto webináře zase umožňují úřadu pro umělou inteligenci shromáždit poznatky o osvědčených postupech a výzvách, kterým účastníci čelí.
V rámci pilíře II se organizace vyzývají, aby aktivně zveřejňovaly procesy a postupy, které provádějí s cílem předvídat dodržování předpisů, a to prostřednictvím dobrovolných závazků (.PDF). Závazky jsou zamýšleny jako „prohlášení o zapojení“ a budou obsahovat opatření (plánovaná nebo probíhající) ke splnění některých požadavků aktu o umělé inteligenci.
Většina pravidel aktu o UI (například některé požadavky na vysoce rizikové systémy UI) se použije na konci přechodného období (tj. v době mezi vstupem v platnost a datem použitelnosti). V této souvislosti a v rámci paktu o umělé inteligenci vyzval úřad pro umělou inteligenci všechny organizace, aby aktivně předvídaly a prováděly některá klíčová ustanovení aktu o umělé inteligenci s cílem co nejdříve zmírnit rizika pro zdraví, bezpečnost a základní práva.
V návaznosti na výzvu zveřejněnou v listopadu 2023 již více než 3 000 organizací vyjádřilo zájem připojit se k iniciativě Paktu o umělé inteligenci. První informační schůzka se konala on-line dne 6. května a zúčastnilo se jí 300 účastníků. Dobrovolné závazky byly oficiálně podepsány na podzim 2024 a k dnešnímu dni je podepsalo více než 230 společností. Dne 15. prosince 2025 shromáždil úřad pro umělou inteligenci přislíbené subjekty Paktu pro umělou inteligenci, aby zhodnotily dosažený pokrok.
Komise zřídila asistenční službu aktu o umělé inteligenci a jednotnou informační platformu. Obě byly zahájeny souběžně se strategií pro uplatňování umělé inteligence a již byly oznámeny v akčním plánu pro kontinent umělé inteligence. Strategický plán inovací poskytuje veškeré relevantní informace, nástroje pro dodržování předpisů a přizpůsobené pokyny k aktu o umělé inteligenci. Nabízí:
- Časté otázky a zdroje týkající se aktu o umělé inteligenci
- Kontrola souladu , nástroj vytvořený s cílem pomoci zúčastněným stranám určit, zda se na ně vztahují právní povinnosti, a pochopit kroky, které musí přijmout, aby splnily své povinnosti.
- Průzkumník aktu o umělé inteligenci, online nástroj navržený tak, aby uživatelům pomohl intuitivním způsobem procházet různé kapitoly, přílohy a body odůvodnění aktu o umělé inteligenci
- online formulář umožňuje zúčastněným stranám předkládat dotazy asistenční službě aktu o umělé inteligenci – týmu odborníků, kteří úzce spolupracují s úřadem pro umělou inteligenci
Inovace a udržitelnost
Akt o umělé inteligenci může zvýšit využívání umělé inteligence dvěma způsoby:
- Zvýšení důvěry uživatelů zvýší poptávku po umělé inteligenci využívané společnostmi a veřejnými orgány
- díky harmonizaci pravidel ve všech členských státech EU budou mít poskytovatelé umělé inteligence přístup na větší trhy s produkty, které uživatelé a spotřebitelé oceňují a nakupují
Akt o umělé inteligenci je vstřícný k inovacím. Pravidla se budou uplatňovat pouze v nezbytně nutných případech a způsobem, který minimalizuje zátěž hospodářských subjektů, s lehkou strukturou řízení. Pro malé a střední podniky stanoví akt o umělé inteligenci zjednodušené způsoby dodržování určitých zatěžujících povinností, jako je technická dokumentace. Aby byl ponechán prostor pro inovátory, počítá se s výjimkami pro činnosti v oblasti výzkumu a vývoje.
Akt o umělé inteligenci dále umožňuje vytvoření regulačních pískovišť a testování v reálném provozu, které poskytují kontrolované prostředí pro testování inovativních technologií po omezenou dobu. Tato opatření podpoří inovace ze strany společností, malých a středních podniků a začínajících podniků a pomohou vytvořit správné rámcové podmínky pro vývoj a zavádění umělé inteligence. Mezi další iniciativy na podporu inovací patří:
Cílem aktu o umělé inteligenci je řešit rizika pro bezpečnost a základní práva, včetně základního práva na vysokou úroveň ochrany životního prostředí. Životní prostředí je také jedním z výslovně uvedených a chráněných právních zájmů.
V roce 2026 plánuje Komise požádat evropské normalizační organizace, aby vypracovaly standardizační produkt pro procesy podávání zpráv a dokumentace s cílem zlepšit výkonnost systémů UI v oblasti zdrojů. To zahrnuje snížení spotřeby energie a jiných zdrojů vysoce rizikového systému UI během jeho životního cyklu a energeticky účinný vývoj obecných modelů UI.
Komise se žádá, aby předložila zprávu o pokroku při vypracovávání produktů normalizace týkajících se energeticky účinného rozvoje obecných modelů a posoudila potřebu dalších opatření nebo kroků (včetně závazných). Tato povinnost začíná dva roky ode dne použitelnosti aktu o umělé inteligenci a poté se provádí každé čtyři roky.
Poskytovatelé obecných modelů UI, kteří jsou vyškoleni v oblasti velkého množství dat, a jsou proto náchylní k vysoké spotřebě energie, jsou povinni zveřejňovat spotřebu energie. V případě obecných modelů AI se systémovými riziky je třeba posoudit energetickou účinnost.
Komisi je svěřena pravomoc vypracovat metodiku s vhodným a srovnatelným měřením pro tyto povinnosti týkající se zveřejňování informací.
Related content
Akt o umělé inteligenci je vůbec prvním právním rámcem pro umělou inteligenci, který se zabývá riziky umělé inteligence a staví Evropu do vedoucí úlohy v celosvětovém měřítku.