Obecné často kladené otázky
Umělá inteligence („UI“)slibuje obrovské výhody pro naše hospodářství a společnost. V tomto ohledu hrají důležitou úlohu univerzální modely UI, neboť mohou být použity pro různé úkoly, a proto tvoří základ pro řadu navazujících systémů UI používaných v Evropě i na celém světě.
Cílem aktu o umělé inteligenci je zajistit, aby univerzální modely umělé inteligence byly bezpečné a důvěryhodné.
K dosažení tohoto cíle je zásadní, aby poskytovatelé univerzálních modelů UI zajistili dobré pochopení svých modelů v celém hodnotovém řetězci UI, aby mohli navazující poskytovatelé tyto modely integrovat do systémů UI a plnit své vlastní povinnosti podle aktu o UI. Konkrétněji, a jak je podrobněji vysvětleno níže, poskytovatelé univerzálních modelů UI musí vypracovat technickou dokumentaci svých modelů, aby ji mohli zpřístupnit následným poskytovatelům a na požádání poskytnout Úřadu pro UI a příslušným vnitrostátním orgánům, zavést politiku v oblasti autorského práva a zveřejnit shrnutí obsahu školení. Poskytovatelé univerzálních modelů UI představujících systémová rizika, k čemuž může dojít buď proto, že modely jsou velmi schopné, nebo proto, že mají významný dopad na vnitřní trh z jiných důvodů, musí navíc tyto modely oznámit Komisi, posoudit a zmírnit systémová rizika vyplývající z těchto modelů, mimo jiné prováděním hodnocení modelů, ohlašováním závažných incidentů a zajištěním odpovídající kybernetické bezpečnosti těchto modelů.
Akt o umělé inteligenci tak přispívá k bezpečným a důvěryhodným inovacím v Evropské unii.
Akt o umělé inteligenci definuje obecný model umělé inteligence jako „model umělé inteligence, včetně případů, kdy je takový model umělé inteligence trénován s velkým množstvím dat využívajících vlastní dohled ve velkém měřítku, který vykazuje značnou všeobecnost a je schopen kompetentně plnit širokou škálu různých úkolů bez ohledu na způsob, jakým je model uváděn na trh, a který lze integrovat do různých navazujících systémů nebo aplikací“ (čl. 3 odst. 63 aktu o umělé inteligenci).
Body odůvodnění aktu o umělé inteligenci dále objasňují, které modely by měly být považovány za modely s významnou všeobecností a které by měly být schopny plnit širokou škálu různých úkolů.
Podle 98. bodu odůvodnění aktu o umělé inteligenci „vzhledem k tomu, že obecnost modelu by mohla být mimo jiné určena také řadou parametrů, modely s nejméně miliardou parametrů a vyškolené s velkým množstvím dat využívajících vlastní dohled ve velkém měřítku by měly být považovány za modely vykazující významnou obecnost a kompetentně vykonávající širokou škálu odlišných úkolů“.
V 99. bodě odůvodnění aktu o umělé inteligenci se doplňuje, že „rozsáhlé generativní modely umělé inteligence jsou typickým příkladem pro univerzální model umělé inteligence vzhledem k tomu, že umožňují flexibilní tvorbu obsahu, například ve formě textu, zvuku, obrázků nebo videa, který může snadno pojmout širokou škálu odlišných úkolů“.
Všimněte si, že významné obecnosti a schopnosti kompetentně provádět širokou škálu charakteristických úkolů mohou být dosaženy modely v rámci jedné modality, jako je text, zvuk, obrázky nebo video, pokud je modalita dostatečně flexibilní. Toho lze dosáhnout také pomocí modelů, které byly vyvinuty, doladěny nebo jinak upraveny tak, aby byly obzvláště dobré pro konkrétní úkol nebo pro řadu úkolů v konkrétní oblasti.
Různé fáze vývoje modelu nepředstavují různé modely.
Úřad pro umělou inteligenci má v úmyslu poskytnout další objasnění toho, co by mělo být považováno za univerzální model umělé inteligence, a to na základě poznatků Společného výzkumného střediska Komise, které v současné době pracuje na vědeckém výzkumném projektu, který se touto a dalšími otázkami zabývá.
Systémová rizika jsou rizika rozsáhlé újmy vyplývající z nejpokročilejších (tj. nejmodernějších) modelů v daném okamžiku nebo z jiných modelů, které mají rovnocenný dopad (viz čl. 3 odst. 65 aktu o umělé inteligenci). Tato rizika se mohou projevit například snížením překážek pro vývoj chemických nebo biologických zbraní nebo nezamýšlenými otázkami kontroly autonomních modelů UI pro všeobecné účely (110. bod odůvodnění aktu o UI). Nejpokročilejší modely mohou v kterémkoli okamžiku představovat systémová rizika, včetně nových rizik, neboť posouvají současný stav techniky. Některé modely pod prahovou hodnotu odrážející současný stav techniky mohou zároveň představovat systémová rizika, například prostřednictvím dosahu, škálovatelnosti nebo lešení.
Akt o UI proto klasifikuje univerzální model UI jako univerzální model UI se systémovým rizikem, pokud se v daném okamžiku jedná o jeden z nejpokročilejších modelů nebo pokud má rovnocenný dopad (čl. 51 odst. 1 aktu o UI). Které modely jsou považovány za univerzální modely UI se systémovým rizikem se mohou v průběhu času měnit, což odráží vyvíjející se stav techniky a potenciální přizpůsobení společnosti stále pokročilejším modelům. V současné době vyvíjí univerzální modely UI se systémovým rizikem několik společností, i když se to může v budoucnu změnit.
Za účelem zachycení nejpokročilejších modelů, tj. modelů, které odpovídají nebo přesahují schopnosti dosud zaznamenané v nejpokročilejších modelech, stanoví akt o umělé inteligenci prahovou hodnotu 10 na25 operací s pohyblivou řádovou čárkou (FLOP) používaných pro výcvik modelu (čl. 51 odst. 1 písm. a) a odst. 2 aktu o umělé inteligenci). Odhaduje se, že školení modelu, který tuto prahovou hodnotu splňuje, bude v současné době stát desítky milionů EUR (EpochAI, 2024). Úřad pro umělou inteligenci neustále sleduje technologický a průmyslový vývoj a Komise může prahovou hodnotu aktualizovat přijetím aktu v přenesené pravomoci (čl. 51 odst. 3 aktu o umělé inteligenci), aby zajistila, že bude i nadále vyčleňovat nejpokročilejší modely s ohledem na vývoj stavu techniky. Například hodnota samotné prahové hodnoty by mohla být upravena a/nebo by mohly být zavedeny další prahové hodnoty.
Aby bylo možné zachytit modely s dopadem rovnocenným nejpokročilejším modelům, zmocňuje akt o umělé inteligenci Komisi určit další modely jako modely představující systémové riziko na základě kritérií, jako jsou hodnocení schopností modelu, počet uživatelů, škálovatelnost nebo přístup k nástrojům (čl. 51 odst. 1 písm. b) a příloha XIII aktu o umělé inteligenci).
Úřad pro umělou inteligenci má v úmyslu poskytnout další objasnění toho, jak budou univerzální modely umělé inteligence klasifikovány jako univerzální modely umělé inteligence se systémovým rizikem, a to na základě poznatků Společného výzkumného střediska Komise, které v současné době pracuje na vědeckém výzkumném projektu, který se touto a dalšími otázkami zabývá.
Pravidla aktu o UI týkající se univerzálních modelů UI se vztahují na poskytovatele, kteří tyto modely uvádějí na trh v Unii, bez ohledu na to, zda jsou tito poskytovatelé usazeni nebo umístěni v Unii nebo ve třetí zemi (čl. 2 odst. 1 písm. a) aktu o UI).
Poskytovatelem univerzálního modelu UI se rozumí fyzická nebo právnická osoba, orgán veřejné moci, agentura nebo jiný subjekt, který vyvíjí univerzální model UI nebo který takový model vyvinul a uvádí jej na trh, ať už za úplatu, nebo bezplatně (čl. 3 odst. 3 aktu o UI).
Uvedením modelu na trh se rozumí první dodání modelu na trh Unie (čl. 3 odst. 9 aktu o umělé inteligenci), tj. jeho první dodání k distribuci nebo použití na trhu Unie v rámci obchodní činnosti, ať už za úplatu, nebo bezplatně (čl. 3 odst. 10 aktu o umělé inteligenci). Je třeba poznamenat, že univerzální model UI se rovněž považuje za uvedený na trh, pokud poskytovatel tohoto modelu integruje model do svého vlastního systému UI, který je dodáván na trh nebo uváděn do provozu, ledaže se model a) používá pro čistě interní procesy, které nejsou nezbytné pro poskytování produktu nebo služby třetím stranám, b) nejsou dotčena práva fyzických osob a c) model není univerzálním modelem UI se systémovým rizikem (97. bod odůvodnění aktu o UI).
Poskytovatelé univerzálních modelů UI musí dokumentovat technické informace o svých modelech za účelem poskytnutí těchto informací na požádání úřadu pro UI a příslušným vnitrostátním orgánům (čl. 53 odst. 1 písm. a) aktu o UI) a jejich zpřístupnění navazujícím poskytovatelům (čl. 53 odst. 1 písm. b) aktu o UI). Musí rovněž zavést politiku souladu s právem Unie v oblasti autorského práva a práv s ním souvisejících (čl. 53 odst. 1 písm. c) aktu o umělé inteligenci) a vypracovat a zveřejnit dostatečně podrobné shrnutí obsahu použitého pro výcvik modelu (čl. 53 odst. 1 písm. d) aktu o umělé inteligenci).
Všeobecný kodex zásad UI by měl signatářům poskytnout další podrobnosti o tom, jak zajistit dodržování těchto povinností v oddílech týkajících se transparentnosti a autorského práva (pod vedením pracovní skupiny 1).
Podle aktu o umělé inteligenci mají poskytovatelé univerzálních modelů umělé inteligence se systémovým rizikem další povinnosti. Musí posuzovat a zmírňovat systémová rizika, zejména prováděním hodnocení modelů, sledováním, dokumentováním a hlášením závažných incidentů a zajištěním odpovídající kybernetické bezpečnosti modelu a jeho fyzické infrastruktury (článek 55 aktu o umělé inteligenci).
Všeobecný kodex zásad UI by měl signatářům poskytnout další podrobnosti o tom, jak zajistit dodržování těchto povinností, v oddílech zabývajících se posuzováním systémového rizika, zmírňováním technického rizika a zmírňováním rizika v oblasti správy a řízení (vedených pracovními skupinami 2, 3 a 4).
Povinnosti poskytovatelů univerzálních modelů UI se použijí ode dne 2. srpna 2025 (čl. 113 písm. b) aktu o UI) se zvláštními pravidly pro univerzální modely UI uvedené na trh před tímto datem (čl. 111 odst. 3) aktu o UI.
Povinnost vypracovat a poskytnout dokumentaci Úřadu pro umělou inteligenci, příslušným vnitrostátním orgánům a navazujícím poskytovatelům (čl. 53 odst. 1 písm. a) a b) aktu o umělé inteligenci) se nepoužije, pokud je model uvolněn na základě bezplatné licence s otevřeným zdrojovým kódem a jeho parametry, včetně vah, informací o architektuře modelu a informací o používání modelu, jsou zveřejněny (čl. 53 odst. 2 aktu o umělé inteligenci). 102. a 103. bod odůvodnění aktu o umělé inteligenci dále objasňují, co představuje bezplatnou licenci s otevřeným zdrojovým kódem, a Úřad pro umělou inteligenci má v úmyslu poskytnout další objasnění otázek týkajících se univerzálních modelů umělé inteligence s otevřeným zdrojovým kódem.
Výjimka se nevztahuje na univerzální modely UI se systémovým rizikem. Po uvolnění modelu s otevřeným zdrojovým kódem může být obtížnější provést opatření nezbytná k zajištění souladu s povinnostmi podle článku 55 (bod odůvodnění 112 aktu o umělé inteligenci). Poskytovatelé univerzálních modelů UI se systémovým rizikem proto možná budou muset před zveřejněním svých modelů jako modelů s otevřeným zdrojovým kódem posoudit a zmírnit systémová rizika.
Všeobecný kodex zásad UI by měl signatářům poskytnout další podrobnosti o tom, jak plnit povinnosti stanovené v článcích 53 a 55, pokud jde o různé způsoby uvolňování univerzálních modelů UI, včetně otevřeného zdrojového kódu.
Důležitou, ale obtížnou otázkou, na níž je založen proces vypracování kodexu zásad, je nalezení rovnováhy mezi sledováním přínosů a zmírňováním rizik plynoucích z otevřeného zajišťování pokročilých univerzálních modelů UI: pokročilé univerzální modely UI s otevřeným zdrojovým kódem mohou skutečně přinášet významné společenské přínosy, mimo jiné prostřednictvím podpory výzkumu v oblasti bezpečnosti UI; zároveň, pokud jsou tyto modely otevřené, lze zmírnění rizik snáze obcházet nebo odstraňovat.
Ustanovení čl. 2 odst. 8 aktu o umělé inteligenci stanoví, že akt o umělé inteligenci se obecně „nevztahuje na žádnou výzkumnou, testovací nebo vývojovou činnost týkající se systémů nebo modelů umělé inteligence před jejich uvedením na trh nebo do provozu“.
Zároveň se některé povinnosti poskytovatelů univerzálních modelů UI (se systémovým rizikem a bez něj) výslovně nebo implicitně týkají vývojové fáze modelů určených k uvedení na trh, ale před ním. Tak je tomu například v případě povinností poskytovatelů oznámit Komisi, že jejich univerzální model UI splňuje nebo bude splňovat prahovou hodnotu pro výpočet odborné přípravy (články 51 a 52 aktu o UI), dokumentovat informace o odborné přípravě a testování (článek 53 aktu o UI) a posuzovat a zmírňovat systémové riziko (článek 55 aktu o UI). Zejména čl. 55 odst. 1 písm. b) aktu o UI výslovně stanoví, že „poskytovatelé univerzálních modelů UI se systémovým rizikem posoudí a zmírní možná systémová rizika na úrovni Unie, včetně jejich zdrojů, která mohou vyplynout z vývoje (...) univerzálních modelů UI se systémovým rizikem“.
Úřad pro umělou inteligenci očekává, že diskuse s poskytovateli univerzálních modelů umělé inteligence se systémovým rizikem budou zahájeny v rané fázi vývoje. To je v souladu s povinností poskytovatelů univerzálních modelů UI, které splňují prahovou hodnotu pro výpočet odborné přípravy stanovenou v čl. 51 odst. 2 aktu o UI, „neprodleně a v každém případě do dvou týdnů poté, co je tento požadavek splněn nebo je známo, že bude splněn“ (čl. 52 odst. 1 aktu o UI). Školení univerzálních modelů UI vyžaduje značné plánování, které zahrnuje předběžné přidělení výpočetních zdrojů, a poskytovatelé univerzálních modelů UI jsou proto schopni vědět, zda jejich model splní prahovou hodnotu pro výpočet školení před dokončením školení (bod 112 odůvodnění aktu o UI).
Úřad pro umělou inteligenci má v úmyslu tuto otázku dále objasnit.
Univerzální modely UI mohou být dále upraveny nebo doladěny na nové modely (97. bod odůvodnění aktu o UI). Následné subjekty, které dolaďují nebo jinak upravují stávající univerzální model UI, se proto mohou stát poskytovateli nových modelů. Specifické okolnosti, za nichž se subjekt navazující na výrobní odvětví Unie stane poskytovatelem nového modelu, jsou obtížnou otázkou s potenciálně velkými hospodářskými důsledky, neboť mnoho organizací a jednotlivců dolaďuje nebo jinak upravuje univerzální modely UI vyvinuté jiným subjektem.
V případě změny nebo doladění stávajícího univerzálního modelu UI by povinnosti poskytovatelů univerzálních modelů UI stanovené v článku 53 aktu o UI měly být omezeny na změnu nebo doladění, například doplněním již existující technické dokumentace o informace o změnách (109. bod odůvodnění). Povinnosti poskytovatelů univerzálních modelů UI se systémovým rizikem podle článku 55 aktu o UI by se měly uplatňovat pouze v jasně vymezených případech. Úřad pro umělou inteligenci má v úmyslu tuto otázku dále objasnit.
Bez ohledu na to, zda je navazující subjekt, který začleňuje univerzální model UI do systému UI, považován za poskytovatele univerzálního modelu UI, musí tento subjekt splňovat příslušné požadavky a povinnosti vyplývající pro systémy UI z aktu o UI.
Na základě článku 56 aktu o UI by obecný kodex zásad UI měl podrobně stanovit způsob, jakým mohou poskytovatelé univerzálních modelů UI a univerzálních modelů UI se systémovým rizikem plnit své povinnosti podle aktu o UI. Úřad pro umělou inteligenci usnadňuje vypracování tohoto kodexu se čtyřmi pracovními skupinami, jimž předsedají nezávislí odborníci a do nichž je zapojeno téměř 1000 zúčastněných stran, zástupci členských států EU a evropští a mezinárodní pozorovatelé.
Přesněji řečeno, kodex by měl uvádět alespoň to, jak mohou poskytovatelé univerzálních modelů UI plnit povinnosti stanovené v článcích 53 a 55 aktu o UI. To znamená, že lze očekávat, že kodex zásad bude mít dvě části: jeden, který se vztahuje na poskytovatele všech univerzálních modelů UI (článek 53), a druhý, který se vztahuje pouze na poskytovatele univerzálních modelů UI se systémovým rizikem (článek 55).
Kodex by se neměl zabývat mimo jiné těmito otázkami: definování klíčových pojmů a definic z aktu o UI (jako je „obecný model UI“), aktualizace kritérií nebo prahových hodnot pro klasifikaci univerzálního modelu UI jako univerzálního modelu UI se systémovým rizikem (článek 51), nastínění toho, jak bude Úřad pro UI vymáhat povinnosti poskytovatelů univerzálních modelů UI (kapitola IX oddíl 5), a otázky týkající se pokut, sankcí a odpovědnosti.
Tyto otázky lze místo toho řešit jinými prostředky (rozhodnutími, akty v přenesené pravomoci, prováděcími akty, dalšími sděleními úřadu pro umělou inteligenci atd.).
Kodex zásad však může zahrnovat závazky poskytovatelů univerzálních modelů UI, kteří kodex podepíší, zdokumentovat a oznamovat další informace a zapojit úřad pro UI a třetí strany v průběhu celého životního cyklu modelu, pokud je to považováno za nezbytné k tomu, aby poskytovatelé účinně plnili své povinnosti podle aktu o UI.
Akt o UI rozlišuje mezi systémy UI a modely UI a ukládá požadavky na některé systémy UI (kapitoly II–IV) a povinnosti poskytovatelům univerzálních modelů UI (kapitola V). Zatímco ustanovení aktu o UI týkající se systémů UI závisí na kontextu používání systému, ustanovení aktu o UI týkající se univerzálních modelů UI se vztahují na samotný model bez ohledu na to, jaké je nebo bude jeho konečné použití. Kodex by se měl vztahovat pouze na povinnosti stanovené v aktu o umělé inteligenci pro poskytovatele univerzálních modelů umělé inteligence.
Mezi těmito dvěma soubory pravidel však existují interakce, neboť univerzální modely UI jsou obvykle začleněny do systémů UI a tvoří jejich součást. Pokud poskytovatel univerzálního modelu UI začlení tento model do systému UI, musí splnit povinnosti poskytovatelů univerzálních modelů UI, a pokud systém UI spadá do oblasti působnosti aktu o UI, musí splnit požadavky na systémy UI. Pokud následný poskytovatel začlení univerzální model UI do systému UI, musí poskytovatel univerzálního modelu UI spolupracovat s následným poskytovatelem systému UI s cílem zajistit, aby tento mohl plnit své povinnosti podle aktu o UI, pokud systém UI spadá do oblasti působnosti aktu o UI (například poskytnutím určitých informací navazujícímu poskytovateli).
Vzhledem k těmto interakcím mezi modely a systémy a mezi povinnostmi a požadavky pro každý z nich se důležitá otázka, na níž je Kodex zásad založen, týká toho, která opatření jsou vhodná na úrovni modelu a která je třeba místo toho přijmout na úrovni systému.
Kodex by měl stanovit své cíle, závazky, opatření a případně klíčové ukazatele výkonnosti (KPI) pro měření dosažení svých cílů. Závazky, opatření a klíčové ukazatele výkonnosti týkající se povinností vztahujících se na poskytovatele všech univerzálních modelů UI by měly náležitě zohledňovat velikost poskytovatele a umožňovat zjednodušené způsoby dodržování předpisů pro malé a střední podniky, včetně začínajících podniků, které by neměly představovat nadměrné náklady a neměly by odrazovat od používání těchto modelů (bod odůvodnění 109 aktu o UI). Závazky týkající se podávání zpráv v souvislosti s povinnostmi vztahujícími se na poskytovatele univerzálních modelů UI se systémovým rizikem by navíc měly odrážet rozdíly ve velikosti a kapacitě mezi různými poskytovateli (čl. 56 odst. 5 aktu o UI) a zároveň zajistit, aby byly přiměřené rizikům (čl. 56 odst. 2 písm. d) aktu o UI).
Po zveřejnění třetího návrhu kodexu se očekává, že v nadcházejících měsících proběhne ještě jedno kolo přípravy. Třináct předsedů a místopředsedů, kteří pocházejí z různých prostředí v oblasti informatiky, řízení umělé inteligence a práva, odpovídá za syntézu příspěvků z mnohostranných konzultací a diskusí s plenárním zasedáním o kodexu zásad, které se skládá z přibližně 1 000 zúčastněných stran. Tento iterativní proces povede ke konečnému kodexu zásad, který by měl odrážet různá podání a zároveň zajistit vhodnou reflexi toho, jak dosáhnout souladu s aktem o umělé inteligenci.
Na základě čl. 56 odst. 9 musí být „kodexy správné praxe připraveny nejpozději do 2. května 2025“, aby měli poskytovatelé dostatek času před tím, než se pravidla GPAI stanou použitelnými dne 2. srpna 2025.
Po dokončení kodexu „Úřad pro umělou inteligenci a sbor posoudí, zda se kodexy zásad vztahují na povinnosti stanovené v článcích 53 a 55 (...). Zveřejní své posouzení přiměřenosti kodexů správné praxe. Komise může prostřednictvím prováděcího aktu schválit kodex zásad a propůjčit mu obecnou platnost v rámci Unie.“ (čl. 56 odst. 6 aktu o umělé inteligenci).
Pokud je kodex zásad schválen prováděcím aktem, získává obecnou platnost, což znamená, že dodržování kodexu se stává prostředkem k prokázání souladu s aktem o umělé inteligenci, aniž by poskytoval předpoklad souladu s aktem o umělé inteligenci. Poskytovatelé mohou rovněž prokázat soulad s aktem o umělé inteligenci jinými způsoby. V takovém případě by se od poskytovatelů očekávalo, že přijmou opatření k zajištění souladu se svými povinnostmi vyplývajícími z aktu o umělé inteligenci, která budou přiměřená, účinná a přiměřená a která mohou zahrnovat podávání zpráv úřadu pro umělou inteligenci.
Na základě aktu o umělé inteligenci jsou dalšími právními účinky kodexu, že úřad pro umělou inteligenci může při sledování jeho účinného provádění a souladu s aktem o umělé inteligenci zohlednit dodržování kodexu ze strany poskytovatele (čl. 89 odst. 1 aktu o umělé inteligenci) a může příznivě zohlednit závazky přijaté v kodexu při stanovování výše pokut v závislosti na konkrétních okolnostech (čl. 101 odst. 1 aktu o umělé inteligenci).
A konečně, „nemůže-li být kodex zásad do 2. srpna 2025 dokončen nebo považuje-li jej Úřad pro umělou inteligenci na základě svého posouzení podle odstavce 6 tohoto článku za nedostatečný, může Komise prostřednictvím prováděcích aktů stanovit společná pravidla pro provádění povinností stanovených v článcích 53 a 55, včetně otázek stanovených v odstavci 2 tohoto článku“ (čl. 56 odst. 9 aktu o umělé inteligenci).
Na základě čl. 56 odst. 8 aktu o umělé inteligenci „Úřad pro umělou inteligenci podle potřeby rovněž podporuje a usnadňuje přezkum a přizpůsobení kodexů správné praxe, zejména s ohledem na nově vznikající normy“. Třetí návrh kodexu zásad obsahuje navrhovaný mechanismus pro jeho přezkum a aktualizaci.
Úřad pro umělou inteligenci bude dohlížet na povinnosti stanovené v aktu o umělé inteligenci pro poskytovatele univerzálních modelů umělé inteligence (článek 88 aktu o umělé inteligenci) a výjimečně na povinnosti poskytovatelů systémů umělé inteligence založených na univerzálních modelech umělé inteligence, pokud jsou poskytovatel modelu a systém stejní (čl. 75 odst. 1 aktu o umělé inteligenci). Úřad pro umělou inteligenci bude mimo jiné podporovat příslušné orgány dozoru nad trhem členských států při prosazování požadavků na systémy UI (čl. 75 odst. 2 a 3 aktu o UI). Prosazování ze strany Úřadu pro umělou inteligenci je podpořeno pravomocemi, které mu byly svěřeny aktem o umělé inteligenci, konkrétně pravomocemi požadovat informace (článek 91 aktu o umělé inteligenci), provádět hodnocení univerzálních modelů umělé inteligence (článek 92 aktu o umělé inteligenci), požadovat opatření od poskytovatelů, včetně provádění zmírňování rizik, a stáhnout model z trhu (článek 93 aktu o umělé inteligenci), a ukládat pokuty až do výše 3 % celosvětového ročního obratu nebo 15 milionů EUR, podle toho, která hodnota je vyšší (článek 101 aktu o umělé inteligenci).
Related content
První obecný kodex zásad UI bude podrobně popisovat pravidla aktu o UI pro poskytovatele univerzálních modelů UI a univerzálních modelů UI se systémovými riziky.