Akt o umelej inteligencii je vôbec prvým právnym rámcom pre umelú inteligenciu, ktorý rieši riziká umelej inteligencie a stavia Európu do vedúcej úlohy na celom svete.
Akt o umelej inteligencii [nariadenie (EÚ) 2024/1689, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie] je vôbec prvým komplexným právnym rámcom pre umelú inteligenciu na celom svete. Cieľom pravidiel je podporiť dôveryhodnú umelú inteligenciu v Európe. Všetky otázky týkajúce sa aktu o umelej inteligencii nájdete na jednotnej informačnej platforme aktu o umelej inteligencii.
V akte o umelej inteligencii sa stanovuje jasný súbor pravidiel založených na riziku pre vývojárov a nasadzujúce subjekty umelej inteligencie, pokiaľ ide o konkrétne použitia umelej inteligencie. Akt o umelej inteligencii je súčasťou širšieho balíka politických opatrení na podporu rozvoja dôveryhodnej umelej inteligencie, ktorý zahŕňa aj inovačný balík v oblasti umelej inteligencie a spustenie tovární umelej inteligencie. Tieto opatrenia spoločne zaručujú bezpečnosť, základné práva a umelú inteligenciu zameranú na človeka a posilňujú zavádzanie, investície a inovácie v oblasti umelej inteligencie v celej EÚ.
S cieľom uľahčiť prechod na nový regulačný rámec Komisia spustila pakt o umelej inteligencii, dobrovoľnú iniciatívu, ktorej cieľom je podporiť budúce vykonávanie, spolupracovať so zainteresovanými stranami a vyzvať poskytovateľov umelej inteligencie a nasadzujúce subjekty z Európy aj mimo nej, aby včas splnili kľúčové povinnosti aktu o umelej inteligencii. Informačnéstredisko pre akt o umelej inteligenciizároveň poskytuje informácie a podporu pre bezproblémové a účinné vykonávanie aktu o umelej inteligencii v celej EÚ.
Prečo potrebujeme pravidlá pre umelú inteligenciu?
Aktom o umelej inteligencii sa zabezpečuje, aby Európania mohli dôverovať tomu, čo umelá inteligencia ponúka. Hoci väčšina systémov umelej inteligencie nepredstavuje žiadne riziko a môže prispieť k riešeniu mnohých spoločenských výziev, niektoré systémy umelej inteligencie vytvárajú riziká, ktoré musíme riešiť, aby sme sa vyhli nežiaducim výsledkom.
Často napríklad nie je možné zistiť, prečo systém umelej inteligencie prijal rozhodnutie alebo predpoveď a prijal konkrétne opatrenie. Preto môže byť ťažké posúdiť, či bol niekto nespravodlivo znevýhodnený, napríklad v rozhodnutí o prijatí do zamestnania alebo v žiadosti o systém verejných dávok.
Hoci existujúce právne predpisy poskytujú určitú ochranu, nepostačujú na riešenie osobitných výziev, ktoré môžu systémy umelej inteligencie priniesť.
Prístup založený na riziku
V akte o umelej inteligencii sa vymedzujú štyri úrovne rizika pre systémy umelej inteligencie:

Neprijateľné riziko
Všetky systémy umelej inteligencie, ktoré sa považujú za jasnú hrozbu pre bezpečnosť, živobytie a práva ľudí, sú zakázané. V akte o umelej inteligencii sa zakazuje osem praktík, konkrétne:
- škodlivá manipulácia a klamanie založené na umelej inteligencii
- škodlivé využívanie zraniteľností založené na umelej inteligencii
- sociálne bodovanie
- Posúdenie alebo predpoveď rizika individuálneho trestného činu
- necielené škrabanie internetového materiálu alebo materiálu CCTV na vytvorenie alebo rozšírenie databáz rozpoznávania tváre
- rozpoznávanie emócií na pracoviskách a vo vzdelávacích inštitúciách
- biometrická kategorizácia na odvodenie určitých chránených charakteristík
- diaľková biometrická identifikácia v reálnom čase na účely presadzovania práva vo verejne prístupných priestoroch
Vysoké riziko
Prípady použitia umelej inteligencie, ktoré môžu predstavovať vážne riziká pre zdravie, bezpečnosť alebo základné práva, sa klasifikujú ako vysokorizikové. Medzi tieto vysokorizikové prípady použitia patria:
- Bezpečnostné komponenty umelej inteligencie v kritických infraštruktúrach (napr. v doprave), ktorých zlyhanie by mohlo ohroziť život a zdravie občanov
- Riešenia umelej inteligencie používané vo vzdelávacích inštitúciách, ktoré môžu určovať prístup k vzdelávaniu a priebeh profesionálneho života osoby (napr. bodovanie skúšok)
- Bezpečnostné komponenty výrobkov založené na umelej inteligencii (napr. aplikácia umelej inteligencie v robotickej chirurgii)
- Nástroje umelej inteligencie na zamestnávanie, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti (napr. softvér na triedenie životopisov na účely náboru)
- Niektoré prípady použitia umelej inteligencie využívané na poskytovanie prístupu k základným súkromným a verejným službám (napr. bodové hodnotenie úverov, ktorým sa občanom odopiera možnosť získať úver)
- systémy umelej inteligencie používané na diaľkovú biometrickú identifikáciu, rozpoznávanie emócií a biometrickú kategorizáciu (napr. systém umelej inteligencie na spätnú identifikáciu obchodníka)
- Prípady použitia umelej inteligencie pri presadzovaní práva, ktoré môžu zasahovať do základných práv ľudí (napr. hodnotenie spoľahlivosti dôkazov)
- Prípady použitia umelej inteligencie pri riadení migrácie, azylu a kontroly hraníc (napr. automatizované preskúmanie žiadostí o víza)
- Riešenia umelej inteligencie používané pri výkone spravodlivosti a demokratických procesov (napr. riešenia umelej inteligencie na prípravu súdnych rozhodnutí)
Vysokorizikové systémy umelej inteligencie podliehajú pred uvedením na trh prísnym povinnostiam:
- primerané systémy hodnotenia a zmierňovania rizika
- vysoká kvalita súborov údajov vstupujúcich do systému s cieľom minimalizovať riziká diskriminačných výsledkov
- zaznamenávanie činnosti s cieľom zabezpečiť vysledovateľnosť výsledkov
- podrobnú dokumentáciu poskytujúcu všetky potrebné informácie o systéme a jeho účele pre orgány na posúdenie jeho súladu
- jasné a primerané informácie pre nasadzujúci subjekt
- primerané opatrenia ľudského dohľadu
- vysoká úroveň spoľahlivosti, kybernetickej bezpečnosti a presnosti
Obmedzené riziko
Týka sa to rizík spojených s potrebou transparentnosti v súvislosti s používaním umelej inteligencie. Aktom o umelej inteligencii sa zavádzajú osobitné povinnosti zverejňovania s cieľom zabezpečiť, aby boli ľudia informovaní, keď je to potrebné na zachovanie dôvery. Napríklad pri používaní systémov umelej inteligencie, ako sú chatboty, by ľudia mali byť informovaní o tom, že komunikujú so strojom, aby mohli prijať informované rozhodnutie.
Poskytovatelia generatívnej umelej inteligencie musia okrem toho zabezpečiť, aby bol obsah vytvorený umelou inteligenciou identifikovateľný. Okrem toho by mal byť určitý obsah vytvorený umelou inteligenciou jasne a viditeľne označený, konkrétne deepfakes a text uverejnený s cieľom informovať verejnosť o záležitostiach verejného záujmu.
Minimálne alebo žiadne riziko
Aktom o umelej inteligencii sa nezavádzajú pravidlá pre umelú inteligenciu, ktorá sa považuje za minimálne alebo žiadne riziko. Do tejto kategórie patrí prevažná väčšina systémov umelej inteligencie, ktoré sa v súčasnosti používajú v EÚ. Patria sem aplikácie, ako sú videohry s podporou umelej inteligencie alebo spamové filtre.
Ako to všetko funguje v praxi pre poskytovateľov vysokorizikových systémov umelej inteligencie?
Ako to všetko funguje v praxi pre poskytovateľov vysokorizikových systémov umelej inteligencie?
Po uvedení systému umelej inteligencie na trh sú za dohľad nad trhom zodpovedné orgány, nasadzujúce subjekty zabezpečujú ľudský dohľad a monitorovanie a poskytovatelia majú zavedený systém monitorovania po uvedení na trh. Poskytovatelia a nasadzujúce subjekty budú takisto nahlasovať závažné incidenty a poruchy.
Riešenie pre dôveryhodné používanie veľkých modelov umelej inteligencie
Modely umelej inteligencie na všeobecné účely (GPAI) môžu vykonávať širokú škálu úloh a stávajú sa základom mnohých systémov umelej inteligencie v EÚ. Niektoré z týchto modelov by mohli predstavovať systémové riziká, ak sú veľmi schopné alebo široko používané. S cieľom zaistiť bezpečnú a dôveryhodnú umelú inteligenciu sa v akte o umelej inteligencii zavádzajú pravidlá pre poskytovateľov takýchto modelov. To zahŕňa transparentnosť a pravidlá súvisiace s autorskými právami. V prípade modelov, ktoré môžu niesť systémové riziká, by poskytovatelia mali tieto riziká posúdiť a zmierniť. Pravidlá aktu o umelej inteligencii týkajúce sa GPAI nadobudli účinnosť od augusta 2025.
Podpora dodržiavania predpisov
V júli 2025 Komisia zaviedla tri kľúčové nástroje na podporu zodpovedného vývoja a zavádzania modelov GPAI:
- V usmerneniach k rozsahu povinností poskytovateľov modelov GPAI sa objasňuje rozsah povinností GPAI podľa aktu o umelej inteligencii, čo pomáha aktérom v celom hodnotovom reťazci umelej inteligencie pochopiť, kto musí tieto povinnosti dodržiavať.
- Kódex postupov GPAI je dobrovoľný nástroj na zabezpečenie súladu, ktorý Komisii predložili nezávislí experti a ktorý ponúka praktické usmernenia s cieľom pomôcť poskytovateľom plniť si povinnosti podľa aktu o umelej inteligencii týkajúce sa transparentnosti, autorských práv a bezpečnosti a ochrany.
- Vo vzore verejného zhrnutia obsahu odbornej prípravy modelov GPAI sa od poskytovateľov vyžaduje, aby poskytli prehľad údajov použitých na odbornú prípravu svojich modelov. Zahŕňa to zdroje, z ktorých boli údaje získané (pozostávajúce z veľkých súborov údajov a hlavných názvov domén). Vo vzore sa požadujú aj informácie o aspektoch spracúvania údajov, aby strany s oprávnenými záujmami mohli uplatňovať svoje práva podľa práva EÚ.
Tieto nástroje sú navrhnuté tak, aby pracovali ruka v ruke. Spoločne poskytujú jasný a realizovateľný rámec pre poskytovateľov modelov GPAI na dosiahnutie súladu s aktom o umelej inteligencii, zníženie administratívnej záťaže a podporu inovácií pri súčasnom zabezpečení základných práv a dôvery verejnosti.
Riadenie a vykonávanie
Európsky úrad pre umelú inteligenciu a orgány členských štátov sú zodpovedné za vykonávanie aktu o umelej inteligencii, dohľad nad ním a jeho presadzovanie. Rada pre umelú inteligenciu, vedecká skupina a poradné fórum riadia a poskytujú poradenstvo v oblasti riadenia aktu o umelej inteligencii. Viac informácií o riadení a presadzovaní aktu o umelej inteligencii.
Harmonogram podávania prihlášok
Akt o umelej inteligencii nadobudol účinnosť 1. augusta 2024 a v plnej miere sa začne uplatňovať o dva roky neskôr, 2. augusta 2026, s niekoľkými výnimkami:
- zákazy a povinnosti týkajúce sa gramotnosti v oblasti umelej inteligencie sa začali uplatňovať od 2. februára 2025
- pravidlá riadenia a povinnosti týkajúce sa modelov GPAI sa začali uplatňovať 2. augusta 2025
- pravidlá pre vysokorizikové systémy umelej inteligencie – zabudované do regulovaných výrobkov – majú predĺžené prechodné obdobie do 2. augusta 2027
Najnovšie správy
Politika a právne predpisy
- 04-11-2025Akt o umelej inteligencii: Komisia uverejňuje vzor na podávanie správ o závažných incidentoch týkajúcich sa modelov AI na všeobecné účely so systémovým rizikom
- 08-10-2025Oznámenie Komisie – Uplatňovať stratégiu v oblasti umelej inteligencie
- 01-08-2025Stanovisko Komisie k posúdeniu kódexu postupov pre umelú inteligenciu na všeobecné účely
Správa/štúdia
- 28-10-2025Formovanie a posilňovanie európskych talentov v oblasti umelej inteligencie
- 21-10-2025Výkonný podpredseda Virkkunen informoval Radu a Parlament o zjednodušení, vykonávaní a presadzovaní digitálneho súboru pravidiel
- 08-08-2025Štúdia o zavádzaní umelej inteligencie v zdravotnej starostlivosti
Prehľad/Infografika
Informačný leták
- 04-02-2025Archív údajov o živej prírode na podporu vzdelávania a výmeny informácií o gramotnosti v oblasti umelej inteligencie
- 04-03-2024Horizont Európa: nové projekty v oblasti umelej inteligencie, dát a robotiky – 2024 Edition
- 14-04-2021Nové projekty v oblasti robotiky v rámci programu Horizont 2020 2021
Súvisiaci obsah
Širšia perspektíva
Hlbší pohľad
-

Európsky úrad pre umelú inteligenciu a vnútroštátne orgány dohľadu nad trhom sú zodpovedné za...
-

Cieľom Komisie je zvýšiť počet odborníkov na umelú inteligenciu odbornou prípravou a prilákaním...