Skip to main content
Shaping Europe’s digital future

Akt o umelej inteligencii

Akt o umelej inteligencii je vôbec prvým právnym rámcom pre umelú inteligenciu, ktorý rieši riziká spojené s umelou inteligenciou a stavia Európu do vedúcej pozície na celosvetovej úrovni.

Akt o umelej inteligencii [nariadenie(EÚ) 2024/1689, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie]poskytuje vývojárom a nasadzujúcim subjektom umelej inteligencie jasné požiadavky a povinnosti týkajúce sa konkrétnych použití umelej inteligencie. Cieľom nariadenia je zároveň znížiť administratívne a finančné zaťaženie podnikov, najmä malých a stredných podnikov (MSP).

Akt o umelej inteligencii je súčasťou širšieho balíka politických opatrení na podporu rozvoja dôveryhodnej umelej inteligencie, ktorý zahŕňa ajinovačný balík v oblasti umelej inteligencie a koordinovaný plán v oblasti umelej inteligencie. Tieto opatrenia spoločne zaručujú bezpečnosť a základné práva ľudí a podnikov, pokiaľ ide o umelú inteligenciu. Takisto posilňujú zavádzanie, investície a inovácie v oblasti umelej inteligencie v celej EÚ.

Akt oumelej inteligencii je vôbec prvým komplexným právnym rámcom pre umelú inteligenciu na celom svete. Cieľom nových pravidiel je podporiť dôveryhodnú umelú inteligenciu v Európe aj mimo nej zabezpečením toho, aby systémy umelej inteligencie rešpektovali základné práva, bezpečnosť a etické zásady, a riešením rizík veľmi silných a účinných modelov umelej inteligencie.

Prečo potrebujeme pravidlá o umelej inteligencii?

Akt o umelej inteligencii zabezpečuje, aby Európania mohli dôverovať tomu, čo umelá inteligencia ponúka. Zatiaľ čo väčšina systémov umelej inteligencie predstavuje obmedzené riziko a môže prispieť k riešeniu mnohých spoločenských výziev, niektoré systémy umelej inteligencie vytvárajú riziká, ktoré musíme riešiť, aby sme sa vyhli nežiaducim výsledkom.

Často napríklad nie je možné zistiť, prečo systém umelej inteligencie prijal rozhodnutie alebo predpoveď a prijal konkrétne opatrenie. Preto môže byť ťažké posúdiť, či niekto nebol nespravodlivo znevýhodnený, napríklad v rozhodnutí o prijatí do zamestnania alebo v žiadosti o verejnoprospešný systém.

Hoci existujúce právne predpisy poskytujú určitú ochranu, nepostačujú na riešenie konkrétnych výziev, ktoré môžu systémy umelej inteligencie priniesť.

Nové pravidlá:

  • riešiť riziká osobitne vytvorené aplikáciami umelej inteligencie
  • zakázať praktiky umelej inteligencie, ktoré predstavujú neprijateľné riziká
  • určiť zoznam vysokorizikových aplikácií
  • stanoviť jasné požiadavky na systémy umelej inteligencie pre vysokorizikové aplikácie
  • vymedziť osobitné povinnosti nasadzujúcich subjektov a poskytovateľov vysokorizikových aplikácií umelej inteligencie
  • požadovať posúdenie zhody pred uvedením daného systému umelej inteligencie do prevádzky alebo na trh
  • zaviesť presadzovanie po uvedení daného systému umelej inteligencie na trh
  • vytvoriť riadiacu štruktúru na európskej a vnútroštátnej úrovni

Prístup založený na riziku

V regulačnom rámci sa vymedzujú štyri úrovne rizika pre systémy umelej inteligencie:

pyramída znázorňujúca štyri úrovne rizika: neprijateľné riziko; vysokorizikové; obmedzené riziko, minimálne riziko alebo žiadne riziko

 

Všetky systémy umelej inteligencie, ktoré sa považujú za jasnú hrozbu pre bezpečnosť, živobytie a práva ľudí, sú zakázané, od sociálneho bodovania vládami až po hračky využívajúce hlasovú pomoc, ktorá podporuje nebezpečné správanie.

Vysoké riziko

Medzi systémy umelej inteligencie identifikované ako vysokorizikové patria technológie umelej inteligencie používané pri:

  • kritická infraštruktúra (napr. doprava), ktorá by mohla ohroziť život a zdravie občanov
  • vzdelávanie alebo odborná príprava, ktoré môžu určovať prístup k vzdelaniu a profesionálnemu priebehu života (napr. bodovanie skúšok),
  • bezpečnostné komponenty výrobkov (napr. aplikácia umelej inteligencie v chirurgii s pomocou robota)
  • zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti (napr. softvér na triedenie životopisov pre postupy prijímania zamestnancov)
  • základné súkromné a verejné služby (napr. bodové hodnotenie kreditného rizika, ktorým sa občanom odopiera možnosť získať úver)
  • presadzovanie práva, ktoré môže zasahovať do základných práv ľudí (napr. hodnotenie spoľahlivosti dôkazov),
  • riadenie migrácie, azylu a kontroly hraníc (napr. automatizované posudzovanie žiadostí o víza)
  • výkon spravodlivosti a demokratických procesov (napr. riešenia umelej inteligencie na vyhľadávanie súdnych rozhodnutí)

Vysokorizikové systémy umelej inteligencie podliehajú pred uvedením na trh prísnym povinnostiam:

  • primerané systémy posudzovania a zmierňovania rizika
  • vysoká kvalita súborov údajov dodávaných do systému s cieľom minimalizovať riziká a diskriminačné výsledky
  • zaznamenávanie činnosti s cieľom zabezpečiť vysledovateľnosť výsledkov
  • podrobnú dokumentáciu poskytujúcu všetky potrebné informácie o systéme a jeho účele, aby orgány mohli posúdiť jeho súlad
  • jasné a primerané informácie pre nasadzujúci subjekt
  • primerané opatrenia ľudského dohľadu na minimalizáciu rizika
  • vysoká úroveň robustnosti, bezpečnosti a presnosti

Všetky systémy diaľkovej biometrickej identifikácie sa považujú za vysokorizikové a podliehajú prísnym požiadavkám. Používanie diaľkovej biometrickej identifikácie vo verejne prístupných priestoroch na účely presadzovania práva je v zásade zakázané.

Úzke výnimky sú prísne vymedzené a regulované, napríklad ak je to potrebné na pátranie po nezvestnom dieťati, na zabránenie konkrétnej a bezprostrednej teroristickej hrozbe alebo na odhalenie, lokalizáciu, identifikáciu alebo stíhanie páchateľa závažného trestného činu alebo osoby podozrivej zo spáchania závažného trestného činu.

Tieto použitia podliehajú schváleniu súdnym alebo iným nezávislým orgánom a primeraným časovým obmedzeniam, geografickému dosahu a vyhľadávaným databázam.

Obmedzené riziko

Obmedzené riziko súvisí s rizikamispojenými s nedostatočnou transparentnosťou pri používaní umelej inteligencie. Aktom o umelej inteligencii sa zavádzajú osobitné povinnosti týkajúce sa transparentnosti s cieľom zabezpečiť, aby boli ľudia v prípade potreby informovaní, čím sa posilňuje dôvera. Napríklad pri používaní systémov umelej inteligencie, ako sú chatboty, by ľudia mali byť informovaní o tom, že komunikujú so strojom, aby sa mohli informovane rozhodnúť, či budú pokračovať alebo ustúpia. Poskytovatelia musia takisto zabezpečiť, aby bol obsah vytvorený umelou inteligenciou identifikovateľný. Okrem toho sa text vytvorený umelou inteligenciou, ktorý bol uverejnený s cieľom informovať verejnosť o záležitostiach verejného záujmu, musí označiť za umelo vytvorený. To platí aj pre zvukový a obrazový obsah, ktorý predstavuje deepfake.

Minimálne alebo žiadne riziko

Akt o umelej inteligencii umožňuje bezplatné používanie umelej inteligencie s minimálnym rizikom. Patria sem aplikácie, ako sú videohry s podporou umelej inteligencie alebo spamové filtre. Do tejto kategórie patrí prevažná väčšina systémov umelej inteligencie, ktoré sa v súčasnosti používajú v EÚ.

Ako to všetko funguje v praxi pre poskytovateľov vysokorizikových systémov umelej inteligencie?

Postupné vyhlásenie o zhode
How does it all work in practice for providers of high risk AI systems?

 

Keď je systém umelej inteligencie na trhu, orgány sú zodpovedné za dohľad nad trhom, nasadzujúce subjekty zabezpečujú ľudský dohľad a monitorovanie a poskytovatelia majú zavedený systém monitorovania po uvedení na trh. Poskytovatelia a nasadzujúce subjekty budú nahlasovať aj závažné incidenty a poruchy.

Riešenie pre dôveryhodné používanie veľkých modelov umelej inteligencie

Čoraz viac modelov umelej inteligencie na všeobecné účely sa stáva súčasťou systémov umelej inteligencie. Tieto modely môžu vykonávať a prispôsobovať nespočetné množstvo rôznych úloh.

Hoci modely umelej inteligencie na všeobecné účely môžu umožniť lepšie a výkonnejšie riešenia umelej inteligencie, je ťažké dohliadať na všetky schopnosti.

V akte o umelej inteligencii sa zavádzajú povinnosti transparentnosti pre všetky modely umelej inteligencie na všeobecné účely s cieľom umožniť lepšie pochopenie týchto modelov a dodatočné povinnosti riadenia rizík pre veľmi schopné a vplyvné modely. Tieto dodatočné povinnosti zahŕňajú sebahodnotenie a zmierňovanie systémových rizík, oznamovanie závažných incidentov, vykonávanie hodnotení testov a modelov, ako aj požiadavky na kybernetickú bezpečnosť.

Nadčasové právne predpisy

Keďže umelá inteligencia je rýchlo sa vyvíjajúca technológia, nariadenie má nadčasový prístup, ktorý umožňuje prispôsobiť pravidlá technologickým zmenám. Aplikácie umelej inteligencie by mali zostať dôveryhodné aj po ich uvedení na trh. To si vyžaduje nepretržité riadenie kvality a rizík zo strany poskytovateľov.

Presadzovanie a vykonávanie

Na presadzovanie a vykonávanie aktu o umelej inteligencii v spolupráci s členskými štátmi dohliada Európsky úrad pre umelú inteligenciu zriadený vo februári 2024 v rámci Komisie. Jeho cieľom je vytvoriť prostredie, v ktorom technológie umelej inteligencie rešpektujú ľudskú dôstojnosť, práva a dôveru. Podporuje aj spoluprácu, inovácie a výskum v oblasti umelej inteligencie medzi rôznymi zainteresovanými stranami. Okrem toho sa zapája do medzinárodného dialógu a spolupráce v otázkach umelej inteligencie, pričom uznáva potrebu globálneho zosúladenia v oblasti riadenia umelej inteligencie. Prostredníctvom tohto úsilia sa Európsky úrad pre umelú inteligenciu usiluje o to, aby sa Európa stala lídrom v etickom a udržateľnom rozvoji technológií umelej inteligencie.

Ďalšie kroky

Akt oumelej inteligencii nadobudol účinnosť 1. augusta a bude sa plne uplatňovať o dva roky neskôr s niekoľkými výnimkami: zákazy nadobudnú účinnosť po šiestich mesiacoch, pravidlá riadenia a povinnosti pre modely umelej inteligencie na všeobecné účely sa začnú uplatňovať po 12 mesiacoch a pravidlá pre systémy umelej inteligencie, ktoré sú súčasťou regulovaných výrobkov, sa začnú uplatňovať po 36 mesiacoch. S cieľom uľahčiť prechod na nový regulačný rámec Komisia spustilapakt o umelej inteligencii,dobrovoľnú iniciatívu, ktorej cieľom je podporiť budúce vykonávanie, a vyzýva vývojárov umelej inteligencie z Európy aj mimo nej, aby si včas plnili kľúčové povinnosti vyplývajúce z aktu o umelej inteligencii.

Najnovšie správy

Komisia zverejnila prvý návrh Kódexu postupov pre umelú inteligenciu na všeobecné účely

Komisia dnes uverejnila prvý návrh Kódexu postupov pre umelú inteligenciu na všeobecné účely.

Súvisiaci obsah

Širšia perspektíva

Európsky prístup k umelej inteligencii

Prístup EÚ k umelej inteligencii sa sústreďuje na excelentnosť a dôveru s cieľom posilniť výskumnú a priemyselnú kapacitu a zároveň zaistiť bezpečnosť a základné práva.

Hlbší pohľad

Pakt o umelej inteligencii

Pakt o umelej inteligencii nabáda a podporuje organizácie, aby vopred plánovali vykonávanie opatrení aktu o umelej inteligencii.

Pozri aj

Kódex postupov pre umelú inteligenciu na všeobecné účely

V prvom kódexe postupov pre umelú inteligenciu na všeobecné účely sa podrobne uvedú pravidlá aktu o umelej inteligencii pre poskytovateľov modelov umelej inteligencie na všeobecné účely a modelov umelej inteligencie na všeobecné účely so systémovými rizikami.

Koordinovaný plán v oblasti umelej inteligencie

Cieľom koordinovaného plánu v oblasti umelej inteligencie je urýchliť investície do umelej inteligencie, vykonávať stratégie a programy v oblasti umelej inteligencie a zosúladiť politiku v oblasti umelej inteligencie s cieľom zabrániť fragmentácii v rámci Európy.

Európska aliancia pre umelú inteligenciu

Európska aliancia pre umelú inteligenciu je iniciatívou Európskej komisie na vytvorenie otvoreného politického dialógu o umelej inteligencii. Aliancia pre umelú inteligenciu od svojho založenia v roku 2018 zapojila približne 6000 zainteresovaných strán prostredníctvom...