Skip to main content
Shaping Europe’s digital future

Akt o umelej inteligencii

Akt o umelej inteligencii je vôbec prvým právnym rámcom pre umelú inteligenciu, ktorý sa zaoberá rizikami umelej inteligencie a pozíciami Európy, aby zohrávala vedúcu úlohu na celom svete.

    muž a žena pracujú na high-tech obrazovke

© gorodenkoff - iStock Getty Images Plus

Cieľom aktu oumelej inteligencii je poskytnúť vývojárom a nasadzovateľom umelej inteligencie jasné požiadavky a povinnosti týkajúce sa konkrétnych použití umelej inteligencie. Cieľom nariadenia je zároveň znížiť administratívnu a finančnú záťaž pre podniky, najmä malé a stredné podniky (MSP).

Akt oumelej inteligencii je súčasťou širšieho balíka politických opatrení na podporu rozvoja dôveryhodnej umelej inteligencie, ktorý zahŕňa aj inovačný balík v oblasti umelej inteligencie a koordinovaný plán v oblasti umelej inteligencie. Tieto opatrenia spoločne zaručia bezpečnosť a základné práva ľudí a podnikov, pokiaľ ide o umelú inteligenciu. Takisto posilnia zavádzanie, investície a inovácie v oblasti umelej inteligencie v celej EÚ.

Zákon oumelej inteligencii je vôbec prvým komplexným právnym rámcom v oblasti umelej inteligencie na celom svete. Cieľom nových pravidiel je podporovať dôveryhodnú umelú inteligenciu v Európe aj mimo nej zabezpečením toho, aby systémy umelej inteligencie rešpektovali základné práva, bezpečnosť a etické zásady, a riešením rizík veľmi silných a vplyvných modelov umelej inteligencie.

Prečo potrebujeme pravidlá o umelej inteligencii?

Aktom o umelej inteligencii sa zabezpečuje, že Európania môžu dôverovať tomu, čo umelá inteligencia ponúka. Hoci väčšina systémov umelej inteligencie predstavuje obmedzené na žiadne riziko a môže prispieť k riešeniu mnohých spoločenských výziev, určité systémy umelej inteligencie vytvárajú riziká, ktoré musíme riešiť, aby sme sa vyhli nežiaducim výsledkom.

Napríklad často nie je možné zistiť, prečo systém umelej inteligencie urobil rozhodnutie alebo predpoveď a prijal konkrétne opatrenie. Preto môže byť ťažké posúdiť, či bol niekto nespravodlivo znevýhodnený, napríklad v rozhodnutí o prijatí do zamestnania alebo v žiadosti o verejnoprospešný systém.

Hoci existujúce právne predpisy poskytujú určitú ochranu, nie sú dostatočné na riešenie osobitných výziev, ktoré môžu systémy umelej inteligencie priniesť.

Navrhované pravidlá:

  • riešiť riziká osobitne vytvorené aplikáciami umelej inteligencie;
  • zakázať praktiky umelej inteligencie, ktoré predstavujú neprijateľné riziká;
  • určiť zoznam vysokorizikových aplikácií;
  • stanoviť jasné požiadavky na systémy umelej inteligencie pre vysokorizikové aplikácie;
  • vymedziť osobitné povinnosti nasadzujúce subjekty a poskytovateľov vysokorizikových aplikácií umelej inteligencie;
  • požadovať posúdenie zhody pred uvedením daného systému umelej inteligencie do prevádzky alebo pred uvedením na trh;
  • zaviesť presadzovanie po uvedení daného systému umelej inteligencie na trh;
  • vytvoriť štruktúru riadenia na európskej a vnútroštátnej úrovni.

Prístup založený na riziku

V regulačnom rámci sa vymedzujú štyri úrovne rizika pre systémy umelej inteligencie:

pyramída zobrazujúca štyri úrovne rizika: Neprijateľné riziko; Vysokorizikové; obmedzené riziko, minimálne alebo žiadne riziko

 

Všetkým systémom umelej inteligencie, ktoré sa považujú za jasnú hrozbu pre bezpečnosť, živobytie a práva ľudí, sa zakáže sociálne hodnotenie zo strany vlád až po hračky využívajúce hlasovú pomoc, ktorá podporuje nebezpečné správanie.

Vysoké riziko

Systémy umelej inteligencie identifikované ako vysokorizikové zahŕňajú technológiu umelej inteligencie používanú v:

  • kritické infraštruktúry (napr. doprava), ktoré by mohli ohroziť život a zdravie občanov;
  • vzdelávanie alebo odborná príprava, ktorá môže určovať prístup k vzdelaniu a odbornému kurzu niekoho života (napr. bodovanie skúšok);
  • bezpečnostné komponenty výrobkov (napr. aplikácia umelej inteligencie v chirurgii asistovanej robotom);
  • zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti (napr. softvér na triedenie životopisov pre postupy prijímania zamestnancov);
  • základné súkromné a verejné služby (napr. bodové hodnotenie úverov, ktoré občanom znemožňuje získať pôžičku);
  • presadzovanie práva, ktoré môže zasahovať do základných práv ľudí (napr. hodnotenie spoľahlivosti dôkazov),
  • riadenie migrácie, azylu a kontroly hraníc (napr. automatizované posudzovanie žiadostí o víza);
  • výkon spravodlivosti a demokratických procesov (napr. riešenia umelej inteligencie na vyhľadávanie súdnych rozhodnutí).

Vysokorizikové systémy umelej inteligencie budú podliehať prísnym povinnostiam pred ich uvedením na trh:

  • primerané systémy posudzovania a zmierňovania rizika;
  • vysoká kvalita súborov údajov, ktoré sú súčasťou systému, aby sa minimalizovali riziká a diskriminačné výsledky;
  • zaznamenávanie činností s cieľom zabezpečiť vysledovateľnosť výsledkov;
  • podrobnú dokumentáciu poskytujúcu všetky potrebné informácie o systéme a jeho účele pre orgány na posúdenie jeho súladu;
  • jasné a primerané informácie pre nasadzujúceho subjektu;
  • primerané opatrenia ľudského dohľadu na minimalizáciu rizika;
  • vysoká úroveň robustnosti, bezpečnosti a presnosti.

Všetky systémy diaľkovej biometrickej identifikácie sa považujú za vysokorizikové a podliehajú prísnym požiadavkám. Používanie diaľkovej biometrickej identifikácie vo verejne prístupných priestoroch na účely presadzovania práva je v zásade zakázané.

Prísne sa vymedzujú a regulujú úzke výnimky, napríklad ak je to potrebné na vyhľadávanie nezvestného dieťaťa, na zabránenie konkrétnej a bezprostrednej teroristickej hrozbe alebo na odhaľovanie, lokalizáciu, identifikáciu alebo stíhanie páchateľa alebo podozrivého zo závažného trestného činu.

Tieto použitia podliehajú schváleniu súdnym alebo iným nezávislým orgánom a primeraným časovým obmedzeniam, geografickému dosahu a vyhľadávaným databázam.

Obmedzené riziko

Obmedzené rizikosúvisí s rizikami spojenými s nedostatočnou transparentnosťou používania umelej inteligencie. Aktom o umelej inteligencii sa zavádzajú osobitné povinnosti týkajúce sa transparentnosti s cieľom zabezpečiť, aby boli ľudia v prípade potreby informovaní, čím sa posilní dôvera. Napríklad pri používaní systémov umelej inteligencie, ako sú chatboty, by ľudia mali byť informovaní o tom, že interagujú so strojom, aby sa mohli informovane rozhodnúť, či budú pokračovať alebo ustúpiť. Poskytovatelia budú musieť tiež zabezpečiť, aby bol obsah vytvorený umelou inteligenciou identifikovateľný. Okrem toho text vytvorený umelou inteligenciou, ktorý sa uverejňuje s cieľom informovať verejnosť o záležitostiach verejného záujmu, musí byť označený ako umelo vytvorený. To platí aj pre audio a video obsah, ktorý predstavuje hlboké falzifikáty.

Minimálne alebo žiadne riziko

Zákon o umelej inteligencii umožňuje bezplatné používanie umelej inteligencie s minimálnym rizikom. Patria sem aplikácie, ako sú videohry založené na umelej inteligencii alebo spamové filtre. Prevažná väčšina systémov umelej inteligencie, ktoré sa v súčasnosti používajú v EÚ, patrí do tejto kategórie.

Ako to všetko funguje v praxi pre poskytovateľov vysokorizikových systémov umelej inteligencie?

postupný postup vyhlásenia o zhode
How does it all work in practice for providers of high risk AI systems?

Po uvedení systému umelej inteligencie na trh sú orgány zodpovedné za dohľad nad trhom, nasadzujúce subjekty zabezpečujú ľudský dohľad a monitorovanie a poskytovatelia majú zavedený systém monitorovania po uvedení na trh. Poskytovatelia a nasadzujúce subjekty nahlasujú aj závažné incidenty a nesprávne fungovanie.

Riešenie pre dôveryhodné používanie veľkých modelov umelej inteligencie

Čoraz viac sa univerzálne modely umelej inteligencie stávajú komponentmi systémov umelej inteligencie. Tieto modely môžu vykonávať a prispôsobovať nespočetné množstvo rôznych úloh.

Zatiaľ čo všeobecné modely umelej inteligencie môžu umožniť lepšie a výkonnejšie riešenia umelej inteligencie, je ťažké dohliadať na všetky schopnosti.

Aktom o umelej inteligencii sa zavádzajú povinnosti týkajúce sa transparentnosti pre všetky modely umelej inteligencie na všeobecné účely s cieľom umožniť lepšie pochopenie týchto modelov a dodatočné povinnosti v oblasti riadenia rizík pre veľmi schopné a vplyvné modely. Tieto dodatočné povinnosti zahŕňajú sebahodnotenie a zmierňovanie systémových rizík, ohlasovanie závažných incidentov, vykonávanie testov a hodnotení modelov, ako aj požiadavky na kybernetickú bezpečnosť.

Nadčasové právne predpisy

Keďže umelá inteligencia je rýchlo sa vyvíjajúcou technológiou, návrh má nadčasový prístup, ktorý umožňuje pravidlá prispôsobiť sa technologickým zmenám. Aplikácie umelej inteligencie by mali zostať dôveryhodné aj po uvedení na trh. To si vyžaduje nepretržitú kvalitu a riadenie rizík zo strany poskytovateľov.

Presadzovanie a vykonávanie

Európsky úrad pre umelú inteligenciu, zriadený vo februári 2024 v rámci Komisie, dohliada na presadzovanie a vykonávanie aktu o umelej inteligencii spolu s členskými štátmi. Jeho cieľom je vytvoriť prostredie, v ktorom technológie umelej inteligencie rešpektujú ľudskú dôstojnosť, práva a dôveru. Podporuje tiež spoluprácu, inovácie a výskum v oblasti umelej inteligencie medzi rôznymi zainteresovanými stranami. Okrem toho sa zapája do medzinárodného dialógu a spolupráce v otázkach umelej inteligencie, pričom uznáva potrebu globálneho zosúladenia správy umelej inteligencie. Prostredníctvom tohto úsilia sa Európsky úrad pre umelú inteligenciu usiluje o postavenie Európy ako lídra v etickom a udržateľnom rozvoji technológií umelej inteligencie.

Ďalšie kroky

Európsky parlament a Rada EÚ dosiahli vdecembri 2023 politickú dohodu o akte o umelej inteligencii. Znenie sa formálne prijíma a prekladá. Akt o umelej inteligencii nadobudne účinnosť 20 dní po jeho uverejnení v úradnom vestníku a bude plne uplatniteľný o dva roky neskôr, s niekoľkými výnimkami: zákazy nadobudnú účinnosť po šiestich mesiacoch, pravidlá riadenia a povinnosti pre modely umelej inteligencie na všeobecné účely sa začnú uplatňovať po 12 mesiacoch a pravidlá pre systémy umelej inteligencie zabudované do regulovaných produktov sa budú uplatňovať po 36 mesiacoch. S cieľom uľahčiť prechod na nový regulačný rámec Komisia spustila pakt o umelej inteligencii, dobrovoľnú iniciatívu, ktorej cieľom je podporiť budúce vykonávanie, a vyzýva vývojárov umelej inteligencie z Európy i mimo nej, aby včas dodržiavali kľúčové povinnosti vyplývajúce z aktu o umelej inteligencii.

Najnovšie správy

Komisia investuje 112 miliónov EUR do umelej inteligencie a kvantového výskumu a inovácií

Európska komisia dnes uverejnila výzvy na predkladanie návrhov v rámci pracovného programu Horizont Európa pre digitálny, priemyselný a vesmírny výskum a inovácie v oblasti umelej inteligencie a kvantových technológií na roky 2023 – 2024.

Súvisiaci obsah

Širšia perspektíva

Európsky prístup k umelej inteligencii

Prístup EÚ k umelej inteligencii sa zameriava na excelentnosť a dôveru s cieľom posilniť výskumnú a priemyselnú kapacitu a zároveň zaistiť bezpečnosť a základné práva.

Hlbší pohľad

Pakt o umelej inteligencii

Pakt o umelej inteligencii bude podnecovať a podporovať spoločnosti pri plánovaní opatrení stanovených v akte o umelej inteligencii.

Pozri aj

Koordinovaný plán v oblasti umelej inteligencie

Cieľom koordinovaného plánu v oblasti umelej inteligencie je urýchliť investície do umelej inteligencie, vykonávať stratégie a programy v oblasti umelej inteligencie a zosúladiť politiku v oblasti umelej inteligencie s cieľom zabrániť fragmentácii v Európe.

Európska aliancia pre umelú inteligenciu

Európska aliancia pre umelú inteligenciu je iniciatívou Európskej komisie na vytvorenie otvoreného politického dialógu o umelej inteligencii. Aliancia pre umelú inteligenciu od svojho založenia v roku 2018 zapojila približne 6000 zainteresovaných strán prostredníctvom...