Skip to main content
Shaping Europe’s digital future

Akt o umjetnoj inteligenciji

Akt o umjetnoj inteligenciji prvi je pravni okvir za umjetnu inteligenciju koji se bavi rizicima umjetne inteligencije i stavlja Europu na vodeću ulogu na globalnoj razini.

    muškarac i žena rade na zaslonu visoke tehnologije

© gorodenkoff - iStock Getty Images Plus

Ciljje Akta o umjetnoj inteligenciji pružiti programerima i subjektima za uvođenje umjetne inteligencije jasne zahtjeve i obveze u pogledu određenih primjena umjetne inteligencije. Uredbom se istodobno nastoji smanjiti administrativno i financijsko opterećenje za poduzeća, posebno mala i srednja poduzeća (MSP-ovi).

Akt oumjetnoj inteligenciji dio je šireg paketa mjera politike za potporu razvoju pouzdane umjetne inteligencije, koji uključuje i inovacijski paket u području umjetne inteligencije i Koordinirani plan za umjetnu inteligenciju. Te će mjere zajedno jamčiti sigurnost i temeljna prava ljudi i poduzeća kad je riječ o umjetnoj inteligenciji. Ojačat će se i uvođenje, ulaganja i inovacije u području umjetne inteligencije u cijelom EU-u.

Akt oumjetnoj inteligenciji prvi je sveobuhvatni pravni okvir za umjetnu inteligenciju u svijetu. Cilj je novih pravila poticati pouzdanu umjetnu inteligenciju u Europi i izvan nje osiguravanjem da sustavi umjetne inteligencije poštuju temeljna prava, sigurnost i etička načela te rješavanjem rizika od vrlo snažnih i učinkovitih modela umjetne inteligencije.

Zašto su nam potrebna pravila o umjetnoj inteligenciji?

Aktom o umjetnoj inteligenciji Europljanima se jamči povjerenje u ono što umjetna inteligencija nudi. Iako većina UI sustava predstavlja ograničen rizik i može doprinijeti rješavanju mnogih društvenih izazova, određeni sustavi umjetne inteligencije stvaraju rizike koje moramo riješiti kako bismo izbjegli neželjene ishode.

Na primjer, često nije moguće saznati zašto je UI sustav donio odluku ili predviđanje i zašto je poduzeo određenu mjeru. Stoga može biti teško procijeniti je li netko bio u nepravednom nepovoljnom položaju, primjerice u odluci o zapošljavanju ili u zahtjevu za sustav javne naknade.

Iako se postojećim zakonodavstvom pruža određena zaštita, ono nije dovoljno za rješavanje posebnih izazova koje sustavi umjetne inteligencije mogu donijeti.

Predloženim će se pravilima:

  • rješavanje rizika posebno uzrokovanih primjenama umjetne inteligencije;
  • zabraniti prakse umjetne inteligencije koje predstavljaju neprihvatljive rizike;
  • utvrditi popis visokorizičnih aplikacija;
  • utvrditi jasne zahtjeve za UI sustave za visokorizične primjene;
  • definirati posebne obveze subjekata za uvođenje i dobavljača visokorizičnih UI aplikacija;
  • zahtijevati ocjenjivanje sukladnosti prije stavljanja određenog UI sustava u uporabu ili stavljanja na tržište;
  • uvođenje provedbe nakon stavljanja određenog UI sustava na tržište;
  • uspostaviti upravljačku strukturu na europskoj i nacionalnoj razini.

Pristup koji se temelji na riziku

Regulatornim okvirom definirane su četiri razine rizika za UI sustave:

piramida pokazuje četiri razine rizika: Neprihvatljiv rizik; Visokog rizika; ograničeni rizik, minimalan ili nikakav rizik

 

Svi sustavi umjetne inteligencije koji se smatraju jasnom prijetnjom sigurnosti, sredstvima za život i pravima ljudi bit će zabranjeni, od društvenog ocjenjivanja vlada do igračaka uz pomoć glasovne pomoći koja potiče opasno ponašanje.

Visok rizik

UI sustavi za koje je utvrđeno da su visokorizični uključuju tehnologiju umjetne inteligencije koja se upotrebljava u:

  • kritične infrastrukture (npr. promet) koje bi mogle ugroziti život i zdravlje građana;
  • obrazovnom ili strukovnom osposobljavanju, koje može odrediti pristup obrazovanju i profesionalnom tijeku nečijeg života (npr. polaganje ispita);
  • sigurnosne komponente proizvoda (npr. primjena umjetne inteligencije u kirurgiji uz pomoć robota);
  • zapošljavanje, upravljanje radnicima i pristup samozapošljavanju (npr. softver za razvrstavanje životopisa za postupke zapošljavanja);
  • ključne privatne i javne usluge (npr. kreditni bodovi koji građanima uskraćuju mogućnost dobivanja zajma);
  • tijela kaznenog progona koja mogu utjecati na temeljna prava ljudi (npr. procjena pouzdanosti dokaza);
  • upravljanje migracijama, azilom i nadzorom granica (npr. automatizirano razmatranje zahtjeva za vizu);
  • upravljanje pravosuđem i demokratskim procesima (npr. rješenja umjetne inteligencije za traženje sudskih odluka).

Visokorizični UI sustavi podlijegat će strogim obvezama prije nego što se mogu staviti na tržište:

  • adekvatne sustave procjene i ublažavanja rizika;
  • visoka kvaliteta skupova podataka kojima se osigurava sustav kako bi se rizici i diskriminatorni ishodi sveli na najmanju moguću mjeru;
  • bilježenje aktivnosti kako bi se osigurala sljedivost rezultata;
  • detaljnu dokumentaciju u kojoj se navode sve potrebne informacije o sustavu i njegovoj svrsi kako bi nadležna tijela mogla procijeniti njegovu usklađenost;
  • jasne i odgovarajuće informacije za subjekta za uvođenje;
  • odgovarajuće mjere ljudskog nadzora kako bi se rizik sveo na najmanju moguću mjeru;
  • visoka razina robusnosti, sigurnosti i točnosti.

Svi sustavi za daljinsku biometrijsku identifikaciju smatraju se visokorizičnima i podliježu strogim zahtjevima. Upotreba daljinske biometrijske identifikacije na javnim mjestima za potrebe kaznenog progona u načelu je zabranjena.

Striktno su definirane i regulirane uske iznimke, primjerice, kada je to potrebno za potragu za nestalim djetetom, sprečavanje konkretne i neposredne terorističke prijetnje ili otkrivanje, lociranje, identifikaciju ili kazneni progon počinitelja ili osumnjičenika za teško kazneno djelo.

Te uporabe podliježu odobrenju sudskog ili drugog neovisnog tijela i odgovarajućim vremenskim ograničenjima, geografskom dosegu i pretraživanim bazama podataka.

Ograničeni rizik

Ograničeni rizik odnosise na rizike povezane s nedostatkom transparentnosti u uporabi umjetne inteligencije. Zakonom o umjetnoj inteligenciji uvode se posebne obveze transparentnosti kako bi se osiguralo da ljudi budu informirani kada je to potrebno, čime se potiče povjerenje. Na primjer, pri upotrebi UI sustava kao što su chatbotovi ljudi bi trebali biti svjesni da su u interakciji s strojem kako bi mogli donijeti informiranu odluku da nastave ili odstupe. Dobavljači će morati osigurati i identifikaciju sadržaja stvorenog umjetnom inteligencijom. Osim toga, tekst koji je izradila umjetna inteligencija i koji je objavljen u svrhu informiranja javnosti o pitanjima od javnog interesa mora se označiti kao umjetno generiran. To vrijedi i za audio i video sadržaje koji čine duboke krivotvorine.

Minimalan ili nikakav rizik

Zakonom o umjetnoj inteligenciji omogućuje se besplatna uporaba umjetne inteligencije s minimalnim rizikom. To uključuje aplikacije kao što su videoigre omogućene umjetnom inteligencijom ili filtri za neželjenu poštu. Velika većina UI sustava koji se trenutačno upotrebljavaju u EU-u spada u tu kategoriju.

Kako sve funkcionira u praksi za dobavljače visokorizičnih UI sustava?

korak po korak za izjavu o sukladnosti
How does it all work in practice for providers of high risk AI systems?

Nakon što UI sustav bude na tržištu, nadležna tijela zadužena su za nadzor tržišta, subjekti za uvođenje osiguravaju ljudski nadzor i praćenje, a dobavljači imaju uspostavljen sustav praćenja nakon stavljanja na tržište. Pružatelji i subjekti za uvođenje također će prijaviti ozbiljne incidente i neispravnosti.

Rješenje za pouzdanu upotrebu velikih modela umjetne inteligencije

Sve više modela umjetne inteligencije opće namjene postaju sastavni dijelovi UI sustava. Ovi modeli mogu obavljati i prilagođavati bezbroj različitih zadataka.

Iako modeli umjetne inteligencije opće namjene mogu omogućiti bolja i snažnija rješenja umjetne inteligencije, teško je nadzirati sve sposobnosti.

Tamo se Aktom o umjetnoj inteligenciji uvode obveze transparentnosti za sve modele umjetne inteligencije opće namjene kako bi se omogućilo bolje razumijevanje tih modela i dodatne obveze upravljanja rizicima za vrlo sposobne i učinkovite modele. Te dodatne obveze uključuju samoprocjenu i ublažavanje sistemskih rizika, izvješćivanje o ozbiljnim incidentima, provedbu ispitivanja i evaluacija modela te kibersigurnosne zahtjeve.

Zakonodavstvo otporno na buduće promjene

Budući da je umjetna inteligencija tehnologija koja se brzo mijenja, prijedlog ima pristup otporan na promjene u budućnosti i omogućuje prilagodbu pravila tehnološkim promjenama. Primjene umjetne inteligencije trebale bi ostati pouzdane čak i nakon što se stave na tržište. To zahtijeva kontinuiranu kvalitetu i upravljanje rizicima od strane pružatelja usluga.

Izvršenje i provedba

Europski ured za umjetnu inteligenciju, osnovan u veljači 2024. u okviru Komisije, nadgleda izvršenje i provedbu Akta o umjetnoj inteligenciji s državama članicama. Cilj mu je stvoriti okruženje u kojem tehnologije umjetne inteligencije poštuju ljudsko dostojanstvo, prava i povjerenje. Njime se potiču i suradnja, inovacije i istraživanje u području umjetne inteligencije među različitim dionicima. Nadalje, sudjeluje u međunarodnom dijalogu i suradnji u pitanjima umjetne inteligencije, prepoznajući potrebu za globalnim usklađivanjem u području upravljanja umjetnom inteligencijom. Tim naporima Europski ured za umjetnu inteligenciju nastoji Europu pozicionirati kao predvodnika u etičkom i održivom razvoju tehnologija umjetne inteligencije.

Sljedeći koraci

U prosincu 2023. Europski parlament i Vijeće EU-a postigli su politički dogovor o Aktu o umjetnoj inteligenciji. Tekst je u postupku formalnog donošenja i prevođenja. Akt o umjetnoj inteligenciji stupit će na snagu 20 dana nakon objave u Službenom listu i u potpunosti će se početi primjenjivati dvije godine kasnije, uz neke iznimke: zabrane će stupiti na snagu nakon šest mjeseci, pravila upravljanja i obveze za modele umjetne inteligencije opće namjene počinju se primjenjivati nakon 12 mjeseci, a pravila za UI sustave ugrađene u regulirane proizvode primjenjivat će se nakon 36 mjeseci. Kako bi se olakšao prijelaz na novi regulatorni okvir, Komisija je pokrenula Pakt o umjetnoj inteligenciji, dobrovoljnu inicijativu kojom se nastoji poduprijeti buduća provedba i poziva programere umjetne inteligencije iz Europe i šire da unaprijed ispune ključne obveze iz Akta o umjetnoj inteligenciji.

Najnovije vijesti

New Horizon Europe Funding Boosts European Research in AI and Quantum Technologies

A new set of calls has been launched worth over € 112 million from the 2023-2024 Horizon Europe Digital, Industry, and Space work programme.

Povezani sadržaj

Šira slika

Europski pristup umjetnoj inteligenciji

Pristup EU-a umjetnoj inteligenciji usmjeren je na izvrsnost i povjerenje, čiji je cilj jačanje istraživačkih i industrijskih kapaciteta uz istodobno osiguravanje sigurnosti i temeljnih prava.

Dublji pogled

Pakt za umjetnu inteligenciju

Paktom o umjetnoj inteligenciji potaknut će se i podupirati poduzeća u planiranju mjera predviđenih Aktom o umjetnoj inteligenciji.

Pogledajte i sljedeći sadržaj

Koordinirani plan za umjetnu inteligenciju

Cilj je koordiniranog plana o umjetnoj inteligenciji ubrzati ulaganja u umjetnu inteligenciju, provesti strategije i programe umjetne inteligencije te uskladiti politiku umjetne inteligencije kako bi se spriječila fragmentacija unutar Europe.

Europski savez za umjetnu inteligenciju

Europski savez za umjetnu inteligenciju inicijativa je Europske komisije za uspostavu otvorenog političkog dijaloga o umjetnoj inteligenciji. Od svojeg pokretanja 2018. Savez za umjetnu inteligenciju angažirao je oko 6000 dionika putem redovitih događanja, javnih savjetovanja i...