Skip to main content
Shaping Europe’s digital future

Akt o umetni inteligenci

Akt o umetni inteligenci je prvi pravni okvir o umetni inteligenci doslej, ki obravnava tveganja umetne inteligence in Evropi zagotavlja vodilno vlogo na svetovni ravni.

Akt oumetni inteligenci (Uredba(EU) 2024/1689 o določitvi harmoniziranih pravil o umetni inteligenci)razvijalcem in uvajalcem umetne inteligence zagotavlja jasne zahteve in obveznosti v zvezi s posebnimi uporabami umetne inteligence. Hkrati je namen uredbe zmanjšati upravna in finančna bremena za podjetja, zlasti mala in srednja podjetja (MSP).

Akt o umetni inteligenci je del širšega svežnja ukrepov politike za podporo razvoju zaupanja vredne umetne inteligence, ki vključuje tudiinovacijski sveženj za umetno inteligenco in usklajeni načrt za umetno inteligenco. Ti ukrepi skupaj zagotavljajo varnost in temeljne pravice ljudi in podjetij v zvezi z umetno inteligenco. Prav tako krepijo uvajanje umetne inteligence, naložbe vanjo in inovacije v njej po vsej EU.

Akt oumetni inteligenci je prvi celovit pravni okvir o umetni inteligenci na svetu. Cilj novih pravil je spodbujati zaupanja vredno umetno inteligenco v Evropi in zunaj nje z zagotavljanjem, da umetnointeligenčni sistemi spoštujejo temeljne pravice, varnost in etična načela, ter z obravnavanjem tveganj zelo močnih in vplivnih modelov umetne inteligence.

Zakaj potrebujemo pravila o umetni inteligenci?

Akt o umetni inteligenci zagotavlja, da lahko Evropejci zaupajo temu, kar ponuja umetna inteligenca. Čeprav je večina umetnointeligenčnih sistemov omejena na nič tveganja in lahko prispeva k reševanju številnih družbenih izzivov, nekateri umetnointeligenčni sistemi ustvarjajo tveganja, ki jih moramo obravnavati, da bi se izognili neželenim rezultatom.

Pogosto na primer ni mogoče ugotoviti, zakaj je umetnointeligenčni sistem sprejel odločitev ali napoved in sprejel določen ukrep. Zato je morda težko oceniti, ali je bil nekdo neupravičeno prikrajšan, na primer v odločitvi o zaposlitvi ali v vlogi za javnokoristno shemo.

Čeprav obstoječa zakonodaja zagotavlja določeno zaščito, ne zadostuje za obravnavanje posebnih izzivov, ki jih lahko prinesejo umetnointeligenčni sistemi.

Nova pravila:

  • obravnavati tveganja, ki jih posebej ustvarjajo aplikacije umetne inteligence
  • prepovedati prakse umetne inteligence, ki pomenijo nesprejemljiva tveganja
  • določiti seznam aplikacij z visokim tveganjem
  • določiti jasne zahteve za umetnointeligenčne sisteme za aplikacije velikega tveganja
  • opredeliti posebne obveznosti uvajalcev in ponudnikov aplikacij umetne inteligence z visokim tveganjem
  • zahteva ugotavljanje skladnosti, preden se zadevni umetnointeligenčni sistem da v uporabo ali na trg;
  • vzpostavitev izvrševanja po tem, ko je dani umetnointeligenčni sistem dan na trg
  • vzpostaviti strukturo upravljanja na evropski in nacionalni ravni

Pristop, ki temelji na tveganju

Regulativni okvir opredeljuje štiri ravni tveganja za umetnointeligenčne sisteme:

piramida, ki prikazuje štiri stopnje tveganja: nesprejemljivo tveganje; visoko tveganje; omejeno tveganje, minimalno tveganje ali brez tveganja

 

Vsi umetnointeligenčni sistemi, ki veljajo za očitno grožnjo varnosti, možnostim preživljanja in pravicam ljudi, so prepovedani, od družbenega točkovanja s strani vlad do igrač z glasovno pomočjo, ki spodbuja nevarno vedenje.

Veliko tveganje

Umetnointeligenčni sistemi, opredeljeni kot sistemi velikega tveganja, vključujejo tehnologijo umetne inteligence, ki se uporablja pri:

  • kritične infrastrukture (npr. promet), ki bi lahko ogrozile življenje in zdravje državljanov
  • izobraževanje ali poklicno usposabljanje, ki lahko določa dostop do izobraževanja in poklicnega poteka posameznikovega življenja (npr. točkovanje izpitov)
  • varnostne komponente proizvodov (npr. uporaba umetne inteligence v robotsko podprti kirurgiji)
  • zaposlovanje, upravljanje delavcev in dostop do samozaposlitve (npr. programska oprema za razvrščanje življenjepisov za postopke zaposlovanja)
  • osnovne zasebne in javne storitve (npr. kreditno točkovanje, ki državljanom onemogoča pridobitev posojila)
  • kazenski pregon, ki lahko posega v temeljne pravice ljudi (npr. ocena zanesljivosti dokazov)
  • upravljanje migracij, azila in nadzora meja (npr. avtomatizirana obravnava vlog za izdajo vizuma)
  • upravljanje pravosodja in demokratičnih procesov (npr. rešitve umetne inteligence za iskanje sodnih odločb)

Za umetnointeligenčne sisteme velikega tveganja veljajo stroge obveznosti, preden se lahko dajo na trg:

  • ustrezni sistemi za oceno in zmanjšanje tveganja
  • visoka kakovost naborov podatkov, ki vnašajo podatke v sistem, da se čim bolj zmanjšajo tveganja in diskriminatorni rezultati
  • beleženje dejavnosti za zagotovitev sledljivosti rezultatov
  • podrobno dokumentacijo z vsemi potrebnimi informacijami o sistemu in njegovem namenu, da lahko organi ocenijo njegovo skladnost;
  • jasne in ustrezne informacije za uvajalca
  • ustrezni ukrepi za človekov nadzor, da se čim bolj zmanjša tveganje
  • visoka raven robustnosti, varnosti in natančnosti

Vsi sistemi za biometrično identifikacijo na daljavo veljajo za sisteme z visokim tveganjem in zanje veljajo stroge zahteve. Uporaba biometrične identifikacije na daljavo v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj je načeloma prepovedana.

Ožje izjeme so strogo opredeljene in urejene, na primer kadar je to potrebno za iskanje pogrešanega otroka, preprečevanje konkretne in neposredne teroristične grožnje ali odkrivanje, lociranje, identifikacijo ali pregon storilca ali osumljenca hudega kaznivega dejanja.

Za te uporabe je potrebno dovoljenje sodnega ali drugega neodvisnega organa, zanje pa veljajo tudi ustrezne časovne in geografske omejitve ter omejitve glede podatkovnih zbirk, ki se iščejo.

Omejeno tveganje

Omejeno tveganje jepovezano s tveganji, povezanimi s pomanjkanjem preglednosti pri uporabi umetne inteligence. Akt o umetni inteligenci uvaja posebne obveznosti glede preglednosti za zagotovitev, da so ljudje po potrebi obveščeni, kar spodbuja zaupanje. Na primer, pri uporabi umetnointeligenčnih sistemov, kot so klepetalni boti, bi bilo treba ljudi opozoriti, da so v stiku s strojem, da se lahko informirano odločijo za nadaljevanje ali korak nazaj. Ponudniki morajo tudi zagotoviti, da je mogoče prepoznati vsebine, ustvarjene z umetno inteligenco. Poleg tega je treba besedilo, ustvarjeno z umetno inteligenco in objavljeno z namenom obveščanja javnosti o zadevah javnega interesa, označiti kot umetno ustvarjeno. To velja tudi za avdio in video vsebine, ki predstavljajo globoke ponaredke.

Minimalno tveganje ali brez tveganja

Akt o umetni inteligenci omogoča prosto uporabo umetne inteligence z minimalnim tveganjem. To vključuje aplikacije, kot so videoigre, ki temeljijo na umetni inteligenci, ali filtri za neželeno pošto. Velika večina umetnointeligenčnih sistemov, ki se trenutno uporabljajo v EU, spada v to kategorijo.

Kako vse to deluje v praksi za ponudnike umetnointeligenčnih sistemov velikega tveganja?

Postopni postopek za izjavo o skladnosti
How does it all work in practice for providers of high risk AI systems?

 

Ko je umetnointeligenčni sistem na trgu, so organi odgovorni za nadzor trga, uvajalci zagotavljajo človeški nadzor in spremljanje, ponudniki pa imajo vzpostavljen sistem spremljanja po dajanju na trg. Ponudniki in uvajalci bodo poročali tudi o resnih incidentih in okvarah.

Rešitev za zaupanja vredno uporabo velikih modelov umetne inteligence

Vse več modelov umetne inteligence za splošne namene postaja sestavnih delov sistemov umetne inteligence. Ti modeli lahko opravljajo in prilagajajo nešteto različnih nalog.

Čeprav lahko modeli umetne inteligence za splošne namene omogočijo boljše in zmogljivejše rešitve umetne inteligence, je težko nadzorovati vse zmogljivosti.

Tam akt o umetni inteligenci uvaja obveznosti glede preglednosti za vse modele umetne inteligence za splošne namene, da se omogoči boljše razumevanje teh modelov, ter dodatne obveznosti glede obvladovanja tveganja za zelo zmogljive in učinkovite modele. Te dodatne obveznosti vključujejo samoocenjevanje in zmanjševanje sistemskih tveganj, poročanje o resnih incidentih, izvajanje testiranj in ocen modelov ter zahteve glede kibernetske varnosti.

Zakonodaja, ki bo kos izzivom prihodnosti

Ker je umetna inteligenca hitro razvijajoča se tehnologija, ima uredba pristop, primeren za prihodnost, ki omogoča prilagajanje pravil tehnološkim spremembam. Aplikacije umetne inteligence bi morale ostati zanesljive tudi po tem, ko so bile dane na trg. To zahteva stalno kakovost in obvladovanje tveganj s strani ponudnikov.

Izvrševanje in izvajanje

Evropski urad za umetno inteligenco, ustanovljen februarja 2024 v okviru Komisije, skupaj z državami članicami nadzoruje izvrševanje in izvajanje akta o umetni inteligenci. Njen cilj je ustvariti okolje, v katerem tehnologije umetne inteligence spoštujejo človekovo dostojanstvo, pravice in zaupanje. Spodbuja tudi sodelovanje, inovacije in raziskave na področju umetne inteligence med različnimi deležniki. Poleg tega sodeluje v mednarodnem dialogu in sodelovanju na področju umetne inteligence, pri čemer priznava, da je treba upravljanje umetne inteligence uskladiti na svetovni ravni. S temi prizadevanji si Evropski urad za umetno inteligenco prizadeva, da bi Evropa prevzela vodilno vlogo pri etičnem in trajnostnem razvoju tehnologij umetne inteligence.

Naslednji koraki

Zakon oumetni inteligenci je začel veljati 1. avgusta in se bo v celoti uporabljal dve leti pozneje, z nekaterimi izjemami: prepovedi bodo začele veljati po šestih mesecih, pravila upravljanja in obveznosti za modele umetne inteligence za splošne namene se bodo začela uporabljati po 12 mesecih, pravila za umetnointeligenčne sisteme, vgrajene v regulirane proizvode, pa se bodo začela uporabljati po 36 mesecih. Da bi olajšala prehod na novi regulativni okvir, je Komisija začela izvajatipakt za umetno inteligenco,tj. prostovoljno pobudo, katere namen je podpreti prihodnje izvajanje in ki razvijalce umetne inteligence iz Evrope in od drugod poziva, naj vnaprej izpolnijo ključne obveznosti iz akta o umetni inteligenci.

Zadnje novice


PRESS RELEASE |
Inovacije na področju umetne inteligence, ki jih financira EU, odpirajo novo obdobje v kooperativnem razvoju pametnih mest

Danes je bil v Valencii na ustanovni generalni skupščini uradno ustanovljen Konzorcij evropske digitalne infrastrukture CitiVerse (EDIC). Ta mejnik zaznamuje novo obdobje sodelovalnega razvoja pametnih mest in postavlja nova globalna merila na tem področju.

PRESS RELEASE |
Druga seja odbora za umetno inteligenco

Odbor za umetno inteligenco se je 10. decembra sestal na celodnevni seji. Na dnevnem redu so bile ključne razprave in najnovejše informacije o upravljanju umetne inteligence, pismenosti in mednarodnem sodelovanju.

Povezane vsebine

Širša slika

Pristop EU k umetni inteligenci se osredotoča na odličnost in zaupanje, njegov cilj pa je okrepiti raziskovalne in industrijske zmogljivosti ter hkrati zagotoviti varnost in temeljne pravice.