Akt o umetni inteligenci je prvi pravni okvir o umetni inteligenci doslej, ki obravnava tveganja umetne inteligence in Evropi zagotavlja vodilno vlogo na svetovni ravni.
Akt oumetni inteligenci (Uredba(EU) 2024/1689 o določitvi harmoniziranih pravil o umetni inteligenci)razvijalcem in uvajalcem umetne inteligence zagotavlja jasne zahteve in obveznosti v zvezi s posebnimi uporabami umetne inteligence. Hkrati je namen uredbe zmanjšati upravna in finančna bremena za podjetja, zlasti mala in srednja podjetja (MSP).
Akt o umetni inteligenci je del širšega svežnja ukrepov politike za podporo razvoju zaupanja vredne umetne inteligence, ki vključuje tudiinovacijski sveženj za umetno inteligenco in usklajeni načrt za umetno inteligenco. Ti ukrepi skupaj zagotavljajo varnost in temeljne pravice ljudi in podjetij v zvezi z umetno inteligenco. Prav tako krepijo uvajanje umetne inteligence, naložbe vanjo in inovacije v njej po vsej EU.
Akt oumetni inteligenci je prvi celovit pravni okvir o umetni inteligenci na svetu. Cilj novih pravil je spodbujati zaupanja vredno umetno inteligenco v Evropi in zunaj nje z zagotavljanjem, da umetnointeligenčni sistemi spoštujejo temeljne pravice, varnost in etična načela, ter z obravnavanjem tveganj zelo močnih in vplivnih modelov umetne inteligence.
Zakaj potrebujemo pravila o umetni inteligenci?
Akt o umetni inteligenci zagotavlja, da lahko Evropejci zaupajo temu, kar ponuja umetna inteligenca. Čeprav je večina umetnointeligenčnih sistemov omejena na nič tveganja in lahko prispeva k reševanju številnih družbenih izzivov, nekateri umetnointeligenčni sistemi ustvarjajo tveganja, ki jih moramo obravnavati, da bi se izognili neželenim rezultatom.
Pogosto na primer ni mogoče ugotoviti, zakaj je umetnointeligenčni sistem sprejel odločitev ali napoved in sprejel določen ukrep. Zato je morda težko oceniti, ali je bil nekdo neupravičeno prikrajšan, na primer v odločitvi o zaposlitvi ali v vlogi za javnokoristno shemo.
Čeprav obstoječa zakonodaja zagotavlja določeno zaščito, ne zadostuje za obravnavanje posebnih izzivov, ki jih lahko prinesejo umetnointeligenčni sistemi.
Nova pravila:
- obravnavati tveganja, ki jih posebej ustvarjajo aplikacije umetne inteligence
- prepovedati prakse umetne inteligence, ki pomenijo nesprejemljiva tveganja
- določiti seznam aplikacij z visokim tveganjem
- določiti jasne zahteve za umetnointeligenčne sisteme za aplikacije velikega tveganja
- opredeliti posebne obveznosti uvajalcev in ponudnikov aplikacij umetne inteligence z visokim tveganjem
- zahteva ugotavljanje skladnosti, preden se zadevni umetnointeligenčni sistem da v uporabo ali na trg;
- vzpostavitev izvrševanja po tem, ko je dani umetnointeligenčni sistem dan na trg
- vzpostaviti strukturo upravljanja na evropski in nacionalni ravni
Pristop, ki temelji na tveganju
Regulativni okvir opredeljuje štiri ravni tveganja za umetnointeligenčne sisteme:
Vsi umetnointeligenčni sistemi, ki veljajo za očitno grožnjo varnosti, možnostim preživljanja in pravicam ljudi, so prepovedani, od družbenega točkovanja s strani vlad do igrač z glasovno pomočjo, ki spodbuja nevarno vedenje.
Veliko tveganje
Umetnointeligenčni sistemi, opredeljeni kot sistemi velikega tveganja, vključujejo tehnologijo umetne inteligence, ki se uporablja pri:
- kritične infrastrukture (npr. promet), ki bi lahko ogrozile življenje in zdravje državljanov
- izobraževanje ali poklicno usposabljanje, ki lahko določa dostop do izobraževanja in poklicnega poteka posameznikovega življenja (npr. točkovanje izpitov)
- varnostne komponente proizvodov (npr. uporaba umetne inteligence v robotsko podprti kirurgiji)
- zaposlovanje, upravljanje delavcev in dostop do samozaposlitve (npr. programska oprema za razvrščanje življenjepisov za postopke zaposlovanja)
- osnovne zasebne in javne storitve (npr. kreditno točkovanje, ki državljanom onemogoča pridobitev posojila)
- kazenski pregon, ki lahko posega v temeljne pravice ljudi (npr. ocena zanesljivosti dokazov)
- upravljanje migracij, azila in nadzora meja (npr. avtomatizirana obravnava vlog za izdajo vizuma)
- upravljanje pravosodja in demokratičnih procesov (npr. rešitve umetne inteligence za iskanje sodnih odločb)
Za umetnointeligenčne sisteme velikega tveganja veljajo stroge obveznosti, preden se lahko dajo na trg:
- ustrezni sistemi za oceno in zmanjšanje tveganja
- visoka kakovost naborov podatkov, ki vnašajo podatke v sistem, da se čim bolj zmanjšajo tveganja in diskriminatorni rezultati
- beleženje dejavnosti za zagotovitev sledljivosti rezultatov
- podrobno dokumentacijo z vsemi potrebnimi informacijami o sistemu in njegovem namenu, da lahko organi ocenijo njegovo skladnost;
- jasne in ustrezne informacije za uvajalca
- ustrezni ukrepi za človekov nadzor, da se čim bolj zmanjša tveganje
- visoka raven robustnosti, varnosti in natančnosti
Vsi sistemi za biometrično identifikacijo na daljavo veljajo za sisteme z visokim tveganjem in zanje veljajo stroge zahteve. Uporaba biometrične identifikacije na daljavo v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj je načeloma prepovedana.
Ožje izjeme so strogo opredeljene in urejene, na primer kadar je to potrebno za iskanje pogrešanega otroka, preprečevanje konkretne in neposredne teroristične grožnje ali odkrivanje, lociranje, identifikacijo ali pregon storilca ali osumljenca hudega kaznivega dejanja.
Za te uporabe je potrebno dovoljenje sodnega ali drugega neodvisnega organa, zanje pa veljajo tudi ustrezne časovne in geografske omejitve ter omejitve glede podatkovnih zbirk, ki se iščejo.
Omejeno tveganje
Omejeno tveganje jepovezano s tveganji, povezanimi s pomanjkanjem preglednosti pri uporabi umetne inteligence. Akt o umetni inteligenci uvaja posebne obveznosti glede preglednosti za zagotovitev, da so ljudje po potrebi obveščeni, kar spodbuja zaupanje. Na primer, pri uporabi umetnointeligenčnih sistemov, kot so klepetalni boti, bi bilo treba ljudi opozoriti, da so v stiku s strojem, da se lahko informirano odločijo za nadaljevanje ali korak nazaj. Ponudniki morajo tudi zagotoviti, da je mogoče prepoznati vsebine, ustvarjene z umetno inteligenco. Poleg tega je treba besedilo, ustvarjeno z umetno inteligenco in objavljeno z namenom obveščanja javnosti o zadevah javnega interesa, označiti kot umetno ustvarjeno. To velja tudi za avdio in video vsebine, ki predstavljajo globoke ponaredke.
Minimalno tveganje ali brez tveganja
Akt o umetni inteligenci omogoča prosto uporabo umetne inteligence z minimalnim tveganjem. To vključuje aplikacije, kot so videoigre, ki temeljijo na umetni inteligenci, ali filtri za neželeno pošto. Velika večina umetnointeligenčnih sistemov, ki se trenutno uporabljajo v EU, spada v to kategorijo.
Kako vse to deluje v praksi za ponudnike umetnointeligenčnih sistemov velikega tveganja?
Ko je umetnointeligenčni sistem na trgu, so organi odgovorni za nadzor trga, uvajalci zagotavljajo človeški nadzor in spremljanje, ponudniki pa imajo vzpostavljen sistem spremljanja po dajanju na trg. Ponudniki in uvajalci bodo poročali tudi o resnih incidentih in okvarah.
Rešitev za zaupanja vredno uporabo velikih modelov umetne inteligence
Vse več modelov umetne inteligence za splošne namene postaja sestavnih delov sistemov umetne inteligence. Ti modeli lahko opravljajo in prilagajajo nešteto različnih nalog.
Čeprav lahko modeli umetne inteligence za splošne namene omogočijo boljše in zmogljivejše rešitve umetne inteligence, je težko nadzorovati vse zmogljivosti.
Tam akt o umetni inteligenci uvaja obveznosti glede preglednosti za vse modele umetne inteligence za splošne namene, da se omogoči boljše razumevanje teh modelov, ter dodatne obveznosti glede obvladovanja tveganja za zelo zmogljive in učinkovite modele. Te dodatne obveznosti vključujejo samoocenjevanje in zmanjševanje sistemskih tveganj, poročanje o resnih incidentih, izvajanje testiranj in ocen modelov ter zahteve glede kibernetske varnosti.
Zakonodaja, ki bo kos izzivom prihodnosti
Ker je umetna inteligenca hitro razvijajoča se tehnologija, ima uredba pristop, primeren za prihodnost, ki omogoča prilagajanje pravil tehnološkim spremembam. Aplikacije umetne inteligence bi morale ostati zanesljive tudi po tem, ko so bile dane na trg. To zahteva stalno kakovost in obvladovanje tveganj s strani ponudnikov.
Izvrševanje in izvajanje
Evropski urad za umetno inteligenco, ustanovljen februarja 2024 v okviru Komisije, skupaj z državami članicami nadzoruje izvrševanje in izvajanje akta o umetni inteligenci. Njen cilj je ustvariti okolje, v katerem tehnologije umetne inteligence spoštujejo človekovo dostojanstvo, pravice in zaupanje. Spodbuja tudi sodelovanje, inovacije in raziskave na področju umetne inteligence med različnimi deležniki. Poleg tega sodeluje v mednarodnem dialogu in sodelovanju na področju umetne inteligence, pri čemer priznava, da je treba upravljanje umetne inteligence uskladiti na svetovni ravni. S temi prizadevanji si Evropski urad za umetno inteligenco prizadeva, da bi Evropa prevzela vodilno vlogo pri etičnem in trajnostnem razvoju tehnologij umetne inteligence.
Naslednji koraki
Zakon oumetni inteligenci je začel veljati 1. avgusta in se bo v celoti uporabljal dve leti pozneje, z nekaterimi izjemami: prepovedi bodo začele veljati po šestih mesecih, pravila upravljanja in obveznosti za modele umetne inteligence za splošne namene se bodo začela uporabljati po 12 mesecih, pravila za umetnointeligenčne sisteme, vgrajene v regulirane proizvode, pa se bodo začela uporabljati po 36 mesecih. Da bi olajšala prehod na novi regulativni okvir, je Komisija začela izvajatipakt za umetno inteligenco,tj. prostovoljno pobudo, katere namen je podpreti prihodnje izvajanje in ki razvijalce umetne inteligence iz Evrope in od drugod poziva, naj vnaprej izpolnijo ključne obveznosti iz akta o umetni inteligenci.
Zadnje novice
Report / Study
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
- 05-04-2024Umetna inteligenca za javno dobro: Zveza EU-ZDA za raziskave na področju umetne inteligence za javno dobro
- 30-11-2023Potencial Evrope pri računalništvu na robu: Podpiranje industrijskih inovacij z obsežnimi pilotnimi projekti
Factsheet / infographic
Povezane vsebine
Širša slika