
© gorodenkoff - iStock Getty Images Plus
Cilj regulativnega predloga je razvijalcem umetne inteligence, uvajalcem in uporabnikom zagotoviti jasne zahteve in obveznosti v zvezi s posebnimi uporabami umetne inteligence. Hkrati je namen predloga zmanjšati upravno in finančno breme za podjetja, zlasti mala in srednja podjetja (MSP).
Predlog je del širšega svežnja o umetni inteligenci, ki vključuje tudi posodobljeni usklajeni načrt za umetno inteligenco. Regulativni okvir in usklajeni načrt bosta skupaj zagotovila varnost in temeljne pravice ljudi in podjetij v zvezi z umetno inteligenco. Poleg tega bodo okrepile uvajanje, naložbe in inovacije na področju umetne inteligence po vsej EU.
Zakaj potrebujemo pravila o umetni inteligenci?
Predlagana uredba o umetni inteligenci zagotavlja, da lahko Evropejci zaupajo temu, kar umetna inteligenca ponuja. Medtem ko večina sistemov umetne inteligence predstavlja omejeno tveganje in lahko prispeva k reševanju številnih družbenih izzivov, nekateri sistemi umetne inteligence ustvarjajo tveganja, ki jih moramo obravnavati, da bi se izognili neželenim izidom.
Na primer, pogosto ni mogoče ugotoviti, zakaj je umetnointeligenčni sistem sprejel odločitev ali napoved in sprejel določen ukrep. Zato je morda težko oceniti, ali je nekdo nepošteno prikrajšan, na primer v odločbi o zaposlitvi ali v vlogi za javnokoristno shemo.
Čeprav obstoječa zakonodaja zagotavlja nekaj zaščite, ne zadostuje za obravnavo posebnih izzivov, ki jih lahko prinesejo sistemi umetne inteligence.
Predlagana pravila bodo:
- obravnava tveganja, ki jih posebej ustvarjajo aplikacije umetne inteligence;
- predlaga seznam zelo tveganih vlog;
- določitev jasnih zahtev za umetnointeligenčne sisteme za aplikacije z visokim tveganjem;
- opredeliti posebne obveznosti za uporabnike umetne inteligence in ponudnike aplikacij z visokim tveganjem;
- predlaga ugotavljanje skladnosti, preden se umetnointeligenčni sistem da v uporabo ali da na trg;
- predlaga izvrševanje po tem, ko je tak umetnointeligenčni sistem dan na trg;
- predlagati strukturo upravljanja na evropski in nacionalni ravni.
Pristop, ki temelji na tveganju
Regulativni okvir opredeljuje štiri ravni tveganja pri umetni inteligenci:
- Nesprejemljivo tveganje
- Visoko tveganje
- Omejeno tveganje
- Minimalno ali brez tveganja
Nesprejemljivo tveganje
Za vse sisteme umetne inteligence, ki veljajo za jasno grožnjo za varnost, preživljanje in pravice ljudi, bodo vlade prepovedale socialno točkovanje na igračah z glasovno pomočjo, ki spodbuja nevarno vedenje.
Visoko tveganje
Umetnointeligenčni sistemi, za katere je bilo ugotovljeno veliko tveganje, vključujejo tehnologijo umetne inteligence, ki se uporablja pri:
- kritične infrastrukture (npr. promet), ki bi lahko ogrozile življenje in zdravje državljanov;
- izobraževanje ali poklicno usposabljanje, ki lahko določa dostop do izobraževanja in poklicnega poteka življenja (npr. točkovanje izpitov);
- varnostne komponente izdelkov (npr. uporaba umetne inteligence pri operacijah s pomočjo robota);
- zaposlovanje, upravljanje delavcev in dostop do samozaposlitve (npr. programska oprema za razvrščanje življenjepisov za postopke zaposlovanja);
- bistvene zasebne in javne storitve (npr. kreditno točkovanje, ki državljanom onemogoča pridobitev posojila);
- kazenski pregon, ki lahko posega v temeljne pravice ljudi (npr. ocena zanesljivosti dokazov);
- upravljanje migracij, azila in nadzora meja (npr. preverjanje verodostojnosti potnih listin);
- pravosodje in demokratični procesi (npr. uporaba prava za konkretna dejstva).
Za umetnointeligenčne sisteme velikega tveganja bodo veljale stroge obveznosti, preden jih bo mogoče dati na trg:
- ustrezne sisteme za ocenjevanje in zmanjševanje tveganja;
- visoka kakovost naborov podatkov, ki napajajo sistem, da se čim bolj zmanjšajo tveganja in diskriminatorni rezultati;
- beleženje dejavnosti za zagotovitev sledljivosti rezultatov;
- podrobno dokumentacijo, ki zagotavlja vse potrebne informacije o sistemu in njegovem namenu, da organi ocenijo njegovo skladnost;
- jasne in ustrezne informacije za uporabnika;
- ustrezne ukrepe za človeški nadzor, da se čim bolj zmanjša tveganje;
- visoka stopnja robustnosti, varnosti in natančnosti.
Vsi sistemi biometrične identifikacije na daljavo veljajo za visoko tveganje in zanje veljajo stroge zahteve. Uporaba biometrične identifikacije na daljavo v javno dostopnih prostorih za namene kazenskega pregona je načeloma prepovedana.
Ozke izjeme so strogo opredeljene in urejene, na primer kadar je to potrebno za iskanje pogrešanega otroka, preprečitev posebne in neposredne teroristične grožnje ali odkrivanje, lociranje, identifikacijo ali pregon storilca ali osumljenca hudega kaznivega dejanja.
Za takšno uporabo je potrebna odobritev sodnega ali drugega neodvisnega organa ter ustrezne časovne omejitve, geografski doseg in iskane zbirke podatkov.
Omejeno tveganje
Omejeno tveganje se nanaša na umetnointeligenčne sisteme s posebnimi obveznostmi glede preglednosti. Pri uporabi umetnointeligenčnih sistemov, kot so klepetalniki, bi se morali uporabniki zavedati, da delujejo s strojem, da bi lahko sprejeli informirano odločitev o nadaljevanju ali koraku nazaj.
Minimalno ali brez tveganja
Predlog omogoča brezplačno uporabo umetne inteligence z minimalnim tveganjem. To vključuje aplikacije, kot so videoigre z umetno inteligenco ali filtri za neželeno pošto. Velika večina sistemov umetne inteligence, ki se trenutno uporabljajo v EU, spada v to kategorijo.
Ko je sistem umetne inteligence na trgu, so organi odgovorni za nadzor trga, uporabniki zagotavljajo človeški nadzor in spremljanje, ponudniki pa imajo vzpostavljen sistem spremljanja po dajanju na trg. Ponudniki in uporabniki bodo poročali tudi o resnih incidentih in okvari.
Zakonodaja, ki bo kos izzivom prihodnosti
Ker je umetna inteligenca hitro razvijajoča se tehnologija, ima predlog pristop, primeren za prihodnost, ki omogoča, da se pravila prilagodijo tehnološkim spremembam. Aplikacije umetne inteligence bi morale ostati zanesljive tudi po tem, ko so bile dane na trg. To zahteva stalno kakovost in obvladovanje tveganj s strani ponudnikov.
Naslednji koraki
V skladu s predlogom Komisije iz aprila 2021 bi lahko uredba v prehodnem obdobju začela veljati konec leta 2022/v začetku leta 2023. V tem obdobju bi bili standardi predpisani in razviti, vzpostavljene strukture upravljanja pa bi bile operativne. Druga polovica leta 2024 je najzgodnejši čas, ko bi se uredba lahko začela uporabljati za upravljavce s standardi, ki so pripravljeni, in prvim opravljenim ugotavljanjem skladnosti.
Najnovejše novice
Povezane vsebine
Širša slika
Pristop EU k umetni inteligenci je osredotočen na odličnost in zaupanje, njegov cilj pa je povečati raziskovalne in industrijske zmogljivosti ob hkratnem zagotavljanju varnosti in temeljnih pravic.
Glej tudi
Mednarodna pobuda za umetno inteligenco, osredotočeno na človeka, bo pripomogla k spodbujanju vizije EU o trajnostni in zaupanja vredni umetni inteligenci.
Cilj usklajenega načrta za umetno inteligenco je pospešiti naložbe v umetno inteligenco, ukrepati v zvezi s strategijami in programi umetne inteligence ter uskladiti politiko umetne inteligence, da bi preprečili razdrobljenost v Evropi.
Evropska komisija je imenovala skupino strokovnjakov za svetovanje v zvezi z njeno strategijo za umetno inteligenco.
Evropska zveza za umetno inteligenco je pobuda Evropske komisije za vzpostavitev odprtega političnega dialoga o umetni inteligenci. Zavezništvo za umetno inteligenco je od svoje ustanovitve leta 2018 prek rednih dogodkov, javnih posvetovanj in spletnih forumov vključilo približno...