Splošna pogosto zastavljena vprašanja
Umetna inteligencaobetavelike koristi za naše gospodarstvo in družbo. Umetnointeligenčni modeli za splošne namene imajo pri tem pomembno vlogo, saj se lahko uporabljajo za različne naloge in so zato podlaga za vrsto umetnointeligenčnih sistemov nižje v prodajni verigi, ki se uporabljajo v Evropi in po svetu.
Cilj akta o umetni inteligenci je zagotoviti, da so umetnointeligenčni modeli za splošne namene varni in zaupanja vredni.
Za dosego tega cilja je ključno, da ponudniki umetnointeligenčnih modelov za splošne namene zagotovijo dobro razumevanje svojih modelov v celotni vrednostni verigi umetne inteligence, da bi lahko ponudniki nižje v prodajni verigi take modele vključili v umetnointeligenčne sisteme in izpolnili svoje obveznosti na podlagi akta o umetni inteligenci. Natančneje in kot je podrobneje pojasnjeno v nadaljevanju, morajo ponudniki umetnointeligenčnih modelov za splošne namene pripraviti tehnično dokumentacijo svojih modelov, da jo dajo na voljo ponudnikom nižje v prodajni verigi ter na zahtevo predložijo uradu za umetno inteligenco in pristojnim nacionalnim organom, vzpostavijo politiko avtorskih pravic in objavijo povzetek vsebine usposabljanja. Poleg tega morajo ponudniki umetnointeligenčnih modelov za splošne namene, ki predstavljajo sistemska tveganja, kar se lahko zgodi, ker so modeli zelo zmogljivi ali ker iz drugih razlogov pomembno vplivajo na notranji trg, o teh modelih uradno obvestiti Komisijo, oceniti in zmanjšati sistemska tveganja, ki izhajajo iz teh modelov, tudi z izvajanjem ocen modelov, poročanjem o resnih incidentih in zagotavljanjem ustrezne kibernetske varnosti teh modelov.
Akt o umetni inteligenci tako prispeva k varnim in zaupanja vrednim inovacijam v Evropski uniji.
V aktu o umetni inteligenci je umetnointeligenčni model za splošne namene opredeljen kot „umetnointeligenčni model, tudi kadar se tak umetnointeligenčni model uči z veliko količino podatkov z uporabo samonadzora v velikem obsegu, ki je zelo splošen in sposoben kompetentno opravljati širok nabor različnih nalog, ne glede na to, kako je model dan na trg, ter ga je mogoče vključiti v različne sisteme ali aplikacije nižje v prodajni verigi“ (člen 3(63) akta o umetni inteligenci).
V uvodnih izjavah akta o umetni inteligenci je dodatno pojasnjeno, za katere modele bi bilo treba šteti, da so precej splošni in sposobni opravljati širok nabor različnih nalog.
V uvodni izjavi 98 akta o umetni inteligenci je navedeno, da „[k]er bi lahko splošnost modela med drugim določali tudi številni parametri, bi bilo treba za modele z vsaj milijardo parametrov, ki se učijo z veliko količino podatkov z uporabo samonadzora v velikem obsegu, šteti, da kažejo znatno splošnost in kompetentno opravljajo širok nabor razpoznavnih nalog“.
V uvodni izjavi 99 akta o umetni inteligenci je dodano, da so „veliki generativni umetnointeligenčni modeli tipičen primer umetnointeligenčnega modela za splošne namene, saj omogočajo prožno ustvarjanje vsebin, na primer v obliki besedila, zvoka, slik ali videoposnetkov, ki lahko brez težav sprejmejo širok nabor različnih nalog“.
Pomembno splošnost in sposobnost kompetentnega izvajanja širokega nabora različnih nalog je mogoče doseči z modeli znotraj enega načina, kot so besedilo, zvok, slike ali video, če je način dovolj prožen. To je mogoče doseči tudi z modeli, ki so bili razviti, izpopolnjeni ali drugače spremenjeni, da bi bili še posebej dobri pri določeni nalogi ali številnih nalogah na določenem področju.
Različne faze razvoja modela ne predstavljajo različnih modelov.
Urad za umetno inteligenco namerava zagotoviti dodatna pojasnila o tem, kaj bi bilo treba šteti za model umetne inteligence za splošne namene, pri čemer se bo oprl na spoznanja Skupnega raziskovalnega središča Komisije, ki trenutno pripravlja znanstvenoraziskovalni projekt, ki obravnava to in druga vprašanja.
Sistemska tveganja so tveganja obsežne škode zaradi najnaprednejših (tj. najsodobnejših) modelov v katerem koli trenutku ali drugih modelov z enakovrednim učinkom (glej člen 3(65) akta o umetni inteligenci). Taka tveganja se lahko na primer kažejo v zmanjšanju ovir za razvoj kemičnega ali biološkega orožja ali nenamernih vprašanjih nadzora nad avtonomnimi umetnointeligenčnimi modeli za splošne namene (uvodna izjava 110 akta o umetni inteligenci). Najnaprednejši modeli v katerem koli trenutku lahko predstavljajo sistemska tveganja, vključno z novimi tveganji, saj potiskajo najsodobnejšo tehnologijo. Hkrati lahko nekateri modeli pod pragom, ki odraža najsodobnejšo tehnologijo, predstavljajo tudi sistemska tveganja, na primer zaradi dosega, nadgradljivosti ali gradbenih odrov.
V skladu s tem je v aktu o umetni inteligenci umetnointeligenčni model za splošne namene razvrščen kot umetnointeligenčni model za splošne namene s sistemskim tveganjem, če je v tistem trenutku eden najnaprednejših modelov ali če ima enakovreden učinek (člen 51(1) akta o umetni inteligenci). Kateri modeli se štejejo za umetnointeligenčne modele za splošne namene s sistemskim tveganjem, se lahko sčasoma spremenijo, kar odraža razvijajoče se najsodobnejše tehnologije in morebitno družbeno prilagajanje vse naprednejšim modelom. Trenutno modele umetne inteligence za splošne namene s sistemskim tveganjem razvija peščica podjetij, čeprav se to lahko v prihodnosti spremeni.
Akt o umetni inteligenci za zajemanje najnaprednejših modelov, tj. modelov, ki ustrezajo zmogljivostim, zabeleženim v najnaprednejših modelih doslej, ali jih presegajo, določa prag 10 ^25 operacij s plavajočo vejico (FLOP), ki se uporabljajo za učenje modela (člen 51(1)(a) in (2) akta o umetni inteligenci). Trenutno se ocenjuje, da bo usposabljanje modela, ki dosega ta prag, stalo več deset milijonov EUR (EpochAI, 2024). Urad za umetno inteligenco stalno spremlja tehnološki in industrijski razvoj, Komisija pa lahko prag posodobi s sprejetjem delegiranega akta (člen 51(3) akta o umetni inteligenci), da bi zagotovila, da bo še naprej izpostavljala najnaprednejše modele glede na razvoj najsodobnejših tehnologij. Na primer, vrednost samega praga bi se lahko prilagodila in/ali uvedli dodatni pragovi.
Za zajem modelov z učinkom, enakovrednim najnaprednejšim modelom, akt o umetni inteligenci pooblašča Komisijo, da določi dodatne modele, ki predstavljajo sistemsko tveganje, na podlagi meril, kot so ocene zmogljivosti modela, število uporabnikov, nadgradljivost ali dostop do orodij (člen 51(1), točka (b), in Priloga XIII k aktu o umetni inteligenci).
Urad za umetno inteligenco namerava zagotoviti dodatna pojasnila o tem, kako bodo umetnointeligenčni modeli za splošne namene razvrščeni kot umetnointeligenčni modeli za splošne namene s sistemskim tveganjem, pri čemer se bo oprl na spoznanja Skupnega raziskovalnega središča Komisije, ki trenutno pripravlja znanstvenoraziskovalni projekt, ki obravnava to in druga vprašanja.
Pravila akta o umetni inteligenci o umetnointeligenčnih modelih za splošne namene se uporabljajo za ponudnike, ki dajejo take modele na trg v Uniji, ne glede na to, ali imajo ti ponudniki sedež ali se nahajajo v Uniji ali tretji državi (člen 2(1)(a) akta o umetni inteligenci).
Ponudnik umetnointeligenčnega modela za splošne namene pomeni fizično ali pravno osebo, javni organ, agencijo ali drug organ, ki razvije umetnointeligenčni model za splošne namene ali za katerega se tak model razvije in da na trg za plačilo ali brezplačno (člen 3(3) akta o umetni inteligenci).
Dajanje modela na trg pomeni, da je model prvič dostopen na trgu Unije (člen 3(9) akta o umetni inteligenci), tj. prvič dobavljen za distribucijo ali uporabo na trgu Unije v okviru gospodarske dejavnosti, bodisi odplačno ali neodplačno (člen 3(10) akta o umetni inteligenci). Opozoriti je treba, da se za umetnointeligenčni model za splošne namene šteje, da je dan na trg tudi, če ga ponudnik tega modela vključi v svoj umetnointeligenčni sistem, ki je dostopen na trgu ali dan v uporabo, razen če se model (a) uporablja za izključno notranje postopke, ki niso bistveni za zagotavljanje proizvoda ali storitve tretjim osebam, (b) to ne vpliva na pravice fizičnih oseb in (c) model ni umetnointeligenčni model za splošne namene s sistemskim tveganjem (uvodna izjava 97 akta o umetni inteligenci).
Ponudniki umetnointeligenčnih modelov za splošne namene morajo dokumentirati tehnične informacije o svojih modelih, da jih lahko na zahtevo predložijo uradu za umetno inteligenco in pristojnim nacionalnim organom (člen 53(1)(a) akta o umetni inteligenci) ter jih dajo na voljo ponudnikom nižje v prodajni verigi (člen 53(1)(b) akta o umetni inteligenci). Vzpostaviti morajo tudi politiko za skladnost s pravom Unije o avtorski in sorodnih pravicah (člen 53(1)(c) akta o umetni inteligenci) ter pripraviti in javno objaviti dovolj podroben povzetek vsebine, uporabljene za učenje modela (člen 53(1)(d) akta o umetni inteligenci).
Splošni kodeks ravnanja na področju umetne inteligence bi moral podpisnikom zagotoviti dodatne podrobnosti o tem, kako zagotoviti skladnost s temi obveznostmi v oddelkih, ki obravnavajo preglednost in avtorske pravice (pod vodstvom delovne skupine 1).
V skladu z aktom o umetni inteligenci imajo ponudniki umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem dodatne obveznosti. Oceniti in zmanjšati morajo sistemska tveganja, zlasti z ocenjevanjem modelov, spremljanjem resnih incidentov, njihovim dokumentiranjem in poročanjem o njih ter zagotavljanjem ustrezne kibernetske zaščite modela in njegove fizične infrastrukture (člen 55 akta o umetni inteligenci).
Splošni kodeks ravnanja na področju umetne inteligence bi moral podpisnikom zagotoviti dodatne podrobnosti o tem, kako zagotoviti izpolnjevanje teh obveznosti v oddelkih, ki obravnavajo oceno sistemskega tveganja, tehnično zmanjševanje tveganja in zmanjševanje tveganja pri upravljanju (pod vodstvom delovnih skupin 2, 3 oziroma 4).
Obveznosti za ponudnike umetnointeligenčnih modelov za splošne namene se uporabljajo od 2. avgusta 2025 (člen 113(b) akta o umetni inteligenci), s posebnimi pravili za umetnointeligenčne modele za splošne namene, dane na trg pred navedenim datumom (člen 111(3) akta o umetni inteligenci).
Obveznosti priprave in predložitve dokumentacije uradu za umetno inteligenco, pristojnim nacionalnim organom in ponudnikom nižje v prodajni verigi (člen 53(1), točki (a) in (b), akta o umetni inteligenci) se ne uporabljajo, če se model izda na podlagi brezplačne in odprtokodne licence, njegovi parametri, vključno z utežmi, informacijami o arhitekturi modela in informacijami o uporabi modela, pa so javno dostopni (člen 53(2) akta o umetni inteligenci). V uvodnih izjavah 102 in 103 akta o umetni inteligenci je dodatno pojasnjeno, kaj pomeni brezplačna in odprtokodna licenca, urad za umetno inteligenco pa namerava zagotoviti dodatna pojasnila o vprašanjih v zvezi z odprtim zunanjim izvajanjem umetnointeligenčnih modelov za splošne namene.
Izjema se ne uporablja za umetnointeligenčne modele za splošne namene s sistemskim tveganjem. Po objavi odprtokodnega modela bo morda težje izvajati ukrepe, potrebne za zagotovitev skladnosti z obveznostmi iz člena 55 (uvodna izjava 112 akta o umetni inteligenci). Zato bodo ponudniki umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem morda morali oceniti in zmanjšati sistemska tveganja, preden bodo svoje modele sprostili kot odprtokodne.
Kodeks ravnanja na področju umetne inteligence za splošne namene bi moral podpisnikom zagotoviti dodatne podrobnosti o tem, kako izpolniti obveznosti iz členov 53 in 55 v zvezi z različnimi načini sproščanja umetnointeligenčnih modelov za splošne namene, vključno z odprtim zunanjim izvajanjem.
Pomembno, vendar težavno vprašanje, na katerem temelji postopek priprave kodeksa ravnanja, je iskanje ravnovesja med prizadevanji za koristi in zmanjševanjem tveganj, ki izhajajo iz odprtega oddajanja naprednih umetnointeligenčnih modelov za splošne namene: napredni umetnointeligenčni modeli za splošne namene, ki se oddajajo v zunanje izvajanje, lahko dejansko prinesejo znatne družbene koristi, tudi s spodbujanjem raziskav o varnosti umetne inteligence; hkrati pa se je pri odprtokodnih modelih lažje izogniti zmanjševanju tveganja ali ga odstraniti.
Člen 2(8) akta o umetni inteligenci določa, da se akt o umetni inteligenci na splošno „ne uporablja za nobeno raziskovalno, testno ali razvojno dejavnost v zvezi z umetnointeligenčnimi sistemi ali umetnointeligenčnimi modeli, preden so dani na trg ali v uporabo“.
Hkrati se nekatere obveznosti ponudnikov umetnointeligenčnih modelov za splošne namene (s sistemskim tveganjem in brez njega) eksplicitno ali implicitno nanašajo na razvojno fazo modelov, ki so namenjeni dajanju na trg, vendar pred njim. To na primer velja za obveznosti ponudnikov, da Komisijo obvestijo, da njihov umetnointeligenčni model za splošne namene dosega ali bo dosegal prag za izračun usposabljanja (člena 51 in 52 akta o umetni inteligenci), dokumentirajo informacije o usposabljanju in testiranju (člen 53 akta o umetni inteligenci) ter ocenijo in zmanjšajo sistemsko tveganje (člen 55 akta o umetni inteligenci). Zlasti člen 55(1)(b) akta o umetni inteligenci izrecno določa, da „ponudniki umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem ocenijo in zmanjšajo morebitna sistemska tveganja na ravni Unije, vključno z njihovimi viri, ki lahko izhajajo iz razvoja [...] umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem.
Urad za umetno inteligenco pričakuje, da se bodo razprave s ponudniki umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem začele zgodaj v razvojni fazi. To je v skladu z obveznostjo ponudnikov umetnointeligenčnih modelov za splošne namene, ki dosegajo prag za izračun usposabljanja iz člena 51(2) akta o umetni inteligenci, da „brez odlašanja, v vsakem primeru pa v dveh tednih po izpolnitvi te zahteve ali po tem, ko se ugotovi, da bo izpolnjena“ (člen 52(1) akta o umetni inteligenci). Dejansko je za učenje umetnointeligenčnih modelov za splošne namene potrebno precejšnje načrtovanje, ki vključuje vnaprejšnje dodeljevanje računalniških virov, zato lahko ponudniki umetnointeligenčnih modelov za splošne namene vedo, ali bo njihov model pred zaključkom usposabljanja dosegel prag za izračun za učenje (uvodna izjava 112 akta o umetni inteligenci).
Urad za umetno inteligenco namerava zagotoviti dodatna pojasnila o tem vprašanju.
Umetnointeligenčni modeli za splošne namene se lahko dodatno spremenijo ali izpopolnijo v nove modele (uvodna izjava 97 akta o umetni inteligenci). V skladu s tem lahko subjekti nižje v prodajni verigi, ki izpopolnijo ali kako drugače spremenijo obstoječi model UI za splošne namene, postanejo ponudniki novih modelov. Posebne okoliščine, v katerih subjekt nižje v prodajni verigi postane ponudnik novega modela, so težavno vprašanje s potencialno velikimi gospodarskimi posledicami, saj številne organizacije in posamezniki izpopolnjujejo ali kako drugače spreminjajo umetnointeligenčne modele za splošne namene, ki jih je razvil drug subjekt.
V primeru spremembe ali izpopolnitve obstoječega umetnointeligenčnega modela za splošne namene bi morale biti obveznosti ponudnikov umetnointeligenčnih modelov za splošne namene iz člena 53 akta o umetni inteligenci omejene na spremembo ali izpopolnitev, na primer z dopolnitvijo že obstoječe tehnične dokumentacije z informacijami o spremembah (uvodna izjava 109). Obveznosti ponudnikov umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem iz člena 55 akta o umetni inteligenci bi se morale uporabljati le v jasno določenih primerih. Urad za umetno inteligenco namerava zagotoviti dodatna pojasnila o tem vprašanju.
Ne glede na to, ali se subjekt nižje v prodajni verigi, ki v umetnointeligenčni sistem vključi umetnointeligenčni model za splošne namene, šteje za ponudnika umetnointeligenčnega modela za splošne namene, mora ta subjekt izpolnjevati ustrezne zahteve in obveznosti iz akta o umetni inteligenci za umetnointeligenčne sisteme.
Na podlagi člena 56 akta o umetni inteligenci bi moral kodeks ravnanja na področju umetne inteligence za splošne namene podrobno določati, kako lahko ponudniki umetnointeligenčnih modelov za splošne namene in umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem izpolnjujejo svoje obveznosti iz akta o umetni inteligenci. Urad za umetno inteligenco olajšuje pripravo tega kodeksa ravnanja s štirimi delovnimi skupinami, ki jim predsedujejo neodvisni strokovnjaki in v katerih sodeluje skoraj 1000 deležnikov, predstavnikov držav članic EU ter evropskih in mednarodnih opazovalcev.
Natančneje, v kodeksu ravnanja bi moralo biti podrobno navedeno vsaj, kako lahko ponudniki umetnointeligenčnih modelov za splošne namene izpolnjujejo obveznosti iz členov 53 in 55 akta o umetni inteligenci. To pomeni, da se lahko pričakuje, da bo imel kodeks ravnanja dva dela: tisti, ki se uporablja za ponudnike vseh umetnointeligenčnih modelov za splošne namene (člen 53), in tisti, ki se uporablja samo za ponudnike umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem (člen 55).
Kodeks ravnanja med drugim ne bi smel obravnavati naslednjih vprašanj: opredelitev ključnih konceptov in opredelitev iz akta o umetni inteligenci (kot je „umetnointeligenčni model za splošne namene“), posodobitev meril ali pragov za razvrstitev umetnointeligenčnega modela za splošne namene kot umetnointeligenčnega modela za splošne namene s sistemskim tveganjem (člen 51), opis, kako bo urad za umetno inteligenco izvrševal obveznosti za ponudnike umetnointeligenčnih modelov za splošne namene (poglavje IX, oddelek 5), ter vprašanja v zvezi z globami, sankcijami in odgovornostjo.
Ta vprašanja se lahko namesto tega obravnavajo na druge načine (sklepi, delegirani akti, izvedbeni akti, nadaljnja sporočila urada za umetno inteligenco itd.).
Kljub temu lahko kodeks ravnanja vključuje zaveze ponudnikov umetnointeligenčnih modelov za splošne namene, ki podpišejo kodeks, da bodo dokumentirali in sporočali dodatne informacije ter vključevali urad za umetno inteligenco in tretje osebe v celotnem življenjskem ciklu modela, če se to šteje za potrebno, da lahko ponudniki učinkovito izpolnjujejo svoje obveznosti na podlagi akta o umetni inteligenci.
Akt o umetni inteligenci razlikuje med umetnointeligenčnimi sistemi in umetnointeligenčnimi modeli ter uvaja zahteve za nekatere umetnointeligenčne sisteme (poglavja II–IV) in obveznosti za ponudnike umetnointeligenčnih modelov za splošne namene (poglavje V). Medtem ko so določbe akta o umetni inteligenci v zvezi z umetnointeligenčnimi sistemi odvisne od konteksta uporabe sistema, se določbe akta o umetni inteligenci v zvezi z umetnointeligenčnimi modeli za splošne namene uporabljajo za sam model, ne glede na to, kakšna je ali bo njegova končna uporaba. Kodeks ravnanja bi se moral nanašati le na obveznosti iz akta o umetni inteligenci za ponudnike umetnointeligenčnih modelov za splošne namene.
Kljub temu med obema sklopoma pravil obstajajo interakcije, saj so umetnointeligenčni modeli za splošne namene običajno vključeni v umetnointeligenčne sisteme in so njihov del. Če ponudnik umetnointeligenčnega modela za splošne namene ta model vključi v umetnointeligenčni sistem, mora izpolnjevati obveznosti ponudnikov umetnointeligenčnih modelov za splošne namene in, če umetnointeligenčni sistem spada na področje uporabe akta o umetni inteligenci, zahteve za umetnointeligenčne sisteme. Če ponudnik nižje v prodajni verigi vključi umetnointeligenčni model za splošne namene v umetnointeligenčni sistem, mora ponudnik umetnointeligenčnega modela za splošne namene sodelovati s ponudnikom umetnointeligenčnega sistema nižje v prodajni verigi, da zagotovi, da lahko slednji izpolni svoje obveznosti iz akta o umetni inteligenci, če umetnointeligenčni sistem spada na področje uporabe akta o umetni inteligenci (na primer z zagotavljanjem nekaterih informacij ponudniku nižje v prodajni verigi).
Glede na te interakcije med modeli in sistemi ter med obveznostmi in zahtevami za vsakega od njih se pomembno vprašanje, na katerem temelji kodeks ravnanja, nanaša na to, kateri ukrepi so ustrezni na ravni modela in ki jih je treba namesto tega sprejeti na ravni sistema.
Kodeks ravnanja bi moral določati svoje cilje, zaveze, ukrepe in po potrebi ključne kazalnike uspešnosti za merjenje doseganja svojih ciljev. Zaveze, ukrepi in ključni kazalniki uspešnosti, povezani z obveznostmi, ki se uporabljajo za ponudnike vseh umetnointeligenčnih modelov za splošne namene, bi morali ustrezno upoštevati velikost ponudnika in omogočiti poenostavljene načine zagotavljanja skladnosti za MSP, vključno z zagonskimi podjetji, ki ne bi smeli predstavljati pretiranih stroškov in odvračati od uporabe takih modelov (uvodna izjava 109 akta o umetni inteligenci). Poleg tega bi morale zaveze glede poročanja v zvezi z obveznostmi, ki se uporabljajo za ponudnike umetnointeligenčnih modelov za splošne namene s sistemskim tveganjem, odražati razlike v velikosti in zmogljivosti med različnimi ponudniki (člen 56(5) akta o umetni inteligenci), hkrati pa zagotoviti, da so sorazmerne s tveganji (člen 56(2)(d) akta o umetni inteligenci).
Po objavi tretjega osnutka kodeksa ravnanja se pričakuje, da bo v prihodnjih mesecih sledil še en krog priprave. Trinajst predsednikov in podpredsednikov, ki izhajajo iz različnih okolij na področju računalništva, upravljanja umetne inteligence in prava, je odgovornih za sintezo prispevkov iz posvetovanja z več deležniki in razprav s plenarno skupščino kodeksa ravnanja, ki jo sestavlja približno 1000 deležnikov. Ta ponavljajoči se postopek bo privedel do končnega kodeksa ravnanja, ki bi moral odražati različne prispevke, hkrati pa zagotoviti ustrezen razmislek o tem, kako ravnati v skladu z aktom o umetni inteligenci.
V skladu s členom 56(9) so „kodeksi ravnanja pripravljeni najpozneje do 2. maja 2025“, da se ponudnikom zagotovi dovolj časa, preden se 2. avgusta 2025 začnejo uporabljati pravila GPAI.
Ko je kodeks dokončno oblikovan, „Urad za umetno inteligenco in Odbor ocenita, ali kodeksi ravnanja zajemajo obveznosti iz členov 53 in 55 (...). Objavijo svojo oceno ustreznosti kodeksov ravnanja. Komisija lahko z izvedbenim aktom odobri kodeks ravnanja in mu podeli splošno veljavnost v Uniji.“ (člen 56(6) akta o umetni inteligenci).
Če je kodeks ravnanja odobren z izvedbenim aktom, je splošno veljaven, kar pomeni, da spoštovanje kodeksa ravnanja postane sredstvo za dokazovanje skladnosti z aktom o umetni inteligenci, hkrati pa ne zagotavlja domneve o skladnosti z aktom o umetni inteligenci. Ponudniki lahko skladnost z aktom o umetni inteligenci dokažejo tudi na druge načine. V tem primeru bi se od ponudnikov pričakovalo, da sprejmejo ukrepe za zagotovitev skladnosti s svojimi obveznostmi iz akta o umetni inteligenci, ki so ustrezni, učinkoviti in sorazmerni ter lahko vključujejo poročanje uradu za umetno inteligenco.
Na podlagi akta o umetni inteligenci so dodatni pravni učinki kodeksa ravnanja, da lahko urad za umetno inteligenco pri spremljanju njegovega učinkovitega izvajanja in skladnosti z aktom o umetni inteligenci (člen 89(1) akta o umetni inteligenci) upošteva ponudnikovo spoštovanje kodeksa ravnanja ter da lahko pri določanju zneska glob glede na posebne okoliščine ugodno upošteva zaveze iz kodeksa ravnanja (člen 101(1) akta o umetni inteligenci).
Nazadnje, „Če kodeksa ravnanja do 2. avgusta 2025 ni mogoče dokončno oblikovati ali če urad za umetno inteligenco na podlagi ocene iz odstavka 6 tega člena meni, da ni ustrezen, lahko Komisija z izvedbenimi akti določi skupna pravila za izvajanje obveznosti iz členov 53 in 55, vključno z vprašanji iz odstavka 2 tega člena“ (člen 56(9) akta o umetni inteligenci).
Na podlagi člena 56(8) akta o umetni inteligenci „Urad za umetno inteligenco po potrebi spodbuja in olajšuje tudi pregled in prilagoditev kodeksov ravnanja, zlasti glede na nastajajoče standarde“. Tretji osnutek kodeksa ravnanja vključuje predlagani mehanizem za njegov pregled in posodobitev.
Urad za umetno inteligenco bo nadzoroval in izvrševal obveznosti iz akta o umetni inteligenci za ponudnike umetnointeligenčnih modelov za splošne namene (člen 88 akta o umetni inteligenci) ter izjemoma obveznosti za ponudnike umetnointeligenčnih sistemov, ki temeljijo na umetnointeligenčnih modelih za splošne namene, če sta ponudnik modela in sistem ista (člen 75(1) akta o umetni inteligenci). Urad za umetno inteligenco bo med drugim podpiral ustrezne organe držav članic za nadzor trga pri izvrševanju zahtev za umetnointeligenčne sisteme (člen 75(2) in (3) akta o umetni inteligenci). Izvrševanje s strani urada za umetno inteligenco temelji na pooblastilih, ki so mu podeljena z aktom o umetni inteligenci, in sicer pooblastilih, da zahteva informacije (člen 91 akta o umetni inteligenci), izvaja ocene umetnointeligenčnih modelov za splošne namene (člen 92 akta o umetni inteligenci), od ponudnikov zahteva ukrepe, vključno z izvajanjem ukrepov za zmanjšanje tveganja, in model odpokliče s trga (člen 93 akta o umetni inteligenci) ter naloži globe v višini do 3 % svetovnega letnega prometa ali 15 milijonov EUR, odvisno od tega, kateri znesek je višji (člen 101 akta o umetni inteligenci).
Related content
Prvi kodeks ravnanja na področju umetne inteligence za splošne namene, ki ga je prejela Komisija, podrobno določa pravila akta o umetni inteligenci za ponudnike umetnointeligenčnih modelov za splošne namene in umetnointeligenčnih modelov za splošne namene s sistemskimi tveganji.