Skip to main content
Shaping Europe’s digital future

Mākslīgā intelekta akts ir pirmais tiesiskais regulējums mākslīgā intelekta jomā, kas pievēršas mākslīgā intelekta radītajiem riskiem un liek Eiropai uzņemties vadošo lomu pasaulē.

Mākslīgā intelekta akts (Regula (ES) 2024/1689, kas nosaka saskaņotus noteikumus mākslīgā intelekta jomā) ir pirmais visaptverošais tiesiskais regulējums mākslīgā intelekta jomā visā pasaulē. Noteikumu mērķis ir veicināt uzticamu MI Eiropā.

MI aktā ir noteikts skaidrs uz risku balstītu noteikumu kopums MI izstrādātājiem un ieviesējiem attiecībā uz konkrētiem MI lietojumiem. Mākslīgā intelekta akts ir daļa no plašāka politikas pasākumu kopuma uzticama mākslīgā intelekta izstrādes atbalstam, kas ietver arī mākslīgā intelekta inovācijas paketi, mākslīgā intelekta rūpnīcu darbības uzsākšanu un koordinēto mākslīgā intelekta plānu. Kopā šie pasākumi garantē drošību, pamattiesības un antropocentrisku MI un stiprina MI ieviešanu, investīcijas un inovāciju visā ES.

Lai atvieglotu pāreju uz jauno tiesisko regulējumu, Komisija ir uzsākusi MI paktu — brīvprātīgu iniciatīvu, kuras mērķis ir atbalstīt turpmāko īstenošanu, sadarboties ar ieinteresētajām personām un aicināt MI sagādātājus un ieviesējus no Eiropas un ārpus tās laikus izpildīt MI aktā noteiktos galvenos pienākumus. 

Kāpēc mums ir vajadzīgi noteikumi par mākslīgo intelektu?

Mākslīgā intelekta akts nodrošina, ka eiropieši var uzticēties tam, ko var piedāvāt mākslīgais intelekts. Lai gan lielākā daļa MI sistēmu nerada nekādu risku un var palīdzēt atrisināt daudzas sabiedrības problēmas, dažas MI sistēmas rada riskus, kas mums jānovērš, lai izvairītos no nevēlamiem rezultātiem.

Piemēram, bieži vien nav iespējams noskaidrot, kāpēc MI sistēma ir pieņēmusi lēmumu vai prognozi un veikusi konkrētu darbību. Tādējādi var būt grūti novērtēt, vai persona ir bijusi netaisnīgi nelabvēlīgā situācijā, piemēram, pieņemot lēmumu par pieņemšanu darbā vai piesakoties sabiedriskā labuma shēmai.

Lai gan spēkā esošie tiesību akti nodrošina zināmu aizsardzību, tie nav pietiekami, lai risinātu īpašās problēmas, ko var radīt MI sistēmas.

Uz risku balstīta pieeja

Mākslīgā intelekta aktā ir noteikti četri riska līmeņi mākslīgā intelekta sistēmām:

piramīda, kas parāda četrus riska līmeņus: nepieņemams risks; augsta riska; ierobežots risks, minimāls risks vai riska nav vispār

Nepieņemams risks

Visas MI sistēmas, kas tiek uzskatītas par nepārprotamu apdraudējumu cilvēku drošībai, iztikas līdzekļiem un tiesībām, ir aizliegtas. Mākslīgā intelekta akts aizliedz astoņas prakses, proti:

  1. kaitīga uz MI balstīta manipulācija un maldināšana
  2. kaitīga uz mākslīgo intelektu balstīta ievainojamības izmantošana
  3. sociālais novērtējums
  4. Atsevišķu noziedzīgu nodarījumu riska novērtējums vai prognozēšana
  5. nemērķtiecīga interneta vai CCTV materiāla rasmošana, lai izveidotu vai paplašinātu sejas atpazīšanas datubāzes
  6. emociju atpazīšana darbavietās un izglītības iestādēs
  7. biometriskā kategorizācija, lai izsecinātu noteiktus aizsargātus raksturlielumus
  8. reāllaika biometriskā tālidentifikācija tiesībaizsardzības nolūkos sabiedriskās vietās

Augsts risks

MI izmantošanas gadījumi, kas var radīt nopietnu risku veselībai, drošībai vai pamattiesībām, tiek klasificēti kā augsta riska gadījumi. Šie augsta riska lietojumgadījumi ir šādi:

  • MI drošības komponenti kritiskajās infrastruktūrās (piemēram, transportā), kuru atteice varētu apdraudēt iedzīvotāju dzīvību un veselību
  • MI risinājumi, ko izmanto izglītības iestādēs un kas var noteikt piekļuvi izglītībai un personas profesionālās dzīves gaitai (piemēram, eksāmenu vērtēšana)
  • Produktu drošības sastāvdaļas, kuru pamatā ir mākslīgais intelekts (piemēram, mākslīgā intelekta lietojums robotizētā ķirurģijā)
  • MI rīki nodarbinātībai, darba ņēmēju pārvaldībai un piekļuvei pašnodarbinātībai (piemēram, CV šķirošanas programmatūra pieņemšanai darbā)
  • Daži MI izmantošanas gadījumi, ko izmanto, lai nodrošinātu piekļuvi būtiskiem privātiem un publiskiem pakalpojumiem (piemēram, kredītspējas novērtēšana, kas liedz iedzīvotājiem iespēju saņemt aizdevumu)
  • AI sistēmas, ko izmanto biometriskai tālidentifikācijai, emociju atpazīšanai un biometriskai kategorizācijai (piemēram, AI sistēma, lai ar atpakaļejošu spēku identificētu veikalu pacēlāju)
  • MI izmantošanas gadījumi tiesībaizsardzības jomā, kas var ietekmēt cilvēku pamattiesības (piemēram, pierādījumu ticamības novērtēšana)
  • MI izmantošanas gadījumi migrācijas, patvēruma un robežkontroles pārvaldībā (piemēram, automatizēta vīzu pieteikumu izskatīšana)
  • MI risinājumi, ko izmanto tiesas spriešanā un demokrātiskajos procesos (piemēram, MI risinājumi tiesas nolēmumu sagatavošanai)

Uz augsta riska AI sistēmām pirms to laišanas tirgū attiecas stingri pienākumi:

  • atbilstošas riska novērtēšanas un mazināšanas sistēmas;
  • sistēmā ievadīto datu kopu augsta kvalitāte, lai līdz minimumam samazinātu diskriminējošu iznākumu risku;
  • darbības reģistrēšana, lai nodrošinātu rezultātu izsekojamību
  • detalizēta dokumentācija, kurā sniegta visa nepieciešamā informācija par sistēmu un tās mērķi, lai iestādes varētu novērtēt tās atbilstību;
  • skaidra un atbilstoša informācija ieviesējam;
  • atbilstoši cilvēka virsvadības pasākumi
  • augsts noturības, kiberdrošības un precizitātes līmenis;

Pārredzamības risks

Tas attiecas uz riskiem, kas saistīti ar nepieciešamību nodrošināt MI izmantošanas pārredzamību. Mākslīgā intelekta akts ievieš īpašus informācijas atklāšanas pienākumus, lai nodrošinātu, ka cilvēki tiek informēti, kad tas ir nepieciešams uzticēšanās saglabāšanai. Piemēram, izmantojot tādas MI sistēmas kā sarunboti, cilvēki būtu jāinformē par to, ka viņi mijiedarbojas ar mašīnu, lai viņi varētu pieņemt uz informāciju balstītu lēmumu.

Turklāt ģeneratīvā MI nodrošinātājiem ir jānodrošina, ka MI radītais saturs ir identificējams. Turklāt konkrēts MI radīts saturs būtu skaidri un redzami jāmarķē, proti, dziļviltojumi un teksts, kas publicēts ar mērķi informēt sabiedrību par sabiedrības interešu jautājumiem.

Minimāls risks vai tā nav

Mākslīgā intelekta akts neievieš noteikumus attiecībā uz mākslīgo intelektu, kas tiek uzskatīts par minimālu vai bezriska. Lielākā daļa AI sistēmu, ko pašlaik izmanto ES, ietilpst šajā kategorijā. Tas ietver tādus lietojumus kā MI iespējotas videospēles vai surogātpasta filtri.

Kā tas viss darbojas praksē attiecībā uz augsta riska MI sistēmu sagādātājiem?

Kā tas viss darbojas praksē attiecībā uz augsta riska MI sistēmu sagādātājiem?

pakāpenisks atbilstības deklarēšanas process

Tiklīdz AI sistēma ir laista tirgū, iestādes ir atbildīgas par tirgus uzraudzību, ieviesēji nodrošina cilvēka virsvadību un uzraudzību un sagādātāji ir ieviesuši pēctirgus uzraudzības sistēmu. Pakalpojumu sniedzēji un ieviesēji ziņos arī par nopietniem incidentiem un darbības traucējumiem.

Risinājums lielu MI modeļu uzticamai izmantošanai

Vispārēja lietojuma MI modeļi var veikt plašu uzdevumu klāstu un kļūst par pamatu daudzām MI sistēmām ES. Daži no šiem modeļiem var radīt sistēmiskus riskus, ja tie ir ļoti spējīgi vai tiek plaši izmantoti. Lai nodrošinātu drošu un uzticamu MI, ar MI aktu tiek ieviesti noteikumi šādu modeļu sagādātājiem. Tas ietver pārredzamību un ar autortiesībām saistītus noteikumus. Attiecībā uz modeļiem, kas var radīt sistēmiskus riskus, pakalpojumu sniedzējiem šie riski būtu jānovērtē un jāmazina.

MI akta noteikumi par vispārēja lietojuma MI stāsies spēkā 2025. gada augustā. MI birojs veicina prakses kodeksa izstrādi, lai sīki izklāstītu šos noteikumus. Kodeksam vajadzētu būt galvenajam rīkam, ar ko sagādātāji var pierādīt atbilstību Mākslīgā intelekta aktam, iekļaujot jaunāko praksi. 

Pārvaldība un īstenošana

Eiropas MI birojs un dalībvalstu iestādes ir atbildīgas par MI akta īstenošanu, uzraudzību un izpildi. MI padome, zinātnes ekspertu grupa un konsultatīvā padome vada un konsultē MI akta pārvaldību. Uzziniet vairāk par Mākslīgā intelekta akta pārvaldību un izpildi.  

Turpmākie pasākumi

Mākslīgā intelekta akts stājās spēkā 2024. gada 1. augustā, un tas būs pilnībā piemērojams divus gadus vēlāk, 2026. gada 2. augustā, ar dažiem izņēmumiem:

  • aizliegumus un MI pratības pienākumus sāk piemērot no 2025. gada 2. februāra,
  • pārvaldības noteikumi un pienākumi attiecībā uz vispārēja lietojuma MI modeļiem kļūst piemērojami 2025. gada 2. augustā.
  • noteikumiem par augsta riska AI sistēmām, kas iestrādātas regulētos produktos, ir pagarināts pārejas periods līdz 2027. gada 2. augustam;

Jaunākās ziņas

Līdzīgs saturs

Lielais attēls

ES pieeja mākslīgajam intelektam ir vērsta uz izcilību un uzticēšanos, un tās mērķis ir palielināt pētniecības un rūpniecības spējas, vienlaikus nodrošinot drošību un pamattiesības.

Rociet dziļāk!