
© gorodenkoff - iStock Getty Images Plus
Pasiūlymu dėl reguliavimo siekiama DI kūrėjams, diegėjams ir naudotojams nustatyti aiškius reikalavimus ir įpareigojimus, susijusius su konkrečiais dirbtinio intelekto naudojimo būdais. Kartu pasiūlymu siekiama sumažinti įmonėms, visų pirma mažosioms ir vidutinėms įmonėms (MVĮ), tenkančią administracinę ir finansinę naštą.
Pasiūlymas yra platesnio dirbtinio intelekto dokumentų rinkinio, į kurį taip pat įtrauktas atnaujintas suderintas dirbtinio intelekto planas, dalis. Kartu reglamentavimo sistema ir suderintas planas užtikrins žmonių ir įmonių saugumą ir pagrindines teises dirbtinio intelekto srityje. Be to, jos padidins dirbtinio intelekto įsisavinimą, investicijas ir inovacijas visoje ES.
Kodėl mums reikia dirbtinio intelekto taisyklių?
Siūlomu DI reglamentu užtikrinama, kad europiečiai galėtų pasitikėti tuo, ką turi pasiūlyti dirbtinis intelektas. Nors dauguma DI sistemų nekelia jokios rizikos ir gali padėti spręsti daugelį visuomenės uždavinių, kai kurios DI sistemos kelia riziką, kurią turime spręsti, kad išvengtume nepageidaujamų rezultatų.
Pavyzdžiui, dažnai neįmanoma išsiaiškinti, kodėl dirbtinio intelekto sistema priėmė sprendimą ar prognozę ir ėmėsi konkrečių veiksmų. Taigi gali būti sunku įvertinti, ar asmuo buvo nesąžiningai nepalankioje padėtyje, pavyzdžiui, priimant sprendimą dėl įdarbinimo arba teikiant paraišką dėl visuomenei naudingos sistemos.
Nors galiojančiuose teisės aktuose numatyta tam tikra apsauga, jų nepakanka konkretiems DI sistemų keliamiems uždaviniams spręsti.
Siūlomomis taisyklėmis bus siekiama:
- mažinti konkrečiai dirbtinio intelekto taikomųjų programų keliamą riziką;
- pasiūlyti didelės rizikos prietaikų sąrašą;
- nustatyti aiškius DI sistemų reikalavimus didelės rizikos prietaikoms;
- nustatyti konkrečias DI naudotojų ir didelės rizikos taikomųjų programų teikėjų pareigas;
- pasiūlyti atlikti atitikties vertinimą prieš pradedant naudoti DI sistemą arba prieš ją pateikiant rinkai;
- pasiūlyti vykdymo užtikrinimą po to, kai tokia DI sistema bus pateikta rinkai;
- pasiūlyti valdymo struktūrą Europos ir nacionaliniu lygmenimis.
Rizika grindžiamas požiūris
Reguliavimo sistemoje apibrėžiami 4 dirbtinio intelekto rizikos lygiai:
- Nepriimtina rizika
- Didelė rizika
- Ribota rizika
- Minimali rizika arba jos nėra
Nepriimtina rizika
Visoms dirbtinio intelekto sistemoms, kurios laikomos keliančiomis akivaizdžią grėsmę žmonių saugumui, pragyvenimo šaltiniams ir teisėms, bus uždrausta nuo vyriausybių socialinio vertinimo iki žaislų, naudojant balso pagalbą, kuri skatina pavojingą elgesį.
Didelė rizika
Didelės rizikos DI sistemos apima DI technologijas, naudojamas:
- ypatingos svarbos infrastruktūros objektai (pvz., transportas), kurie galėtų kelti pavojų piliečių gyvybei ir sveikatai;
- švietimas arba profesinis mokymas, kuris gali nulemti galimybę įgyti išsilavinimą ir profesinę gyvenimo eigą (pvz., egzaminų balai);
- gaminių saugos komponentai (pvz., dirbtinio intelekto taikymas chirurgijoje su robotais);
- įdarbinimas, darbuotojų valdymas ir galimybė įsidarbinti savarankiškai (pvz., įdarbinimo procedūroms skirta CV rūšiavimo programinė įranga);
- esminės privačios ir viešosios paslaugos (pvz., kredito balai, pagal kuriuos piliečiams nesuteikiama galimybė gauti paskolą);
- teisėsauga, kuri gali pažeisti pagrindines žmonių teises (pvz., įrodymų patikimumo vertinimas);
- migracijos, prieglobsčio ir sienų kontrolės valdymas (pvz., kelionės dokumentų autentiškumo tikrinimas);
- teisingumo ir demokratinių procesų administravimas (pvz., teisės taikymas konkretiems faktams).
Didelės rizikos DI sistemoms bus taikomi griežti įpareigojimai prieš jas pateikiant rinkai:
- tinkamos rizikos vertinimo ir mažinimo sistemos;
- aukšta sistemos duomenų rinkinių kokybė, siekiant kuo labiau sumažinti riziką ir diskriminacines pasekmes;
- veiklos registravimas siekiant užtikrinti rezultatų atsekamumą;
- išsamūs dokumentai, kuriuose pateikiama visa informacija apie sistemą ir jos paskirtį, kad institucijos galėtų įvertinti jos atitiktį;
- aiški ir tinkama informacija naudotojui;
- tinkamos žmogaus priežiūros priemonės rizikai sumažinti;
- aukštas patikimumo, saugumo ir tikslumo lygis.
Visos nuotolinio biometrinio identifikavimo sistemos laikomos labai rizikingomis ir joms taikomi griežti reikalavimai. Nuotolinio biometrinio identifikavimo naudojimas viešosiose erdvėse teisėsaugos tikslais iš esmės draudžiamas.
Siauros išimtys yra griežtai apibrėžtos ir reglamentuojamos, pavyzdžiui, kai reikia ieškoti dingusio vaiko, užkirsti kelią konkrečiai ir neišvengiamai terorizmo grėsmei arba nustatyti, nustatyti, nustatyti ar patraukti baudžiamojon atsakomybėn sunkią nusikalstamą veiką padariusį kaltininką ar įtariamąjį.
Tokiam naudojimui reikia gauti teisminės ar kitos nepriklausomos institucijos leidimą ir nustatyti atitinkamus laiko, geografinės aprėpties ir ieškomų duomenų bazių apribojimus.
Ribota rizika
Ribota rizika susijusi su DI sistemomis, kurioms taikomi konkretūs skaidrumo įpareigojimai. Naudodamiesi DI sistemomis, pvz., pokalbių robotais, naudotojai turėtų žinoti, kad sąveikauja su mašina, kad galėtų priimti informacija pagrįstą sprendimą tęsti veiklą arba grįžti atgal.
Minimali rizika arba jos nėra
Pasiūlymu leidžiama laisvai naudoti minimalios rizikos dirbtinį intelektą. Tai apima tokias programas kaip AI veikiantys vaizdo žaidimai arba šlamšto filtrai. Didžioji dauguma šiuo metu ES naudojamų dirbtinio intelekto sistemų patenka į šią kategoriją.
Kai DI sistema yra rinkoje, valdžios institucijos atsako už rinkos priežiūrą, naudotojai užtikrina žmogaus vykdomą priežiūrą ir stebėseną, o paslaugų teikėjai įdiegia stebėsenos po pateikimo rinkai sistemą. Paslaugų teikėjai ir naudotojai taip pat praneš apie rimtus incidentus ir veikimo sutrikimus.
Perspektyvūs teisės aktai
Kadangi dirbtinis intelektas yra sparčiai besivystanti technologija, pasiūlymas grindžiamas perspektyviu požiūriu, leidžiančiu taisykles pritaikyti prie technologinių pokyčių. Dirbtinio intelekto taikomosios programos turėtų išlikti patikimos net po to, kai jos buvo pateiktos rinkai. Tam reikia, kad paslaugų teikėjai nuolat vykdytų kokybės ir rizikos valdymą.
Tolesni žingsniai
2021 m. balandžio mėn. Komisijai pateikus pasiūlymą, reglamentas galėtų įsigalioti 2022 m. pabaigoje – 2023 m. pradžioje pereinamuoju laikotarpiu. Šiuo laikotarpiu standartai būtų suteikiami ir plėtojami, o sukurtos valdymo struktūros veiktų. Antrasis 2024 m. pusmetis yra anksčiausias laikas, kai reglamentas galėtų būti pradėtas taikyti veiklos vykdytojams, parengus standartus ir atlikus pirmuosius atitikties vertinimus.
Naujausios naujienos
Daugiau šia tema
Bendras vaizdas
The EU’s approach to artificial intelligence centers on excellence and trust, aiming to boost research and industrial capacity while ensuring safety and fundamental rights.
Taip pat žr.
Tarptautinė į žmogų orientuoto dirbtinio intelekto iniciatyva padės propaguoti ES tvaraus ir patikimo dirbtinio intelekto viziją.
Suderintu dirbtinio intelekto planu siekiama paspartinti investicijas į dirbtinį intelektą, imtis veiksmų dėl dirbtinio intelekto strategijų ir programų ir suderinti DI politiką, kad būtų išvengta susiskaidymo Europoje.
Europos Komisija paskyrė ekspertų grupę, kuri konsultuos dirbtinio intelekto strategijos klausimais.
Europos dirbtinio intelekto aljansas yra Europos Komisijos iniciatyva užmegzti atvirą politinį dialogą dirbtinio intelekto klausimais. Nuo savo veiklos pradžios 2018 m. DI aljansas reguliariai rengė renginius, viešas konsultacijas ir internetinius forumus, kuriuose dalyvavo apie...