
© gorodenkoff - iStock Getty Images Plus
Sääntelyehdotuksen tavoitteena on tarjota tekoälyn kehittäjille, käyttöönottajille ja käyttäjille selkeät vaatimukset ja velvoitteet, jotka koskevat tekoälyn tiettyjä käyttötarkoituksia. Samalla ehdotuksella pyritään vähentämään yritysten, erityisesti pienten ja keskisuurten yritysten (pk-yritysten) hallinnollista ja taloudellista taakkaa.
Ehdotus on osa laajempaa tekoälypakettia, joka sisältää myös päivitetyn tekoälyä koskevan koordinoidun suunnitelman. Yhdessä sääntelykehyksellä ja koordinoidulla suunnitelmalla taataan ihmisten ja yritysten turvallisuus ja perusoikeudet tekoälyn osalta. Lisäksi ne tehostavat tekoälyn käyttöönottoa, investointeja ja innovointia kaikkialla.
Miksi tekoälyä koskevia sääntöjä tarvitaan?
Ehdotetulla tekoälyasetuksella varmistetaan, että eurooppalaiset voivat luottaa siihen, mitä tekoälyllä on tarjottavanaan. Vaikka useimmat tekoälyjärjestelmät aiheuttavat vain vähäisen riskin ja voivat auttaa ratkaisemaan monia yhteiskunnallisia haasteita, tietyt tekoälyjärjestelmät aiheuttavat riskejä, joihin meidän on puututtava, jotta vältetään ei-toivotut tulokset.
Usein ei esimerkiksi ole mahdollista selvittää, miksi tekoälyjärjestelmä on tehnyt päätöksen tai ennusteen ja toteuttanut tietyn toimenpiteen. Näin ollen voi olla vaikeaa arvioida, onko joku joutunut epäoikeudenmukaisesti epäedulliseen asemaan esimerkiksi palkkaamispäätöksessä tai yleistä etuusjärjestelmää koskevassa hakemuksessa.
Vaikka voimassa oleva lainsäädäntö tarjoaa jonkin verran suojaa, se ei riitä vastaamaan tekoälyjärjestelmien mahdollisesti aiheuttamiin erityishaasteisiin.
Ehdotetuissa säännöissä
- puututaan erityisesti tekoälysovellusten aiheuttamiin riskeihin;
- ehdottaa luetteloa suuririskisistä sovelluksista;
- asettaa tekoälyjärjestelmille selkeät vaatimukset suuririskisille sovelluksille;
- määritellään tekoälyn käyttäjille ja suuririskisten sovellusten tarjoajille erityiset velvoitteet;
- ehdottaa vaatimustenmukaisuuden arviointia ennen tekoälyjärjestelmän käyttöönottoa tai markkinoille saattamista;
- ehdottaa täytäntöönpanoa sen jälkeen, kun tällainen tekoälyjärjestelmä on saatettu markkinoille;
- ehdottaa hallintorakennetta Euroopan ja jäsenvaltioiden tasolla.
Riskiperusteinen lähestymistapa
Sääntelykehyksessä määritellään tekoälyyn liittyvät neljä riskitasoa:
- Riskit, joita ei voida hyväksyä
- Suuri riski
- Rajallinen riski
- Pieni riski tai ei lainkaan riskiä
Riskit, joita ei voida hyväksyä
Kaikki tekoälyjärjestelmät, joita pidetään selvänä uhkana ihmisten turvallisuudelle, toimeentulolle ja oikeuksille, kielletään hallitusten suorittamasta sosiaalisesta pisteytyksestä leluille käyttämällä ääniapua, joka kannustaa vaaralliseen käyttäytymiseen.
Suuri riski
Suuririskisiksi tunnistettuihin tekoälyjärjestelmiin kuuluvat tekoälyteknologia, jota käytetään
- kriittiset infrastruktuurit (esim. liikenne), jotka voisivat vaarantaa kansalaisten elämän ja terveyden;
- yleissivistävä tai ammatillinen koulutus, joka voi määrittää pääsyn koulutukseen ja ammatilliseen koulutukseen (esim. tenttien pisteytys);
- tuotteiden turvakomponentit (esim. tekoälysovellus robottiavusteisessa kirurgiassa);
- työllisyys, työntekijöiden johtaminen ja mahdollisuus itsenäiseen ammatinharjoittamiseen (esim. ansioluetteloiden lajitteluohjelmisto rekrytointimenettelyjä varten)
- olennaiset yksityiset ja julkiset palvelut (esim. luottopisteytys, jolla evätään kansalaisilta mahdollisuus saada lainaa)
- lainvalvonta, joka voi vaikuttaa ihmisten perusoikeuksiin (esim. todisteiden luotettavuuden arviointi);
- Maahanmuutto-, turvapaikka- ja rajavalvonta (esim. matkustusasiakirjojen aitouden tarkastaminen)
- oikeudenkäyttö ja demokraattiset prosessit (esim. lainsäädännön soveltaminen konkreettisiin tosiseikkoihin).
Suuririskisiin tekoälyjärjestelmiin sovelletaan tiukkoja velvoitteita ennen kuin ne voidaan saattaa markkinoille:
- riittävät riskinarviointi- ja vähentämisjärjestelmät;
- järjestelmää syöttävien tietoaineistojen korkea laatu riskien ja syrjivien tulosten minimoimiseksi;
- toimien kirjaaminen tulosten jäljitettävyyden varmistamiseksi;
- yksityiskohtaiset asiakirjat, joissa annetaan kaikki tarvittavat tiedot järjestelmästä ja sen tarkoituksesta, jotta viranomaiset voivat arvioida järjestelmän vaatimustenmukaisuuden;
- selkeät ja riittävät tiedot käyttäjälle;
- asianmukaiset ihmisen valvontatoimenpiteet riskien minimoimiseksi;
- korkea kestävyys, turvallisuus ja tarkkuus.
Kaikkia biometrisiä etätunnistusjärjestelmiä pidetään suurena riskinä ja niihin sovelletaan tiukkoja vaatimuksia. Biometrisen etätunnistuksen käyttö julkisissa tiloissa lainvalvontatarkoituksiin on periaatteessa kielletty.
Suppeat poikkeukset määritellään tarkasti ja niitä säännellään, kuten tarvittaessa kadonneen lapsen etsimiseksi, tietyn ja välittömän terroriuhkan estämiseksi tai vakavan rikoksen tekijän tai epäillyn havaitsemiseksi, paikantamiseksi, tunnistamiseksi tai syytteeseen asettamiseksi.
Tällainen käyttö edellyttää tuomioistuimen tai muun riippumattoman elimen lupaa ja asianmukaisia määräaikoja, maantieteellistä kattavuutta ja hakujen kohteena olevia tietokantoja.
Rajallinen riski
Rajallinen riski liittyy tekoälyjärjestelmiin, joihin liittyy erityisiä avoimuusvelvoitteita. Kun käytät tekoälyjärjestelmiä, kuten chatbotteja, käyttäjien tulisi olla tietoisia siitä, että he ovat vuorovaikutuksessa koneen kanssa, jotta he voivat tehdä tietoon perustuvan päätöksen jatkaa tai palata taaksepäin.
Pieni riski tai ei lainkaan riskiä
Ehdotus mahdollistaa mahdollisimman pienen riskin tekoälyn vapaan käytön. Tämä sisältää sovelluksia, kuten tekoälyä hyödyntäviä videopelejä tai roskapostisuodattimia. Valtaosa nykyisin käytettävistä tekoälyjärjestelmistä kuuluu tähän luokkaan.
Kun tekoälyjärjestelmä on markkinoilla, viranomaiset vastaavat markkinavalvontasta, käyttäjät varmistavat ihmisten valvonnasta ja seurannasta ja palveluntarjoajilla on käytössä markkinoille saattamisen jälkeinen seurantajärjestelmä. Palveluntarjoajat ja käyttäjät ilmoittavat myös vakavista vaaratilanteista ja toimintahäiriöistä.
Tulevaisuuden vaatimukset huomioon ottava lainsäädäntö
Koska tekoäly on nopeasti kehittyvä teknologia, ehdotuksessa on tulevaisuuden vaatimukset huomioon ottava lähestymistapa, joka mahdollistaa sääntöjen mukauttamisen teknologiseen muutokseen. Tekoälysovellusten olisi pysyttävä luotettavina myös sen jälkeen, kun ne on saatettu markkinoille. Tämä edellyttää palveluntarjoajien jatkuvaa laadun ja riskien hallintaa.
Seuraavat vaiheet
Komission huhtikuussa 2021 tekemän ehdotuksen mukaisesti asetus voisi tulla voimaan vuoden 2022 lopussa tai vuoden 2023 alussa siirtymäkauden aikana. Tänä aikana normeja annettaisiin ja kehitettäisiin, ja käyttöön otetut hallintorakenteet olisivat toiminnassa. Vuoden 2024 jälkipuolisko on varhaisin ajankohta, jolloin asetusta voidaan soveltaa toimijoihin, joiden standardit ovat valmiita ja ensimmäiset vaatimustenmukaisuuden arvioinnit on suoritettu.
Viimeisimmät uutiset
Related Content
Big Picture
EU:n lähestymistapa tekoälyyn keskittyy huippuosaamiseen ja luottamukseen ja pyrkii lisäämään tutkimus- ja teollisuuskapasiteettia samalla kun varmistetaan turvallisuus ja perusoikeudet.
See Also
Ihmiskeskeistä tekoälyä koskeva kansainvälinen tiedotusaloite auttaa edistämään EU:n visiota kestävästä ja luotettavasta tekoälystä.
Euroopan komissio nimitti asiantuntijaryhmän antamaan neuvoja tekoälystrategiastaan.
Eurooppalainen tekoälyallianssi on Euroopan komission aloite tekoälyä koskevan avoimen poliittisen vuoropuhelun käynnistämiseksi. Tekoälyallianssi on käynnistänyt vuonna 2018 noin 6000 sidosryhmää järjestämällä säännöllisiä tapahtumia, julkisia kuulemisia ja verkkofoorumien...