Skip to main content
Shaping Europe’s digital future

Tekoälyä koskeva sääntelykehysehdotus

Komissio ehdottaa kaikkien aikojen ensimmäistä tekoälyä koskevaa oikeudellista kehystä, jossa käsitellään tekoälyn riskejä ja asetetaan Euroopalle johtava asema maailmanlaajuisesti.

    mies ja nainen, jotka työskentelevät korkean teknologian näytöllä

© gorodenkoff - iStock Getty Images Plus

Sääntelyehdotuksen tavoitteena on tarjota tekoälyn kehittäjille, käyttöönottajille ja käyttäjille selkeät vaatimukset ja velvoitteet, jotka koskevat tekoälyn tiettyjä käyttötarkoituksia. Samalla ehdotuksella pyritään vähentämään yritysten, erityisesti pienten ja keskisuurten yritysten (pk-yritysten) hallinnollista ja taloudellista taakkaa.

Ehdotus on osa laajempaa tekoälypakettia, joka sisältää myös päivitetyn tekoälyä koskevan koordinoidun suunnitelman. Yhdessä sääntelykehyksellä ja koordinoidulla suunnitelmalla taataan ihmisten ja yritysten turvallisuus ja perusoikeudet tekoälyn osalta. Lisäksi ne tehostavat tekoälyn käyttöönottoa, investointeja ja innovointia kaikkialla.

Miksi tekoälyä koskevia sääntöjä tarvitaan?

Ehdotetulla tekoälyasetuksella varmistetaan, että eurooppalaiset voivat luottaa siihen, mitä tekoälyllä on tarjottavanaan. Vaikka useimmat tekoälyjärjestelmät aiheuttavat vain vähäisen riskin ja voivat auttaa ratkaisemaan monia yhteiskunnallisia haasteita, tietyt tekoälyjärjestelmät aiheuttavat riskejä, joihin meidän on puututtava, jotta vältetään ei-toivotut tulokset.

Usein ei esimerkiksi ole mahdollista selvittää, miksi tekoälyjärjestelmä on tehnyt päätöksen tai ennusteen ja toteuttanut tietyn toimenpiteen. Näin ollen voi olla vaikeaa arvioida, onko joku joutunut epäoikeudenmukaisesti epäedulliseen asemaan esimerkiksi palkkaamispäätöksessä tai yleistä etuusjärjestelmää koskevassa hakemuksessa.

Vaikka voimassa oleva lainsäädäntö tarjoaa jonkin verran suojaa, se ei riitä vastaamaan tekoälyjärjestelmien mahdollisesti aiheuttamiin erityishaasteisiin.

Ehdotetuissa säännöissä

  • puututaan erityisesti tekoälysovellusten aiheuttamiin riskeihin;
  • ehdottaa luetteloa suuririskisistä sovelluksista;
  • asettaa tekoälyjärjestelmille selkeät vaatimukset suuririskisille sovelluksille;
  • määritellään tekoälyn käyttäjille ja suuririskisten sovellusten tarjoajille erityiset velvoitteet;
  • ehdottaa vaatimustenmukaisuuden arviointia ennen tekoälyjärjestelmän käyttöönottoa tai markkinoille saattamista;
  • ehdottaa täytäntöönpanoa sen jälkeen, kun tällainen tekoälyjärjestelmä on saatettu markkinoille;
  • ehdottaa hallintorakennetta Euroopan ja jäsenvaltioiden tasolla.

Riskiperusteinen lähestymistapa

pyramidi osoittaa neljä riskitasoa: Riski, jota ei voida hyväksyä; Suuri riski; vähäinen riski, minimaalinen tai ei lainkaan riskiä

Sääntelykehyksessä määritellään tekoälyyn liittyvät neljä riskitasoa:

  • Riskit, joita ei voida hyväksyä
  • Suuri riski
  • Rajallinen riski
  • Pieni riski tai ei lainkaan riskiä

Riskit, joita ei voida hyväksyä

Kaikki tekoälyjärjestelmät, joita pidetään selvänä uhkana ihmisten turvallisuudelle, toimeentulolle ja oikeuksille, kielletään hallitusten suorittamasta sosiaalisesta pisteytyksestä leluille käyttämällä ääniapua, joka kannustaa vaaralliseen käyttäytymiseen.

Suuri riski

Suuririskisiksi tunnistettuihin tekoälyjärjestelmiin kuuluvat tekoälyteknologia, jota käytetään

  • kriittiset infrastruktuurit (esim. liikenne), jotka voisivat vaarantaa kansalaisten elämän ja terveyden;
  • yleissivistävä tai ammatillinen koulutus, joka voi määrittää pääsyn koulutukseen ja ammatilliseen koulutukseen (esim. tenttien pisteytys);
  • tuotteiden turvakomponentit (esim. tekoälysovellus robottiavusteisessa kirurgiassa);
  • työllisyys, työntekijöiden johtaminen ja mahdollisuus itsenäiseen ammatinharjoittamiseen (esim. ansioluetteloiden lajitteluohjelmisto rekrytointimenettelyjä varten)
  • olennaiset yksityiset ja julkiset palvelut (esim. luottopisteytys, jolla evätään kansalaisilta mahdollisuus saada lainaa)
  • lainvalvonta, joka voi vaikuttaa ihmisten perusoikeuksiin (esim. todisteiden luotettavuuden arviointi);
  • Maahanmuutto-, turvapaikka- ja rajavalvonta (esim. matkustusasiakirjojen aitouden tarkastaminen)
  • oikeudenkäyttö ja demokraattiset prosessit (esim. lainsäädännön soveltaminen konkreettisiin tosiseikkoihin).

Suuririskisiin tekoälyjärjestelmiin sovelletaan tiukkoja velvoitteita ennen kuin ne voidaan saattaa markkinoille:

  • riittävät riskinarviointi- ja vähentämisjärjestelmät;
  • järjestelmää syöttävien tietoaineistojen korkea laatu riskien ja syrjivien tulosten minimoimiseksi;
  • toimien kirjaaminen tulosten jäljitettävyyden varmistamiseksi;
  • yksityiskohtaiset asiakirjat, joissa annetaan kaikki tarvittavat tiedot järjestelmästä ja sen tarkoituksesta, jotta viranomaiset voivat arvioida järjestelmän vaatimustenmukaisuuden;
  • selkeät ja riittävät tiedot käyttäjälle;
  • asianmukaiset ihmisen valvontatoimenpiteet riskien minimoimiseksi;
  • korkea kestävyys, turvallisuus ja tarkkuus.

Kaikkia biometrisiä etätunnistusjärjestelmiä pidetään suurena riskinä ja niihin sovelletaan tiukkoja vaatimuksia. Biometrisen etätunnistuksen käyttö julkisissa tiloissa lainvalvontatarkoituksiin on periaatteessa kielletty.

Suppeat poikkeukset määritellään tarkasti ja niitä säännellään, kuten tarvittaessa kadonneen lapsen etsimiseksi, tietyn ja välittömän terroriuhkan estämiseksi tai vakavan rikoksen tekijän tai epäillyn havaitsemiseksi, paikantamiseksi, tunnistamiseksi tai syytteeseen asettamiseksi.

Tällainen käyttö edellyttää tuomioistuimen tai muun riippumattoman elimen lupaa ja asianmukaisia määräaikoja, maantieteellistä kattavuutta ja hakujen kohteena olevia tietokantoja.

Rajallinen riski

Rajallinen riski liittyy tekoälyjärjestelmiin, joihin liittyy erityisiä avoimuusvelvoitteita. Kun käytät tekoälyjärjestelmiä, kuten chatbotteja, käyttäjien tulisi olla tietoisia siitä, että he ovat vuorovaikutuksessa koneen kanssa, jotta he voivat tehdä tietoon perustuvan päätöksen jatkaa tai palata taaksepäin.

Pieni riski tai ei lainkaan riskiä

Ehdotus mahdollistaa mahdollisimman pienen riskin tekoälyn vapaan käytön. Tämä sisältää sovelluksia, kuten tekoälyä hyödyntäviä videopelejä tai roskapostisuodattimia. Valtaosa nykyisin käytettävistä tekoälyjärjestelmistä kuuluu tähän luokkaan.

vaiheittainen vaatimustenmukaisuusvakuutusprosessi
How does it all work in practice for providers of high risk AI systems?

Kun tekoälyjärjestelmä on markkinoilla, viranomaiset vastaavat markkinavalvontasta, käyttäjät varmistavat ihmisten valvonnasta ja seurannasta ja palveluntarjoajilla on käytössä markkinoille saattamisen jälkeinen seurantajärjestelmä. Palveluntarjoajat ja käyttäjät ilmoittavat myös vakavista vaaratilanteista ja toimintahäiriöistä.

Tulevaisuuden vaatimukset huomioon ottava lainsäädäntö

Koska tekoäly on nopeasti kehittyvä teknologia, ehdotuksessa on tulevaisuuden vaatimukset huomioon ottava lähestymistapa, joka mahdollistaa sääntöjen mukauttamisen teknologiseen muutokseen. Tekoälysovellusten olisi pysyttävä luotettavina myös sen jälkeen, kun ne on saatettu markkinoille. Tämä edellyttää palveluntarjoajien jatkuvaa laadun ja riskien hallintaa.

Seuraavat vaiheet

Komission huhtikuussa 2021 tekemän ehdotuksen mukaisesti asetus voisi tulla voimaan vuoden 2022 lopussa tai vuoden 2023 alussa siirtymäkauden aikana. Tänä aikana normeja annettaisiin ja kehitettäisiin, ja käyttöön otetut hallintorakenteet olisivat toiminnassa. Vuoden 2024 jälkipuolisko on varhaisin ajankohta, jolloin asetusta voidaan soveltaa toimijoihin, joiden standardit ovat valmiita ja ensimmäiset vaatimustenmukaisuuden arvioinnit on suoritettu.

Tekoälyä koskevan valkoisen kirjan lisäsäädöksenä hyväksyttiin 28. syyskuuta 2022 ehdotettu tekoälyä koskeva vastuudirektiivi.

Viimeisimmät uutiset

PRESS RELEASE |
EU investoi 13,5 miljardia euroa tutkimukseen ja innovointiin vuosina 2023–2024

Komissio on hyväksynyt Horisontti Eurooppa -puiteohjelman vuosien 2023–2024 työohjelman, johon osoitetaan noin 13,5 miljardia euroa tutkijoiden ja innovoijien tukemiseen Euroopassa läpimurtoratkaisujen löytämiseksi ympäristöön, energiaan, digitaalisiin ja geopoliittisiin haasteisiin.

Related Content

Big Picture

Tekoälyä koskeva eurooppalainen lähestymistapa

EU:n lähestymistapa tekoälyyn keskittyy huippuosaamiseen ja luottamukseen ja pyrkii lisäämään tutkimus- ja teollisuuskapasiteettia samalla kun varmistetaan turvallisuus ja perusoikeudet.

See Also

Eurooppalainen tekoälyallianssi

Eurooppalainen tekoälyallianssi on Euroopan komission aloite tekoälyä koskevan avoimen poliittisen vuoropuhelun käynnistämiseksi. Tekoälyallianssi on käynnistänyt vuonna 2018 noin 6000 sidosryhmää järjestämällä säännöllisiä tapahtumia, julkisia kuulemisia ja verkkofoorumien...