Soveltamisala ja tavoitteet
Tekoälysäädös on maailman ensimmäinen tekoälyä koskeva kattava laki. Sen tavoitteena on puuttua terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuviin riskeihin. Asetuksella pyritään myös suojelemaan demokratiaa, oikeusvaltioperiaatetta ja ympäristöä.
Tekoälyjärjestelmien ja yleiskäyttöisten tekoälymallien käyttöönotolla on hyvät mahdollisuudet tuottaa yhteiskunnallisia hyötyjä ja talouskasvua sekä parantaa EU:n innovointia ja maailmanlaajuista kilpailukykyä. Tietyissä tapauksissa tiettyjen tekoälyjärjestelmien ja yleiskäyttöisten tekoälymallien erityispiirteet voivat kuitenkin aiheuttaa uusia riskejä, jotka liittyvät käyttäjäturvallisuuteen, myös fyysiseen turvallisuuteen, ja perusoikeuksiin. Jotkin yleiskäyttöiset tekoälymallit, jotka ovat kaikkein edistyneimpiä, voivat jopa aiheuttaa ns. systeemisiä riskejä.
Tämä johtaa oikeudelliseen epävarmuuteen ja tekoälyteknologioiden mahdolliseen hitaampaan käyttöönottoon viranomaisten, yritysten ja kansalaisten keskuudessa luottamuksen puutteen vuoksi. Kansallisten viranomaisten erilaiset sääntelytoimet saattavat pirstoa sisämarkkinoita.
Näihin haasteisiin vastaamiseksi tarvittiin lainsäädäntötoimia, joilla varmistetaan tekoälyjärjestelmien ja yleiskäyttöisten tekoälymallien hyvin toimivat sisämarkkinat, joissa riskeihin puututaan asianmukaisesti ja hyödyt otetaan huomioon.
Oikeudellista kehystä sovelletaan sekä julkisiin että yksityisiin toimijoihin EU:ssa ja sen ulkopuolella, jotka saattavat tekoälyjärjestelmän tai yleiskäyttöisen tekoälymallin EU:n markkinoille tai ottavat tekoälyjärjestelmän käyttöön tai käyttävät sitä EU:ssa.
Velvoitteita sovelletaan muun muassa tekoälyjärjestelmien tarjoajiin (esim. ansioluetteloiden seulontavälineen kehittäjä) ja käyttöönottajiin (esim. tätä seulontavälinettä käyttävä pankki) sekä yleiskäyttöisten tekoälymallien tarjoajiin. Asetukseen on tiettyjä poikkeuksia. Tätä asetusta ei sovelleta tutkimus-, kehitys- ja prototyyppitoimiin, jotka toteutetaan ennen tekoälyjärjestelmän tai -mallin markkinoille saattamista. Tekoälyjärjestelmät, jotka on suunniteltu yksinomaan sotilaallisiin, puolustus- tai kansallisen turvallisuuden tarkoituksiin, on myös vapautettu verosta riippumatta siitä, minkä tyyppinen toimija näitä toimia harjoittaa.
Tekoälysäädöksellä otetaan käyttöön riskiperusteiseen lähestymistapaan perustuva yhtenäinen kehys kaikissa EU:n jäsenvaltioissa.
Kielletyt tekoälyjärjestelmät
Hyvin rajallinen joukko erityisen haitallisia tekoälyjärjestelmien käyttötarkoituksia, jotka ovat EU:n arvojen vastaisia, koska ne rikkovat perusoikeuksia, minkä vuoksi ne kielletään:
- Henkilöiden haavoittuvuuksien hyödyntäminen, manipulointi ja subliminaalisten tekniikoiden käyttö
- Sosiaalinen pisteytys julkisiin ja yksityisiin tarkoituksiin
- Yksilöllinen ennakoiva poliisitoiminta, joka perustuu yksinomaan ihmisten profilointiin
- Internetin tai kameravalvonnan kohdentamaton kaavinta kasvokuvia varten tietokantojen kokoamiseksi tai laajentamiseksi
- Tunteiden tunnistaminen työpaikalla ja oppilaitoksissa, paitsi lääketieteellisistä tai turvallisuussyistä (esim. lentäjän väsymystason seuranta)
- Luonnollisten henkilöiden biometrinen luokittelu rodun, poliittisten mielipiteiden, ammattiliiton jäsenyyden, uskonnollisen tai filosofisen vakaumuksen tai seksuaalisen suuntautumisen päättelemiseksi tai päättelemiseksi. Tietoaineistojen merkitseminen tai suodattaminen ja luokittelu on edelleen mahdollista
- Reaaliaikainen biometrinen etätunnistus julkisissa tiloissa lainvalvontatarkoituksia varten, lukuun ottamatta kapeita poikkeuksia (ks. jäljempänä)
Komissio on antanut ohjeet kielletyistä tekoälykäytännöistä ja ohjeet tekoälysäädöksen mukaisesta tekoälyjärjestelmän määritelmästä. Niissä annetaan oikeudellisia selityksiä ja käytännön esimerkkejä, jotka auttavat sidosryhmiä noudattamaan näitä sääntöjä.
Suuririskiset tekoälyjärjestelmät
Tekoälysäädöksessä katsotaan, että pieni määrä tekoälyjärjestelmiä on suuririskisiä, koska ne voivat vaikuttaa haitallisesti ihmisten turvallisuuteen tai heidän perusoikeuksiinsa (jotka on suojattu EU:n perusoikeuskirjassa). Säädöksen liitteenä ovat suuririskisten tekoälyjärjestelmien luettelot, joita voidaan tarkistaa tekoälyn käyttötapausten kehityksen huomioon ottamiseksi.
Suuririskisiä tekoälyjärjestelmiä ovat esimerkiksi tekoälyjärjestelmät, jotka arvioivat, voiko joku saada tiettyä lääketieteellistä hoitoa, saada tiettyä työtä tai lainaa asunnon ostamiseksi. Muita suuririskisiä tekoälyjärjestelmiä ovat ne, joita poliisi käyttää arvioidessaan riskiä siitä, että joku tekee rikoksen (ellei sitä ole kielletty 5 artiklan nojalla).
Suuririskisiin tekoälyjärjestelmiin kuuluvat myös unionin alakohtaisen lainsäädännön soveltamisalaan kuuluvien tuotteiden turvakomponentit tai tekoälyjärjestelmät, jotka itse muodostavat tällaiset tuotteet. Niitä pidetään aina suuririskisinä, kun niihin sovelletaan kolmannen osapuolen suorittamaa vaatimustenmukaisuuden arviointia kyseisen alakohtaisen lainsäädännön mukaisesti. Tällaisia voivat olla esimerkiksi robotteja, miehittämättömiä ilma-aluksia tai lääkinnällisiä laitteita käyttävät tekoälyjärjestelmät.
Tiettyjä tekoälyjärjestelmiä koskevat avoimuusvaatimukset
Luottamuksen lisäämiseksi on tärkeää varmistaa avoimuus tekoälyn tietyn sisällön tai vuorovaikutuksen keinotekoisen alkuperän suhteen. Sen vuoksi tekoälysäädöksessä otetaan käyttöön erityisiä avoimuusvaatimuksia, jotka koskevat tiettyjen vuorovaikutteisten tai generatiivisten tekoälyjärjestelmien (esim. chatbotit tai syväväärennökset) tarjoajia tai käyttöönottajia. Näillä avoimuusvaatimuksilla pyritään puuttumaan väärien tietojen ja manipuloinnin, petosten, imitoinnin ja kuluttajien harhaanjohtamisen riskeihin.
Tekoälyjärjestelmät minimaalisella riskillä
Suurinta osaa tekoälyjärjestelmistä voidaan kehittää ja käyttää voimassa olevan lainsäädännön mukaisesti ilman oikeudellisia lisävelvoitteita.
Yleiskäyttöiset tekoälymallit
Tekoälysäädöksellä säännellään myös yleiskäyttöisiä tekoälymalleja. Niitä voidaan käyttää monenlaisiin tehtäviin, ja niistä on tulossa monien tekoälyjärjestelmien perusta EU:ssa. Yleiskäyttöisten tekoälymallien tarjoajien on dokumentoitava tietyt tiedot (ellei niihin sovelleta avoimen lähdekoodin poikkeusta) ja toteutettava toimenpiteitä sen varmistamiseksi, että ne noudattavat tekijänoikeutta ja lähioikeuksia koskevaa EU:n lainsäädäntöä.
Edistyneimpiin GPAI-malleihin voi myös liittyä järjestelmäriskejä. Tehokkaat mallit voisivat esimerkiksi mahdollistaa kemialliset, biologiset, säteily- tai ydinhyökkäykset (CBRN-hyökkäykset) tai laajamittaiset pitkälle kehitetyt kyberhyökkäykset, välttää ihmisen hallinnan tai mahdollistaa ihmisen käyttäytymisen tai uskomusten strategisen vääristymisen. Yleiskäyttöisten tekoälymallien, joihin liittyy järjestelmäriskejä, tarjoajien on lisäksi arvioitava ja lievennettävä järjestelmäriskejä.
Tekoälysäädöksellä luodaan oikeudellinen kehys, joka reagoi uuteen kehitykseen, jota on helppo ja nopea mukauttaa ja joka mahdollistaa säännöllisen arvioinnin. Asetuksessa asetetaan tulossuuntautuneita vaatimuksia ja velvoitteita, mutta jätetään konkreettiset tekniset ratkaisut ja käyttöönotto toimialavetoisiin standardeihin ja käytännesääntöihin, jotka ovat joustavia mukautuakseen erilaisiin käyttötapauksiin ja mahdollistaakseen uusia teknologisia ratkaisuja.
Tekoälysäädöstä voidaan muuttaa delegoiduilla säädöksillä ja täytäntöönpanosäädöksillä esimerkiksi liitteessä III olevan suuririskisten käyttötapausten luettelon tarkistamiseksi. Tekoälysäädöksen tiettyjä osia ja lopulta koko asetusta arvioidaan usein sen varmistamiseksi, että mahdolliset tarkistus- ja muutostarpeet tunnistetaan.
Tekoälysäädöksen mukaan suuririskisiin tekoälyjärjestelmiin sovelletaan erityisiä vaatimuksia. Eurooppalaisissa yhdenmukaistetuissa standardeissa esitetään yksityiskohtaiset eritelmät suuririskisten vaatimusten täytäntöönpanoa ja noudattamista varten. Tarjoajiin, jotka kehittävät suuririskisen tekoälyjärjestelmän yhdenmukaistettujen standardien mukaisesti, sovelletaan vaatimustenmukaisuusolettamaa.
Euroopan komissio antoi toukokuussa 2023 eurooppalaisille standardointiorganisaatioille CENille ja CENELECille tehtäväksi laatia standardeja näitä suuririskisiä vaatimuksia varten. Toimeksiantoa muutettiin kesäkuussa 2025 tekoälysäädöksen lopullisen tekstin mukaiseksi. CEN ja CENELEC eivät ole pystyneet kehittämään standardeja pyydetyssä aikataulussa elokuussa 2025. Standardointityö on vielä kesken.
Standardit ovat vapaaehtoisia, mutta ne ovat ratkaisevia oikeusvarmuuden kannalta. Ne auttavat yrityksiä ymmärtämään, mitä niiden on tehtävä, ja viranomaisia tietämään, mitä niiden on tarkistettava. Standardien viivästynyt saatavuus vaarantaa suuririskisten sääntöjen onnistuneen soveltamisen 2. elokuuta 2026. Sen vuoksi komissio katsoo, että on aiheellista antaa enemmän aikaa niiden sääntöjen tehokkaalle täytäntöönpanolle, joiden osalta standardit ovat erittäin tärkeitä (ks. digitaalista koontiasetusta koskeva ehdotus).
Tekoälyn mahdollisuudet ja vaikutukset ylittävät rajat. Haasteet ovat maailmanlaajuisia, minkä vuoksi yhteistyö on tärkeää ja välttämätöntä. Tekoälytoimisto johtaa komission kansainvälistä toimintaa tekoälyn alalla tekoälysäädöksen ja koordinoidun tekoälysuunnitelman pohjalta. EU:n tavoitteena on
- Johtaa tekoälyä koskevia maailmanlaajuisia toimia tukemalla innovointia, perustamalla tekoälyä koskevia asianmukaisia suojakaiteita ja kehittämällä tekoälyä koskevaa maailmanlaajuista hallinnointia
- Edistetään tekoälyn vastuullista hallintaa ja hyvää hallintoa
- Varmistetaan, että kansainväliset sopimukset ovat linjassa lähestymistapamme kanssa.
Maailmanlaajuisen toimintaympäristön muuttuessa tekoälyyn liittyvästä ennakoivasta sitoutumisesta – jota koordinoidaan tiiviisti liittolaistemme kanssa – on tullut olennainen ja kasvava painopiste. EU on proaktiivinen, yhteistyöhaluinen ja luotettava kumppani, joka näyttää esimerkkiä ja tekee kansainvälistä yhteistyötä suojellen samalla etujaan, turvallisuuttaan ja arvojaan.
Se tekee kahden- ja monenvälistä yhteistyötä edistääkseen luotettavaa ja ihmiskeskeistä tekoälyä. Kahdenvälisesti EU tekee yhteistyötä yhä useampien maiden ja alueiden kanssa, kuten Kanadan, Yhdysvaltojen, Intian, Japanin, Korean tasavallan, Singaporen, Australian, Yhdistyneen kuningaskunnan, Latinalaisen Amerikan ja Karibian alueen ja Afrikan kanssa. Monenvälisesti EU osallistuu keskeisiin foorumeihin ja aloitteisiin, joilla keskustellaan tekoälystä – erityisesti G7- ja G20-ryhmiin, OECD:hen ja tekoälyä koskevaan maailmanlaajuiseen kumppanuuteen, Euroopan neuvostoon, tekoälyn kehittyneen mittaamisen, arvioinnin ja tieteen kansainväliseen verkostoon mutta myös YK:n puitteissa.
EU:n perustana ovat strategiset voimavarat ja vahvuudet, kuten osaaminen, tutkimus, teollisuuden vahvuus ja laajat sisämarkkinat, joilla on yhdenmukaiset säännöt, ja ne otetaan käyttöön kansainvälisesti osana EU:n teknologiatarjontaa molempia osapuolia hyödyttävien kumppanuuksien ja liittoutumien luomiseksi kaikkialla maailmassa.
Suuririskiset tekoälyjärjestelmät
Tekoälysäädöksessä vahvistetaan vankka menetelmä tekoälyjärjestelmien luokittelemiseksi suuririskisiksi. Tarkoituksena on taata oikeusvarmuus yrityksille ja muille toimijoille.
Riskiluokitus perustuu tekoälyjärjestelmän käyttötarkoitukseen voimassa olevan EU:n tuoteturvallisuuslainsäädännön mukaisesti. Tämä tarkoittaa, että luokittelu riippuu tekoälyjärjestelmän suorittamasta toiminnasta sekä erityisestä tarkoituksesta ja yksityiskohtaisista säännöistä, joihin järjestelmää käytetään.
Tekoälyjärjestelmät voidaan luokitella suuririskisiksi kahdessa tapauksessa:
- Jos tekoälyjärjestelmä on sisällytetty turvakomponenttina voimassa olevan tuotelainsäädännön soveltamisalaan kuuluviin tuotteisiin (liite I) tai jos se muodostaa itse tällaiset tuotteet. Tällaisia voivat olla esimerkiksi tekoälyyn perustuvat lääketieteelliset ohjelmistot.
- Jos tekoälyjärjestelmä on tarkoitettu käytettäväksi tekoälysäädöksen liitteessä III luetellussa suuririskisessä käyttötapauksessa. Luettelo sisältää käyttötapauksia esimerkiksi koulutuksen, työllisyyden, lainvalvonnan tai muuttoliikkeen aloilla. Komissio tarkistaa sen vuosittain, ja sitä voidaan päivittää.
Komissio valmistelee parhaillaan korkean riskin luokitusta koskevia suuntaviivoja, jotka julkaistaan ennen näiden sääntöjen soveltamispäivää.
Tekoälysäädöksen liite III sisältää kahdeksan alaa, joilla tekoälyn käyttö voi olla erityisen arkaluonteista, ja siinä luetellaan kunkin alan konkreettiset käyttötapaukset. Tekoälyjärjestelmä luokitellaan suuririskiseksi, jos sitä on tarkoitus käyttää jossakin näistä käyttötapauksista. Esimerkkejä:
- Tekoälyjärjestelmät, joita käytetään turvakomponentteina tietyissä kriittisissä infrastruktuureissa. Esimerkiksi tieliikenteen sekä vesi-, kaasu-, lämmitys- ja sähköhuollon aloilla.
- Tekoälyjärjestelmät, joita käytetään tiettyihin yleissivistävän ja ammatillisen koulutuksen tehtäviin. Esimerkiksi arvioida oppimistuloksia ja ohjata oppimisprosessia ja huijaamisen seurantaa.
- Tekoälyjärjestelmät, joita käytetään tietyissä työtehtävissä ja työntekijöiden johtamisessa sekä itsenäisen ammatinharjoittamisen saatavuudessa. Esim. kohdennettujen työpaikkailmoitusten tekeminen, työhakemusten analysointi ja suodattaminen sekä hakijoiden arviointi.
- Tekoälyjärjestelmät, joita käytetään keskeisten yksityisten ja julkisten palvelujen ja etujen (esim. terveydenhuollon) saatavuudessa, luonnollisten henkilöiden luottokelpoisuuden arvioinnissa sekä henki- ja sairausvakuutuksiin liittyvässä riskinarvioinnissa ja hinnoittelussa.
- Tekoälyjärjestelmät, joita käytetään tiettyihin tehtäviin lainvalvonnan, muuttoliikkeen ja rajavalvonnan aloilla, siltä osin kuin niitä ei ole jo kielletty, sekä oikeudenkäytössä ja demokraattisissa prosesseissa.
- Tekoälyjärjestelmät, joita käytetään biometriseen tunnistamiseen, biometriseen luokitteluun ja tunteiden tunnistamiseen, siltä osin kuin niitä ei ole kielletty.
Ennen suuririskisen tekoälyjärjestelmän saattamista EU:n markkinoille tai sen muuta käyttöönottoa tarjoajien on tehtävä sille vaatimustenmukaisuuden arviointi. Näin ne voivat osoittaa, että niiden järjestelmä täyttää luotettavaa tekoälyä koskevat pakolliset vaatimukset (esim. riskinhallinta, tietojen laatu, dokumentointi ja jäljitettävyys, avoimuus, ihmisen suorittama valvonta, tarkkuus, kyberturvallisuus ja luotettavuus). Tämä arviointi on toistettava, jos järjestelmää tai sen tarkoitusta muutetaan merkittävästi. Suuririskisen tekoälyjärjestelmän tyypistä riippuen vaatimustenmukaisuuden arvioinnin voi joutua suorittamaan riippumaton vaatimustenmukaisuuden arviointilaitos. Suuririskisten tekoälyjärjestelmien tarjoajien on myös otettava käyttöön laadunhallintajärjestelmät, joilla varmistetaan, että ne ovat uusien vaatimusten mukaisia, ja minimoidaan käyttäjille ja asianomaisille henkilöille aiheutuvat riskit tekoälyjärjestelmän koko elinkaaren ajan.
Valvonnan mahdollistamiseksi ja julkisen avoimuuden varmistamiseksi suuririskisten tekoälyjärjestelmien tarjoajien on rekisteröitävä järjestelmä julkiseen EU:n tietokantaan.
Suuririskisten tekoälyjärjestelmien tarjoajat ovat edelleen vastuussa järjestelmän turvallisuudesta ja vaatimustenmukaisuudesta sen koko elinkaaren ajan. Niiden on tarvittaessa raportoitava vakavista vaaratilanteista ja reagoitava niihin, toteutettava korjaavia toimia havaittujen riskien tai vaatimustenvastaisuuksien tapauksessa, annettava tietoja ja tehtävä yhteistyötä markkinavalvontaviranomaisten kanssa.
Käyttöönottajien on peruslähtökohtana käytettävä suuririskistä tekoälyjärjestelmää käyttöohjeiden mukaisesti ja käytettävä kaikki tekniset keinot tätä varten. Suuririskisten tekoälyjärjestelmien käyttöönottajien on käyttöohjeiden perusteella seurattava tekoälyjärjestelmän toimintaa ja reagoitava havaittuihin riskeihin tai vakaviin poikkeamiin. Käyttöönottajien on osoitettava ihmisen suorittama valvonta organisaatiossaan olevalle henkilölle. Kyseisellä henkilöllä tai henkilöillä on oltava riittävät välineet ja valmiudet harjoittaa ihmisen suorittamaa valvontaa. Kun käyttöönottaja toimittaa syöttötietoja suuririskistä tekoälyjärjestelmää varten, tekoälysäädöksessä edellytetään, että syöttötietojen on oltava merkityksellisiä ja riittävän edustavia tekoälyjärjestelmän käyttötarkoituksen kannalta.
Käyttöönottajien, jotka ovat viranomaisia tai jotka tarjoavat julkisia palveluja, on tehtävä perusoikeuksia koskeva vaikutustenarviointi ennen ensimmäistä käyttöä.
Lisäksi käyttöönottajalla voi olla tiedonantovelvoitteita:
- Viranomaisten tai niiden puolesta toimivien tahojen käyttöön ottamat suuririskiset tekoälyjärjestelmät on rekisteröitävä EU:n julkiseen tietokantaan, lukuun ottamatta kriittisen infrastruktuurin suuririskisiä tekoälyjärjestelmiä. Lainvalvonnassa ja muuttoliikkeessä käytettävät tekoälyjärjestelmät on rekisteröitävä tietokannan ei-julkiseen osaan, joka on vain asiaankuuluvien valvontaviranomaisten saatavilla.
- Jos suuririskinen tekoälyjärjestelmä otetaan käyttöön työpaikalla, käyttöönottajien on ilmoitettava asiasta etukäteen asianomaisille työntekijöille ja työntekijöiden edustajille. Tämä täydentää jo mahdollisesti sovellettavia työntekijöiden kuulemista koskevia sääntöjä.
- Jos suuririskinen tekoälyjärjestelmä on suunniteltu tekemään päätöksiä tai avustamaan luonnollisia henkilöitä koskevien päätösten tekemisessä, käyttöönottajan on ilmoitettava asiasta asianomaiselle henkilölle.
Tekoälysäädöksellä otetaan myös käyttöön luonnollisten henkilöiden oikeus selityksiin. Tätä sovelletaan silloin, kun suuririskisen tekoälyjärjestelmän tuotosta käytettiin luonnollista henkilöä koskevan päätöksen tekemiseen ja tällä päätöksellä on oikeusvaikutuksia. Suuririskisten tekoälyjärjestelmien käyttöönottajien on otettava tämä mahdollisuus huomioon ja pyynnöstä annettava selkeä ja merkityksellinen selitys asianomaiselle henkilölle.
Suuririskisiä tekoälyjärjestelmiä voidaan testata todellisissa olosuhteissa enintään kuuden kuukauden ajan (tätä voidaan jatkaa vielä kuudella kuukaudella). Ennen testausta on laadittava suunnitelma ja toimitettava se markkinavalvontaviranomaiselle, jonka on hyväksyttävä suunnitelma ja erityiset testausolosuhteet oletusarvoisella hiljaisella hyväksynnällä, jos vastausta ei ole annettu 30 päivän kuluessa. Viranomainen voi tehdä testaukseen ennalta ilmoittamattomia tarkastuksia.
Tosielämän testausta voidaan tehdä vain erityisillä suojatoimilla, esimerkiksi tosielämän testattavien järjestelmien käyttäjien on annettava tietoinen suostumus, testauksella ei saa olla kielteistä vaikutusta heihin, tulosten on oltava peruutettavissa tai ne on jätettävä huomiotta ja heidän tietonsa on poistettava testauksen päätyttyä. Erityistä suojelua on annettava haavoittuvassa asemassa oleville ryhmille esimerkiksi heidän ikänsä tai fyysisen tai psyykkisen vammansa vuoksi.
Tekoälyjärjestelmät eivät luo tai toista vinoumia. Kun tekoälyjärjestelmät suunnitellaan ja niitä käytetään asianmukaisesti, ne voivat pikemminkin auttaa vähentämään vinoutumia ja olemassa olevaa rakenteellista syrjintää ja siten johtaa oikeudenmukaisempiin ja syrjimättömämpiin päätöksiin (esim. rekrytoinnissa).
Kaikkia suuririskisiä tekoälyjärjestelmiä koskevat uudet pakolliset vaatimukset palvelevat tätä tarkoitusta. Tekoälyjärjestelmien on oltava teknisesti vakaita sen varmistamiseksi, että ne ovat tarkoituksenmukaisia eivätkä tuota puolueellisia tuloksia, kuten vääriä positiivisia tai negatiivisia tuloksia, jotka vaikuttavat suhteettomasti syrjäytyneisiin ryhmiin, mukaan lukien rodulliseen tai etniseen alkuperään, sukupuoleen, ikään ja muihin suojattuihin ominaisuuksiin perustuvat ryhmät.
Suuririskisiä järjestelmiä on myös koulutettava ja testattava riittävän edustavilla tietoaineistoilla, jotta voidaan minimoida malliin sisältyvien epäoikeudenmukaisten vinoutumien riski ja varmistaa, että niihin voidaan puuttua asianmukaisilla vinoutumien havaitsemis-, korjaamis- ja muilla lieventävillä toimenpiteillä. Niiden on myös oltava jäljitettävissä ja tarkastettavissa, ja niillä on varmistettava, että säilytetään asianmukainen dokumentaatio, mukaan lukien tiedot, joita käytetään jälkitutkimuksissa keskeisen algoritmin kouluttamiseen.
Vaatimustenmukaisuusjärjestelmiä on seurattava säännöllisesti ja mahdollisiin riskeihin on puututtava viipymättä ennen niiden markkinoille saattamista ja sen jälkeen.
Biometrinen tunnistaminen voi tapahtua eri muodoissa. Biometrinen todentaminen ja todentaminen eli älypuhelimen lukituksen avaaminen tai todentaminen/todentaminen rajanylityspaikoilla henkilön henkilöllisyyden tarkistamiseksi hänen matkustusasiakirjoistaan (yksi yhteen -vastaavuus) ovat edelleen sääntelemättömiä, koska ne eivät aiheuta merkittävää riskiä perusoikeuksille.
Sitä vastoin biometrinen etätunnistus (esim. ihmisten tunnistaminen väkijoukossa) voi vaikuttaa merkittävästi yksityisyyteen julkisessa tilassa. Kasvojentunnistusjärjestelmien tarkkuuteen voivat vaikuttaa merkittävästi monet tekijät, kuten kameran laatu, valo, etäisyys, tietokanta, algoritmi ja kohteen etnisyys, ikä tai sukupuoli. Sama koskee kävelyä ja äänentunnistusta sekä muita biometrisiä järjestelmiä.
Vaikka 99 prosentin tarkkuusaste voi vaikuttaa yleisesti ottaen hyvältä, on huomattavan riskialtista, jos tulos voi johtaa epäilyyn viattomasta henkilöstä. Jopa 0,1 prosentin virhetasolla voi olla merkittävä vaikutus, kun sitä sovelletaan suuriin väestöryhmiin, esimerkiksi rautatieasemilla.
Reaaliaikaisen biometrisen etätunnistuksen käyttö julkisissa tiloissa (eli kasvojentunnistus kameravalvonnan avulla) lainvalvontatarkoituksiin on kielletty. Jäsenvaltiot voivat ottaa käyttöön lainsäädännössä poikkeuksia, jotka mahdollistaisivat reaaliaikaisen biometrisen etätunnistuksen käytön seuraavissa tapauksissa:
- Lainvalvontatoimet, jotka liittyvät 16 määriteltyyn erittäin vakavaan rikokseen
- Tiettyjen uhrien, sieppausten, ihmiskaupan ja seksuaalisen hyväksikäytön sekä kadonneiden henkilöiden kohdennettu etsintä
- Ihmisten henkeen tai fyysiseen turvallisuuteen kohdistuvan uhan tai terrori-iskun ehkäiseminen
Poikkeuksellisen käytön olisi oltava välttämätöntä ja oikeasuhteista, ja siihen olisi saatava ennakkolupa lainkäyttöviranomaiselta tai riippumattomalta hallintoviranomaiselta, jonka päätös on sitova. Kiireellisissä tapauksissa hyväksyntää voidaan pyytää 24 tunnin kuluessa. Jos lupa hylätään, kaikki käyttöä koskevat tiedot ja tuotokset on poistettava.
Reaaliaikaisen biometrisen etätunnistuksen käytöstä olisi ilmoitettava asianomaiselle markkinavalvontaviranomaiselle ja tietosuojaviranomaiselle.
Tekoälyjärjestelmien käyttöä tutkinnan kohteena olevien henkilöiden jälkikäteiseen biometriseen etätunnistukseen (henkilöiden tunnistaminen aiemmin kerätyssä aineistossa) ei ole kielletty, vaan se edellyttää oikeusviranomaisen tai hallintoviranomaisen ennakkolupaa sekä ilmoitusta asianomaiselle tietosuoja- ja markkinavalvontaviranomaiselle.
Perusoikeuksia ja syrjimättömyyttä suojellaan jo vahvasti EU:n ja jäsenvaltioiden tasolla, mutta tiettyjen tekoälysovellusten (”mustat laatikot”) monimutkaisuus ja läpinäkymättömyys voivat aiheuttaa ongelmia.
Ihmiskeskeinen lähestymistapa tekoälyyn tarkoittaa sen varmistamista, että tekoälysovellukset ovat perusoikeuslainsäädännön mukaisia. Sisällyttämällä vastuuvelvollisuus- ja avoimuusvaatimukset suuririskisten tekoälyjärjestelmien kehittämiseen ja parantamalla täytäntöönpanovalmiuksia voimme varmistaa, että nämä järjestelmät suunnitellaan lainsäädännön noudattamista silmällä pitäen alusta alkaen. Jos tällaisia vaatimuksia rikotaan, kansallisilla viranomaisilla on pääsy tietoihin, joita tarvitaan sen tutkimiseksi, onko tekoälyn käyttö EU:n lainsäädännön mukaista.
Tekoälysäädöksessä edellytetään, että tietyt suuririskisten tekoälyjärjestelmien käyttöönottajat tekevät perusoikeuksia koskevan vaikutustenarvioinnin.
Suuririskisten tekoälyjärjestelmien tarjoajien on tehtävä riskinarviointi ja suunniteltava järjestelmä siten, että terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvat riskit minimoidaan.
Tietyt perusoikeuksiin kohdistuvat riskit voidaan kuitenkin tunnistaa täysimääräisesti vain tietäen, missä yhteydessä suuririskistä tekoälyjärjestelmää käytetään. Kun suuririskisiä tekoälyjärjestelmiä käytetään erityisen herkillä alueilla, joilla on mahdollista tehon epäsymmetriaa, tällaisiin riskeihin on kiinnitettävä lisähuomiota.
Sen vuoksi käyttöönottajien, jotka ovat julkisoikeudellisia elimiä tai julkisia palveluja tarjoavia yksityisiä toimijoita, sekä suuririskisiä tekoälyjärjestelmiä tarjoavien toimijoiden, jotka tekevät luottokelpoisuusarviointeja tai hinta- ja riskiarviointeja henki- ja sairausvakuutuksissa, on tehtävä arviointi vaikutuksista perusoikeuksiin ja ilmoitettava tuloksista kansalliselle viranomaiselle.
Käytännössä monien käyttöönottajien on myös tehtävä tietosuojaa koskeva vaikutustenarviointi. Olennaisten päällekkäisyyksien välttämiseksi tällaisissa tapauksissa perusoikeuksia koskeva vaikutustenarviointi on tehtävä yhdessä kyseisen tietosuojaa koskevan vaikutustenarvioinnin kanssa.
Yleiskäyttöiset AI (GPAI) -mallit
Yleiskäyttöisiä tekoälymalleja, mukaan lukien l arge generatiiviset tekoälymallit, voidaan käyttää monenlaisiin tehtäviin. Ne voidaan integroida useisiin tekoälyjärjestelmiin.
Yleiskäyttöisen tekoälymallin integroivan tekoälyjärjestelmän tarjoajalla on oltava pääsy tarvittaviin tietoihin, jotta se voi tehdä sen ja varmistaa, että järjestelmä on tekoälysäädöksen mukainen. Tekoälysäädöksessä velvoitetaan tällaisten mallien tarjoajat dokumentoimaan malleja koskevat tekniset tiedot ja luovuttamaan tiettyjä tietoja tuotantoketjun loppupään järjestelmän tarjoajille. Tällainen avoimuus mahdollistaa näiden mallien paremman ymmärtämisen.
Mallien tarjoajilla on oltava käytössään toimintaperiaatteet, joilla varmistetaan tekijänoikeutta ja lähioikeuksia koskevan EU:n lainsäädännön noudattaminen. Erityisesti tekstin- ja tiedonlouhintaa koskevan poikkeuksen mukaisten oikeuksia koskevien varaumien tunnistaminen ja noudattaminen. Tarjoajien on myös julkaistava tekoälytoimiston mallipohjaan perustuva yhteenveto mallin kouluttamisessa käytetystä sisällöstä.
Edistynein näistä malleista voi aiheuttaa järjestelmäriskejä. Tällä hetkellä yleiskäyttöisten tekoälymallien, jotka on koulutettu käyttäen laskennallisia resursseja, joiden kokonaismäärä ylittää 10^25 FLOP (kelluvien pisteiden toiminnot), oletetaan aiheuttavan järjestelmäriskejä. Komissio voi päivittää tätä kynnysarvoa teknologian kehityksen perusteella. Komissio voi palveluntarjoajan pyynnöstä myös kumota olettaman, jonka mukaan FLOP-kynnysarvon ylittävä malli aiheuttaa järjestelmäriskin, jos mallin ei katsota kuuluvan edistyneimpiin. Komissio voi myös nimetä FLOP-kynnysarvon alittavia malleja yleiskäyttöisiksi tekoälymalleiksi, joihin liittyy järjestelmäriski, tekoälysäädöksen liitteessä XIII täsmennettyjen kriteerien perusteella.
Järjestelmäriskiä aiheuttavien mallien tarjoajien on arvioitava ja lievennettävä näitä riskejä muun muassa tekemällä uusinta kehitystä edustavia malliarviointeja, raportoimalla vakavista poikkeamista ja varmistamalla malliensa ja fyysisen infrastruktuurinsa riittävä kyberturvallisuus.
Tukeakseen tarjoajia näiden velvoitteiden noudattamisessa komissio on helpottanut yleiskäyttöistä tekoälyä koskevien käytännesääntöjen (GPAI) kehittämistä. GPAI-käytännesäännöt ovat riippumattomien asiantuntijoiden usean sidosryhmän prosessissa laatima vapaaehtoinen väline, jonka tarkoituksena on auttaa teollisuutta noudattamaan tekoälysäädöksen velvoitteita yleiskäyttöisten tekoälymallien tarjoajille. Käytännesääntöjä täydentävät komission ohjeet tekoälysäädöksen mukaisten yleiskäyttöisten tekoälymallien tarjoajia koskevien velvoitteiden soveltamisalasta.
Ensimmäisissä yleiskäyttöisen tekoälyn (GPAI) käytännesäännöissä esitetään yksityiskohtaisesti tekoälysäädöksen säännöt yleiskäyttöisten tekoälymallien ja yleiskäyttöisten tekoälymallien tarjoajille, joihin liittyy järjestelmäriskejä. GPAI-käytännesäännöt ovat riippumattomien asiantuntijoiden usean sidosryhmän prosessissa laatima vapaaehtoinen väline, jonka tarkoituksena on auttaa teollisuutta noudattamaan tekoälysäädöksen velvoitteita yleiskäyttöisten tekoälymallien tarjoajille.
Tekoälytoimisto helpotti käytännesääntöjen laatimista. Prosessin puheenjohtajana toimi riippumattomia asiantuntijoita, ja siihen osallistui lähes 1 000 sidosryhmää sekä EU:n jäsenvaltioiden edustajia sekä eurooppalaisia ja kansainvälisiä tarkkailijoita. Komissio ja tekoälyneuvosto ovat vahvistaneet, että käytännesäännöt ovat asianmukainen vapaaehtoinen väline GPAI-mallien tarjoajille tekoälysäädöksen noudattamisen osoittamiseksi.
Hyväksynnän jälkeen GPAI-mallin tarjoajat, jotka allekirjoittavat sen vapaaehtoisesti, voivat osoittaa noudattavansa tekoälysäädöstä noudattamalla koodia. Tämä vähentää niiden hallinnollista taakkaa ja antaa niille enemmän oikeusvarmuutta kuin jos ne osoittaisivat noudattavansa sääntöjä muilla menetelmillä. Käytännesääntöjä täydennetään yleiskäyttöisiin tekoälymalleihin liittyviä keskeisiä käsitteitä koskevilla komission suuntaviivoilla.
Tekoälytoimisto edistää ja helpottaa tarvittaessa käytännesääntöjen tarkistamista ja mukauttamista teknologian ja uusimman tekniikan kehityksen huomioon ottamiseksi. Kun yhdenmukaistettu standardi on julkaistu ja arvioitu soveltuvaksi kattamaan tekoälytoimiston asiaankuuluvat velvoitteet, eurooppalaisen yhdenmukaistetun standardin noudattamisen olisi annettava tarjoajille vaatimustenmukaisuusolettama.
Yleiskäyttöisten tekoälymallien tarjoajien olisi voitava osoittaa vaatimustenmukaisuus vaihtoehtoisilla asianmukaisilla keinoilla, jos käytännesääntöjä tai yhdenmukaistettuja standardeja ei ole saatavilla tai jos ne päättävät olla käyttämättä niitä.
Tekoälysäädöksellä otetaan käyttöön erityisiä avoimuusvaatimuksia tiettyjen vuorovaikutteisten tai generatiivisten tekoälyjärjestelmien (mukaan lukien chatbotit tai syväväärennökset) tarjoajille ja käyttöönottajille. Näillä läpinäkyvyysvaatimuksilla pyritään puuttumaan väärien tietojen ja manipuloinnin, petosten, imitoinnin ja kuluttajien harhaanjohtamisen riskeihin:
- Suoraan luonnollisten henkilöiden kanssa vuorovaikutuksessa olevien tekoälyjärjestelmien tarjoajien on suunniteltava ja kehitettävä kyseiset järjestelmät siten, että asianomaisille luonnollisille henkilöille ilmoitetaan, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa.
- Generatiivisten tekoälyjärjestelmien tarjoajien on merkittävä tekoälyn tuotokset koneellisesti luettavassa muodossa ja varmistettava, että ne ovat havaittavissa keinotekoisesti tuotettuina tai manipuloituina. Teknisten ratkaisujen on oltava tehokkaita, yhteentoimivia, vakaita ja luotettavia siinä määrin kuin se on teknisesti mahdollista ottaen huomioon erityyppisten sisältöjen erityispiirteet ja rajoitukset, toteuttamiskustannukset ja yleisesti tunnustettu alan viimeisin kehitys, mikä voidaan ottaa huomioon asiaankuuluvissa teknisissä standardeissa.
- Tunteidentunnistusjärjestelmien tai biometristen luokittelujärjestelmien käyttöönottajien on varmistettava, että näille järjestelmille altistuneet henkilöt saavat tietoa
- Kuva-, ääni- tai videosisältöä tuottavien tai manipuloivien generatiivisten tekoälyjärjestelmien käyttöönottajien, jotka muodostavat syväväärennöksen, on suljettava näkyvästi, että sisältö on tuotettu tai manipuloitu keinotekoisesti. Vastaavasti sellaisten tekoälyjärjestelmien käyttöönottajien, jotka tuottavat tai manipuloivat tekstiä, joka on julkaistu yleisölle tiedottamiseksi yleistä etua koskevista asioista, on myös ilmoitettava, että teksti on tuotettu tai sitä on manipuloitu keinotekoisesti.
Kaikkiin mainittuihin avoimuusvelvoitteisiin sovelletaan erityisiä poikkeuksia.
Tekoälytoimisto antaa ohjeita lisäohjeiden antamiseksi tarjoajille ja käyttöönottajille 50 artiklan velvoitteista, joita aletaan soveltaa 2. elokuuta 2026.
Auttaakseen joidenkin näiden läpinäkyvyysvelvoitteiden noudattamisessa tekoälytoimisto on käynnistänyt prosessin tekoälyn tuottaman sisällön läpinäkyvyyttä koskevien käytännesääntöjen laatimiseksi. Käytännesäännöt laatii tekoälytoimiston nimittämät riippumattomat asiantuntijat osallistavan prosessin pohjalta. Käytännesääntöjen laatimiseen osallistuu yli 200 sidosryhmää eri aloilta. Jos komissio hyväksyy lopulliset käytännesäännöt, ne toimivat vapaaehtoisena välineenä generatiivisten tekoälyjärjestelmien tarjoajille ja käyttöönottajille, jotta ne voivat osoittaa noudattavansa velvoitteitaan.
Hallinto, täytäntöönpanon valvonta ja täytäntöönpano
Tekoälysäädöstä sovelletaan kahden vuoden kuluttua sen voimaantulosta 2. elokuuta 2026 lukuun ottamatta seuraavia erityissäännöksiä:
- Tekoälylukutaitoon liittyviä kieltoja, määritelmiä ja säännöksiä on sovellettu 2. helmikuuta 2025 alkaen. Komissio on julkaissut kieltoja ja määritelmiä koskevat ohjeet sekä tekoälylukutaitokäytäntöjen elävän tietokannan ja asiaa koskevan usein kysytyn kysymyksen.
- Hallintoa koskevia sääntöjä ja yleiskäyttöistä tekoälyä koskevia velvoitteita alettiin soveltaa 2. elokuuta 2025.
- Liitteessä II (luettelo EU:n yhdenmukaistamislainsäädännöstä) lueteltuja suuririskisiksi luokiteltuja tekoälyjärjestelmiä, jotka on sisällytetty säänneltyihin tuotteisiin, koskevia velvoitteita sovelletaan 36 kuukauden kuluttua voimaantulosta 2. elokuuta 2027.
Komissio ehdotti 19. marraskuuta 2025 osana digitaalista koontiasetusta koskevaa ehdotusta, että suuririskisten sääntöjen soveltamisaikataulua mukautetaan yhdistämällä soveltamispäivä tukitoimenpiteiden, kuten yhdenmukaistettujen standardien, yhteisten eritelmien tai komission suuntaviivojen, saatavuuteen.
Tämä ehdotus liittyy viivästykseen sellaisten standardien valmistelussa, joilla tuetaan suuririskisten vaatimusten soveltamista ja toimivaltaisten viranomaisten perustamista EU:n jäsenvaltioissa. Tämä vaarantaa sujuvan soveltamisen 2. elokuuta 2026. Digitaalinen koontiasetus on parhaillaan Euroopan parlamentin ja EU:n neuvoston käsiteltävänä.
Tekoälysäädöksellä perustetaan kaksitasoinen hallintojärjestelmä, jossa kansalliset toimivaltaiset viranomaiset vastaavat tekoälyjärjestelmiä koskevien sääntöjen valvonnasta ja täytäntöönpanosta, kun taas tekoälytoimisto vastaa yleiskäyttöisten tekoälymallien tarjoajien ja tiettyjen tekoälyjärjestelmien osajoukon velvoitteiden hallinnoinnista ja täytäntöönpanosta.
Euroopan tekoälyneuvosto perustettiin varmistamaan EU:n laajuinen johdonmukaisuus ja yhteistyö. Se koostuu jäsenvaltioiden korkean tason edustajista sekä kansallisten sääntelyviranomaisten ja muiden toimivaltaisten viranomaisten erikoistuneista alaryhmistä.
Tekoälysäädöksellä perustetaan kaksi neuvoa-antavaa elintä, jotka antavat asiantuntija-apua: tiedelautakunta ja neuvoa-antava ryhmä. Nämä elimet tarjoavat sidosryhmiltä ja tieteidenvälisiltä tiedeyhteisöiltä arvokasta tietoa päätöksenteon tueksi ja varmistavat tasapainoisen lähestymistavan tekoälyn kehittämiseen.
Euroopan tekoälyneuvosto koostuu jäsenvaltioiden korkean tason edustajista ja Euroopan tietosuojavaltuutetusta. Keskeisenä neuvonantajana tekoälyneuvosto antaa ohjeita kaikista tekoälypolitiikkaan liittyvistä kysymyksistä, erityisesti tekoälyn sääntelystä, innovointi- ja huippuosaamispolitiikasta ja tekoälyä koskevasta kansainvälisestä yhteistyöstä.
Tekoälylautakunnalla on keskeinen rooli tekoälysäädöksen sujuvan, tehokkaan ja yhdenmukaisen täytäntöönpanon varmistamisessa. Sillä on erikoistuneita alaryhmiä, jotka koostuvat teknisistä asiantuntijoista, kansallisista sääntelyviranomaisista ja muista toimivaltaisista viranomaisista. Tekoälylautakunta on foorumi, jolla tekoälyn sääntelyviranomaiset voivat koordinoida tekoälysäädöksen johdonmukaista soveltamista.
Jäsenvaltioiden on säädettävä tehokkaista, oikeasuhteisista ja varoittavista seuraamuksista tekoälyjärjestelmiä koskevien sääntöjen rikkomisesta. Asetuksessa vahvistetaan kynnysarvot, jotka on otettava huomioon:
- Enintään 35 miljoonaa euroa tai 7 prosenttia edellisen tilikauden vuotuisesta maailmanlaajuisesta kokonaisliikevaihdosta (sen mukaan, kumpi on suurempi), kun on kyse kiellettyjä käytäntöjä koskevista rikkomuksista tai tietovaatimuksiin liittyvästä noudattamatta jättämisestä
- Enintään 15 miljoonaa euroa tai 3 prosenttia edellisen tilikauden vuotuisesta maailmanlaajuisesta kokonaisliikevaihdosta, jos asetuksen muita vaatimuksia tai velvoitteita ei ole noudatettu
- Enintään 7,5 miljoonaa euroa tai 1,5 prosenttia edellisen tilikauden vuotuisesta maailmanlaajuisesta kokonaisliikevaihdosta virheellisten, puutteellisten tai harhaanjohtavien tietojen toimittamisesta ilmoitetuille laitoksille ja kansallisille toimivaltaisille viranomaisille vastauksena pyyntöön
- Kunkin rikkomusluokan osalta kynnysarvo olisi pk-yritysten osalta pienempi kahdesta määrästä ja muiden yritysten osalta korkeampi.
Komissio voi myös valvoa yleiskäyttöisten tekoälymallien tarjoajia koskevien sääntöjen täytäntöönpanoa sakoilla ottaen huomioon kynnysarvon:
- Enintään 15 miljoonaa euroa tai 3 prosenttia edellisen tilikauden vuotuisesta maailmanlaajuisesta kokonaisliikevaihdosta, jos jotakin komission asetuksen nojalla pyytämää velvoitetta tai toimenpidettä ei ole noudatettu.
EU:n toimielinten, virastojen tai elinten odotetaan näyttävän esimerkkiä, minkä vuoksi niihin sovelletaan myös sääntöjä ja mahdollisia seuraamuksia. Euroopan tietosuojavaltuutetulla on valtuudet määrätä sakkoja, jos sääntöjä ei noudateta.
Toukokuussa 2023 käynnistetyllä tekoälysopimuksella edistetään tekoälytoimiston ja organisaatioiden välistä yhteistyötä (ensimmäinen pilari) ja kannustetaan toimialaa sitoutumaan vapaaehtoisesti tekoälysäädöksen vaatimusten täytäntöönpanon aloittamiseen ennen lakisääteistä määräaikaa (toinen pilari).
Ensimmäisessä pilarissa osallistujat osallistuvat yhteistyöyhteisön luomiseen ja jakavat kokemuksiaan ja tietämystään. Tähän sisältyvät tekoälytoimiston järjestämät verkkoseminaarit, joissa osallistujat saavat paremman käsityksen tekoälysäädöksestä, sen vastuista ja sen täytäntöönpanoon valmistautumisesta. Näiden verkkoseminaarien avulla tekoälytoimisto voi puolestaan kerätä näkemyksiä osallistujien kohtaamista parhaista käytännöistä ja haasteista.
Toisessa pilarissa organisaatioita kannustetaan vapaaehtoisten sitoumusten (.PDF) avulla julkistamaan ennakoivasti prosessit ja käytännöt, joita ne toteuttavat vaatimusten noudattamisen ennakoimiseksi. Sitoumukset on tarkoitettu ”sitoutumista koskeviksi ilmoituksiksi”, ja niihin sisältyy (suunniteltuja tai käynnissä olevia) toimia joidenkin tekoälysäädöksen vaatimusten täyttämiseksi.
Suurinta osaa tekoälysäädöksen säännöistä (esimerkiksi joitakin suuririskisiä tekoälyjärjestelmiä koskevia vaatimuksia) sovelletaan siirtymäkauden lopussa (eli voimaantulon ja soveltamispäivän välisenä aikana). Tässä yhteydessä ja tekoälysopimuksen puitteissa tekoälytoimisto on kehottanut kaikkia organisaatioita ennakoivasti ennakoimaan ja panemaan täytäntöön joitakin tekoälysäädöksen keskeisiä säännöksiä, jotta terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia riskejä voidaan lieventää mahdollisimman pian.
Marraskuussa 2023 käynnistetyn ehdotuspyynnön perusteella yli 3 000 organisaatiota on jo ilmaissut kiinnostuksensa liittyä tekoälysopimusta koskevaan aloitteeseen. Ensimmäinen tiedotustilaisuus järjestettiin verkossa 6. toukokuuta, ja siihen osallistui 300 henkilöä. Vapaaehtoiset sitoumukset allekirjoitettiin virallisesti syksyllä 2024, ja tähän mennessä yli 230 yritystä on allekirjoittanut sitoumukset. Tekoälytoimisto kokosi 15. joulukuuta 2025 tekoälysopimuksen allekirjoittajat arvioimaan saavutettua edistystä.
Komissio on perustanut tekoälysäädöksen palvelupisteen ja keskitetyn tietoalustan. Molemmat käynnistettiin yhdessä Apply AI -strategian kanssa, ja niistä oli jo ilmoitettu Euroopan tekoälyä koskevassa toimintasuunnitelmassa. Strategisessa täytäntöönpanosuunnitelmassa annetaan kaikki tekoälysäädöstä koskevat asiaankuuluvat tiedot, vaatimustenmukaisuusvälineet ja räätälöidyt ohjeet. Se tarjoaa:
- Tekoälysäädöstä koskevat usein kysytyt kysymykset ja resurssit
- vaatimustenmukaisuuden tarkistustyökalu, jonka avulla sidosryhmät voivat määrittää, sovelletaanko niihin oikeudellisia velvoitteita, ja ymmärtää, mitä toimia niiden on toteutettava vaatimusten noudattamiseksi
- AI Act Explorer -verkkotyökalu, jonka tarkoituksena on auttaa käyttäjiä selaamaan tekoälysäädöksen eri lukuja, liitteitä ja johdanto-osan kappaleita intuitiivisesti
- verkkolomakkeen avulla sidosryhmät voivat esittää kysymyksiä tekoälysäädöksen palvelupisteelle, joka on tiiviissä yhteistyössä tekoälytoimiston kanssa toimiva asiantuntijatiimi.
Innovointi ja kestävyys
Tekoälysäädöksellä voidaan lisätä tekoälyn käyttöönottoa kahdella tavalla:
- Käyttäjien luottamuksen lisääminen lisää yritysten ja viranomaisten käyttämän tekoälyn kysyntää
- yhdenmukaistamalla sääntöjä kaikissa EU:n jäsenvaltioissa tekoälyn tarjoajat pääsevät suuremmille markkinoille, joilla on tuotteita, joita käyttäjät ja kuluttajat arvostavat ja ostavat
Tekoälysäädös on innovaatiomyönteinen. Sääntöjä sovelletaan vain silloin, kun se on ehdottoman välttämätöntä, ja tavalla, joka minimoi talouden toimijoille aiheutuvan rasitteen kevyellä hallintorakenteella. Tekoälysäädöksessä säädetään yksinkertaistetuista vaatimustenmukaisuusväylistä tietyille raskaille velvoitteille, kuten tekniselle dokumentaatiolle. Jotta innovoijille jäisi tilaa, tutkimus- ja kehitystoimintaan sovelletaan poikkeuksia.
Tekoälysäädös mahdollistaa myös sääntelyn testiympäristöjen luomisen ja tosielämän testauksen, jotka tarjoavat valvotun ympäristön innovatiivisten teknologioiden testaamiseen rajoitetun ajan. Näillä toimenpiteillä edistetään yritysten, pk-yritysten ja startup-yritysten innovointia ja autetaan luomaan oikeat toimintaedellytykset tekoälyn kehittämiselle ja käyttöönotolle. Muita innovointia tukevia aloitteita ovat muun muassa seuraavat:
Tekoälysäädöksen tavoitteena on puuttua turvallisuuteen ja perusoikeuksiin kohdistuviin riskeihin, mukaan lukien perusoikeus korkeatasoiseen ympäristönsuojeluun. Ympäristö on myös yksi nimenomaisesti mainituista ja suojelluista oikeudellisista eduista.
Komissio aikoo vuonna 2026 pyytää eurooppalaisia standardointiorganisaatioita laatimaan raportointi- ja dokumentointiprosesseja koskevan standardointituotteen tekoälyjärjestelmien resurssitehokkuuden parantamiseksi. Tähän sisältyy suuririskisen tekoälyjärjestelmän energian ja muiden resurssien kulutuksen vähentäminen sen elinkaaren aikana sekä yleiskäyttöisten tekoälymallien energiatehokas kehittäminen.
Komissiota pyydetään toimittamaan edistymiskertomus yleiskäyttöisten mallien energiatehokasta kehittämistä koskevien standardointituotteiden kehittämisestä ja arvioimaan lisätoimenpiteiden tai -toimien (myös sitovien) tarvetta. Tämä velvoite alkaa kahden vuoden kuluttua tekoälysäädöksen soveltamispäivästä ja jatkuu sen jälkeen neljän vuoden välein.
Yleiskäyttöisten tekoälymallien tarjoajien, jotka saavat koulutusta suurista tietomääristä ja ovat siksi alttiita suurelle energiankulutukselle, on ilmoitettava energiankulutus. Kun on kyse yleiskäyttöisistä tekoälymalleista, joihin liittyy järjestelmäriskejä, on arvioitava energiatehokkuutta.
Komissiolla on valtuudet kehittää menetelmä, jossa nämä julkistamisvelvoitteet mitataan asianmukaisesti ja vertailukelpoisesti.
Related content

Tekoälysäädös on kaikkien aikojen ensimmäinen tekoälyä koskeva oikeudellinen kehys, jolla puututaan tekoälyn riskeihin ja asetetaan Eurooppa johtavaan asemaan maailmanlaajuisesti.