Skip to main content
Shaping Europe’s digital future
Report / Study | Julkaisu

Luotettavaa tekoälyä koskevat eettiset ohjeet

Tekoälyä käsittelevä korkean tason asiantuntijaryhmä esitteli 8. huhtikuuta 2019 ”Luotettavaa tekoälyä koskevat eettiset ohjeet”. Tämä oli jatkoa suuntaviivojen ensimmäisen luonnoksen julkaisemiselle joulukuussa 2018. Avoimalla kuulemisella saatiin yli 500 kommenttia.

Suuntaviivojen mukaan luotettavan tekoälyn olisi oltava

(1)laillinen – kaikkien sovellettavien lakien ja asetusten noudattaminen

Eettinen – eettisten periaatteiden ja arvojen kunnioittaminen

Vankka – sekä teknisestä näkökulmasta ottaen huomioon sosiaalinen ympäristö

Lataa ohjeet kielelläsi:

BG [NOTRANSLATE]==DELETE ==|[ /NOTRANSLATE] CS [NOTRANSLATE]==DELETE= =|[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DA EL EN ES ET FI FR |0|1|2| 3 | [ /NOTRANSLATE]4[NOTRANSLATE]==DELETE = =|5[NOTRANSLATE] ==DELETE==|[/NOTRANSLATE] 6 | 7[NOTRANSLATE]== DELETE ==|[/NOTRANSLATE]8[ NOTRANSLATE]==DELETE==|[/NOTRANSLATE] 9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]1[ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

Suuntaviivoissa esitetään seitsemän keskeistä vaatimusta, jotka tekoälyjärjestelmien olisi täytettävä, jotta niitä voidaan pitää luotettavina. Erityisen arviointiluettelon tarkoituksena on auttaa varmistamaan, että seuraavia keskeisiä vaatimuksia sovelletaan:

  • Ihmisen toimijuus ja ihmisen suorittama valvonta: Tekoälyjärjestelmien olisi lisättävä ihmisten vaikutusmahdollisuuksia, annettava heille mahdollisuus tehdä tietoon perustuvia päätöksiä ja edistettävä heidän perusoikeuksiaan. Samalla on varmistettava asianmukaiset valvontamekanismit, jotka voidaan toteuttaa ihmisessä -periaatteella, ”on-the-the-loop” -lähestymistavalla ja ihmisen komentolla -lähestymistavalla.
  • Tekninen lujuus ja turvallisuus: Tekoälyjärjestelmien on oltava kestäviä ja turvallisia. Niiden on oltava turvallisia, niillä on varmistettava varasuunnitelma, jos jokin menee vikaan, ja niiden on oltava tarkkoja, luotettavia ja toistettavissa. Tämä on ainoa tapa varmistaa, että myös tahattomat vahingot voidaan minimoida ja ehkäistä.
  • Yksityisyyden suoja ja datan hallinta: sen lisäksi, että varmistetaan yksityisyyden ja tietosuojan täysimääräinen kunnioittaminen, on myös varmistettava asianmukaiset tiedonhallintamekanismit, joissa otetaan huomioon tietojen laatu ja eheys ja varmistetaan laillinen pääsy tietoihin.
  • Läpinäkyvyys: datan, järjestelmän ja tekoälyn liiketoimintamallien olisi oltava avoimia. Jäljitettävyysmekanismit voivat auttaa tämän saavuttamisessa. Lisäksi tekoälyjärjestelmät ja niiden päätökset olisi selitettävä tavalla, joka on mukautettu asianomaiseen sidosryhmään. Ihmisten on oltava tietoisia siitä, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ja heille on tiedotettava järjestelmän valmiuksista ja rajoituksista.
  • Monimuotoisuus, syrjimättömyys ja oikeudenmukaisuus: Epäreilua puolueellisuutta on vältettävä, koska sillä voi olla monia kielteisiä vaikutuksia, kuten haavoittuvassa asemassa olevien ryhmien syrjäytyminen, ennakkoluulojen ja syrjinnän paheneminen. Monimuotoisuuden edistämiseksi tekoälyjärjestelmien olisi oltava kaikkien saatavilla vammaisuudesta riippumatta, ja niihin olisi otettava mukaan asiaankuuluvat sidosryhmät koko niiden elinkaaren ajan.
  • Yhteiskunnallinen ja ekologinen hyvinvointi: Tekoälyjärjestelmien olisi hyödytettävä kaikkia ihmisiä, myös tulevia sukupolvia. Näin ollen on varmistettava, että ne ovat kestäviä ja ympäristöystävällisiä. Lisäksi niissä olisi otettava huomioon ympäristö, myös muut elävät, ja niiden sosiaalisia ja yhteiskunnallisia vaikutuksia olisi harkittava huolellisesti. 
  • Vastuuvelvollisuus: Käyttöön tulisi ottaa mekanismeja, joilla varmistetaan tekoälyjärjestelmiin ja niiden tuloksiin liittyvä vastuu ja vastuuvelvollisuus. Tarkastettavuudella, joka mahdollistaa algoritmien, datan ja suunnitteluprosessien arvioinnin, on siinä keskeinen rooli erityisesti kriittisissä sovelluksissa. Lisäksi olisi varmistettava, että käytettävissä on riittävät oikeussuojakeinot.

Tekoälyä käsittelevä korkean tason asiantuntijaryhmä on myös laatinut asiakirjan, jossa käsitellään suuntaviivoissa tarkoitettua tekoälyn määritelmää.

Lataa tekoälyn määritelmä seuraavalla kielellä:

BG [NOTRANSLATE]==DELETE ==|[ /NOTRANSLATE] CS [NOTRANSLATE]==DELETE= =|[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DA EL EN ES ET FI FR |0|1|2| 3 | [ /NOTRANSLATE]4[NOTRANSLATE]==DELETE = =|5[NOTRANSLATE] ==DELETE==|[/NOTRANSLATE] 6 | 7[NOTRANSLATE]== DELETE ==|[/NOTRANSLATE]8[ NOTRANSLATE]==DELETE==|[/NOTRANSLATE] 9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]1[ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

 

Pilottiprosessi

Asiakirjassa esitetään myös arviointiluettelo, jolla keskeiset vaatimukset pannaan täytäntöön, ja annetaan ohjeita niiden käytännön täytäntöönpanoon. Arviointiluettelo käynnistettiin 26. kesäkuuta alkaen pilottiprosessissa, johon kaikkia sidosryhmiä pyydettiin testaamaan arviointiluetteloa ja antamaan käytännön palautetta siitä, miten sitä voidaan parantaa.

Palautetta saatiin eri tavoin:

  • Avoin kysely tai ”määrällinen analyysi”, joka lähetetään kaikille luotsaukseen rekisteröityneille.
  • Useiden etujärjestöjen perusteelliset haastattelut yksityiskohtaisemman palautteen keräämiseksi eri sektoreilta 
  • Jatkuva mahdollisuus ladata palautetta ja parhaita käytäntöjä eurooppalaisen tekoälyallianssinkautta

Pilottivaihe päättyi 1. joulukuuta 2019.

Saadun palautteen perusteella tekoälyä käsittelevä korkean tason asiantuntijaryhmä esitti luotettavaa tekoälyä(ALTAI) koskevan lopullisen arviointiluettelon heinäkuussa 2020. Altai on käytännön työkalu, jolla eettiset ohjeet muunnetaan helppokäyttöiseksi ja dynaamiseksi (itsearvioinnin) tarkistuslistaksi. Tarkistuslistaa voivat käyttää tekoälyn kehittäjät ja käyttöönottajat, jotka haluavat panna keskeiset vaatimukset täytäntöön käytännössä. Tämä uusi luettelo on saatavilla prototyyppinä verkkopohjaisena työkaluna ja PDF-muodossa.