Skip to main content
Shaping Europe’s digital future
Report / Study | Kiadvány

A megbízható mesterséges intelligenciára vonatkozó etikai iránymutatások

2019. április 8-án a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport bemutatta a megbízható mesterséges intelligenciára vonatkozó etikai iránymutatást. Erre azt követően került sor, hogy 2018 decemberében közzétették az iránymutatások első tervezetét, amellyel kapcsolatban nyilvános konzultáció keretében több mint 500 észrevétel érkezett.

Az iránymutatások szerint a megbízható mesterséges intelligenciának:

1. jogszerű – az összes alkalmazandó törvény és rendelkezés tiszteletben tartása

Etikus – az etikai elvek és értékek tiszteletben tartása

Szilárd – mind technikai szempontból, mind a társadalmi környezet figyelembevételével

Töltse le az útmutatót az Ön nyelvén:

BG [NOTRANSLATE]==DELETE= =|[/NOTRANSLATE] CS [NOTRANSLATE]== DELETE==|[ /NOTRANSLATE] DE [NOTRANSLATE] ==DELETE== |[/NOTRANSLATE] DE | DA П EL П ENES ET ET”/„ FR |0|1|2|2|3|4|5|6|7| [ /NOTRANSLATE]8[NOTRANSLATE]==DELETE = =|9[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]0[ NOTRANSLATE]==DELETE==|[/NOTRANSLATE] 1 [NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

Az iránymutatás 7 kulcsfontosságú követelményt fogalmaz meg, amelyeket az MI-rendszereknek teljesíteniük kell ahhoz, hogy megbízhatónak minősíthetők legyenek. Külön értékelési lista segít annak ellenőrzésében, hogy maradéktalanul teljesülnek-e a következő fő követelmények:

  • Az emberi cselekvőképesség támogatása és emberi felügyelet: Az MI-rendszereknek lehetővé kell tenniük az emberek szerepvállalását, lehetővé téve számukra, hogy megalapozott döntéseket hozzanak, és előmozdítsák alapvető jogaikat. Ugyanakkor megfelelő felügyeleti mechanizmusokat kell biztosítani, amelyeket az „ember in-the-loop”, a „human-on-the-loop” és az „emberi vezérlés” megközelítésekkel lehet elérni.
  • Műszaki robusztusság és biztonság: Az MI-rendszereknek reziliensnek és biztonságosnak kell lenniük. Biztonságosnak kell lenniük, biztosítaniuk kell egy tartaléktervet arra az esetre, ha valami probléma merül fel, valamint pontosnak, megbízhatónak és megismételhetőnek kell lenniük. Ez az egyetlen módja annak, hogy a nem szándékos károk is minimalizálhatók és megelőzhetők legyenek.
  • Adatvédelem és adatkezelés; a magánélet és az adatvédelem teljes körű tiszteletben tartásának biztosítása mellett megfelelő adatkormányzási mechanizmusokat is biztosítani kell, figyelembe véve az adatok minőségét és integritását, és biztosítva az adatokhoz való legitim hozzáférést.
  • Átláthatóság: az adatoknak, a rendszereknek és a mesterséges intelligenciával kapcsolatos üzleti modelleknek átláthatóknak kell lenniük. A nyomon követhetőségi mechanizmusok segíthetnek ennek elérésében. Ezenkívül az MI-rendszereket és döntéseiket az érintett érdekelt felekhez igazított módon kell megmagyarázni. Az embereknek tisztában kell lenniük azzal, hogy kapcsolatban állnak egy MI-rendszerrel, és tájékoztatni kell őket a rendszer képességeiről és korlátairól.
  • Sokféleség, megkülönböztetésmentesség és méltányosság: El kell kerülni a méltánytalan elfogultságot, mivel az többszörös negatív következményekkel járhat a kiszolgáltatott csoportok marginalizálódásától az előítéletek és a megkülönböztetés súlyosbodásáig. A sokszínűség előmozdítása érdekében az MI-rendszereknek fogyatékosságtól függetlenül mindenki számára hozzáférhetőnek kell lenniük, és teljes életciklusuk során be kell vonniuk az érdekelt feleket.
  • Társadalmi és környezeti jólét: Az MI-rendszereknek minden ember javát kell szolgálniuk, beleértve a jövő generációit is. Ezért biztosítani kell, hogy fenntarthatóak és környezetbarátak legyenek. Emellett figyelembe kell venniük a környezetet, beleértve az egyéb élőlényeket is, és gondosan mérlegelni kell társadalmi és társadalmi hatásukat. 
  • Elszámoltathatóság: Létre kell hozni olyan mechanizmusokat, amelyek rendezik az AI-rendszerekre és az általuk generált eredményekre vonatkozó, a felelősségvállalással és elszámoltathatósággal kapcsolatban felmerülő kérdéseket. Az ellenőrizhetőség, amely lehetővé teszi az algoritmusok, az adatok és a tervezési folyamatok értékelését, kulcsfontosságú szerepet játszik ebben, különösen a kritikus alkalmazásokban. Emellett megfelelő, hozzáférhető jogorvoslatot kell biztosítani.

A mesterséges intelligenciával foglalkozó magas szintű szakértői csoport egy dokumentumot is készített, amely részletesen ismerteti az iránymutatások alkalmazásában használt mesterséges intelligencia fogalommeghatározását.

Töltse le a mesterséges intelligencia definícióját az Ön nyelvén:

BG [NOTRANSLATE]==DELETE= =|[/NOTRANSLATE] CS [NOTRANSLATE]== DELETE==|[ /NOTRANSLATE] DE [NOTRANSLATE] ==DELETE== |[/NOTRANSLATE] DE | DA П EL П ENES ET ET”/„ FR |0|1|2|2|3|4|5|6|7| [ /NOTRANSLATE]8[NOTRANSLATE]==DELETE = =|9[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]0[ NOTRANSLATE]==DELETE==|[/NOTRANSLATE] 1 [NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

 

Kísérleti folyamat

A dokumentum egy értékelési listát is tartalmaz, amely működőképessé teszi a kulcsfontosságú követelményeket, és iránymutatást nyújt azok gyakorlati végrehajtásához. Ezt az értékelési listát június 26-tól kezdődően kísérleti folyamatnak vetették alá, amelyre minden érdekelt felet felkértek, hogy teszteljék az értékelési listát, és adjanak gyakorlati visszajelzést arról, hogy az hogyan javítható.

A visszajelzések különböző csatornákon keresztül érkeztek:

A kísérleti szakasz 2019. december 1-jén zárult le.

A kapott visszajelzések alapján a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport 2020 júliusában ismertette a megbízható mesterséges intelligencia (ALTAI) végleges értékelési listáját. Az Altai olyan gyakorlati eszköz, amely az etikai iránymutatásokat egy hozzáférhető és dinamikus (önértékelési) ellenőrző listává alakítja át. Az ellenőrzőlistát a mesterséges intelligencia azon fejlesztői és alkalmazói használhatják, akik a gyakorlatban végre kívánják hajtani a kulcsfontosságú követelményeket. Ez az új lista webalapú eszköz prototípusaként és PDF formátumban érhető el.