Skip to main content
Shaping Europe’s digital future
  • REPORT / STUDY
  • Публикация 17 юли 2020

Списък за оценка на надеждния изкуствен интелект (ALTAI) за самооценка

На 17 юли 2020 г. експертната група на високо равнище по въпросите на изкуствения интелект (ЕГВР ИИ) представи окончателния си списък за оценка на надеждния изкуствен интелект.

Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment

След пилотен процес, в който участваха над 350 заинтересовани страни, по-ранен прототип на списъка беше преработен и превърнат в инструмент за подпомагане на разработчиците и внедрителите на ИИ при разработването на надежден ИИ.

Инструментът подкрепя изпълнимостта на ключовите изисквания, очертани в Етичните насоки за надежден изкуствен интелект (ИИ), представени от експертната група на високо равнище по въпросите на ИИ (ЕГВР ИИ), представена на Европейската комисия през април 2019 г. Насоките за етика въведоха концепцията за надежден ИИ въз основа на седем ключови изисквания:

  1. човешки фактор и надзор
  2. техническа стабилност и безопасност
  3. неприкосновеност на личния живот и управление на данните
  4. прозрачност
  5. многообразие, недискриминация и справедливост
  6. екологично и обществено благосъстояние и
  7. отчетност

Чрез списъка за оценка за надежден ИИ (ALTAI) принципите на ИИ се превръщат в достъпен и динамичен контролен списък, който насочва разработчиците и внедрителите на ИИ при прилагането на тези принципи на практика.  ALTAI ще спомогне да се гарантира, че ползвателите се възползват от ИИ, без да бъдат изложени на ненужни рискове, като посочи набор от конкретни стъпки за самооценка.

Изтеглете списъка за оценка за надежден изкуствен интелект (ALTAI) (.pdf)

ALTAI се предлага и в уеб-базирана версия на инструмента.

Повече за уеб-базирания инструмент ALTAI