Skip to main content
Shaping Europe’s digital future
Report / Study | Публикация

Етични насоки за надежден ИИ

На 8 април 2019 г. Експертната група на високо равнище по въпросите на изкуствения интелект представи „Етични насоки за надежден изкуствен интелект“. Това стана след публикуването на първия проект на насоките през декември 2018 г., по който бяха получени над 500 коментара чрез открита консултация.

Съгласно насоките надеждният ИИ следва да бъде:

(1) законосъобразно — спазване на всички приложими законови и подзаконови актове

(2) етично — зачитане на етичните принципи и ценности

(3) солидни — и двете от техническа гледна точка, като същевременно се отчита нейната социална среда

Изтеглете насоките на Вашия език по-долу:

BG | CS | DE | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL SV

Насоките предлагат набор от 7 ключови изисквания, на които системите за изкуствен интелект да отговарят, за да бъдат считани за надеждни. С помощта на специален списък за оценка ще бъде проверявано прилагането на всяко едно от ключовите изисквания:

  • Човешки фактор и надзор: Системите с ИИ следва да овластяват хората, като им позволяват да вземат информирани решения и насърчават основните им права. В същото време трябва да се осигурят подходящи механизми за надзор, които могат да бъдат постигнати чрез подходи „човек във веригата „, „човек на място„и „човек под командване“.
  • Техническа надеждност и безопасност: Системите с ИИ трябва да бъдат устойчиви и сигурни. Те трябва да бъдат безопасни, да осигуряват резервен план, в случай че нещо се обърка, както и да бъдат точни, надеждни и възпроизводими. Това е единственият начин да се гарантира, че и неумишлените вреди могат да бъдат сведени до минимум и предотвратени.
  • Неприкосновеност на личния живот и управление на данните: освен че се гарантира пълно зачитане на неприкосновеността на личния живот и защитата на данните, трябва да се осигурят и подходящи механизми за управление на данните, като се вземат предвид качеството и целостта на данните и се гарантира легитимен достъп до данните.
  • Прозрачността: данните, системите и бизнес моделите на ИИ следва да бъдат прозрачни. Механизмите за проследяване могат да помогнат за постигането на тази цел. Освен това системите с ИИ и техните решения следва да бъдат обяснени по начин, адаптиран към съответната заинтересована страна. Хората трябва да са наясно, че взаимодействат със система с ИИ и трябва да бъдат информирани за възможностите и ограниченията на системата.
  • Многообразие, недискриминация и справедливост: Несправедливите предубеждения трябва да се избягват, тъй като биха могли да имат множество отрицателни последици — от маргинализацията на уязвимите групи до изострянето на предразсъдъците и дискриминацията. Като се насърчава многообразието, системите с ИИ следва да бъдат достъпни за всички, независимо от каквото и да е увреждане, и да включват съответните заинтересовани страни в целия им жизнен цикъл.
  • Благополучие на обществото и околната среда: Системите с ИИ следва да са от полза за всички хора, включително бъдещите поколения. Следователно трябва да се гарантира, че те са устойчиви и екологосъобразни. Освен това те следва да вземат предвид околната среда, включително други живи същества, и тяхното социално и обществено въздействие следва да бъде внимателно обмислено. 
  • Отговорност и отчетност: Трябва да се въведат механизми, чрез които да се гарантира отговорността и търсенето на отговорност при системите с ИИ и резултатите от тях. Одитируемостта, която дава възможност за оценка на алгоритмите, данните и процесите на проектиране, играе ключова роля в това отношение, особено в критичните приложения. Освен това следва да се гарантира подходяща и достъпна правна защита.

ЕГВР за ИИ също така изготви документ, в който се доразвива определението за изкуствен интелект, използвано за целите на насоките.

Изтеглете определението за ИИ на Вашия език по-долу:

BG | CS | DE | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL SV

 

Пилотен процес

В документа също така се предоставя списък за оценка, в който се привеждат в действие ключовите изисквания, и се предлагат насоки за тяхното прилагане на практика. Считано от 26 юни, този списък за оценка премина през пилотен процес, в рамките на който всички заинтересовани страни бяха приканени да изпробват списъка за оценка и да предоставят практическа обратна информация за това как той може да бъде подобрен.

Обратната информация беше получена по различни начини:

  • Отворено проучване или „количествен анализ“, изпратени до всички, които са се регистрирали в пилотния проект
  • Задълбочени интервюта с редица представителни организации за събиране на по-подробна обратна информация за различните сектори 
  • Постоянна възможност за качване на обратна информация и най-добри практики чрез Европейския алианс за ИИ

Пилотната фаза приключи на 1 декември 2019 г.

Въз основа на получената обратна информация ЕГВР за ИИ представи окончателния списък за оценяване на надеждния ИИ (ALTAI) през юли 2020 г. Altai е практически инструмент, който превръща етичните насоки в достъпен и динамичен контролен списък (за самооценка). Контролният списък може да се използва от разработчиците и внедрителите на ИИ, които желаят да прилагат основните изисквания на практика. Този нов списък е достъпен като прототип на уеб инструмент и във формат PDF.