Съгласно насоките надеждният ИИ следва да бъде:
(1) законосъобразно — спазване на всички приложими законови и подзаконови актове
(2) етично — зачитане на етичните принципи и ценности
(3) солидни — и двете от техническа гледна точка, като същевременно се отчита нейната социална среда
Изтеглете насоките на Вашия език по-долу:
BG | CS | DE | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL SV
Насоките предлагат набор от 7 ключови изисквания, на които системите за изкуствен интелект да отговарят, за да бъдат считани за надеждни. С помощта на специален списък за оценка ще бъде проверявано прилагането на всяко едно от ключовите изисквания:
- Човешки фактор и надзор: Системите с ИИ следва да овластяват хората, като им позволяват да вземат информирани решения и насърчават основните им права. В същото време трябва да се осигурят подходящи механизми за надзор, които могат да бъдат постигнати чрез подходи „човек във веригата „, „човек на място„и „човек под командване“.
- Техническа надеждност и безопасност: Системите с ИИ трябва да бъдат устойчиви и сигурни. Те трябва да бъдат безопасни, да осигуряват резервен план, в случай че нещо се обърка, както и да бъдат точни, надеждни и възпроизводими. Това е единственият начин да се гарантира, че и неумишлените вреди могат да бъдат сведени до минимум и предотвратени.
- Неприкосновеност на личния живот и управление на данните: освен че се гарантира пълно зачитане на неприкосновеността на личния живот и защитата на данните, трябва да се осигурят и подходящи механизми за управление на данните, като се вземат предвид качеството и целостта на данните и се гарантира легитимен достъп до данните.
- Прозрачността: данните, системите и бизнес моделите на ИИ следва да бъдат прозрачни. Механизмите за проследяване могат да помогнат за постигането на тази цел. Освен това системите с ИИ и техните решения следва да бъдат обяснени по начин, адаптиран към съответната заинтересована страна. Хората трябва да са наясно, че взаимодействат със система с ИИ и трябва да бъдат информирани за възможностите и ограниченията на системата.
- Многообразие, недискриминация и справедливост: Несправедливите предубеждения трябва да се избягват, тъй като биха могли да имат множество отрицателни последици — от маргинализацията на уязвимите групи до изострянето на предразсъдъците и дискриминацията. Като се насърчава многообразието, системите с ИИ следва да бъдат достъпни за всички, независимо от каквото и да е увреждане, и да включват съответните заинтересовани страни в целия им жизнен цикъл.
- Благополучие на обществото и околната среда: Системите с ИИ следва да са от полза за всички хора, включително бъдещите поколения. Следователно трябва да се гарантира, че те са устойчиви и екологосъобразни. Освен това те следва да вземат предвид околната среда, включително други живи същества, и тяхното социално и обществено въздействие следва да бъде внимателно обмислено.
- Отговорност и отчетност: Трябва да се въведат механизми, чрез които да се гарантира отговорността и търсенето на отговорност при системите с ИИ и резултатите от тях. Одитируемостта, която дава възможност за оценка на алгоритмите, данните и процесите на проектиране, играе ключова роля в това отношение, особено в критичните приложения. Освен това следва да се гарантира подходяща и достъпна правна защита.
ЕГВР за ИИ също така изготви документ, в който се доразвива определението за изкуствен интелект, използвано за целите на насоките.
Изтеглете определението за ИИ на Вашия език по-долу:
BG | CS | DE | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL SV
Пилотен процес
В документа също така се предоставя списък за оценка, в който се привеждат в действие ключовите изисквания, и се предлагат насоки за тяхното прилагане на практика. Считано от 26 юни, този списък за оценка премина през пилотен процес, в рамките на който всички заинтересовани страни бяха приканени да изпробват списъка за оценка и да предоставят практическа обратна информация за това как той може да бъде подобрен.
Обратната информация беше получена по различни начини:
- Отворено проучване или „количествен анализ“, изпратени до всички, които са се регистрирали в пилотния проект
- Задълбочени интервюта с редица представителни организации за събиране на по-подробна обратна информация за различните сектори
- Постоянна възможност за качване на обратна информация и най-добри практики чрез Европейския алианс за ИИ
Пилотната фаза приключи на 1 декември 2019 г.
Въз основа на получената обратна информация ЕГВР за ИИ представи окончателния списък за оценяване на надеждния ИИ (ALTAI) през юли 2020 г. Altai е практически инструмент, който превръща етичните насоки в достъпен и динамичен контролен списък (за самооценка). Контролният списък може да се използва от разработчиците и внедрителите на ИИ, които желаят да прилагат основните изисквания на практика. Този нов списък е достъпен като прототип на уеб инструмент и във формат PDF.