
© gorodenkoff - iStock Getty Images Plus
Регулаторното предложение има за цел да предостави на разработчиците, внедрителите и ползвателите на ИИ ясни изисквания и задължения по отношение на конкретното използване на ИИ. В същото време предложението има за цел да намали административната и финансовата тежест за предприятията, по-специално за малките и средните предприятия (МСП).
Предложението е част от по-широк пакет за ИИ, който включва и актуализирания координиран план за ИИ. Заедно регулаторната рамка и координираният план ще гарантират безопасността и основните права на хората и предприятията, когато става въпрос за ИИ. Освен това те ще засилят внедряването, инвестициите и иновациите в областта на ИИ в целия ЕС.
Защо се нуждаем от правила за ИИ?
Предложеният регламент за ИИ гарантира, че европейците могат да се доверят на това, което предлага ИИ. Въпреки че повечето системи с ИИ не представляват никакъв риск и могат да допринесат за решаването на много обществени предизвикателства, някои системи с ИИ създават рискове, с които трябва да се справим, за да избегнем нежелани резултати.
Например често не е възможно да се разбере защо дадена система с ИИ е взела решение или прогноза и е предприела конкретно действие. Поради това може да стане трудно да се прецени дали дадено лице е било несправедливо в неравностойно положение, като например в решение за наемане на работа или в заявление за общественополезна схема.
Въпреки че съществуващото законодателство осигурява известна защита, то не е достатъчно за справяне със специфичните предизвикателства, които системите с ИИ могат да донесат.
Предложените правила ще:
- справяне с рисковете, специално създадени от приложенията на ИИ;
- да предложи списък на високорисковите приложения;
- определяне на ясни изисквания за системите с ИИ за високорискови приложения;
- определяне на специфични задължения за ползвателите на ИИ и доставчиците на високорискови приложения;
- предлага оценка на съответствието, преди системата с ИИ да бъде пусната в действие или пусната на пазара;
- предлага прилагането на законодателството, след като такава система с ИИ бъде пусната на пазара;
- да предложи управленска структура на европейско и национално равнище.
Основан на риска подход
В регулаторната рамка се определят 4 нива на риск в ИИ:
- Неприемлив риск
- Висок риск
- Ограничен риск
- Минимален или никакъв риск
Неприемлив риск
Всички системи с ИИ, считани за ясна заплаха за безопасността, поминъка и правата на хората, ще бъдат забранени — от социалните оценки от страна на правителствата до играчките, използващи гласова помощ, която насърчава опасно поведение.
Висок риск
Системите с ИИ, определени като високорискови, включват технологии с ИИ, използвани в:
- критични инфраструктури (напр. транспорт), които биха могли да изложат на риск живота и здравето на гражданите;
- образователно или професионално обучение, което може да определи достъпа до образование и професионален курс на нечий живот (напр. оценяване на изпити);
- компоненти за безопасност на продуктите (напр. прилагане на ИИ при роботизирани хирургични интервенции);
- заетост, управление на работниците и достъп до самостоятелна заетост (напр. софтуер за сортиране на автобиографии за процедури за набиране на персонал);
- основни частни и публични услуги (напр. кредитна оценка, която лишава гражданите от възможността да получат заем);
- правоприлагане, което може да попречи на основните права на хората (напр. оценка на надеждността на доказателствата);
- управление на миграцията, убежището и граничния контрол (напр. проверка на автентичността на документите за пътуване);
- правораздаване и демократични процеси (напр. прилагане на закона към конкретен набор от факти).
Високорисковите системи с ИИ ще подлежат на строги задължения, преди да могат да бъдат пуснати на пазара:
- адекватни системи за оценка и намаляване на риска;
- високо качество на наборите от данни, подаващи системата, за да се сведат до минимум рисковете и дискриминационните резултати;
- регистриране на дейността, за да се гарантира проследимостта на резултатите;
- подробна документация, предоставяща цялата необходима информация за системата и нейната цел, за да могат органите да оценят нейното съответствие;
- ясна и адекватна информация за потребителя;
- подходящи мерки за човешки надзор за свеждане до минимум на риска;
- висока степен на стабилност, сигурност и точност.
Всички системи за дистанционна биометрична идентификация се считат за високорискови и подлежат на строги изисквания. Използването на дистанционна биометрична идентификация на публично достъпни места за целите на правоприлагането по принцип е забранено.
Тесните изключения са строго определени и регламентирани, като например, когато е необходимо, за издирване на изчезнало дете, за предотвратяване на конкретна и непосредствена терористична заплаха или за откриване, локализиране, идентифициране или наказателно преследване на извършител или заподозрян в тежко престъпление.
Това използване подлежи на разрешение от съдебен или друг независим орган и на подходящи ограничения по отношение на времето, географския обхват и търсените бази данни.
Ограничен риск
Ограниченият риск се отнася до системите с ИИ със специфични задължения за прозрачност. Когато използват системи с ИИ, като например чатботове, потребителите следва да са наясно, че взаимодействат с машина, за да могат да вземат информирано решение да продължат или да се оттеглят.
Минимален или никакъв риск
Предложението позволява свободно използване на ИИ с минимален риск. Това включва приложения като видеоигри с AI или спам филтри. По-голямата част от системите с ИИ, които понастоящем се използват в ЕС, попадат в тази категория.
След като дадена система с ИИ е на пазара, органите отговарят за надзора на пазара, ползвателите осигуряват човешки надзор и наблюдение, а доставчиците разполагат със система за наблюдение след пускането на пазара. Доставчиците и потребителите също ще докладват за сериозни инциденти и неизправности.
Законодателство, съобразено с бъдещето
Тъй като ИИ е бързо развиваща се технология, предложението има съобразен с бъдещето подход, който позволява на правилата да се адаптират към технологичните промени. Приложенията с ИИ следва да останат надеждни дори след пускането им на пазара. Това изисква непрекъснато управление на качеството и риска от страна на доставчиците.
Следващи стъпки
След предложението на Комисията от април 2021 г. регламентът би могъл да влезе в сила в края на 2022 г./началото на 2023 г. в рамките на преходен период. През този период ще бъдат възложени и разработени стандарти, а създадените управленски структури ще функционират. Втората половина на 2024 г. е най-ранният път, в който регламентът може да започне да се прилага за оператори, чиито стандарти са готови и са извършени първите оценки на съответствието.
Последни новини
Съдържание по темата
Обща картина
Подходът на ЕС към изкуствения интелект е съсредоточен върху високите постижения и доверието, чиято цел е да се стимулират научните изследвания и промишленият капацитет, като същевременно се гарантират безопасността и основните права.
Вижте също
Международната инициатива за ориентиран към човека изкуствен интелект ще спомогне за популяризирането на визията на ЕС за устойчив и надежден ИИ.
Координираният план за изкуствения интелект има за цел да ускори инвестициите в ИИ, да предприеме действия във връзка със стратегиите и програмите в областта на ИИ и да съгласува политиката в областта на ИИ, за да се избегне разпокъсаността в Европа.
Европейската комисия назначи експертна група, която да предоставя съвети относно стратегията си за изкуствен интелект.
Европейският алианс за ИИ е инициатива на Европейската комисия за установяване на открит политически диалог относно изкуствения интелект. От създаването си през 2018 г. Алиансът за ИИ е ангажирал около 6000 заинтересовани страни чрез редовни прояви, обществени консултации и...