Skip to main content
Shaping Europe’s digital future

Предложение за регулаторна рамка относно изкуствения интелект

Комисията предлага първата по рода си правна рамка за ИИ, в която се разглеждат рисковете, свързани с ИИ, и се поставя позицията на Европа да играе водеща роля в световен мащаб.

    мъж и жена, работещи на високотехнологичен екран

© gorodenkoff - iStock Getty Images Plus

Регулаторното предложение има за цел да предостави на разработчиците, внедрителите и ползвателите на ИИ ясни изисквания и задължения по отношение на конкретното използване на ИИ. В същото време предложението има за цел да намали административната и финансовата тежест за предприятията, по-специално за малките и средните предприятия (МСП).

Предложението е част от по-широк пакет за ИИ, който включва и актуализирания координиран план за ИИ. Заедно регулаторната рамка и координираният план ще гарантират безопасността и основните права на хората и предприятията, когато става въпрос за ИИ. Освен това те ще засилят внедряването, инвестициите и иновациите в областта на ИИ в целия ЕС.

Защо се нуждаем от правила за ИИ?

Предложеният регламент за ИИ гарантира, че европейците могат да се доверят на това, което предлага ИИ. Въпреки че повечето системи с ИИ не представляват никакъв риск и могат да допринесат за решаването на много обществени предизвикателства, някои системи с ИИ създават рискове, с които трябва да се справим, за да избегнем нежелани резултати.

Например често не е възможно да се разбере защо дадена система с ИИ е взела решение или прогноза и е предприела конкретно действие. Поради това може да стане трудно да се прецени дали дадено лице е било несправедливо в неравностойно положение, като например в решение за наемане на работа или в заявление за общественополезна схема.

Въпреки че съществуващото законодателство осигурява известна защита, то не е достатъчно за справяне със специфичните предизвикателства, които системите с ИИ могат да донесат.

Предложените правила ще:

  • справяне с рисковете, специално създадени от приложенията на ИИ;
  • да предложи списък на високорисковите приложения;
  • определяне на ясни изисквания за системите с ИИ за високорискови приложения;
  • определяне на специфични задължения за ползвателите на ИИ и доставчиците на високорискови приложения;
  • предлага оценка на съответствието, преди системата с ИИ да бъде пусната в действие или пусната на пазара;
  • предлага прилагането на законодателството, след като такава система с ИИ бъде пусната на пазара;
  • да предложи управленска структура на европейско и национално равнище.

Основан на риска подход

пирамида, показваща четирите нива на риск: Неприемлив риск; Висок риск; ограничен риск, минимален или никакъв риск

В регулаторната рамка се определят 4 нива на риск в ИИ:

  • Неприемлив риск
  • Висок риск
  • Ограничен риск
  • Минимален или никакъв риск

Неприемлив риск

Всички системи с ИИ, считани за ясна заплаха за безопасността, поминъка и правата на хората, ще бъдат забранени — от социалните оценки от страна на правителствата до играчките, използващи гласова помощ, която насърчава опасно поведение.

Висок риск

Системите с ИИ, определени като високорискови, включват технологии с ИИ, използвани в:

  • критични инфраструктури (напр. транспорт), които биха могли да изложат на риск живота и здравето на гражданите;
  • образователно или професионално обучение, което може да определи достъпа до образование и професионален курс на нечий живот (напр. оценяване на изпити);
  • компоненти за безопасност на продуктите (напр. прилагане на ИИ при роботизирани хирургични интервенции);
  • заетост, управление на работниците и достъп до самостоятелна заетост (напр. софтуер за сортиране на автобиографии за процедури за набиране на персонал);
  • основни частни и публични услуги (напр. кредитна оценка, която лишава гражданите от възможността да получат заем);
  • правоприлагане, което може да попречи на основните права на хората (напр. оценка на надеждността на доказателствата);
  • управление на миграцията, убежището и граничния контрол (напр. проверка на автентичността на документите за пътуване);
  • правораздаване и демократични процеси (напр. прилагане на закона към конкретен набор от факти).

Високорисковите системи с ИИ ще подлежат на строги задължения, преди да могат да бъдат пуснати на пазара:

  • адекватни системи за оценка и намаляване на риска;
  • високо качество на наборите от данни, подаващи системата, за да се сведат до минимум рисковете и дискриминационните резултати;
  • регистриране на дейността, за да се гарантира проследимостта на резултатите;
  • подробна документация, предоставяща цялата необходима информация за системата и нейната цел, за да могат органите да оценят нейното съответствие;
  • ясна и адекватна информация за потребителя;
  • подходящи мерки за човешки надзор за свеждане до минимум на риска;
  • висока степен на стабилност, сигурност и точност.

Всички системи за дистанционна биометрична идентификация се считат за високорискови и подлежат на строги изисквания. Използването на дистанционна биометрична идентификация на публично достъпни места за целите на правоприлагането по принцип е забранено.

Тесните изключения са строго определени и регламентирани, като например, когато е необходимо, за издирване на изчезнало дете, за предотвратяване на конкретна и непосредствена терористична заплаха или за откриване, локализиране, идентифициране или наказателно преследване на извършител или заподозрян в тежко престъпление.

Това използване подлежи на разрешение от съдебен или друг независим орган и на подходящи ограничения по отношение на времето, географския обхват и търсените бази данни.

Ограничен риск

Ограниченият риск се отнася до системите с ИИ със специфични задължения за прозрачност. Когато използват системи с ИИ, като например чатботове, потребителите следва да са наясно, че взаимодействат с машина, за да могат да вземат информирано решение да продължат или да се оттеглят.

Минимален или никакъв риск

Предложението позволява свободно използване на ИИ с минимален риск. Това включва приложения като видеоигри с AI или спам филтри. По-голямата част от системите с ИИ, които понастоящем се използват в ЕС, попадат в тази категория.

поетапен процес за декларация за съответствие
How does it all work in practice for providers of high risk AI systems?

След като дадена система с ИИ е на пазара, органите отговарят за надзора на пазара, ползвателите осигуряват човешки надзор и наблюдение, а доставчиците разполагат със система за наблюдение след пускането на пазара. Доставчиците и потребителите също ще докладват за сериозни инциденти и неизправности.

Законодателство, съобразено с бъдещето

Тъй като ИИ е бързо развиваща се технология, предложението има съобразен с бъдещето подход, който позволява на правилата да се адаптират към технологичните промени. Приложенията с ИИ следва да останат надеждни дори след пускането им на пазара. Това изисква непрекъснато управление на качеството и риска от страна на доставчиците.

Следващи стъпки

След предложението на Комисията от април 2021 г. регламентът би могъл да влезе в сила в края на 2022 г./началото на 2023 г. в рамките на преходен период. През този период ще бъдат възложени и разработени стандарти, а създадените управленски структури ще функционират. Втората половина на 2024 г. е най-ранният път, в който регламентът може да започне да се прилага за оператори, чиито стандарти са готови и са извършени първите оценки на съответствието.

Като допълнително регулаторно изпълнение на Бялата книга за ИИ, на 28 септември 2022 г. беше приета предложение за директива относно отговорността за ИИ.

Последни новини

PRESS RELEASE |
ЕС ще инвестира 13.5 милиарда евро в научни изследвания и иновации за периода 2023—2024 г.

Комисията прие основната работна програма на „Хоризонт Европа“ за периода 2023—24 г. с около 13.5 милиарда евро в подкрепа на изследователите и новаторите в Европа да търсят революционни решения за екологичните, енергийните, цифровите и геополитическите предизвикателства.

Related Content

Big Picture

Европейски подход към изкуствения интелект

Подходът на ЕС към изкуствения интелект е съсредоточен върху високите постижения и доверието, чиято цел е да се стимулират научните изследвания и промишленият капацитет, като същевременно се гарантират безопасността и основните права.

See Also

Координиран план за изкуствения интелект

Координираният план за изкуствения интелект има за цел да ускори инвестициите в ИИ, да предприеме действия във връзка със стратегиите и програмите в областта на ИИ и да съгласува политиката в областта на ИИ, за да се избегне разпокъсаността в Европа.

Европейски алианс за ИИ

Европейският алианс за ИИ е инициатива на Европейската комисия за установяване на открит политически диалог относно изкуствения интелект. От създаването си през 2018 г. Алиансът за ИИ е ангажирал около 6000 заинтересовани страни чрез редовни прояви, обществени консултации и...