Skip to main content
Shaping Europe’s digital future

Закон за ИИ

Законодателният акт за ИИ е първата по рода си правна рамка за ИИ, която разглежда рисковете от ИИ и поставя Европа да играе водеща роля в световен мащаб.

    мъж и жена, работещи на високотехнологичен екран

© gorodenkoff - iStock Getty Images Plus

Законът заИИ има за цел да предостави на разработчиците и внедрителите на ИИ ясни изисквания и задължения по отношение на специфичното използване на ИИ. В същото време регламентът има за цел да намали административната и финансовата тежест за предприятията, по-специално за малките и средните предприятия (МСП).

Законодателният акт за ИИ е част от по-широк пакет от мерки на политиката в подкрепа на разработването на надежден ИИ, който включва също пакета за иновации в областта на ИИ и координирания план за ИИ. Взети заедно, тези мерки ще гарантират безопасността и основните права на хората и предприятията, когато става въпрос за ИИ. Те също така ще засилят внедряването, инвестициите и иновациите в областта на ИИ в целия ЕС.

Законът заИИ е първата по рода си всеобхватна правна рамка за ИИ в световен мащаб. Целта на новите правила е да се насърчи надежден ИИ в Европа и извън нея, като се гарантира, че системите с ИИ зачитат основните права, безопасността и етичните принципи, и като се обърне внимание на рисковете от много мощни и въздействащи модели на ИИ.

Защо са ни необходими правила за ИИ?

Законът за ИИ гарантира, че европейците могат да се доверят на това, което ИИ може да предложи. Въпреки че повечето системи с ИИ представляват ограничен риск и могат да допринесат за решаването на много обществени предизвикателства, някои системи с ИИ създават рискове, с които трябва да се справим, за да избегнем нежелани резултати.

Например често не е възможно да се разбере защо дадена система с ИИ е взела решение или прогноза и е предприела конкретно действие. Така че може да се окаже трудно да се прецени дали дадено лице е било несправедливо в неравностойно положение, като например при решение за наемане на работа или в заявление за схема за обществена полза.

Въпреки че съществуващото законодателство осигурява известна защита, то не е достатъчно за справяне със специфичните предизвикателства, които могат да доведат системите с ИИ.

Предложените правила ще:

  • да се обърне внимание на рисковете, специално създадени от приложенията с ИИ;
  • забрана на практики с ИИ, които представляват неприемливи рискове;
  • определяне на списък с високорискови приложения;
  • определяне на ясни изисквания за системите с ИИ за високорискови приложения;
  • определяне на конкретни задължения за внедрителите и доставчиците на високорискови приложения с ИИ;
  • изискват оценяване на съответствието преди дадена система с ИИ да бъде въведена в експлоатация или пусната на пазара;
  • въвеждане на правоприлагане, след като дадена система с ИИ бъде пусната на пазара;
  • създаване на управленска структура на европейско и национално равнище.

Подход, основан на риска

Регулаторната рамка определя 4 нива на риск за системите с ИИ:

пирамида, показваща четирите нива на риск: Неприемлив риск; Висок риск; ограничен риск, минимален или никакъв риск

 

Всички системи с ИИ, считани за ясна заплаха за безопасността, поминъка и правата на хората, ще бъдат забранени — от социалното оценяване от страна на правителствата до играчките, използващи гласова помощ, която насърчава опасно поведение.

Висок риск

Системите с ИИ, определени като високорискови, включват технологията с ИИ, използвана в:

  • критични инфраструктури (напр. транспорт), които биха могли да изложат на риск живота и здравето на гражданите;
  • образователно или професионално обучение, което може да определи достъпа до образование и професионален курс на нечий живот (напр. оценяване на изпити);
  • компоненти за безопасност на продуктите (напр. приложение с ИИ при операции, подпомагани от роботи);
  • заетост, управление на работниците и достъп до самостоятелна заетост (напр. софтуер за сортиране на автобиографии за процедури за набиране на персонал);
  • основни частни и обществени услуги (напр. кредитна оценка, която лишава гражданите от възможността да получат заем);
  • правоприлагане, което може да наруши основните права на хората (напр. оценка на надеждността на доказателствата);
  • управление на миграцията, убежището и граничния контрол (напр. автоматизирано разглеждане на заявленията за издаване на визи);
  • правораздаване и демократични процеси (напр. решения с ИИ за търсене на съдебни решения).

Високорисковите системи с ИИ ще подлежат на строги задължения, преди да могат да бъдат пуснати на пазара:

  • адекватни системи за оценка и намаляване на риска;
  • високо качество на наборите от данни, захранващи системата, за да се сведат до минимум рисковете и дискриминационните резултати;
  • регистриране на дейността, за да се гарантира проследимостта на резултатите;
  • подробна документация, предоставяща цялата необходима информация за системата и нейната цел, за да могат органите да оценят нейното съответствие;
  • ясна и адекватна информация за внедрителя;
  • подходящи човешки надзорни мерки за свеждане до минимум на риска;
  • високо ниво на стабилност, сигурност и точност.

Всички системи за дистанционна биометрична идентификация се считат за високорискови и подлежат на строги изисквания. Използването на дистанционна биометрична идентификация на публично достъпни места за целите на правоприлагането по принцип е забранено.

Строго определени и регулирани са тесните изключения, като например, когато е необходимо, за издирване на изчезнало дете, за предотвратяване на конкретна и непосредствена терористична заплаха или за разкриване, локализиране, идентифициране или наказателно преследване на извършител или заподозрян в тежко престъпление.

Тези употреби подлежат на разрешение от съдебен или друг независим орган и на подходящи ограничения във времето, географския обхват и търсените бази данни.

Ограничен риск

Ограниченият риск есвързан с рисковете, свързани с липсата на прозрачност при използването на ИИ. Със Закона за ИИ се въвеждат специфични задължения за прозрачност, за да се гарантира, че хората са информирани, когато е необходимо, като се насърчава доверието. Например, когато използват системи с ИИ, като например чатботове, хората следва да бъдат информирани, че взаимодействат с машина, за да могат да вземат информирано решение да продължат или да се отдръпнат. Доставчиците също така ще трябва да гарантират, че генерираното от ИИ съдържание може да бъде идентифицирано. Освен това текстът, генериран от ИИ, публикуван с цел информиране на обществеността по въпроси от обществен интерес, трябва да бъде обозначен като изкуствено генериран. Това важи и за аудио и видео съдържание, което представлява дълбоки фалшификати.

Минимален или никакъв риск

Законът за ИИ позволява безплатното използване на ИИ с минимален риск. Това включва приложения като видеоигри с изкуствен интелект или спам филтри. По-голямата част от системите с ИИ, които понастоящем се използват в ЕС, попадат в тази категория.

Как работи всичко това на практика за доставчиците на високорискови системи с ИИ?

поетапен процес за деклариране на съответствие
How does it all work in practice for providers of high risk AI systems?

След като дадена система с ИИ бъде пусната на пазара, органите отговарят за надзора на пазара, внедрителите осигуряват човешки надзор и мониторинг, а доставчиците разполагат със система за наблюдение след пускането на пазара. Доставчиците и внедрителите също ще докладват за сериозни инциденти и неизправности.

Решение за надеждно използване на големи модели с ИИ

Все повече и повече моделите на ИИ с общо предназначение се превръщат в компоненти на системите с ИИ. Тези модели могат да изпълняват и адаптират безброй различни задачи.

Въпреки че моделите на ИИ с общо предназначение могат да дадат възможност за по-добри и по-мощни решения с ИИ, е трудно да се контролират всички възможности.

Там Законодателният акт за ИИ въвежда задължения за прозрачност за всички модели с общо предназначение, за да се даде възможност за по-добро разбиране на тези модели и допълнителни задължения за управление на риска за много способни и въздействащи модели. Тези допълнителни задължения включват самооценка и смекчаване на системните рискове, докладване на сериозни инциденти, провеждане на оценки на изпитвания и модели, както и изисквания за киберсигурност.

Законодателство, съобразено с бъдещето

Тъй като ИИ е бързо развиваща се технология, предложението има ориентиран към бъдещето подход, който позволява на правилата да се адаптират към технологичните промени. Приложенията с ИИ следва да останат надеждни дори и след пускането им на пазара. Това изисква непрекъснато управление на качеството и риска от страна на доставчиците.

Правоприлагане и изпълнение

Европейската служба за ИИ, създадена през февруари 2024 г. в рамките на Комисията, наблюдава прилагането и прилагането на Закона за ИИ заедно с държавите членки. Тя има за цел да създаде среда, в която технологиите за ИИ зачитат човешкото достойнство, права и доверие. Той също така насърчава сътрудничеството, иновациите и научните изследвания в областта на ИИ между различните заинтересовани страни. Освен това тя участва в международен диалог и сътрудничество по въпроси, свързани с ИИ, като признава необходимостта от привеждане в съответствие в световен мащаб на управлението на ИИ. Чрез тези усилия Европейската служба за ИИ се стреми да позиционира Европа като лидер в етичното и устойчиво развитие на технологиите в областта на ИИ.

Следващи стъпки

През декември 2023 г. Европейският парламент и Съветът на ЕС постигнаха политическо споразумение по Акта за ИИ. Текстът е в процес на официално приемане и превод. Законът за ИИ ще влезе в сила 20 дни след публикуването му в Официален вестник и ще се прилага изцяло 2 години по-късно, с някои изключения: забраните ще влязат в сила след шест месеца, правилата за управление и задълженията за моделите на ИИ с общо предназначение ще започнат да се прилагат след 12 месеца, а правилата за системите с ИИ — вградени в регулирани продукти — ще се прилагат след 36 месеца. За да се улесни преходът към новата регулаторна рамка, Комисията стартира пакта за ИИ — доброволна инициатива, която има за цел да подкрепи бъдещото прилагане и приканва разработчиците на ИИ от Европа и извън нея предварително да изпълнят основните задължения на Акта за ИИ.

Последни новини

ЕС и САЩ продължават силното сътрудничество в областта на търговията и технологиите в момент на глобални предизвикателства

Днес ЕС и Съединените щати проведоха шестото заседание на Съвета по търговия и технологии ЕС-САЩ (TTC) в Льовен, Белгия. Срещата даде възможност на министрите да доразвият текущата работа и да представят нови резултати от СТТ след две години и половина сътрудничество.

PRESS RELEASE |
ЕС и Република Корея потвърждават отново партньорството си за приобщаваща и устойчива цифрова трансформация

ЕС и Република Корея проведоха втория Съвет за цифрово партньорство в Брюксел. Съветът беше съпредседателстван от комисаря по въпросите на вътрешния пазар Тиери Бретон и от корейския министър на науката, информационните и комуникационните технологии д-р Лий Джонг-Хо.

PRESS RELEASE |
Комисията и научноизследователската общност разработват насоки за отговорно използване на генеративния изкуствен интелект в научните изследвания

Комисията и държавите от Европейското научноизследователско пространство и заинтересованите страни съвместно представиха набор от насоки в подкрепа на Европейската научноизследователска общност при отговорното използване на генеративния изкуствен интелект (ИИ).

PRESS RELEASE |
Комисията открива призиви за инвестиране на над 176 милиона евро в цифров капацитет и технологии

Европейската комисия откри нов набор от покани за представяне на предложения в рамките на работните програми за периода 2023—2024 г. на програмата „Цифрова Европа“ с цел укрепване на цифровия капацитет в целия ЕС. Тези покани са отворени за предприятия, публични администрации и други субекти от държавите — членки на ЕС, държавите от ЕАСТ/ЕИП и асоциираните държави. Бюджетът за този набор от покани за представяне на предложения възлиза на над 176 милиона евро.

Съдържание по темата

Обща картина

Европейски подход към изкуствения интелект

Подходът на ЕС към изкуствения интелект се основава на високи постижения и доверие, като целта е да се стимулират научните изследвания и промишленият капацитет, като същевременно се гарантират безопасността и основните права.

По-задълбочено

Пакт за ИИ

Пактът за ИИ ще насърчава и подкрепя дружествата при планирането на мерките, предвидени в Закона за ИИ.

Вижте също

Координиран план за изкуствения интелект

Координираният план за изкуствения интелект има за цел да ускори инвестициите в ИИ, да приложи стратегии и програми в областта на ИИ и да съгласува политиката в областта на ИИ, за да се предотврати разпокъсаността в Европа.

Европейски алианс за ИИ

Европейският алианс за ИИ е инициатива на Европейската комисия за установяване на открит политически диалог в областта на изкуствения интелект. От стартирането си през 2018 г. Алиансът за ИИ е ангажирал около 6000 заинтересовани страни чрез редовни прояви, обществени консултации...