Законодателният акт за ИИ е първата по рода си правна рамка в областта на ИИ, която разглежда рисковете, свързани с ИИ, и поставя Европа на водеща роля в световен мащаб.
Законодателният акт за ИИ (Регламент (ЕС) 2024/1689 за определяне на хармонизирани правила относно изкуствения интелект) е първата по рода си всеобхватна правна рамка относно ИИ в световен мащаб. Целта на правилата е да се насърчи надеждният ИИ в Европа. За всякакви въпроси относно Законодателния акт за ИИ вижтеЕдиннатаинформационна платформа за Законодателния акт за ИИ.
В Законодателния акт за ИИ се определя ясен набор от основани на риска правила за разработчиците и внедрителите на ИИ по отношение на специфичните употреби на ИИ. Законодателният акт за ИИ е част от по-широк пакет от мерки на политиката в подкрепа на разработването на надежден ИИ, който включва и пакета за иновации в областта на ИИ и стартирането на фабрики за ИИ. Взети заедно, тези мерки гарантират безопасността, основните права и ориентирания към човека ИИ и засилват навлизането, инвестициите и иновациите в ИИ в целия ЕС.
За да улесни прехода към новата регулаторна рамка, Комисията стартира Пакта за ИИ — доброволна инициатива, която има за цел да подкрепи бъдещото прилагане, да се ангажира със заинтересованите страни и да прикани доставчиците и внедрителите на ИИ от Европа и извън нея да спазват предварително основните задължения по Законодателния акт за ИИ. Успоредно с товаБюрото за услуги във връзка със Законодателния акт за ИИсъщо така предоставя информация и подкрепа за гладкото и ефективно прилагане на Законодателния акт за ИИ в целия ЕС.
Защо са ни необходими правила за ИИ?
Законодателният акт за ИИ гарантира, че европейците могат да се доверят на това, което ИИ може да предложи. Въпреки че повечето системи с ИИ представляват ограничен до никакъв риск и могат да допринесат за решаването на много обществени предизвикателства, някои системи с ИИ създават рискове, с които трябва да се справим, за да избегнем нежелани резултати.
Например често не е възможно да се разбере защо дадена система с ИИ е взела решение или е направила прогноза и е предприела определено действие. Така че може да се окаже трудно да се прецени дали дадено лице е било несправедливо поставено в неравностойно положение, например при решение за наемане на работа или при кандидатстване за схема за общественополезна дейност.
Въпреки че съществуващото законодателство осигурява известна защита, то не е достатъчно за справяне със специфичните предизвикателства, които системите с ИИ могат да създадат.
Основан на риска подход
В Законодателния акт за ИИ се определят 4 нива на риск за системите с ИИ:

Неприемлив риск
Всички системи с ИИ, считани за явна заплаха за безопасността, поминъка и правата на хората, са забранени. Законодателният акт за ИИ забранява осем практики, а именно:
- вредни манипулации и измами, основани на ИИ
- вредно използване на уязвимости, основани на ИИ
- социален рейтинг
- Оценка или прогнозиране на риска от отделни престъпления
- нецеленасочено остъргване на материали от интернет или видеонаблюдение с цел създаване или разширяване на бази данни за разпознаване на лица
- разпознаване на емоциите на работното място и в образователните институции
- биометрична категоризация за извеждане на определени защитени характеристики
- дистанционна биометрична идентификация в реално време за целите на правоприлагането на обществено достъпни места
Висок риск
Случаите на използване на ИИ, които могат да породят сериозни рискове за здравето, безопасността или основните права, се класифицират като високорискови. Тези случаи на високорискова употреба включват:
- Предпазни компоненти с ИИ в критични инфраструктури (напр. транспорт), чиято повреда би могла да изложи на риск живота и здравето на гражданите
- Решения с ИИ, използвани в образователните институции, които могат да определят достъпа до образование и хода на професионалния живот на дадено лице (напр. оценяване на изпитите)
- Основани на ИИ защитни компоненти на продукти (напр. приложение на ИИ в хирургия с помощта на роботи)
- Инструменти с ИИ за заетост, управление на работниците и достъп до самостоятелна заетост (напр. софтуер за сортиране на автобиографии за набиране на персонал)
- Някои случаи на използване на ИИ, използвани за предоставяне на достъп до основни частни и публични услуги (напр. кредитни оценки, които лишават гражданите от възможност да получат заем)
- Системи с ИИ, използвани за дистанционна биометрична идентификация, разпознаване на емоции и биометрична категоризация (напр. система с ИИ за идентифициране със задна дата на крадец от магазин)
- Случаи на използване на ИИ в правоприлагането, които могат да попречат на основните права на хората (напр. оценка на надеждността на доказателствата)
- Случаи на използване на ИИ в управлението на миграцията, убежището и граничния контрол (напр. автоматизирано разглеждане на заявления за издаване на визи)
- Решения с ИИ, използвани в правораздаването и демократичните процеси (напр. решения с ИИ за изготвяне на съдебни решения)
Високорисковите системи с ИИ подлежат на строги задължения, преди да могат да бъдат пуснати на пазара:
- адекватни системи за оценка и намаляване на риска
- високо качество на наборите от данни, захранващи системата, за да се сведат до минимум рисковете от дискриминационни резултати
- регистриране на дейността, за да се гарантира проследимостта на резултатите
- подробна документация, предоставяща цялата необходима информация за системата и нейната цел, за да могат органите да оценят нейното съответствие
- ясна и адекватна информация за внедрителя
- подходящи мерки за човешки надзор
- високо ниво на надеждност, киберсигурност и точност
Ограничен риск
Това се отнася до рисковете, свързани с необходимостта от прозрачност по отношение на използването на ИИ. Със Законодателния акт за ИИ се въвеждат специфични задължения за оповестяване, за да се гарантира, че хората са информирани, когато е необходимо, за да се запази доверието. Например, когато се използват системи с ИИ като чатботове, хората следва да бъдат информирани, че взаимодействат с машина, за да могат да вземат информирано решение.
Освен това доставчиците на генеративен ИИ трябва да гарантират, че генерираното от ИИ съдържание може да бъде идентифицирано. Освен това определено съдържание, генерирано от ИИ, следва да бъде ясно и видимо етикетирано, а именно дълбоки фалшификати и текст, публикувани с цел информиране на обществеността по въпроси от обществен интерес.
Минимален или никакъв риск
Законодателният акт за ИИ не въвежда правила за ИИ, които се считат за минимален или никакъв риск. По-голямата част от системите с ИИ, които понастоящем се използват в ЕС, попадат в тази категория. Това включва приложения като видеоигри с ИИ или спам филтри.
Как работи всичко това на практика за доставчиците на високорискови системи с ИИ?
Как работи всичко това на практика за доставчиците на високорискови системи с ИИ?
След като дадена система с ИИ бъде пусната на пазара, органите отговарят за надзора на пазара, внедрителите осигуряват човешки надзор и мониторинг, а доставчиците разполагат със система за мониторинг след пускането на пазара. Доставчиците и внедрителите също ще докладват за сериозни инциденти и неизправности.
Решение за надеждно използване на големи модели на ИИ
Моделите на ИИ с общо предназначение (GPAI) могат да изпълняват широк спектър от задачи и се превръщат в основа за много системи с ИИ в ЕС. Някои от тези модели биха могли да носят системни рискове, ако са много способни или широко използвани. За да се гарантира безопасен и надежден ИИ, със Законодателния акт за ИИ се въвеждат правила за доставчиците на такива модели. Това включва прозрачност и правила, свързани с авторското право. За модели, които могат да носят системни рискове, доставчиците следва да оценяват и ограничават тези рискове. Правилата на Законодателния акт за ИИ относно ИИ с общо предназначение влязоха в сила от август 2025 г.
Подкрепа за спазването на изискванията
През юли 2025 г. Комисията въведе 3 ключови инструмента в подкрепа на отговорното разработване и внедряване на модели на ИИОП:
- Насоките относно обхвата на задълженията за доставчиците на модели с ИИ с общо предназначение изясняват обхвата на задълженията с ИИ с общо предназначение съгласно Законодателния акт за ИИ, като помагат на участниците по веригата за създаване на стойност в областта на ИИ да разберат кой трябва да спазва тези задължения.
- Кодексът за поведение във връзка с ИИ с общо предназначение е доброволен инструмент за спазване на изискванията, представен на Комисията от независими експерти, който предлага практически насоки, за да помогне на доставчиците да спазват задълженията си съгласно Законодателния акт за ИИ, свързани с прозрачността, авторското право и безопасността и сигурността.
- Образецът за публично резюме на учебното съдържание на моделите на ИИОП изисква от доставчиците да предоставят преглед на данните, използвани за обучение на техните модели. Това включва източниците, от които са получени данните (включващи големи набори от данни и топ имена на домейни). Образецът също така изисква информация относно аспектите на обработването на данни, за да се даде възможност на страните със законни интереси да упражняват правата си съгласно правото на ЕС.
Тези инструменти са предназначени да работят ръка за ръка. Взети заедно, те осигуряват ясна и приложима рамка, чрез която доставчиците на модели с ИИ с общо предназначение да спазват Законодателния акт за ИИ, да намаляват административната тежест и да насърчават иновациите, като същевременно защитават основните права и общественото доверие.
Управление и изпълнение
Европейската служба за ИИ и органите на държавите членки отговарят за изпълнението, надзора и прилагането на Законодателния акт за ИИ. Съветът по ИИ, Научната група и Консултативният форум ръководят и консултират управлението на Законодателния акт за ИИ. Научете повече за управлението и прилагането на Законодателния акт за ИИ.
График за кандидатстване
Законодателният акт за ИИ влезе в сила на 1 август 2024 г. и ще започне да се прилага изцяло 2 години по-късно, на 2 август 2026 г., с някои изключения:
- забраните и задълженията за грамотност в областта на ИИ започнаха да се прилагат от 2 февруари 2025 г.
- правилата за управление и задълженията за моделите GPAI започнаха да се прилагат на 2 август 2025 г.
- правилата за високорисковите системи с ИИ, вградени в регулирани продукти, имат удължен преходен период до 2 август 2027 г.
Последни новини
Политика и законодателство
- 04-11-2025Законодателен акт за ИИ: Комисията публикува образец за докладване за сериозни инциденти, включващи модели на ИИ с общо предназначение със системен риск
- 08-10-2025Съобщение на Комисията Прилагане на стратегията за ИИ
- 01-08-2025Становище на Комисията относно оценката на Кодекса за поведение в областта на ИИ с общо предназначение
Доклад/Проучване
- 12-11-2025Подкрепа за стратегията за прилагане на ИИ: Стартираща и инвестиционна дейност в областта на ИИ в 10 ключови промишлени сектора
- 28-10-2025Оформяне и укрепване на талантите в областта на ИИ в Европа
- 21-10-2025Изпълнителният заместник-председател Вирккунен информира Съвета и Парламента относно опростяването, изпълнението и прилагането на цифровата нормативна уредба
Информационен документ/инфографика
Съдържание по темата
Обща картина
По-задълбочено
-

Европейската служба за ИИ и националните органи за надзор на пазара отговарят за изпълнението...
-

Комисията има за цел да увеличи броя на експертите в областта на ИИ чрез обучение и привличане на...