Skip to main content
Shaping Europe’s digital future

Кодекс за поведение в областта на ИИ с общо предназначение

Кодексът за поведение помага на промишлеността да спазва правните задължения по Законодателния акт за ИИ относно безопасността, прозрачността и авторското право на моделите на ИИ с общо предназначение.

Кодексът за поведение във връзка с ИИ с общо предназначение (GPAI) е доброволен инструмент, изготвен от независими експерти в рамките на процес с участието на множество заинтересовани страни, предназначен да помогне на промишлеността да изпълни задълженията на Законодателния акт за ИИ за доставчиците на модели на ИИ с общо предназначение. Прочетете повече за графика и процеса на изготвяне на кодекса.

Кодексът е публикуван на 10 юли 2025 г. Той се допълва от насоки на Комисията относно ключови понятия, свързани с модели на ИИ с общо предназначение. Комисията и Съветът по ИИ потвърдиха, че кодексът е подходящ доброволен инструмент за доставчиците на модели с ИИ с общо предназначение, за да докажат спазването на Законодателния акт за ИИ.

След одобрението доставчиците на модели на ИИ, които доброволно го подпишат, могат да покажат, че спазват Законодателния акт за ИИ, като се придържат към кодекса. Това ще намали административната тежест за тях и ще им даде по-голяма правна сигурност, отколкото ако са доказали съответствие чрез други методи. Повече информация за въпросите и отговорите (Q&A) относно кодекса за поведение за ИИ с общо предназначение.

Доставчиците на модели на ИИ с общо предназначение могат да подпишат кода, като попълнят формуляра за подписване и изпратят подписания формуляр на адрес EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu. Потенциалните подписали страни също могат да изпратят имейл на този адрес, за да зададат въпроси относно процеса на подписване на кода. Прочетете повече информация за процеса на подписване в този специален Q&A.

Трите глави на кодекса

По-долу можете да изтеглите кода, състоящ се от три отделни авторски глави: Прозрачност, авторско право и безопасност и сигурност.

Главите относно прозрачността и авторското право предлагат на всички доставчици на модели на ИИ с общо предназначение начин да докажат спазването на задълженията си по член 53 от Законодателния акт за ИИ.

Главите относно безопасността и сигурността са от значение само за малкия брой доставчици на най-усъвършенстваните модели — тези, които са предмет на задълженията по Законодателния акт за ИИ за доставчиците на модели на ИИ с общо предназначение със системен риск съгласно член 55 от Законодателния акт за ИИ.

GPAI code of practice transparency

Прозрачност

В главата относно прозрачността (PDF) се предлага лесен за ползване образец на формуляр за документация (DOCX), който позволява на доставчиците лесно да документират информацията, необходима за спазване на задължението по Законодателния акт за изкуствения интелект на доставчиците на модели, за да се гарантира достатъчна прозрачност.

GPAI code of practice copyright

Авторски права

Главата за авторското право (PDF) предлага на доставчиците практически решения за изпълнение на задължението на Законодателния акт за изкуствения интелект да въведе политика за спазване на законодателството на ЕС в областта на авторското право.

GPAI code of practice security

Безопасност и сигурност

В главата за безопасност и сигурност (PDF) се очертават конкретни най-съвременни практики за управление на системните рискове, т.е. рисковете от най-модерните модели. Доставчиците могат да разчитат на тази глава, за да изпълнят задълженията по Законодателния акт за ИИ за доставчиците на модели на ИИ с общо предназначение със системен риск.

Подписали Кодекса на практиката

Някои поддръжници може да не се появят веднага, но ние се уверяваме, че непрекъснато актуализираме списъка, тъй като подписите се потвърждават.

  • Accexible
  • AI Alignment Solutions
  • Aleph Alpha
  • Almawave
  • Amazon
  • Anthropic
  • Black Forest Labs
  • Bria AI
  • Cohere
  • Cyber Institute
  • Domyn
  • Dweve
  • Euc Inovação Portugal
  • Fastweb
  • Google
  • Humane Technology
  • IBM
  • Lawise
  • LINAGORA
  • Microsoft
  • Mistral AI
  • Open Hippo
  • OpenAI
  • Pleias
  • re-inventa
  • ServiceNow
  • Virtuo Turing
  • WRITER

 

Освен това xAI е подписало глава „Безопасност и сигурност“; това означава, че той ще трябва да докаже спазването на задълженията на Законодателния акт за ИИ по отношение на прозрачността и авторското право чрез алтернативни подходящи средства.

Съдържание по темата

Обща картина

Подходът на ЕС към изкуствения интелект насърчава високите постижения и доверието, като стимулира научните изследвания и промишления капацитет, като същевременно гарантира безопасността и основните права.

По-задълбочено