Kodeks postępowania pomaga przemysłowi w przestrzeganiu zobowiązań prawnych wynikających z aktu w sprawie sztucznej inteligencji dotyczących bezpieczeństwa, przejrzystości i praw autorskich do modeli sztucznej inteligencji ogólnego przeznaczenia.
Kodeks postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia (GPAI) jest dobrowolnym narzędziem przygotowanym przez niezależnych ekspertów w ramach procesu z udziałem wielu zainteresowanych stron, mającym pomóc przemysłowi w wypełnianiu obowiązków wynikających z aktu w sprawie sztucznej inteligencji w odniesieniu do dostawców modeli sztucznej inteligencji ogólnego przeznaczenia. Więcej informacji na temat harmonogramu i procesu opracowywania kodeksu.
Kodeks został opublikowany 10 lipca 2025 r. Uzupełniają go wytyczne Komisji dotyczące kluczowych pojęć związanych z modelami AI ogólnego przeznaczenia. Komisja i Rada ds. Sztucznej Inteligencji potwierdziły, że kodeks jest odpowiednim dobrowolnym narzędziem dla dostawców modeli sztucznej inteligencji ogólnego przeznaczenia w celu wykazania zgodności z aktem w sprawie sztucznej inteligencji.
Po zatwierdzeniu dostawcy modeli sztucznej inteligencji, którzy dobrowolnie je podpiszą, mogą wykazać, że przestrzegają aktu w sprawie sztucznej inteligencji, przestrzegając kodeksu. Zmniejszy to ich obciążenie administracyjne i zapewni im większą pewność prawa niż w przypadku udowodnienia zgodności za pomocą innych metod. Więcej informacji na temat pytań i odpowiedzi (Q&A) na temat kodeksu postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia.
Dostawcy modeli AI ogólnego przeznaczenia mogą podpisać kod, wypełniając formularz sygnatariusza i wysyłając podpisany formularz na adres EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu. Potencjalni sygnatariusze mogą również wysłać wiadomość e-mail na ten adres, aby zadać wszelkie pytania dotyczące procesu rejestracji w kodzie. Więcej informacji na temat procesu podpisywania można znaleźć w tym dedykowanym Q&A.
Trzy rozdziały kodeksu
Poniżej możesz pobrać kod, składający się z trzech osobno napisanych rozdziałów: Przejrzystość, prawa autorskie oraz bezpieczeństwo i ochrona.
Rozdziały dotyczące przejrzystości i praw autorskich oferują wszystkim dostawcom modeli AI ogólnego przeznaczenia sposób wykazania zgodności z obowiązkami wynikającymi z art. 53 aktu w sprawie AI.
Rozdziały dotyczące bezpieczeństwa i ochrony odnoszą się wyłącznie do niewielkiej liczby dostawców najbardziej zaawansowanych modeli, którzy podlegają obowiązkom określonym w akcie w sprawie AI w odniesieniu do dostawców modeli AI ogólnego przeznaczenia obarczonych ryzykiem systemowym na podstawie art. 55 aktu w sprawie AI.
![]() |
Przejrzystość Rozdział dotyczący przejrzystości (PDF) oferuje przyjazny dla użytkownika wzór formularza dokumentacji (DOCX), który umożliwia dostawcom łatwe dokumentowanie informacji niezbędnych do wypełnienia obowiązku spoczywającego na dostawcach modeli na mocy aktu w sprawie sztucznej inteligencji w celu zapewnienia wystarczającej przejrzystości. |
![]() |
Prawa autorskie Rozdział dotyczący praw autorskich (PDF) oferuje dostawcom praktyczne rozwiązania, aby spełnić obowiązek aktu w sprawie sztucznej inteligencji dotyczący wprowadzenia polityki zgodnej z unijnym prawem autorskim. |
![]() |
Bezpieczeństwo i ochrona W rozdziale Bezpieczeństwo i ochrona (PDF) przedstawiono konkretne najnowocześniejsze praktyki zarządzania ryzykiem systemowym, tj. ryzykiem wynikającym z najbardziej zaawansowanych modeli. Dostawcy mogą polegać na tym rozdziale, aby wywiązać się z obowiązków wynikających z aktu w sprawie AI w odniesieniu do dostawców modeli AI ogólnego przeznaczenia obarczonych ryzykiem systemowym. |
Sygnatariusze kodeksu postępowania
Niektórzy sygnatariusze mogą nie pojawić się natychmiast, ale upewniamy się, że stale aktualizujemy listę w miarę potwierdzania podpisów.
- Accexible
- AI Alignment Solutions
- Aleph Alpha
- Almawave
- Amazon
- Anthropic
- Black Forest Labs
- Bria AI
- Cohere
- Cyber Institute
- Domyn
- Dweve
- Euc Inovação Portugal
- Fastweb
- Humane Technology
- IBM
- Lawise
- LINAGORA
- Microsoft
- Mistral AI
- Open Hippo
- OpenAI
- Pleias
- re-inventa
- ServiceNow
- Virtuo Turing
- WRITER
Ponadto xAI przystąpiło do rozdziału dotyczącego bezpieczeństwa i ochrony; oznacza to, że będzie musiał wykazać zgodność z obowiązkami wynikającymi z aktu w sprawie sztucznej inteligencji dotyczącymi przejrzystości i praw autorskich za pomocą odpowiednich alternatywnych środków.
Podobne tematy
W szerszej perspektywie
Szczegółowe wyjaśnienia
-

Pierwszy kodeks praktyk w zakresie AI ogólnego przeznaczenia otrzymany przez Komisję zawiera...


