Ogólne pytania i odpowiedzi
Każdy dostawca (lub potencjalny przyszły dostawca) modelu sztucznej inteligencji ogólnego przeznaczenia może podpisać kod, wypełniającformularz sygnatariusza i przesyłając go na adres EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu.
Formularz powinien być podpisany przez osobę posiadającą wystarczające uprawnienia, aby związać dostawcę z kodeksem postępowania w zakresie ogólnych celów (np. kadrę kierowniczą wyższego szczebla).
Po uznaniu kodeksu za odpowiedni przez Urząd ds. AI i Radę ds. AI dostawcy modeli AI ogólnego przeznaczenia mogą polegać na kodeksie w celu wykazania zgodności z art. 53 i 55 aktu w sprawie AI. Ewentualna rezygnacja z rozdziałów kodeksu postępowania skutkuje utratą korzyści płynących z ułatwienia wykazania zgodności w tym zakresie.
W przypadku dostawców modeli AI ogólnego przeznaczenia, którzy przestrzegają kodeksu, Komisja skoncentruje swoje działania w zakresie egzekwowania przepisów na monitorowaniu ich przestrzegania kodeksu. Ponieważ tacy dostawcy są przejrzysti w odniesieniu do środków, które wdrażają w celu zapewnienia zgodności z aktem w sprawie sztucznej inteligencji, korzystają oni ze zwiększonego zaufania ze strony Komisji i innych zainteresowanych stron.
Nie ma terminu na podpisanie kodu. Dostawcy mogą podpisać w dowolnym momencie. Prosimy jednak obecnych dostawców o podpisanie kodu przed 1 sierpnia. W przypadku sygnatariuszy, którzy wyrażą na to zgodę, podpisy zostaną podane do publicznej wiadomości w internecie.
W ten sposób Urząd ds. Sztucznej Inteligencji jest świadomy, kto zamierza przestrzegać kodeksu, zanim obowiązki wynikające z aktu w sprawie sztucznej inteligencji zaczną obowiązywać 2 sierpnia 2025 r. Jeżeli dostawca modelu AI ogólnego przeznaczenia nie zdecyduje się przestrzegać kodeksu, musi wykazać zgodność za pomocą innych środków.
Dostawcy, którzy nie są w trakcie opracowywania modelu AI ogólnego przeznaczenia wiążącego się z ryzykiem systemowym ani nie zamierzają tego robić, mogą opcjonalnie podpisać rozdział dotyczący bezpieczeństwa i ochrony. W takim przypadku oczekuje się, że określą, które z ich modeli - te, które nie stwarzają ryzyka systemowego - będą podlegać środkom określonym w rozdziale dotyczącym bezpieczeństwa i ochrony.
Urząd ds. Sztucznej Inteligencji przyznaje, że sygnatariusze mogą potrzebować trochę czasu na pełne wdrożenie środków zawartych w kodeksie (na przykład czasu potrzebnego na wdrożenie środków cyberbezpieczeństwa w ramach zobowiązania 6 w rozdziale dotyczącym bezpieczeństwa i ochrony), w świetle faktu, że kodeks został opublikowany dopiero niedawno 10 lipca 2025 r. Jeżeli sygnatariusze nie wywiążą się w pełni ze wszystkich zobowiązań natychmiast po podpisaniu kodeksu, Urząd ds. Sztucznej Inteligencji niekoniecznie uzna, że złamali swoje zobowiązania wynikające z kodeksu. Zamiast tego w takich przypadkach Urząd ds. Sztucznej Inteligencji uzna je za działające w dobrej wierze i będzie gotowy do współpracy, aby pomóc w zapewnieniu przestrzegania kodeksu.
Dostawcy, którzy nie przestrzegają kodeksu, muszą wykazać zgodność za pomocą innych odpowiednich środków i będą musieli zgłosić wdrożone środki Urzędowi ds. Sztucznej Inteligencji. Ponadto od takich dostawców oczekuje się wyjaśnienia, w jaki sposób wdrażane przez nich środki zapewniają przestrzeganie ich obowiązków wynikających z aktu w sprawie sztucznej inteligencji, na przykład poprzez przeprowadzenie analizy luk porównującej wdrożone przez nich środki ze środkami określonymi w kodeksie.
Dostawcy, którzy nie przestrzegają kodeksu, mogą również być przedmiotem większej liczby wniosków o udzielenie informacji i wniosków o dostęp do przeprowadzania ocen modeli w całym cyklu życia modelu, ponieważ Urząd ds. Sztucznej Inteligencji będzie mniej rozumiał, w jaki sposób zapewnia wypełnianie swoich obowiązków wynikających z aktu w sprawie AI i zazwyczaj będzie potrzebował bardziej szczegółowych informacji, w tym na temat zmian wprowadzonych do modeli AI ogólnego przeznaczenia w całym cyklu życia.
Zgodnie z art. 56 ust. 8 aktu w sprawie AI Urząd ds. AI w stosownych przypadkach wspiera i ułatwia przegląd i dostosowanie kodeksu.
Urząd ds. AI może ułatwiać formalne aktualizacje kodeksu w odpowiedzi na rozwój technologiczny, zmiany w krajobrazie ryzyka lub doświadczenia związane ze stosowaniem przepisów aktu w sprawie AI. Urząd ds. Sztucznej Inteligencji będzie dokonywać przeglądu kodeksu co najmniej raz na dwa lata i w razie potrzeby może zaproponować usprawniony proces przeglądów i aktualizacji. Urząd ds. AI może również wydać wytyczne w celu dalszego wyjaśnienia pojęć istotnych dla kodeksu, w stosownych przypadkach, aby zapewnić jego wkład we właściwe stosowanie obowiązków wynikających z aktu w sprawie AI.
Wszelkie aktualizacje tekstu kodeksu praktyk GPAI zostaną udostępnione sygnatariuszom do rozpatrzenia, a sygnatariusze zostaną poproszeni o podpisanie zaktualizowanego kodeksu.
Tak, sygnatariusz może wycofać swój podpis pod kodeksem w dowolnym momencie.
Related content
Kodeks postępowania pomaga przemysłowi w przestrzeganiu zobowiązań prawnych wynikających z aktu w sprawie sztucznej inteligencji dotyczących bezpieczeństwa, przejrzystości i praw autorskich do modeli sztucznej inteligencji ogólnego przeznaczenia.