Niniejszy kodeks postępowania ma na celu wspieranie zgodności z obowiązkami w zakresie przejrzystości określonymi w akcie w sprawie AI w odniesieniu do oznaczania i etykietowania treści generowanych przez AI.
Oznakowanie i etykietowanie treści generowanych przez sztuczną inteligencję
Obowiązki wynikające z art. 50 aktu w sprawie sztucznej inteligencji (obowiązki dostawców i podmiotów wdrażających generatywne systemy sztucznej inteligencji w zakresie przejrzystości) mają na celu zapewnienie przejrzystości treści generowanych lub zmanipulowanych przez sztuczną inteligencję, takich jak deepfake. Artykuł odnosi się do ryzyka oszustwa i manipulacji, wspierając integralność ekosystemu informacyjnego. Te obowiązki w zakresie przejrzystości uzupełnią inne przepisy, takie jak przepisy dotyczące systemów sztucznej inteligencji wysokiego ryzyka lub modeli sztucznej inteligencji ogólnego przeznaczenia.
Aby pomóc w wypełnianiu tych obowiązków w zakresie przejrzystości, Urząd ds. Sztucznej Inteligencji rozpoczął proces opracowywania kodeksu postępowania w zakresie przejrzystości treści generowanych przez sztuczną inteligencję. Kodeks zostanie opracowany przez niezależnych ekspertów wyznaczonych przez Urząd ds. Sztucznej Inteligencji w ramach pluralistycznego procesu. Kwalifikujące się zainteresowane strony wezmą udział w opracowywaniu kodeksu. Jeżeli zostanie zatwierdzony przez Komisję, ostateczny kodeks posłuży jako dobrowolne narzędzie dla dostawców i podmiotów wdrażających generatywne systemy sztucznej inteligencji w celu wykazania zgodności z ich odpowiednimi obowiązkami wynikającymi z art. 50 ust. 2 i 4 aktu w sprawie sztucznej inteligencji. Obowiązki te dotyczą oznaczania i wykrywania treści generowanych przez sztuczną inteligencję oraz oznaczania deepfake'ów i niektórych publikacji generowanych przez sztuczną inteligencję.
Zakres prac grup roboczych
Opracowanie kodeksu koncentruje się wokół dwóch grup roboczych, zgodnie ze strukturą obowiązków w zakresie przejrzystości treści generowanych przez sztuczną inteligencję, o których mowa w art. 50.
Grupa robocza 1: Dostawcy
Koncentruje się na obowiązkach, zobowiązując dostawców generatywnych systemów sztucznej inteligencji do zapewnienia:
- Wyjścia systemów sztucznej inteligencji (audio, obraz, wideo, tekst) są oznaczone w formacie nadającym się do odczytu maszynowego i wykrywalne jako sztucznie wygenerowane lub zmanipulowane.
- Zastosowane rozwiązania techniczne są skuteczne, interoperacyjne, solidne i niezawodne w stopniu, w jakim jest to technicznie wykonalne. Muszą one uwzględniać specyfikę i ograniczenia różnych rodzajów treści, koszty wdrożenia i ogólnie uznany stan wiedzy technicznej, co można odzwierciedlić w odpowiednich normach technicznych.
Grupa robocza 2: Podmioty wdrażające
Skupia się na obowiązkach, zobowiązując podmioty wdrażające generatywne systemy sztucznej inteligencji do ujawniania:
- Treści, które są sztucznie generowane lub manipulowane, stanowiące głęboką falsyfikat (obraz, dźwięk lub wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub wydarzenia i fałszywie wydają się osobie autentyczne lub prawdziwe).
- Publikacje tekstowe wygenerowane przez sztuczną inteligencję/zmanipulowane informujące opinię publiczną o sprawach leżących w interesie publicznym, chyba że publikacja została poddana procesowi przeglądu przez człowieka i podlega odpowiedzialności redakcyjnej.
Obie grupy rozważą również kwestie przekrojowe, w tym horyzontalne wymogi dotyczące informacji, które mają być przekazywane osobom fizycznym na podstawie art. 50 ust. 5, i będą dążyć do promowania współpracy między odpowiednimi podmiotami w całym łańcuchu wartości, aby osiągnąć cele aktu w sprawie sztucznej inteligencji dotyczące oznaczania i etykietowania treści generowanych przez AI.
Każda grupa robocza będzie kierowana przez niezależnych przewodniczących i wiceprzewodniczących, którzy mają zapewnić strategiczne przywództwo i wytyczne, zapewniając, aby dyskusje pozostały ukierunkowane i produktywne. Możesz pobrać pełną listę uczestników grup roboczych 1&2(PDF).
Proces redakcyjny
W opracowaniu kodeksu uczestniczą kwalifikujące się zainteresowane strony, które odpowiedziały na publiczne zaproszenie ogłoszone przez Urząd ds. Sztucznej Inteligencji. W ramach tej grupy znajdują się dostawcy konkretnych generatywnych systemów sztucznej inteligencji, twórcy technik znakowania i wykrywania, stowarzyszenia podmiotów stosujących generatywne systemy sztucznej inteligencji, organizacje społeczeństwa obywatelskiego, eksperci akademiccy oraz wyspecjalizowane organizacje posiadające wiedzę fachową w zakresie przejrzystości i bardzo duże platformy internetowe.
Urząd ds. Sztucznej Inteligencji, pełniąc rolę mediatora, zaprosił również obserwatorów międzynarodowych i europejskich do udziału w opracowywaniu kodeksu postępowania. Organizacje te nie spełniły kryteriów kwalifikowalności określonych w zaproszeniu do składania wniosków, ale nadal mogą wnieść cenną wiedzę fachową i przedstawić pisemne uwagi. Wszyscy uczestnicy i obserwatorzy zostaną zaproszeni do udziału w sesjach plenarnych, posiedzeniach grup roboczych i warsztatach tematycznych poświęconych omówieniu technicznych aspektów kodeksu.
W procesie redakcyjnym rozważone zostaną:
- Informacje zwrotne z konsultacji z udziałem wielu zainteresowanych stron w sprawie wymogów przejrzystości w odniesieniu do niektórych systemów sztucznej inteligencji
- Badania eksperckie zlecone przez Urząd ds. Sztucznej Inteligencji oraz wkład kwalifikujących się zainteresowanych stron uczestniczących w opracowywaniu kodeksu postępowania
Oczekuje się, że pełne ćwiczenie potrwa 7 miesięcy. Harmonogram ten zapewnia dostawcom i podmiotom wdrażającym wystarczającą ilość czasu na przygotowanie się do spełnienia wymogów, zanim przepisy wejdą w życie w sierpniu 2026 r. Obowiązki w zakresie przejrzystości określone w art. 50 aktu w sprawie sztucznej inteligencji uzupełnią inne przepisy, takie jak przepisy dotyczące systemów sztucznej inteligencji wysokiego ryzyka lub modeli sztucznej inteligencji ogólnego przeznaczenia.
Komisja przygotuje równolegle wytyczne w celu wyjaśnienia zakresu zobowiązań prawnych i zajęcia się aspektami nieobjętymi kodeksem.
Kalendarium
Posiedzenia grupy roboczej i warsztaty z udziałem uczestników, przewodniczących i wiceprzewodniczących odbędą się w okresie od listopada 2025 r. do maja 2026 r.
Poniższe daty mają charakter orientacyjny i mogą wymagać potwierdzenia (do potwierdzenia).
-
wrzesień 2025 r.Zaproszenie do wyrażenia zainteresowania udziałem w kodeksie postępowania (również na linku powyżej)
-
Październik 2025 r.Kontrole kwalifikowalności i wybór wniosków dla przewodniczących i wiceprzewodniczących
-
17–18 listopada 2025 r.
-
17 grudnia 2025 r.
-
12 & 14 stycznia 2026 r.Posiedzenia grup roboczychRozpoczęcie drugiej rundy redakcyjnej
-
21–22 stycznia 2026 r.Warsztaty - grupy robocze 1 & 2
-
Marzec 2026 r. (do potwierdzenia)Publikacja drugiego projektuRozpoczęcie końcowej rundy redakcyjnej
-
kwiecień 2026 r. (do potwierdzenia)Posiedzenia grup roboczych
-
maj–czerwiec 2026 r.Sesja zamykającaPublikacja ostatecznego kodeksu postępowania
Podobne tematy
W szerszej perspektywie