Skip to main content
Kształtowanie cyfrowej przyszłości Europy

Kodeks postępowania w zakresie oznaczania i etykietowania treści generowanych przez sztuczną inteligencję

Niniejszy kodeks postępowania ma na celu wspieranie zgodności z obowiązkami w zakresie przejrzystości określonymi w akcie w sprawie AI w odniesieniu do oznaczania i etykietowania treści generowanych przez AI.

Oznakowanie i etykietowanie treści generowanych przez sztuczną inteligencję

Obowiązki wynikające z art. 50 aktu w sprawie sztucznej inteligencji (obowiązki dostawców i podmiotów wdrażających generatywne systemy sztucznej inteligencji w zakresie przejrzystości) mają na celu zapewnienie przejrzystości treści generowanych lub zmanipulowanych przez sztuczną inteligencję, takich jak deepfake. Artykuł odnosi się do ryzyka oszustwa i manipulacji, wspierając integralność ekosystemu informacyjnego. Te obowiązki w zakresie przejrzystości uzupełnią inne przepisy, takie jak przepisy dotyczące systemów sztucznej inteligencji wysokiego ryzyka lub modeli sztucznej inteligencji ogólnego przeznaczenia.

Aby pomóc w wypełnianiu tych obowiązków w zakresie przejrzystości, Urząd ds. Sztucznej Inteligencji rozpoczął proces opracowywania kodeksu postępowania w zakresie przejrzystości treści generowanych przez sztuczną inteligencję. Kodeks zostanie opracowany przez niezależnych ekspertów wyznaczonych przez Urząd ds. Sztucznej Inteligencji w ramach pluralistycznego procesu. Kwalifikujące się zainteresowane strony wezmą udział w opracowywaniu kodeksu. Jeżeli zostanie zatwierdzony przez Komisję, ostateczny kodeks posłuży jako dobrowolne narzędzie dla dostawców i podmiotów wdrażających generatywne systemy sztucznej inteligencji w celu wykazania zgodności z ich odpowiednimi obowiązkami wynikającymi z art. 50 ust. 2 i 4 aktu w sprawie sztucznej inteligencji. Obowiązki te dotyczą oznaczania i wykrywania treści generowanych przez sztuczną inteligencję oraz oznaczania deepfake'ów i niektórych publikacji generowanych przez sztuczną inteligencję.

Zakres prac grup roboczych

Opracowanie kodeksu koncentruje się wokół dwóch grup roboczych, zgodnie ze strukturą obowiązków w zakresie przejrzystości treści generowanych przez sztuczną inteligencję, o których mowa w art. 50.

Grupa robocza 1: Dostawcy

Koncentruje się na obowiązkach, zobowiązując dostawców generatywnych systemów sztucznej inteligencji do zapewnienia:

  • Wyjścia systemów sztucznej inteligencji (audio, obraz, wideo, tekst) są oznaczone w formacie nadającym się do odczytu maszynowego i wykrywalne jako sztucznie wygenerowane lub zmanipulowane.
  • Zastosowane rozwiązania techniczne są skuteczne, interoperacyjne, solidne i niezawodne w stopniu, w jakim jest to technicznie wykonalne. Muszą one uwzględniać specyfikę i ograniczenia różnych rodzajów treści, koszty wdrożenia i ogólnie uznany stan wiedzy technicznej, co można odzwierciedlić w odpowiednich normach technicznych.

Grupa robocza 2: Podmioty wdrażające

Skupia się na obowiązkach, zobowiązując podmioty wdrażające generatywne systemy sztucznej inteligencji do ujawniania:

  • Treści, które są sztucznie generowane lub manipulowane, stanowiące głęboką falsyfikat (obraz, dźwięk lub wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub wydarzenia i fałszywie wydają się osobie autentyczne lub prawdziwe).
  • Publikacje tekstowe wygenerowane przez sztuczną inteligencję/zmanipulowane informujące opinię publiczną o sprawach leżących w interesie publicznym, chyba że publikacja została poddana procesowi przeglądu przez człowieka i podlega odpowiedzialności redakcyjnej.

Obie grupy rozważą również kwestie przekrojowe, w tym horyzontalne wymogi dotyczące informacji, które mają być przekazywane osobom fizycznym na podstawie art. 50 ust. 5, i będą dążyć do promowania współpracy między odpowiednimi podmiotami w całym łańcuchu wartości, aby osiągnąć cele aktu w sprawie sztucznej inteligencji dotyczące oznaczania i etykietowania treści generowanych przez AI.

Każda grupa robocza będzie kierowana przez niezależnych przewodniczących i wiceprzewodniczących, którzy mają zapewnić strategiczne przywództwo i wytyczne, zapewniając, aby dyskusje pozostały ukierunkowane i produktywne. Możesz pobrać pełną listę uczestników grup roboczych 1&2(PDF).

Proces redakcyjny

W opracowaniu kodeksu uczestniczą kwalifikujące się zainteresowane strony, które odpowiedziały na publiczne zaproszenie ogłoszone przez Urząd ds. Sztucznej Inteligencji. W ramach tej grupy znajdują się dostawcy konkretnych generatywnych systemów sztucznej inteligencji, twórcy technik znakowania i wykrywania, stowarzyszenia podmiotów stosujących generatywne systemy sztucznej inteligencji, organizacje społeczeństwa obywatelskiego, eksperci akademiccy oraz wyspecjalizowane organizacje posiadające wiedzę fachową w zakresie przejrzystości i bardzo duże platformy internetowe.

Urząd ds. Sztucznej Inteligencji, pełniąc rolę mediatora, zaprosił również obserwatorów międzynarodowych i europejskich do udziału w opracowywaniu kodeksu postępowania. Organizacje te nie spełniły kryteriów kwalifikowalności określonych w zaproszeniu do składania wniosków, ale nadal mogą wnieść cenną wiedzę fachową i przedstawić pisemne uwagi. Wszyscy uczestnicy i obserwatorzy zostaną zaproszeni do udziału w sesjach plenarnych, posiedzeniach grup roboczych i warsztatach tematycznych poświęconych omówieniu technicznych aspektów kodeksu.

W procesie redakcyjnym rozważone zostaną:

  • Informacje zwrotne z konsultacji z udziałem wielu zainteresowanych stron w sprawie wymogów przejrzystości w odniesieniu do niektórych systemów sztucznej inteligencji
  • Badania eksperckie zlecone przez Urząd ds. Sztucznej Inteligencji oraz wkład kwalifikujących się zainteresowanych stron uczestniczących w opracowywaniu kodeksu postępowania

Oczekuje się, że pełne ćwiczenie potrwa 7 miesięcy. Harmonogram ten zapewnia dostawcom i podmiotom wdrażającym wystarczającą ilość czasu na przygotowanie się do spełnienia wymogów, zanim przepisy wejdą w życie w sierpniu 2026 r. Obowiązki w zakresie przejrzystości określone w art. 50 aktu w sprawie sztucznej inteligencji uzupełnią inne przepisy, takie jak przepisy dotyczące systemów sztucznej inteligencji wysokiego ryzyka lub modeli sztucznej inteligencji ogólnego przeznaczenia.

Komisja przygotuje równolegle wytyczne w celu wyjaśnienia zakresu zobowiązań prawnych i zajęcia się aspektami nieobjętymi kodeksem.

Kalendarium

Posiedzenia grupy roboczej i warsztaty z udziałem uczestników, przewodniczących i wiceprzewodniczących odbędą się w okresie od listopada 2025 r. do maja 2026 r.

Poniższe daty mają charakter orientacyjny i mogą wymagać potwierdzenia (do potwierdzenia).

Podobne tematy

W szerszej perspektywie

Podejście UE do sztucznej inteligencji promuje doskonałość i zaufanie poprzez zwiększanie potencjału badawczego i przemysłowego przy jednoczesnym zapewnieniu bezpieczeństwa i praw podstawowych.