Ogólne FAQ
AI obiecuje ogromne korzyści dla naszej gospodarki i społeczeństwa. Modele sztucznej inteligencji ogólnego przeznaczenia odgrywają
w tym względzie ważną rolę, ponieważ mogą być wykorzystywane do różnych zadań, a zatem stanowią podstawę szeregu systemów sztucznej inteligencji
niższego szczebla wykorzystywanych w Europie i na świecie.
Akt w sprawie sztucznej inteligencji ma na celu zapewnienie, aby modele sztucznej inteligencji ogólnego przeznaczenia były bezpieczne i godne zaufania.
Aby osiągnąć ten cel, ważne jest, aby dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia dobrze rozumieli swoje modele w całym łańcuchu wartości sztucznej inteligencji, zarówno w celu umożliwienia integracji takich modeli z systemami sztucznej inteligencji niższego szczebla, jak i wypełnienia swoich obowiązków wynikających z aktu w sprawie sztucznej inteligencji. Jak wyjaśniono bardziej szczegółowo poniżej, dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia muszą sporządzić i dostarczyć dokumentację techniczną swoich modeli Urzędowi ds. Sztucznej Inteligencji i dostawcom niższego szczebla, wprowadzić politykę w zakresie praw autorskich oraz opublikować podsumowanie treści szkoleniowych. Ponadto dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia stwarzających ryzyko systemowe, co może mieć miejsce albo dlatego, że są bardzo zdolni, albo dlatego, że mają znaczący wpływ na rynek wewnętrzny z innych powodów, muszą powiadomić Komisję, ocenić i ograniczyć ryzyko systemowe, przeprowadzić oceny modeli, zgłosić poważne incydenty i zapewnić odpowiednie cyberbezpieczeństwo swoich modeli.
W ten sposób akt w sprawie sztucznej inteligencji przyczynia się do bezpiecznych i godnych zaufania innowacji w Europie.
W akcie w sprawie sztucznej inteligencji zdefiniowano model sztucznej inteligencji ogólnego przeznaczenia jako „model sztucznej inteligencji, w tym w przypadku gdy taki model sztucznej inteligencji jest trenowany z wykorzystaniem dużej ilości danych z wykorzystaniem samonadzoru na dużą skalę, który charakteryzuje się znaczną ogólnością i jest zdolny do kompetentnego wykonywania szerokiego zakresu różnych zadań niezależnie od sposobu wprowadzania modelu do obrotu oraz który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla” (art. 3 pkt 63).
W motywach aktu w sprawie sztucznej inteligencji doprecyzowano, które modele należy uznać za charakteryzujące się znaczną ogólnością i zdolne do wykonywania szerokiego zakresu odrębnych zadań.
Zgodnie z motywem 98 „ogólność modelu może być również określona między innymi przez szereg parametrów, modele o co najmniej miliardzie parametrów i przeszkolone z wykorzystaniem dużej ilości danych z wykorzystaniem samokontroli na dużą skalę należy uznać za wykazujące znaczną ogólność i kompetentnie wykonujące szeroki zakres odrębnych zadań”.
W motywie 99 dodano, że „duże generatywne modele sztucznej inteligencji są typowym przykładem modelu sztucznej inteligencji ogólnego przeznaczenia, ponieważ umożliwiają elastyczne generowanie treści, takich jak tekst, dźwięk, obrazy lub wideo, które mogą z łatwością pomieścić szeroki zakres charakterystycznych zadań”.
Należy pamiętać, że znaczna ogólność i zdolność do kompetentnego wykonywania szerokiego zakresu charakterystycznych zadań może zostać osiągnięta przez modele w ramach jednej modalności, takiej jak tekst, dźwięk, obrazy lub wideo, jeśli modalność jest wystarczająco elastyczna. Można to również osiągnąć za pomocą modeli, które zostały opracowane, dostrojone lub w inny sposób zmodyfikowane, aby były szczególnie dobre w konkretnym zadaniu.
Urząd ds. Sztucznej Inteligencji zamierza przedstawić dalsze wyjaśnienia dotyczące tego, co należy uznać za model sztucznej inteligencji ogólnego przeznaczenia, opierając się na spostrzeżeniach Wspólnego Centrum Badawczego Komisji, które obecnie pracuje nad projektem badawczym dotyczącym tej i innych kwestii.
Ryzyko systemowe to ryzyko szkód na dużą skalę wynikające z najbardziej zaawansowanych (tj. najnowocześniejszych) modeli w danym momencie lub z innych modeli, które mają równoważny wpływ (zob. art. 3 pkt 65). Takie ryzyko może przejawiać się na przykład poprzez obniżenie barier dla rozwoju broni chemicznej lub biologicznej, niezamierzone kwestie kontroli nad autonomicznymi modelami sztucznej inteligencji ogólnego przeznaczenia lub szkodliwą dyskryminację lub dezinformację na dużą skalę (motyw 110). Najbardziej zaawansowane modele w danym momencie mogą stwarzać ryzyko systemowe, w tym ryzyko nowatorskie, ponieważ wywierają nacisk na aktualny stan wiedzy. Jednocześnie niektóre modele poniżej progu odzwierciedlającego aktualny stan wiedzy mogą również stwarzać ryzyko systemowe, na przykład poprzez zasięg, skalowalność lub rusztowania.
W związku z tym w akcie w sprawie sztucznej inteligencji model sztucznej inteligencji ogólnego przeznaczenia klasyfikuje się jako model sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym, jeżeli jest to jeden z najbardziej zaawansowanych modeli w danym momencie lub jeżeli ma on równoważny wpływ (art. 51 ust. 1). Które modele uznaje się za modele sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym mogą z czasem ulec zmianie, odzwierciedlając ewoluujący stan wiedzy i potencjalną adaptację społeczną do coraz bardziej zaawansowanych modeli. Obecnie modele sztucznej inteligencji ogólnego przeznaczenia obarczone ryzykiem systemowym są opracowywane przez kilka przedsiębiorstw, choć może się to również zmieniać w czasie.
Aby uwzględnić najbardziej zaawansowane modele, w akcie w sprawie sztucznej inteligencji początkowo ustanowiono próg 10^25 operacji zmiennoprzecinkowych (FLOP) stosowanych do szkolenia modelu (art. 51 ust. 1 lit. a) i art. 51 ust. 2). Obecnie szacuje się, że wyszkolenie modelu, który osiąga ten próg, kosztuje dziesiątki milionów euro (EpochAI, 2024 r.). Urząd ds. Sztucznej Inteligencji będzie stale monitorował rozwój technologiczny i przemysłowy, a Komisja może aktualizować próg, aby zapewnić dalsze wyodrębnianie najbardziej zaawansowanych modeli w miarę rozwoju stanu wiedzy w drodze aktu delegowanego (art. 51 ust. 3). Na przykład można dostosować wartość samego progu lub wprowadzić dodatkowe progi.
Aby uwzględnić modele o skutkach równoważnych z najbardziej zaawansowanymi modelami, w akcie w sprawie sztucznej inteligencji uprawniono Komisję do wyznaczenia dodatkowych modeli jako stwarzających ryzyko systemowe w oparciu o kryteria takie jak liczba użytkowników, skalowalność lub dostęp do narzędzi (art. 51 ust. 1 lit. b), załącznik XIII).
Urząd ds. Sztucznej Inteligencji zamierza przedstawić dalsze wyjaśnienia dotyczące tego, w jaki sposób modele sztucznej inteligencji ogólnego przeznaczenia będą klasyfikowane jako modele sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym, w oparciu o spostrzeżenia Wspólnego Centrum Badawczego Komisji, które obecnie pracuje nad projektem badawczym dotyczącym tej i innych kwestii.
Przepisy aktu w sprawie sztucznej inteligencji dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia mają zastosowanie do dostawców wprowadzających takie modele do obrotu w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę lub znajdują się w Unii, czy w państwie trzecim (art. 2 ust. 1 lit. a)).
Dostawca modelu sztucznej inteligencji ogólnego przeznaczenia oznacza osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, który opracowuje model sztucznej inteligencji ogólnego przeznaczenia lub który opracował taki model i wprowadza go do obrotu, odpłatnie, nieodpłatnie lub nieodpłatnie (art. 3 ust. 3).
Wprowadzanie modelu do obrotu oznacza najpierw udostępnienie go na rynku unijnym (art. 3 ust. 9), tj. dostarczenie go do celów dystrybucji lub używania na rynku unijnym w ramach działalności handlowej, odpłatnie lub nieodpłatnie (art. 3 ust. 10). Należy zauważyć, że model sztucznej inteligencji ogólnego przeznaczenia uznaje się również za wprowadzony do obrotu, jeżeli dostawca tego modelu integruje ten model z własnym systemem sztucznej inteligencji, który jest udostępniany na rynku lub oddawany do użytku, chyba że model ten jest a) wykorzystywany do czysto wewnętrznych procesów, które nie są niezbędne do dostarczania produktu lub usługi osobom trzecim, b) nie ma to wpływu na prawa osób fizycznych oraz c) model ten nie jest modelem sztucznej inteligencji ogólnego przeznaczenia obarczonym ryzykiem systemowym (motyw 97).
Obowiązki dostawców modeli sztucznej inteligencji ogólnego przeznaczenia mają zastosowanie od dnia 2 sierpnia 2025 r. (art. 113 lit. b)), przy czym przepisy szczególne dotyczą modeli sztucznej inteligencji ogólnego przeznaczenia wprowadzonych do obrotu przed tą datą (art. 111 ust. 3).
Na podstawie art. 53 aktu w sprawie sztucznej inteligencji dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia muszą dokumentować informacje techniczne na temat modelu w celu przekazania tych informacji Urzędowi ds. Sztucznej Inteligencji i właściwym organom krajowym na ich wniosek (art. 53 ust. 1 lit. a)) oraz udostępnienia ich dostawcom niższego szczebla (art. 53 ust. 1 lit. b)). Muszą one również wdrożyć politykę zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych (art. 53 ust. 1 lit. c)) oraz sporządzić i podać do wiadomości publicznej wystarczająco szczegółowe streszczenie treści wykorzystanych do szkolenia modelu (art. 53 ust. 1 lit. d)).
Ogólny kodeks postępowania w zakresie sztucznej inteligencji powinien zawierać dalsze szczegółowe informacje na temat tych obowiązków w sekcjach dotyczących przejrzystości i praw autorskich (pod przewodnictwem grupy roboczej 1).
Na podstawie art. 55 aktu w sprawie sztucznej inteligencji dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym mają dodatkowe obowiązki. Muszą one oceniać i ograniczać ryzyko systemowe, w szczególności poprzez przeprowadzanie ocen modeli, śledzenie, dokumentowanie i zgłaszanie poważnych incydentów oraz zapewnianie odpowiedniej ochrony cyberbezpieczeństwa modelu i jego infrastruktury fizycznej.
Ogólny kodeks postępowania w zakresie sztucznej inteligencji powinien zawierać dalsze szczegółowe informacje na temat tych obowiązków w sekcjach dotyczących oceny ryzyka systemowego, technicznego ograniczania ryzyka i ograniczania ryzyka związanego z zarządzaniem (prowadzonych odpowiednio przez grupy robocze 2, 3 i 4).
Obowiązki sporządzania i przekazywania dokumentacji Urzędowi ds. Sztucznej Inteligencji, właściwym organom krajowym i dostawcom niższego szczebla (art. 53 ust. 1 lit. a) i b)) nie mają zastosowania, jeżeli model jest udostępniany na podstawie bezpłatnej i otwartej licencji, a jego parametry, w tym wagi, informacje na temat architektury modelu oraz informacje na temat korzystania z modelu, są podawane do wiadomości publicznej. Wyłączenie to nie ma zastosowania do modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym (art. 53 ust. 2). W motywach 102 i 103 doprecyzowano, co stanowi bezpłatną i otwartą licencję, a Urząd ds. Sztucznej Inteligencji zamierza udzielić dalszych wyjaśnień w kwestiach dotyczących otwartych modeli sztucznej inteligencji ogólnego przeznaczenia.
Dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym muszą natomiast wypełniać swoje obowiązki wynikające z aktu w sprawie sztucznej inteligencji niezależnie od tego, czy ich modele są oparte na otwartym oprogramowaniu. Po wydaniu modelu otwartego środki niezbędne do zapewnienia zgodności z obowiązkami określonymi w art. 53 i 55 mogą być trudniejsze do wdrożenia (motyw 112). W związku z tym dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym mogą być zmuszeni do oceny i ograniczenia ryzyka systemowego przed udostępnieniem swoich modeli jako otwartego oprogramowania.
Kodeks postępowania w zakresie sztucznej inteligencji do celów ogólnych powinien zawierać dalsze szczegółowe informacje na temat tego, co obowiązki określone w art. 53 i 55 oznaczają dla różnych sposobów udostępniania modeli sztucznej inteligencji ogólnego przeznaczenia, w tym otwartego pozyskiwania.
Ważną, ale trudną kwestią leżącą u podstaw tego procesu jest znalezienie równowagi między dążeniem do korzyści a ograniczaniem ryzyka wynikającego z otwartego pozyskiwania zaawansowanych modeli sztucznej inteligencji ogólnego przeznaczenia: otwarte, zaawansowane modele sztucznej inteligencji ogólnego przeznaczenia mogą rzeczywiście przynieść znaczne korzyści społeczne, w tym poprzez wspieranie badań nad bezpieczeństwem sztucznej inteligencji; jednocześnie, gdy takie modele są oparte na otwartym kodzie źródłowym, łatwiej jest obejść lub usunąć ograniczenia ryzyka.
Art. 2 ust. 8 stanowi, że akt w sprawie sztucznej inteligencji „nie ma zastosowania do żadnej działalności badawczej, testowej lub rozwojowej dotyczącej systemów sztucznej inteligencji lub modeli sztucznej inteligencji przed ich wprowadzeniem do obrotu lub oddaniem do użytku”.
Jednocześnie wiele obowiązków spoczywających na dostawcach modeli sztucznej inteligencji ogólnego przeznaczenia (z ryzykiem systemowym i bez niego) w sposób wyraźny lub dorozumiany odnosi się do fazy badawczo-rozwojowej modeli przeznaczonych do wprowadzenia do obrotu, ale przed tym wprowadzeniem. Dotyczy to na przykład obowiązków dostawców w zakresie powiadamiania Komisji, że ich model sztucznej inteligencji ogólnego przeznaczenia spełnia lub będzie spełniał próg obliczeń szkoleniowych (art. 51 i 52), dokumentowania informacji na temat szkoleń i testów (art. 53) oraz oceny i ograniczania ryzyka systemowego (art. 55). W szczególności w art. 55 ust. 1 lit. b) wyraźnie określono, że „dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym oceniają i ograniczają ewentualne ryzyko systemowe na poziomie Unii, w tym ich źródła, które może wynikać z opracowania (...) modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym”.
W każdym razie Urząd ds. Sztucznej Inteligencji oczekuje, że rozmowy z dostawcami modeli sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym rozpoczną się na wczesnym etapie opracowywania. Jest to zgodne z obowiązkiem dostawców modeli sztucznej inteligencji ogólnego przeznaczenia, którzy spełniają próg obliczeń szkoleniowych określony w art. 51 ust. 2, polegającym na „niezwłocznym powiadomieniu Komisji, a w każdym razie w ciągu dwóch tygodni od spełnienia tego wymogu lub od uzyskania informacji, że zostanie on spełniony” (art. 52 ust. 1). Szkolenie modeli sztucznej inteligencji ogólnego przeznaczenia wymaga znacznego planowania, co obejmuje wcześniejszą alokację zasobów obliczeniowych, a zatem dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia są w stanie wiedzieć, czy ich model osiągnie próg obliczeń szkoleniowych przed zakończeniem szkolenia (motyw 112).
Urząd ds. Sztucznej Inteligencji zamierza przedstawić dalsze wyjaśnienia w tej kwestii.
Modele sztucznej inteligencji ogólnego przeznaczenia mogą być dalej modyfikowane lub dostosowywane do nowych modeli (motyw 97). W związku z tym podmioty niższego szczebla, które dopracowują lub w inny sposób modyfikują istniejący model sztucznej inteligencji ogólnego przeznaczenia, mogą stać się dostawcami nowych modeli. Szczególne okoliczności, w których podmiot działający na niższym szczeblu łańcucha dostaw staje się dostawcą nowego modelu, są trudnym pytaniem o potencjalnie dużych skutkach gospodarczych, ponieważ wiele organizacji i osób fizycznych dostosowuje lub w inny sposób modyfikuje modele sztucznej inteligencji ogólnego przeznaczenia opracowane przez inny podmiot. Urząd ds. Sztucznej Inteligencji zamierza przedstawić dalsze wyjaśnienia w tej kwestii.
W przypadku modyfikacji lub dopracowania istniejącego modelu sztucznej inteligencji ogólnego przeznaczenia obowiązki dostawców modeli sztucznej inteligencji ogólnego przeznaczenia określone w art. 53 powinny ograniczać się do modyfikacji lub dopracowania, na przykład poprzez uzupełnienie już istniejącej dokumentacji technicznej o informacje na temat modyfikacji (motyw 109). Obowiązki dostawców modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym określone w art. 55 mogą być ograniczone w podobny sposób. Ogólny kodeks postępowania w zakresie sztucznej inteligencji mógłby odzwierciedlać różnice między dostawcami, którzy początkowo opracowują modele sztucznej inteligencji ogólnego przeznaczenia, a dostawcami, którzy dostosowują lub w inny sposób modyfikują istniejący model.
Należy zauważyć, że niezależnie od tego, czy podmiot niższego szczebla, który włącza model sztucznej inteligencji ogólnego przeznaczenia do systemu sztucznej inteligencji, uznaje się za dostawcę modelu sztucznej inteligencji ogólnego przeznaczenia, podmiot ten musi spełniać odpowiednie wymogi i obowiązki określone w akcie w sprawie sztucznej inteligencji w odniesieniu do systemów sztucznej inteligencji.
Na podstawie art. 56 aktu w sprawie sztucznej inteligencji w kodeksie postępowania w zakresie sztucznej inteligencji do celów ogólnych należy szczegółowo określić sposób, w jaki dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia i modeli sztucznej inteligencji ogólnego przeznaczenia wiążących się z ryzykiem systemowym mogą wypełniać swoje obowiązki wynikające z aktu w sprawie sztucznej inteligencji. Urząd ds. Sztucznej Inteligencji ułatwia opracowanie niniejszego kodeksu postępowania, w którego skład wchodzą cztery grupy robocze, którym przewodniczą niezależni eksperci i w których uczestniczy prawie 1000 zainteresowanych stron, przedstawiciele państw członkowskich UE oraz obserwatorzy europejscy i międzynarodowi.
Dokładniej rzecz ujmując, kodeks postępowania powinien określać co najmniej sposób, w jaki dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia mogą wypełniać obowiązki określone w art. 53 i 55. Oznacza to, że można oczekiwać, iż kodeks postępowania będzie składał się z dwóch części: jeden, który ma zastosowanie do dostawców wszystkich modeli sztucznej inteligencji ogólnego przeznaczenia (art. 53), i jeden, który ma zastosowanie wyłącznie do dostawców modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym (art. 55). Innym obowiązkiem, który może być objęty kodeksem praktyk, jest obowiązek powiadamiania Komisji w odniesieniu do dostawców modeli sztucznej inteligencji ogólnego przeznaczenia, którzy spełniają lub mają spełniać warunki wymienione w art. 51, aby zostać sklasyfikowani jako model sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym (art. 52 ust. 1).
Kodeks postępowania nie powinien dotyczyć między innymi następujących kwestii: zdefiniowanie kluczowych pojęć i definicji z aktu w sprawie sztucznej inteligencji (takich jak „model sztucznej inteligencji ogólnego przeznaczenia”), aktualizacja kryteriów lub progów klasyfikacji modelu sztucznej inteligencji ogólnego przeznaczenia jako modelu sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym (art. 51), określenie, w jaki sposób Urząd ds. Sztucznej Inteligencji będzie egzekwował obowiązki dostawców modeli sztucznej inteligencji ogólnego przeznaczenia (rozdział IX sekcja 5) oraz kwestie dotyczące grzywien, sankcji i odpowiedzialności.
Kwestie te można natomiast rozwiązać za pomocą innych środków (decyzje, akty delegowane, akty wykonawcze, dalsze komunikaty Urzędu ds. Sztucznej Inteligencji itp.).
Kodeks postępowania może jednak obejmować zobowiązania dostawców modeli sztucznej inteligencji ogólnego przeznaczenia do dokumentowania i zgłaszania dodatkowych informacji, a także do angażowania Urzędu ds. Sztucznej Inteligencji i osób trzecich przez cały cykl życia modelu, o ile zostanie to uznane za niezbędne dla dostawców do skutecznego wypełniania ich obowiązków wynikających z aktu w sprawie sztucznej inteligencji.
W akcie w sprawie sztucznej inteligencji dokonano rozróżnienia między systemami sztucznej inteligencji a modelami sztucznej inteligencji, nakładając wymogi dotyczące niektórych systemów sztucznej inteligencji (rozdziały II–IV) oraz obowiązki na dostawców modeli sztucznej inteligencji ogólnego przeznaczenia (rozdział V). Chociaż przepisy aktu w sprawie sztucznej inteligencji dotyczące systemów sztucznej inteligencji zależą od kontekstu korzystania z systemu, przepisy aktu w sprawie sztucznej inteligencji dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia mają zastosowanie do samego modelu, niezależnie od tego, jakie jest lub będzie jego ostateczne zastosowanie. Kodeks postępowania powinien odnosić się wyłącznie do obowiązków określonych w akcie w sprawie sztucznej inteligencji w odniesieniu do dostawców modeli sztucznej inteligencji ogólnego przeznaczenia.
Istnieją jednak interakcje między tymi dwoma zbiorami przepisów, ponieważ modele sztucznej inteligencji ogólnego przeznaczenia są zazwyczaj zintegrowane z systemami sztucznej inteligencji i stanowią ich część. Jeżeli dostawca modelu sztucznej inteligencji ogólnego przeznaczenia włącza model sztucznej inteligencji ogólnego przeznaczenia do systemu sztucznej inteligencji, dostawca ten musi wywiązać się z obowiązków spoczywających na dostawcach modeli sztucznej inteligencji ogólnego przeznaczenia, a jeżeli system sztucznej inteligencji wchodzi w zakres aktu w sprawie sztucznej inteligencji, musi spełnić wymogi dotyczące systemów sztucznej inteligencji. Jeżeli dostawca niższego szczebla integruje model sztucznej inteligencji ogólnego przeznaczenia z systemem sztucznej inteligencji, dostawca modelu sztucznej inteligencji ogólnego przeznaczenia musi współpracować z dostawcą niższego szczebla systemu sztucznej inteligencji w celu zapewnienia, aby ten ostatni mógł wywiązać się ze swoich obowiązków wynikających z aktu w sprawie sztucznej inteligencji, jeżeli system sztucznej inteligencji wchodzi w zakres aktu w sprawie sztucznej inteligencji (na przykład poprzez przekazanie określonych informacji dostawcy niższego szczebla).
Biorąc pod uwagę te interakcje między modelami i systemami oraz między obowiązkami i wymogami dla każdego z nich, ważnym pytaniem leżącym u podstaw kodeksu postępowania jest to, które środki są odpowiednie na poziomie modelu, a które należy podjąć na poziomie systemu.
W kodeksie postępowania należy określić jego cele, środki i, w stosownych przypadkach, kluczowe wskaźniki skuteczności działania służące do pomiaru realizacji jego celów. Środki i kluczowe wskaźniki wyników związane z obowiązkami mającymi zastosowanie do dostawców wszystkich modeli sztucznej inteligencji ogólnego przeznaczenia powinny należycie uwzględniać wielkość dostawcy i umożliwiać uproszczone sposoby przestrzegania przepisów przez MŚP, w tym przedsiębiorstwa typu start-up, które nie powinny stanowić nadmiernych kosztów i nie powinny zniechęcać do korzystania z takich modeli (motyw 109). Ponadto kluczowe wskaźniki wyników dotyczące obowiązków mających zastosowanie do dostawców modeli sztucznej inteligencji ogólnego przeznaczenia obarczonych ryzykiem systemowym powinny odzwierciedlać różnice w wielkości i zdolności różnych dostawców (art. 56 ust. 5), zapewniając jednocześnie ich proporcjonalność do ryzyka (art. 56 ust. 2 lit. d)).
Oczekuje się, że po opublikowaniu pierwszego projektu kodeksu postępowania w nadchodzących miesiącach odbędą się jeszcze trzy rundy redakcyjne. Trzynastu przewodniczących i wiceprzewodniczących, wywodzących się z różnych środowisk w dziedzinie informatyki, zarządzania sztuczną inteligencją i prawa, jest odpowiedzialnych za syntezę wniosków z konsultacji z udziałem wielu zainteresowanych stron i dyskusji z sesją plenarną kodeksu postępowania z udziałem około 1000 zainteresowanych stron. Ten iteracyjny proces doprowadzi do opracowania ostatecznego kodeksu postępowania, który powinien odzwierciedlać różne wnioski, zapewniając jednocześnie przekonujące wdrożenie ram prawnych.
Jeżeli kodeks postępowania zostanie zatwierdzony w drodze aktu wykonawczego, zyska on ogólną ważność, co oznacza, że przestrzeganie kodeksu postępowania stanie się sposobem wykazania zgodności z aktem w sprawie sztucznej inteligencji. Zgodność z aktem w sprawie sztucznej inteligencji można jednak wykazać również w inny sposób.
Na podstawie aktu w sprawie sztucznej inteligencji dodatkowe skutki prawne kodeksu postępowania polegają na tym, że Urząd ds. Sztucznej Inteligencji może egzekwować przestrzeganie kodeksu postępowania (art. 89 ust. 1) i powinien uwzględniać zobowiązania podjęte w kodeksie postępowania przy ustalaniu wysokości grzywien (art. 101 ust. 1).
Chociaż pierwszy projekt kodeksu postępowania nie zawiera jeszcze szczegółowych informacji na temat jego przeglądu i aktualizacji, można oczekiwać, że kolejne wersje projektu oraz wszelkie akty wykonawcze przyjęte w celu zatwierdzenia ostatecznego kodeksu postępowania będą zawierały te informacje.
Urząd ds. Sztucznej Inteligencji będzie m.in. egzekwował obowiązki dostawców modeli sztucznej inteligencji ogólnego przeznaczenia (art. 88), a także wspierał organy zarządzające w państwach członkowskich w egzekwowaniu wymogów dotyczących systemów sztucznej inteligencji (art. 75). Egzekwowanie przepisów przez Urząd ds. Sztucznej Inteligencji opiera się na uprawnieniach przyznanych mu w akcie w sprawie sztucznej inteligencji, a mianowicie uprawnieniach do zwracania się o informacje (art. 91), przeprowadzania ocen modeli sztucznej inteligencji ogólnego przeznaczenia (art. 92), zwracania się do dostawców o środki, w tym o wdrożenie środków ograniczających ryzyko i wycofanie modelu z rynku (art. 93), oraz do nakładania grzywien w wysokości do 3 % globalnego rocznego obrotu lub 15 mln EUR, w zależności od tego, która z tych kwot jest wyższa (art. 101).
Related content
W pierwszym kodeksie postępowania w zakresie sztucznej inteligencji o ogólnym przeznaczeniu zostaną szczegółowo określone przepisy aktu w sprawie sztucznej inteligencji dotyczące dostawców modeli sztucznej inteligencji ogólnego przeznaczenia i modeli sztucznej inteligencji ogólnego przeznaczenia...