Akt w sprawie sztucznej inteligencji to pierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które odnoszą się do zagrożeń związanych ze sztuczną inteligencją i umożliwiają Europie odgrywanie wiodącej roli na świecie.
Akt w sprawiesztucznej inteligencji (rozporządzenie(UE) 2024/1689 ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji)nakłada na twórców i podmioty wdrażające sztuczną inteligencję jasne wymogi i obowiązki dotyczące konkretnych zastosowań sztucznej inteligencji. Jednocześnie rozporządzenie ma na celu zmniejszenie obciążeń administracyjnych i finansowych dla przedsiębiorstw, w szczególności małych i średnich przedsiębiorstw (MŚP).
Akt w sprawie sztucznej inteligencji jest częścią szerszego pakietu środków z zakresu polityki mających na celu wspieranie rozwoju godnej zaufania sztucznej inteligencji, który obejmuje równieżpakiet dotyczącyinnowacji w zakresie sztucznej inteligencji i skoordynowany plan w sprawie sztucznej inteligencji. Łącznie środki te gwarantują bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw w odniesieniu do sztucznej inteligencji. Wzmacniają one również absorpcję, inwestycje i innowacje w dziedzinie sztucznej inteligencji w całej UE.
Akt w sprawiesztucznej inteligencji to pierwsze kompleksowe ramy prawne dotyczące sztucznej inteligencji na świecie. Celem nowych przepisów jest wspieranie godnej zaufania sztucznej inteligencji w Europie i poza nią poprzez zapewnienie, aby systemy sztucznej inteligencji były zgodne z prawami podstawowymi, bezpieczeństwem i zasadami etycznymi, oraz poprzez przeciwdziałanie zagrożeniom związanym z bardzo silnymi i wpływowymi modelami sztucznej inteligencji.
Dlaczego potrzebujemy przepisów dotyczących sztucznej inteligencji?
Akt w sprawie sztucznej inteligencji gwarantuje, że Europejczycy mogą ufać temu, co sztuczna inteligencja ma do zaoferowania. Chociaż większość systemów sztucznej inteligencji nie stwarza żadnego ryzyka i może przyczynić się do rozwiązania wielu wyzwań społecznych, niektóre systemy sztucznej inteligencji stwarzają ryzyko, któremu musimy przeciwdziałać, aby uniknąć niepożądanych skutków.
Na przykład często nie można dowiedzieć się, dlaczego system sztucznej inteligencji podjął decyzję lub prognozę i podjął określone działanie. W związku z tym może być trudno ocenić, czy dana osoba znalazła się w niesprawiedliwie niekorzystnej sytuacji, na przykład w decyzji o zatrudnieniu lub we wniosku o program pożytku publicznego.
Chociaż obowiązujące przepisy zapewniają pewną ochronę, nie są one wystarczające, aby sprostać szczególnym wyzwaniom, jakie mogą wiązać się z systemami sztucznej inteligencji.
Nowe przepisy:
- przeciwdziałać zagrożeniom związanym konkretnie z zastosowaniami sztucznej inteligencji
- zakazać praktyk sztucznej inteligencji, które stwarzają niedopuszczalne ryzyko
- ustalenie listy wniosków wysokiego ryzyka
- ustanowienie jasnych wymogów dotyczących systemów sztucznej inteligencji do zastosowań wysokiego ryzyka
- określenie szczegółowych obowiązków podmiotów wdrażających i dostawców aplikacji AI wysokiego ryzyka
- wymagać oceny zgodności przed oddaniem danego systemu sztucznej inteligencji do użytku lub wprowadzeniem go do obrotu
- wprowadzenie egzekwowania przepisów po wprowadzeniu danego systemu sztucznej inteligencji do obrotu
- ustanowienie struktury zarządzania na szczeblu europejskim i krajowym
Podejście oparte na analizie ryzyka
Ramy regulacyjne określają cztery poziomy ryzyka dla systemów sztucznej inteligencji:
Wszystkie systemy sztucznej inteligencji uważane za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw ludzi są zakazane, od punktacji społecznej przez rządy po zabawki wykorzystujące pomoc głosową, która zachęca do niebezpiecznych zachowań.
Wysokie ryzyko
Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka obejmują technologię sztucznej inteligencji wykorzystywaną w:
- infrastruktura krytyczna (np. transport), która może zagrażać życiu i zdrowiu obywateli
- kształcenie lub szkolenie zawodowe, które może decydować o dostępie do edukacji i przebiegu kariery zawodowej danej osoby (np. punktacja z egzaminów)
- elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotem)
- zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacyjnych)
- podstawowe usługi prywatne i publiczne (np. ocena zdolności kredytowej pozbawiająca obywateli możliwości uzyskania pożyczki)
- egzekwowanie prawa, które może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów)
- zarządzanie migracją, azylem i kontrolą graniczną (np. automatyczne rozpatrywanie wniosków wizowych)
- administrowanie wymiarem sprawiedliwości i procesami demokratycznymi (np. rozwiązania w zakresie sztucznej inteligencji służące poszukiwaniu orzeczeń sądowych)
Systemy sztucznej inteligencji wysokiego ryzyka podlegają rygorystycznym obowiązkom, zanim będą mogły zostać wprowadzone do obrotu:
- odpowiednie systemy oceny i ograniczania ryzyka
- wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminujących wyników
- rejestrowanie działalności w celu zapewnienia identyfikowalności wyników
- szczegółową dokumentację zawierającą wszystkie informacje niezbędne organom do oceny zgodności systemu i jego celu;
- jasne i odpowiednie informacje dla podmiotu wdrażającego
- odpowiednie środki nadzoru ze strony człowieka w celu zminimalizowania ryzyka
- wysoki poziom solidności, bezpieczeństwa i dokładności
Wszystkie systemy zdalnej identyfikacji biometrycznej uznaje się za systemy wysokiego ryzyka i podlegają one rygorystycznym wymogom. Stosowanie zdalnej identyfikacji biometrycznej w przestrzeni publicznej do celów egzekwowania prawa jest co do zasady zabronione.
Wąskie wyjątki są ściśle określone i uregulowane, na przykład gdy jest to konieczne do poszukiwania zaginionego dziecka, zapobieżenia konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub do wykrycia, zlokalizowania, zidentyfikowania lub ścigania sprawcy lub podejrzanego o poważne przestępstwo.
Wykorzystywanie tych danych wymaga zezwolenia organu sądowego lub innego niezależnego organu oraz podlega odpowiednim ograniczeniom czasowym, zasięgowi geograficznemu i przeszukiwanym bazom danych.
Ograniczone ryzyko
Ograniczone ryzykowiąże się z ryzykiem związanym z brakiem przejrzystości wykorzystania sztucznej inteligencji. Akt w sprawie sztucznej inteligencji wprowadza szczególne obowiązki w zakresie przejrzystości w celu zapewnienia, aby ludzie byli w razie potrzeby informowani, co sprzyja zaufaniu. Na przykład podczas korzystania z systemów sztucznej inteligencji, takich jak chatboty, ludzie powinni być świadomi, że wchodzą w interakcję z maszyną, aby mogli podjąć świadomą decyzję o kontynuowaniu lub cofnięciu się. Dostawcy muszą również zapewnić identyfikowalność treści generowanych przez sztuczną inteligencję. Ponadto tekst wygenerowany przez sztuczną inteligencję publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym musi być oznaczony jako sztucznie wygenerowany. Dotyczy to również treści audio i wideo stanowiących deepfake'i.
Minimalne ryzyko lub brak ryzyka
Akt w sprawie sztucznej inteligencji umożliwia swobodne korzystanie ze sztucznej inteligencji o minimalnym ryzyku. Obejmuje to aplikacje takie jak gry wideo z obsługą sztucznej inteligencji lub filtry antyspamowe. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii.
Jak to wszystko działa w praktyce w przypadku dostawców systemów sztucznej inteligencji wysokiego ryzyka?
Po wprowadzeniu systemu sztucznej inteligencji do obrotu organy są odpowiedzialne za nadzór rynku, podmioty wdrażające zapewniają nadzór i monitorowanie przez człowieka, a dostawcy posiadają system monitorowania po wprowadzeniu do obrotu. Dostawcy i podmioty wdrażające będą również zgłaszać poważne incydenty i nieprawidłowe funkcjonowanie.
Rozwiązanie do godnego zaufania wykorzystania dużych modeli sztucznej inteligencji
Coraz więcej modeli sztucznej inteligencji ogólnego przeznaczenia staje się elementami systemów sztucznej inteligencji. Modele te mogą wykonywać i dostosowywać niezliczone różne zadania.
Chociaż modele sztucznej inteligencji ogólnego przeznaczenia mogą umożliwiać lepsze i wydajniejsze rozwiązania w zakresie sztucznej inteligencji, trudno jest nadzorować wszystkie możliwości.
W akcie w sprawie sztucznej inteligencji wprowadzono obowiązki w zakresie przejrzystości w odniesieniu do wszystkich modeli sztucznej inteligencji ogólnego przeznaczenia, aby umożliwić lepsze zrozumienie tych modeli, oraz dodatkowe obowiązki w zakresie zarządzania ryzykiem w odniesieniu do modeli bardzo zdolnych i wywierających wpływ. Te dodatkowe obowiązki obejmują samoocenę i ograniczanie ryzyka systemowego, zgłaszanie poważnych incydentów, przeprowadzanie ocen testów i modeli, a także wymogi w zakresie cyberbezpieczeństwa.
Prawodawstwo nieulegające dezaktualizacji
Ponieważ sztuczna inteligencja jest szybko rozwijającą się technologią, w rozporządzeniu przyjęto podejście przyszłościowe, umożliwiające dostosowanie przepisów do zmian technologicznych. Zastosowania sztucznej inteligencji powinny pozostać godne zaufania nawet po wprowadzeniu ich do obrotu. Wymaga to ciągłego zarządzania jakością i ryzykiem przez dostawców.
Egzekwowanie i wdrażanie
Europejski Urząd ds. Sztucznej Inteligencji, ustanowiony w lutym 2024 r. w ramach Komisji, nadzoruje wraz z państwami członkowskimi egzekwowanie i wdrażanie aktu w sprawie sztucznej inteligencji. Jego celem jest stworzenie środowiska, w którym technologie AI szanują ludzką godność, prawa i zaufanie. Wspiera również współpracę, innowacje i badania w dziedzinie sztucznej inteligencji między różnymi zainteresowanymi stronami. Ponadto angażuje się w międzynarodowy dialog i współpracę w kwestiach związanych ze sztuczną inteligencją, uznając potrzebę globalnego dostosowania zarządzania sztuczną inteligencją. Dzięki tym wysiłkom Europejski Urząd ds. Sztucznej Inteligencji dąży do tego, by Europa stała się liderem w zakresie etycznego i zrównoważonego rozwoju technologii sztucznej inteligencji.
Kolejne kroki
Ustawao sztucznej inteligencji weszła w życie 1 sierpnia i będzie w pełni stosowana 2 lata później, z pewnymi wyjątkami: zakazy wejdą w życie po sześciu miesiącach, zasady zarządzania i obowiązki dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia zaczną obowiązywać po 12 miesiącach, a zasady dotyczące systemów sztucznej inteligencji – wbudowanych w produkty regulowane – zaczną obowiązywać po 36 miesiącach. Aby ułatwić przejście na nowe ramy regulacyjne, Komisja uruchomiłapakt na rzecz sztucznej inteligencji,dobrowolną inicjatywę mającą na celu wspieranie przyszłego wdrażania i zachęcającą twórców sztucznej inteligencji z Europy i spoza niej do wywiązania się z kluczowych obowiązków określonych w akcie w sprawie sztucznej inteligencji z wyprzedzeniem.
Najnowsze wiadomości
Sprawozdanie/badanie
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
- 05-04-2024AI dla dobra publicznego: Sojusz UE-USA w dziedzinie AI na rzecz dobra publicznego
- 30-11-2023Potencjał Europy w dziedzinie obliczeń ewidencyjnych: Wspieranie innowacji przemysłowych poprzez projekty pilotażowe na dużą skalę
Zestawienie informacji / infografika
Podobne tematy
W szerszej perspektywie
Podejście UE do sztucznej inteligencji koncentruje się na doskonałości i zaufaniu, a jego celem jest pobudzenie badań naukowych i potencjału przemysłowego przy jednoczesnym zapewnieniu bezpieczeństwa i praw podstawowych.
Szczegółowe wyjaśnienia
Pakt na rzecz sztucznej inteligencji zachęca organizacje i wspiera je w planowaniu wdrażania środków przewidzianych w akcie w sprawie sztucznej inteligencji.
Zobacz też
Międzynarodowa inicjatywa na rzecz sztucznej inteligencji skoncentrowana na człowieku pomoże promować wizję UE dotyczącą zrównoważonej i godnej zaufania sztucznej inteligencji.
Skoordynowany plan w sprawie sztucznej inteligencji ma na celu przyspieszenie inwestycji w sztuczną inteligencję, wdrożenie strategii i programów w zakresie sztucznej inteligencji oraz dostosowanie polityki w zakresie sztucznej inteligencji, aby zapobiec fragmentacji w Europie.
Komisja Europejska powołała grupę ekspertów, którzy będą doradzać w zakresie strategii dotyczącej sztucznej inteligencji.
Europejski sojusz na rzecz sztucznej inteligencji jest inicjatywą Komisji Europejskiej mającą na celu ustanowienie otwartego dialogu politycznego na temat sztucznej inteligencji. Od momentu uruchomienia w 2018 r. Sojusz ds. AI zaangażował około 6000 zainteresowanych stron poprzez...