Skip to main content
Kształtowanie cyfrowej przyszłości Europy

Akt w sprawie sztucznej inteligencji

Akt w sprawie sztucznej inteligencji to pierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które odnoszą się do zagrożeń związanych ze sztuczną inteligencją i umożliwiają Europie odgrywanie wiodącej roli na świecie.

    Mężczyzna i kobieta pracujący na ekranie high-tech

© gorodenkoff - iStock Getty Images Plus

Akt w sprawiesztucznej inteligencji ma na celu zapewnienie twórcom i podmiotom wdrażającym sztuczną inteligencję jasnych wymogów i obowiązków dotyczących konkretnych zastosowań sztucznej inteligencji. Jednocześnie rozporządzenie ma na celu zmniejszenie obciążeń administracyjnych i finansowych dla przedsiębiorstw, w szczególności małych i średnich przedsiębiorstw (MŚP).

Akt w sprawie sztucznej inteligencji jest częścią szerszego pakietu środków z zakresu polityki mających na celu wspieranie rozwoju godnej zaufania sztucznej inteligencji, który obejmuje równieżpakiet dotyczącyinnowacji w zakresie sztucznej inteligencji i skoordynowany plan w sprawie sztucznej inteligencji. Łącznie środki te zagwarantują bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw w odniesieniu do sztucznej inteligencji. Przyczynią się one również do zwiększenia absorpcji sztucznej inteligencji, inwestycji i innowacji w tej dziedzinie w całej UE.

Akt w sprawiesztucznej inteligencji to pierwsze kompleksowe ramy prawne dotyczące sztucznej inteligencji na świecie. Celem nowych przepisów jest wspieranie godnej zaufania sztucznej inteligencji w Europie i poza nią poprzez zapewnienie, aby systemy sztucznej inteligencji były zgodne z prawami podstawowymi, bezpieczeństwem i zasadami etycznymi, oraz poprzez przeciwdziałanie zagrożeniom związanym z bardzo silnymi i wpływowymi modelami sztucznej inteligencji.

Dlaczego potrzebujemy przepisów dotyczących sztucznej inteligencji?

Akt w sprawie sztucznej inteligencji gwarantuje, że Europejczycy mogą ufać temu, co sztuczna inteligencja ma do zaoferowania. Chociaż większość systemów sztucznej inteligencji nie stwarza żadnego ryzyka i może przyczynić się do rozwiązania wielu wyzwań społecznych, niektóre systemy sztucznej inteligencji stwarzają ryzyko, któremu musimy przeciwdziałać, aby uniknąć niepożądanych skutków.

Na przykład często nie można dowiedzieć się, dlaczego system sztucznej inteligencji podjął decyzję lub prognozę i podjął określone działanie. W związku z tym ocena, czy dana osoba znalazła się w niesprawiedliwie niekorzystnej sytuacji, na przykład w decyzji o zatrudnieniu lub we wniosku o program pożytku publicznego, może okazać się trudna.

Chociaż obowiązujące przepisy zapewniają pewną ochronę, nie są one wystarczające, aby sprostać szczególnym wyzwaniom, jakie mogą wiązać się z systemami sztucznej inteligencji.

Proponowane przepisy:

  • przeciwdziałać zagrożeniom stwarzanym konkretnie przez zastosowania sztucznej inteligencji;
  • zakazać praktyk sztucznej inteligencji, które stwarzają niedopuszczalne ryzyko;
  • określa wykaz wniosków wysokiego ryzyka;
  • określenie jasnych wymogów dotyczących systemów sztucznej inteligencji do zastosowań wysokiego ryzyka;
  • określenie szczegółowych obowiązków podmiotów wdrażających i dostawców aplikacji AI wysokiego ryzyka;
  • wymagają oceny zgodności przed oddaniem danego systemu sztucznej inteligencji do użytku lub wprowadzeniem go do obrotu;
  • wprowadzenie egzekwowania przepisów po wprowadzeniu danego systemu sztucznej inteligencji do obrotu;
  • ustanowienie struktury zarządzania na szczeblu europejskim i krajowym.

Podejście oparte na analizie ryzyka

Ramy regulacyjne określają cztery poziomy ryzyka dla systemów sztucznej inteligencji:

piramida pokazująca cztery poziomy ryzyka: Niedopuszczalne ryzyko; wysokiego ryzyka; ograniczone ryzyko, minimalne ryzyko lub brak ryzyka

 

Wszystkie systemy sztucznej inteligencji uważane za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw ludzi zostaną zakazane, od punktacji społecznej przez rządy po zabawki wykorzystujące pomoc głosową, która zachęca do niebezpiecznych zachowań.

Wysokie ryzyko

Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka obejmują technologię sztucznej inteligencji wykorzystywaną w:

  • infrastruktury krytycznej (np. transportowej), która mogłaby zagrażać życiu i zdrowiu obywateli;
  • kształcenie lub szkolenie zawodowe, które może decydować o dostępie do edukacji i przebiegu kariery zawodowej danej osoby (np. punktacja z egzaminów);
  • elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotem);
  • zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacyjnych);
  • podstawowe usługi prywatne i publiczne (np. ocena zdolności kredytowej pozbawiająca obywateli możliwości uzyskania pożyczki);
  • egzekwowanie prawa, które może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów);
  • zarządzanie migracją, azylem i kontrolą graniczną (np. automatyczne rozpatrywanie wniosków wizowych);
  • administrowanie wymiarem sprawiedliwości i procesami demokratycznymi (np. rozwiązania w zakresie sztucznej inteligencji służące poszukiwaniu orzeczeń sądowych).

Systemy sztucznej inteligencji wysokiego ryzyka będą podlegać rygorystycznym obowiązkom, zanim będą mogły zostać wprowadzone do obrotu:

  • odpowiednie systemy oceny i ograniczania ryzyka;
  • wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminujących wyników;
  • rejestrowanie działalności w celu zapewnienia identyfikowalności wyników;
  • szczegółową dokumentację zawierającą wszystkie informacje niezbędne organom do oceny zgodności systemu i jego celu;
  • jasne i odpowiednie informacje dla podmiotu wdrażającego;
  • odpowiednie środki nadzoru ze strony człowieka w celu zminimalizowania ryzyka;
  • wysoki poziom solidności, bezpieczeństwa i dokładności.

Wszystkie systemy zdalnej identyfikacji biometrycznej uznaje się za systemy wysokiego ryzyka i podlegają one rygorystycznym wymogom. Stosowanie zdalnej identyfikacji biometrycznej w przestrzeni publicznej do celów egzekwowania prawa jest co do zasady zabronione.

Wąskie wyjątki są ściśle określone i uregulowane, na przykład gdy jest to konieczne do poszukiwania zaginionego dziecka, zapobieżenia konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub do wykrycia, zlokalizowania, zidentyfikowania lub ścigania sprawcy lub podejrzanego o poważne przestępstwo.

Wykorzystywanie tych danych wymaga zezwolenia organu sądowego lub innego niezależnego organu oraz podlega odpowiednim ograniczeniom czasowym, zasięgowi geograficznemu i przeszukiwanym bazom danych.

Ograniczone ryzyko

Ograniczone ryzykowiąże się z ryzykiem związanym z brakiem przejrzystości wykorzystania sztucznej inteligencji. Akt w sprawie sztucznej inteligencji wprowadza szczególne obowiązki w zakresie przejrzystości w celu zapewnienia, aby ludzie byli w razie potrzeby informowani, co sprzyja zaufaniu. Na przykład podczas korzystania z systemów sztucznej inteligencji, takich jak chatboty, ludzie powinni być świadomi, że wchodzą w interakcję z maszyną, aby mogli podjąć świadomą decyzję o kontynuowaniu lub cofnięciu się. Dostawcy będą również musieli zapewnić identyfikowalność treści generowanych przez sztuczną inteligencję. Ponadto tekst wygenerowany przez sztuczną inteligencję publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym musi być oznaczony jako sztucznie wygenerowany. Dotyczy to również treści audio i wideo stanowiących deepfake'i.

Minimalne ryzyko lub brak ryzyka

Akt w sprawie sztucznej inteligencji umożliwia swobodne korzystanie ze sztucznej inteligencji o minimalnym ryzyku. Obejmuje to aplikacje takie jak gry wideo z obsługą sztucznej inteligencji lub filtry antyspamowe. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii.

Jak to wszystko działa w praktyce w przypadku dostawców systemów sztucznej inteligencji wysokiego ryzyka?

krok po kroku proces deklaracji zgodności
How does it all work in practice for providers of high risk AI systems?

Po wprowadzeniu systemu sztucznej inteligencji do obrotu organy są odpowiedzialne za nadzór rynku, podmioty wdrażające zapewniają nadzór i monitorowanie przez człowieka, a dostawcy posiadają system monitorowania po wprowadzeniu do obrotu. Dostawcy i podmioty wdrażające będą również zgłaszać poważne incydenty i nieprawidłowe funkcjonowanie.

Rozwiązanie do godnego zaufania wykorzystania dużych modeli sztucznej inteligencji

Coraz więcej modeli sztucznej inteligencji ogólnego przeznaczenia staje się elementami systemów sztucznej inteligencji. Modele te mogą wykonywać i dostosowywać niezliczone różne zadania.

Chociaż modele sztucznej inteligencji ogólnego przeznaczenia mogą umożliwiać lepsze i wydajniejsze rozwiązania w zakresie sztucznej inteligencji, trudno jest nadzorować wszystkie możliwości.

W akcie w sprawie sztucznej inteligencji wprowadzono obowiązki w zakresie przejrzystości w odniesieniu do wszystkich modeli sztucznej inteligencji ogólnego przeznaczenia, aby umożliwić lepsze zrozumienie tych modeli, oraz dodatkowe obowiązki w zakresie zarządzania ryzykiem w odniesieniu do modeli bardzo zdolnych i wywierających wpływ. Te dodatkowe obowiązki obejmują samoocenę i ograniczanie ryzyka systemowego, zgłaszanie poważnych incydentów, przeprowadzanie ocen testów i modeli, a także wymogi w zakresie cyberbezpieczeństwa.

Prawodawstwo nieulegające dezaktualizacji

Ponieważ sztuczna inteligencja jest szybko rozwijającą się technologią, we wniosku przyjęto podejście przyszłościowe, umożliwiające dostosowanie przepisów do zmian technologicznych. Zastosowania sztucznej inteligencji powinny pozostać godne zaufania nawet po wprowadzeniu ich do obrotu. Wymaga to ciągłego zarządzania jakością i ryzykiem przez dostawców.

Egzekwowanie i wdrażanie

Europejski Urząd ds. Sztucznej Inteligencji, ustanowiony w lutym 2024 r. w ramach Komisji, nadzoruje wraz z państwami członkowskimi egzekwowanie i wdrażanie aktu w sprawie sztucznej inteligencji. Jego celem jest stworzenie środowiska, w którym technologie AI szanują ludzką godność, prawa i zaufanie. Wspiera również współpracę, innowacje i badania w dziedzinie sztucznej inteligencji między różnymi zainteresowanymi stronami. Ponadto angażuje się w międzynarodowy dialog i współpracę w kwestiach związanych ze sztuczną inteligencją, uznając potrzebę globalnego dostosowania zarządzania sztuczną inteligencją. Dzięki tym wysiłkom Europejski Urząd ds. Sztucznej Inteligencji dąży do tego, by Europa stała się liderem w zakresie etycznego i zrównoważonego rozwoju technologii sztucznej inteligencji.

Kolejne kroki

W grudniu 2023 r. Parlament Europejski i Rada UE osiągnęły porozumienie polityczne w sprawie aktu w sprawie sztucznej inteligencji. Tekst jest obecnie formalnie przyjmowany i tłumaczony. Akt w sprawie sztucznej inteligencji wejdzie w życie 20 dni po jego opublikowaniu w Dzienniku Urzędowym i będzie w pełni stosowany 2 lata później, z pewnymi wyjątkami: zakazy wejdą w życie po sześciu miesiącach, zasady zarządzania i obowiązki dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia zaczną obowiązywać po 12 miesiącach, a zasady dotyczące systemów sztucznej inteligencji – wbudowanych w produkty regulowane – zaczną obowiązywać po 36 miesiącach. Aby ułatwić przejście na nowe ramy regulacyjne, Komisja uruchomiłapakt na rzecz sztucznej inteligencji,dobrowolną inicjatywę mającą na celu wspieranie przyszłego wdrażania i zachęcającą twórców sztucznej inteligencji z Europy i spoza niej do wywiązania się z kluczowych obowiązków określonych w akcie w sprawie sztucznej inteligencji z wyprzedzeniem.

Najnowsze wiadomości

UE i Australia przyspieszają współpracę cyfrową

12 czerwca 2024 r. Unia Europejska i Australia przeprowadziły swój drugi dialog cyfrowy.

Podobne tematy

W szerszej perspektywie

Europejskie podejście do sztucznej inteligencji

Podejście UE do sztucznej inteligencji koncentruje się na doskonałości i zaufaniu, a jego celem jest pobudzenie badań naukowych i potencjału przemysłowego przy jednoczesnym zapewnieniu bezpieczeństwa i praw podstawowych.

Szczegółowe wyjaśnienia

Pakt na rzecz sztucznej inteligencji

Pakt na rzecz sztucznej inteligencji zachęca organizacje i wspiera je w planowaniu wdrażania środków przewidzianych w akcie w sprawie sztucznej inteligencji.

Zobacz też

Skoordynowany plan w sprawie sztucznej inteligencji

Skoordynowany plan w sprawie sztucznej inteligencji ma na celu przyspieszenie inwestycji w sztuczną inteligencję, wdrożenie strategii i programów w zakresie sztucznej inteligencji oraz dostosowanie polityki w zakresie sztucznej inteligencji, aby zapobiec fragmentacji w Europie.

Europejski sojusz na rzecz sztucznej inteligencji

Europejski sojusz na rzecz sztucznej inteligencji jest inicjatywą Komisji Europejskiej mającą na celu ustanowienie otwartego dialogu politycznego na temat sztucznej inteligencji. Od momentu uruchomienia w 2018 r. Sojusz ds. AI zaangażował około 6000 zainteresowanych stron poprzez...