Skip to main content
Kształtowanie cyfrowej przyszłości Europy

Wniosek dotyczący ram regulacyjnych w sprawie sztucznej inteligencji

Komisja proponuje pierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które odnoszą się do zagrożeń związanych ze sztuczną inteligencją i nadają Europie wiodącą rolę na świecie.

    mężczyzna i kobieta pracujący na ekranie high tech

© gorodenkoff - iStock Getty Images Plus

Wniosek regulacyjny ma na celu zapewnienie programistom SI, podmiotom wdrażającym i użytkownikom jasnych wymogów i obowiązków w odniesieniu do konkretnych zastosowań sztucznej inteligencji. Jednocześnie wniosek ma na celu zmniejszenie obciążeń administracyjnych i finansowych dla przedsiębiorstw, w szczególności małych i średnich przedsiębiorstw (MŚP).

Wniosek jest częścią szerszego pakietu dotyczącego sztucznej inteligencji, który obejmuje również zaktualizowany skoordynowany plan w zakresie sztucznej inteligencji. Wspólne ramy regulacyjne i skoordynowany plan zagwarantują bezpieczeństwo i prawa podstawowe osób i przedsiębiorstw w odniesieniu do sztucznej inteligencji. Przyczynią się one także do zwiększenia absorpcji, inwestycji i innowacji w zakresie sztucznej inteligencji w całej UE.

Po co nam przepisy dotyczące sztucznej inteligencji?

Proponowane rozporządzenie w sprawie sztucznej inteligencji zapewnia Europejczykom zaufanie do tego, co AI ma do zaoferowania. Chociaż większość systemów sztucznej inteligencji nie stanowi żadnego ryzyka i może przyczynić się do rozwiązania wielu problemów społecznych, niektóre systemy sztucznej inteligencji stwarzają ryzyko, którym musimy się zająć, aby uniknąć niepożądanych skutków.

Na przykład często nie można dowiedzieć się, dlaczego system sztucznej inteligencji podjął decyzję lub prognozę i podjął konkretne działania. W związku z tym trudno jest ocenić, czy dana osoba znalazła się w niekorzystnej sytuacji, np. w decyzji o zatrudnieniu lub we wniosku o przyznanie programu pożytku publicznego.

Chociaż obowiązujące przepisy zapewniają pewną ochronę, nie wystarczają one do sprostania konkretnym wyzwaniom, które mogą wiązać się z systemami sztucznej inteligencji.

Proponowane przepisy będą:

  • przeciwdziałanie zagrożeniom stwarzanym specjalnie przez aplikacje sztucznej inteligencji;
  • zaproponowanie wykazu zastosowań wysokiego ryzyka;
  • określenie jasnych wymogów dla systemów sztucznej inteligencji dla zastosowań wysokiego ryzyka;
  • określenie szczególnych obowiązków dla użytkowników sztucznej inteligencji i dostawców aplikacji wysokiego ryzyka;
  • proponuje ocenę zgodności przed oddaniem systemu sztucznej inteligencji do użytku lub wprowadzeniem do obrotu;
  • zaproponować egzekwowanie przepisów po wprowadzeniu takiego systemu sztucznej inteligencji do obrotu;
  • zaproponowanie struktury zarządzania na szczeblu europejskim i krajowym.

Podejście oparte na analizie ryzyka

piramida pokazująca cztery poziomy ryzyka: Niedopuszczalne ryzyko; Wysokie ryzyko; ograniczone ryzyko, ryzyko minimalne lub brak

Ramy regulacyjne określają cztery poziomy ryzyka w sztucznej inteligencji:

  • Niedopuszczalne ryzyko
  • Wysokie ryzyko
  • Ograniczone ryzyko
  • Minimalne lub bez ryzyka

Niedopuszczalne ryzyko

Wszystkie systemy sztucznej inteligencji uważane za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw ludzi zostaną zakazane, od punktacji społecznej przez rządy do zabawek wykorzystujących pomoc głosową, która zachęca do niebezpiecznych zachowań.

Wysokie ryzyko

Systemy sztucznej inteligencji uznane za systemy wysokiego ryzyka obejmują technologię AI stosowaną w:

  • infrastruktura krytyczna (np. transport), która może zagrażać życiu i zdrowiu obywateli;
  • kształcenie lub szkolenie zawodowe, które może określać dostęp do kształcenia i zawodowego przebiegu czyjegoś życia (np. punktacja egzaminów);
  • elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotami);
  • zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV do procedur rekrutacyjnych);
  • podstawowe usługi prywatne i publiczne (np. ocena kredytowa uniemożliwiająca obywatelom uzyskanie pożyczki);
  • egzekwowanie prawa, które może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów);
  • zarządzanie migracją, azylem i kontrolą granic (np. weryfikacja autentyczności dokumentów podróży);
  • administrowanie wymiarem sprawiedliwości i procesami demokratycznymi (np. stosowanie prawa do konkretnego zbioru faktów).

Systemy sztucznej inteligencji wysokiego ryzyka będą podlegać ścisłym obowiązkom, zanim będą mogły zostać wprowadzone na rynek:

  • odpowiednie systemy oceny ryzyka i ograniczania ryzyka;
  • wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminacyjnych wyników;
  • rejestrowanie działalności w celu zapewnienia identyfikowalności wyników;
  • szczegółowej dokumentacji zawierającej wszystkie niezbędne informacje na temat systemu i jego celu dla organów w zakresie oceny jego zgodności;
  • jasne i odpowiednie informacje dla użytkownika;
  • odpowiednie środki nadzoru ze strony człowieka w celu zminimalizowania ryzyka;
  • wysoki poziom solidności, bezpieczeństwa i dokładności.

Wszystkie systemy zdalnej identyfikacji biometrycznej są uważane za wysokie ryzyko i podlegają rygorystycznym wymogom. Stosowanie zdalnej identyfikacji biometrycznej w przestrzeniach ogólnodostępnych do celów egzekwowania prawa jest co do zasady zabronione.

Wąskie wyjątki są ściśle określone i uregulowane, takie jak w razie potrzeby w celu poszukiwania zaginionego dziecka, zapobieżenia konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub wykrycia, zlokalizowania, zidentyfikowania lub ścigania sprawcy lub podejrzanego o poważne przestępstwo.

Takie wykorzystanie jest uzależnione od zezwolenia wydanego przez sąd lub inny niezależny organ oraz odpowiednich ograniczeń czasowych, zasięgu geograficznego i wyszukiwanych baz danych.

Ograniczone ryzyko

Ograniczone ryzyko odnosi się do systemów sztucznej inteligencji ze szczególnymi obowiązkami w zakresie przejrzystości. Korzystając z systemów sztucznej inteligencji, takich jak chatboty, użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną, aby mogli podjąć świadomą decyzję o kontynuacji lub cofnięciu się.

Minimalne lub bez ryzyka

Wniosek umożliwia swobodne stosowanie sztucznej inteligencji o minimalnym ryzyku. Obejmuje to aplikacje takie jak gry wideo ze sztuczną inteligencją lub filtry spamu. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii.

proces krok po kroku dotyczący deklaracji zgodności
How does it all work in practice for providers of high risk AI systems?

Po wprowadzeniu systemu sztucznej inteligencji na rynku organy odpowiedzialne są za nadzór rynku, użytkownicy zapewniają nadzór i monitorowanie przez ludzi, a dostawcy posiadają system monitorowania po wprowadzeniu do obrotu. Dostawcy i użytkownicy będą również zgłaszać poważne incydenty i nieprawidłowe działanie.

Przyszłościowe ustawodawstwo

Ponieważ sztuczna inteligencja jest szybko rozwijającą się technologią, wniosek ma podejście przyszłościowe, umożliwiające dostosowanie przepisów do zmian technologicznych. Zastosowania sztucznej inteligencji powinny pozostać wiarygodne nawet po ich wprowadzeniu do obrotu. Wymaga to stałego zarządzania jakością i ryzykiem przez dostawców.

Kolejne kroki

W następstwie wniosku Komisji z kwietnia 2021 r. rozporządzenie mogłoby wejść w życie pod koniec 2022 r./początkiem 2023 r. w okresie przejściowym. W tym okresie standardy byłyby ustanawiane i opracowywane, a utworzone struktury zarządzania byłyby operacyjne. Druga połowa 2024 r. jest najwcześniejszym okresem, w którym rozporządzenie mogłoby wejść w życie w odniesieniu do podmiotów gospodarczych z gotowymi normami i przeprowadzonymi pierwszymi ocenami zgodności.

W ramach dodatkowej regulacyjnej realizacji białej księgi w sprawie sztucznej inteligencji w dniu 28 września 2022 r. przyjęto proponowaną dyrektywę w sprawie odpowiedzialności za sztuczną inteligencję.

Najnowsze wiadomości

KOMUNIKAT PRASOWY |
UE zainwestuje 13,5 mld euro w badania naukowe i innowacje w latach 2023–2024

Komisja przyjęła dziś główny program prac „Horyzont Europa” na lata 2023–2024, na który przeznaczono około 13,5 mld euro na wsparcie naukowców i innowatorów w Europie w poszukiwaniu przełomowych rozwiązań w zakresie wyzwań środowiskowych, energetycznych, cyfrowych i geopolitycznych.

KOMUNIKAT PRASOWY |
Prawa i zasady cyfrowe: transformacja cyfrowa dla obywateli UE

Komisja z zadowoleniem przyjmuje osiągnięte wczoraj porozumienie z Parlamentem i Radą w sprawie europejskiej deklaracji praw i zasad cyfrowych. W deklaracji, zaproponowanej w styczniu, ustanowiono jasny punkt odniesienia dla rodzaju transformacji cyfrowej ukierunkowanej na człowieka, którą UE promuje i broni, zarówno w kraju, jak i za granicą.

Podobne tematy

W szerszej perspektywie

Europejskie podejście do sztucznej inteligencji

Podejście UE do sztucznej inteligencji koncentruje się na doskonałości i zaufaniu, mające na celu zwiększenie potencjału badawczego i przemysłowego przy jednoczesnym zapewnieniu bezpieczeństwa i praw podstawowych.

Zobacz też

Skoordynowany plan w sprawie sztucznej inteligencji na 2021 r.

Główne cele skoordynowanego planu w sprawie sztucznej inteligencji na 2021 r. to przyspieszenie inwestycji w sztuczną inteligencję, działanie w zakresie strategii i programów w zakresie sztucznej inteligencji oraz dostosowanie polityki w zakresie sztucznej inteligencji, aby...

Europejski sojusz na rzecz sztucznej inteligencji

Europejski sojusz na rzecz sztucznej inteligencji jest inicjatywą Komisji Europejskiej mającą na celu nawiązanie otwartego dialogu politycznego na temat sztucznej inteligencji. Od momentu uruchomienia w 2018 r. sojusz na rzecz sztucznej inteligencji zaangażował około 6000...