Skip to main content
Kształtowanie cyfrowej przyszłości Europy

Wniosek dotyczący ram regulacyjnych w sprawie sztucznej inteligencji

Komisja proponuje pierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które odnoszą się do zagrożeń związanych ze sztuczną inteligencją i umożliwiają Europie odgrywanie wiodącej roli na świecie.

    mężczyzna i kobieta pracujący na ekranie high tech

© gorodenkoff - iStock Getty Images Plus

Wniosek regulacyjny ma na celu zapewnienie twórcom sztucznej inteligencji, podmiotom wdrażającym i użytkownikom jasnych wymogów i obowiązków dotyczących konkretnych zastosowań sztucznej inteligencji. Jednocześnie wniosek ma na celu zmniejszenie obciążeń administracyjnych i finansowych dla przedsiębiorstw, w szczególności małych i średnich przedsiębiorstw (MŚP).

Wniosek jest częścią szerszego pakietu dotyczącego sztucznej inteligencji, który obejmuje również zaktualizowany skoordynowany plan w sprawie sztucznej inteligencji. Wspólnie ramy regulacyjne i skoordynowany plan zagwarantują bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw w odniesieniu do sztucznej inteligencji. Wzmocnią one również absorpcję, inwestycje i innowacje w dziedzinie sztucznej inteligencji w całej UE.

Po co nam przepisy dotyczące AI?

Proponowane rozporządzenie w sprawie sztucznej inteligencji zapewnia Europejczykom zaufanie do tego, co AI ma do zaoferowania. Podczas gdy większość systemów sztucznej inteligencji nie stwarza żadnego ryzyka i może przyczynić się do rozwiązania wielu problemów społecznych, niektóre systemy sztucznej inteligencji stwarzają ryzyko, którym musimy się zająć, aby uniknąć niepożądanych skutków.

Na przykład często nie jest możliwe ustalenie, dlaczego system sztucznej inteligencji podjął decyzję lub przewidywanie i podjął konkretne działanie. W związku z tym może być trudno ocenić, czy ktoś znalazł się niesprawiedliwie w niekorzystnej sytuacji, na przykład w decyzji o zatrudnieniu lub we wniosku o przyznanie programu pożytku publicznego.

Chociaż obowiązujące przepisy zapewniają pewną ochronę, nie są one wystarczające do sprostania konkretnym wyzwaniom, jakie mogą nieść ze sobą systemy sztucznej inteligencji.

Proponowane przepisy:

  • przeciwdziałanie ryzyku stwarzanemu przez aplikacje sztucznej inteligencji;
  • zaproponowanie wykazu zastosowań wysokiego ryzyka;
  • określenie jasnych wymogów dla systemów sztucznej inteligencji dla zastosowań wysokiego ryzyka;
  • określa szczególne obowiązki użytkowników sztucznej inteligencji i dostawców aplikacji wysokiego ryzyka;
  • proponuje ocenę zgodności przed oddaniem systemu sztucznej inteligencji do użytku lub wprowadzeniem do obrotu;
  • proponować egzekwowanie przepisów po wprowadzeniu takiego systemu sztucznej inteligencji do obrotu;
  • zaproponowanie struktury zarządzania na szczeblu europejskim i krajowym.

Podejście oparte na analizie ryzyka

piramida pokazująca cztery poziomy ryzyka: Niedopuszczalne ryzyko; Wysokiego ryzyka; ograniczone ryzyko, minimalne lub bez ryzyka

Ramy regulacyjne określają 4 poziomy ryzyka w sztucznej inteligencji:

  • Niedopuszczalne ryzyko
  • Wysokie ryzyko
  • Ograniczone ryzyko
  • Minimalne lub bez ryzyka

Niedopuszczalne ryzyko

Wszystkie systemy sztucznej inteligencji uważane za wyraźne zagrożenie dla bezpieczeństwa, środków utrzymania i praw ludzi zostaną zakazane, od punktacji społecznej przez rządy do zabawek wykorzystujących pomoc głosową, która zachęca do niebezpiecznych zachowań.

Wysokie ryzyko

Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka obejmują technologię sztucznej inteligencji stosowaną w:

  • infrastruktury krytycznej (np. transport), która mogłaby narazić życie i zdrowie obywateli;
  • kształcenie lub szkolenie zawodowe, które może decydować o dostępie do edukacji i przebiegu zawodowego czyjegoś życia (np. punktacja egzaminów);
  • elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotem);
  • zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV do procedur rekrutacyjnych);
  • podstawowe usługi prywatne i publiczne (np. punktacja kredytowa odmawiająca obywatelom możliwości uzyskania pożyczki);
  • egzekwowanie prawa, które może ingerować w prawa podstawowe obywateli (np. ocena wiarygodności dowodów);
  • zarządzanie migracją, azylem i kontrolą graniczną (np. weryfikacja autentyczności dokumentów podróży);
  • administrowanie wymiarem sprawiedliwości i procesami demokratycznymi (np. stosowanie prawa do konkretnego zestawu faktów).

Systemy sztucznej inteligencji wysokiego ryzyka będą podlegać ścisłym obowiązkom, zanim będą mogły zostać wprowadzone do obrotu:

  • odpowiednie systemy oceny ryzyka i ograniczania ryzyka;
  • wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminujących wyników;
  • rejestrowanie działalności w celu zapewnienia identyfikowalności wyników;
  • szczegółowa dokumentacja zawierająca wszelkie informacje na temat systemu i jego celu, jakim jest ocena jego zgodności;
  • jasne i odpowiednie informacje dla użytkownika;
  • odpowiednie środki nadzoru ze strony człowieka w celu zminimalizowania ryzyka;
  • wysoki poziom wytrzymałości, bezpieczeństwa i dokładności.

Wszystkie systemy zdalnej identyfikacji biometrycznej są uważane za systemy wysokiego ryzyka i podlegają ścisłym wymogom. Stosowanie zdalnej identyfikacji biometrycznej w przestrzeniach ogólnodostępnych do celów egzekwowania prawa jest co do zasady zabronione.

Wąskie wyjątki są ściśle określone i uregulowane, na przykład w razie potrzeby w celu poszukiwania zaginionego dziecka, zapobiegania konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy lub podejrzanego o poważne przestępstwo.

Takie wykorzystanie wymaga zezwolenia sądowego lub innego niezależnego organu oraz odpowiednich ograniczeń czasowych, zasięgu geograficznego i wyszukiwanych baz danych.

Ograniczone ryzyko

Ograniczone ryzyko odnosi się do systemów sztucznej inteligencji o szczególnych obowiązkach w zakresie przejrzystości. Korzystając z systemów sztucznej inteligencji, takich jak chatboty, użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną, aby mogli podjąć świadomą decyzję o kontynuowaniu lub cofnięciu się.

Minimalne lub bez ryzyka

Wniosek umożliwia swobodne stosowanie sztucznej inteligencji o minimalnym ryzyku. Obejmuje to aplikacje, takie jak gry wideo z obsługą AI lub filtry spamu. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii.

krok po kroku proces deklaracji zgodności
How does it all work in practice for providers of high risk AI systems?

Po wprowadzeniu na rynek systemu sztucznej inteligencji organy są odpowiedzialne za nadzór rynku, użytkownicy zapewniają nadzór i monitorowanie ze strony człowieka, a dostawcy mają system monitorowania po wprowadzeniu do obrotu. Dostawcy i użytkownicy będą również zgłaszać poważne incydenty i nieprawidłowe działanie.

Prawodawstwo dostosowane do przyszłych wyzwań

Ponieważ sztuczna inteligencja jest szybko rozwijającą się technologią, wniosek ma podejście dostosowane do przyszłości, umożliwiające dostosowanie przepisów do zmian technologicznych. Zastosowania sztucznej inteligencji powinny pozostać wiarygodne nawet po ich wprowadzeniu do obrotu. Wymaga to stałego zarządzania jakością i ryzykiem przez dostawców.

Kolejne kroki

W następstwie wniosku Komisji z kwietnia 2021 r. rozporządzenie mogłoby wejść w życie pod koniec 2022 r./na początku 2023 r. w okresie przejściowym. W tym okresie normy byłyby wymagane i opracowywane, a utworzone struktury zarządzania byłyby operacyjne. Druga połowa 2024 r. jest najwcześniejszym okresem, w którym rozporządzenie może mieć zastosowanie do podmiotów gospodarczych, które posiadają gotowe normy i przeprowadzają pierwsze oceny zgodności.

W dniu 28 września 2022 r. przyjęto proponowaną dyrektywę w sprawie odpowiedzialności za sztuczną inteligencję, jako dodatkową transpozycję regulacyjną białej księgi w sprawie sztucznej inteligencji.

Najnowsze wiadomości

UE i Kanada inicjują partnerstwo cyfrowe w celu zacieśnienia współpracy strategicznej

UE i Kanada zacieśniły dziś swoje stosunki jako partnerzy strategiczni i o podobnych poglądach w dziedzinie cyfrowej.

KOMUNIKAT PRASOWY |
Komisja otwiera dostęp do superkomputerów UE w celu przyspieszenia rozwoju sztucznej inteligencji

Komisja i Wspólne Przedsięwzięcie w dziedzinie Europejskich Obliczeń Wielkiej Skali (Wspólne Przedsięwzięcie EuroHPC) zobowiązały się dziś do otwarcia i rozszerzenia dostępu do światowej klasy zasobów UE w zakresie obliczeń superkomputerowych dla europejskich przedsiębiorstw typu start-up w dziedzinie sztucznej inteligencji (AI), MŚP i szerszej społeczności zajmującej się sztuczną inteligencją w ramach unijnej inicjatywy na rzecz przedsiębiorstw typu start-up w dziedzinie sztucznej inteligencji.

Podobne tematy

W szerszej perspektywie

Europejskie podejście do sztucznej inteligencji

Podejście UE do sztucznej inteligencji koncentruje się na doskonałości i zaufaniu, mając na celu zwiększenie potencjału badawczego i przemysłowego przy jednoczesnym zapewnieniu bezpieczeństwa i praw podstawowych.

Szczegółowe wyjaśnienia

Pakt na rzecz AI

Pakt na rzecz AI będzie zachęcać i wspierać przedsiębiorstwa w planowaniu środków przewidzianych w akcie o sztucznej inteligencji.

Zobacz też

Skoordynowany plan w sprawie sztucznej inteligencji na 2021 r.

Główne cele skoordynowanego planu w sprawie sztucznej inteligencji na 2021 r. to przyspieszenie inwestycji w sztuczną inteligencję, działanie w zakresie strategii i programów w zakresie sztucznej inteligencji oraz dostosowanie polityki w zakresie sztucznej inteligencji, aby...

Europejski sojusz na rzecz sztucznej inteligencji

Europejski sojusz na rzecz sztucznej inteligencji jest inicjatywą Komisji Europejskiej mającą na celu ustanowienie otwartego dialogu politycznego na temat sztucznej inteligencji. Od momentu uruchomienia w 2018 r. Sojusz ds. AI zaangażował około 6000 zainteresowanych stron poprzez...