
© gorodenkoff - iStock Getty Images Plus
Wniosek regulacyjny ma na celu zapewnienie twórcom sztucznej inteligencji, podmiotom wdrażającym i użytkownikom jasnych wymogów i obowiązków dotyczących konkretnych zastosowań sztucznej inteligencji. Jednocześnie wniosek ma na celu zmniejszenie obciążeń administracyjnych i finansowych dla przedsiębiorstw, w szczególności małych i średnich przedsiębiorstw (MŚP).
Wniosek jest częścią szerszego pakietu dotyczącego sztucznej inteligencji, który obejmuje również zaktualizowany skoordynowany plan w sprawie sztucznej inteligencji. Wspólnie ramy regulacyjne i skoordynowany plan zagwarantują bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw w odniesieniu do sztucznej inteligencji. Wzmocnią one również absorpcję, inwestycje i innowacje w dziedzinie sztucznej inteligencji w całej UE.
Po co nam przepisy dotyczące AI?
Proponowane rozporządzenie w sprawie sztucznej inteligencji zapewnia Europejczykom zaufanie do tego, co AI ma do zaoferowania. Podczas gdy większość systemów sztucznej inteligencji nie stwarza żadnego ryzyka i może przyczynić się do rozwiązania wielu problemów społecznych, niektóre systemy sztucznej inteligencji stwarzają ryzyko, którym musimy się zająć, aby uniknąć niepożądanych skutków.
Na przykład często nie jest możliwe ustalenie, dlaczego system sztucznej inteligencji podjął decyzję lub przewidywanie i podjął konkretne działanie. W związku z tym może być trudno ocenić, czy ktoś znalazł się niesprawiedliwie w niekorzystnej sytuacji, na przykład w decyzji o zatrudnieniu lub we wniosku o przyznanie programu pożytku publicznego.
Chociaż obowiązujące przepisy zapewniają pewną ochronę, nie są one wystarczające do sprostania konkretnym wyzwaniom, jakie mogą nieść ze sobą systemy sztucznej inteligencji.
Proponowane przepisy:
- przeciwdziałanie ryzyku stwarzanemu przez aplikacje sztucznej inteligencji;
- zaproponowanie wykazu zastosowań wysokiego ryzyka;
- określenie jasnych wymogów dla systemów sztucznej inteligencji dla zastosowań wysokiego ryzyka;
- określa szczególne obowiązki użytkowników sztucznej inteligencji i dostawców aplikacji wysokiego ryzyka;
- proponuje ocenę zgodności przed oddaniem systemu sztucznej inteligencji do użytku lub wprowadzeniem do obrotu;
- proponować egzekwowanie przepisów po wprowadzeniu takiego systemu sztucznej inteligencji do obrotu;
- zaproponowanie struktury zarządzania na szczeblu europejskim i krajowym.
Podejście oparte na analizie ryzyka
Ramy regulacyjne określają 4 poziomy ryzyka w sztucznej inteligencji:
- Niedopuszczalne ryzyko
- Wysokie ryzyko
- Ograniczone ryzyko
- Minimalne lub bez ryzyka
Niedopuszczalne ryzyko
Wszystkie systemy sztucznej inteligencji uważane za wyraźne zagrożenie dla bezpieczeństwa, środków utrzymania i praw ludzi zostaną zakazane, od punktacji społecznej przez rządy do zabawek wykorzystujących pomoc głosową, która zachęca do niebezpiecznych zachowań.
Wysokie ryzyko
Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka obejmują technologię sztucznej inteligencji stosowaną w:
- infrastruktury krytycznej (np. transport), która mogłaby narazić życie i zdrowie obywateli;
- kształcenie lub szkolenie zawodowe, które może decydować o dostępie do edukacji i przebiegu zawodowego czyjegoś życia (np. punktacja egzaminów);
- elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotem);
- zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV do procedur rekrutacyjnych);
- podstawowe usługi prywatne i publiczne (np. punktacja kredytowa odmawiająca obywatelom możliwości uzyskania pożyczki);
- egzekwowanie prawa, które może ingerować w prawa podstawowe obywateli (np. ocena wiarygodności dowodów);
- zarządzanie migracją, azylem i kontrolą graniczną (np. weryfikacja autentyczności dokumentów podróży);
- administrowanie wymiarem sprawiedliwości i procesami demokratycznymi (np. stosowanie prawa do konkretnego zestawu faktów).
Systemy sztucznej inteligencji wysokiego ryzyka będą podlegać ścisłym obowiązkom, zanim będą mogły zostać wprowadzone do obrotu:
- odpowiednie systemy oceny ryzyka i ograniczania ryzyka;
- wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminujących wyników;
- rejestrowanie działalności w celu zapewnienia identyfikowalności wyników;
- szczegółowa dokumentacja zawierająca wszelkie informacje na temat systemu i jego celu, jakim jest ocena jego zgodności;
- jasne i odpowiednie informacje dla użytkownika;
- odpowiednie środki nadzoru ze strony człowieka w celu zminimalizowania ryzyka;
- wysoki poziom wytrzymałości, bezpieczeństwa i dokładności.
Wszystkie systemy zdalnej identyfikacji biometrycznej są uważane za systemy wysokiego ryzyka i podlegają ścisłym wymogom. Stosowanie zdalnej identyfikacji biometrycznej w przestrzeniach ogólnodostępnych do celów egzekwowania prawa jest co do zasady zabronione.
Wąskie wyjątki są ściśle określone i uregulowane, na przykład w razie potrzeby w celu poszukiwania zaginionego dziecka, zapobiegania konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy lub podejrzanego o poważne przestępstwo.
Takie wykorzystanie wymaga zezwolenia sądowego lub innego niezależnego organu oraz odpowiednich ograniczeń czasowych, zasięgu geograficznego i wyszukiwanych baz danych.
Ograniczone ryzyko
Ograniczone ryzyko odnosi się do systemów sztucznej inteligencji o szczególnych obowiązkach w zakresie przejrzystości. Korzystając z systemów sztucznej inteligencji, takich jak chatboty, użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną, aby mogli podjąć świadomą decyzję o kontynuowaniu lub cofnięciu się.
Minimalne lub bez ryzyka
Wniosek umożliwia swobodne stosowanie sztucznej inteligencji o minimalnym ryzyku. Obejmuje to aplikacje, takie jak gry wideo z obsługą AI lub filtry spamu. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii.
Po wprowadzeniu na rynek systemu sztucznej inteligencji organy są odpowiedzialne za nadzór rynku, użytkownicy zapewniają nadzór i monitorowanie ze strony człowieka, a dostawcy mają system monitorowania po wprowadzeniu do obrotu. Dostawcy i użytkownicy będą również zgłaszać poważne incydenty i nieprawidłowe działanie.
Prawodawstwo dostosowane do przyszłych wyzwań
Ponieważ sztuczna inteligencja jest szybko rozwijającą się technologią, wniosek ma podejście dostosowane do przyszłości, umożliwiające dostosowanie przepisów do zmian technologicznych. Zastosowania sztucznej inteligencji powinny pozostać wiarygodne nawet po ich wprowadzeniu do obrotu. Wymaga to stałego zarządzania jakością i ryzykiem przez dostawców.
Kolejne kroki
W następstwie wniosku Komisji z kwietnia 2021 r. rozporządzenie mogłoby wejść w życie pod koniec 2022 r./na początku 2023 r. w okresie przejściowym. W tym okresie normy byłyby wymagane i opracowywane, a utworzone struktury zarządzania byłyby operacyjne. Druga połowa 2024 r. jest najwcześniejszym okresem, w którym rozporządzenie może mieć zastosowanie do podmiotów gospodarczych, które posiadają gotowe normy i przeprowadzają pierwsze oceny zgodności.
Najnowsze wiadomości
Sprawozdanie/badanie
- 30-11-2023Potencjał Europy w dziedzinie obliczeń ewidencyjnych: Wspieranie innowacji przemysłowych poprzez projekty pilotażowe na dużą skalę
- 30-11-2023Trends in advanced manufacturing Research and Innovation
- 30-11-2023Tendencje w zakresie zaawansowanych badań naukowych i innowacji w dziedzinie produkcji
Zestawienie informacji / infografika
Podobne tematy
W szerszej perspektywie
Podejście UE do sztucznej inteligencji koncentruje się na doskonałości i zaufaniu, mając na celu zwiększenie potencjału badawczego i przemysłowego przy jednoczesnym zapewnieniu bezpieczeństwa i praw podstawowych.
Szczegółowe wyjaśnienia
Pakt na rzecz AI będzie zachęcać i wspierać przedsiębiorstwa w planowaniu środków przewidzianych w akcie o sztucznej inteligencji.
Zobacz też
Międzynarodowa inicjatywa na rzecz sztucznej inteligencji skoncentrowana na człowieku pomoże promować wizję UE dotyczącą zrównoważonej i godnej zaufania sztucznej inteligencji.
Główne cele skoordynowanego planu w sprawie sztucznej inteligencji na 2021 r. to przyspieszenie inwestycji w sztuczną inteligencję, działanie w zakresie strategii i programów w zakresie sztucznej inteligencji oraz dostosowanie polityki w zakresie sztucznej inteligencji, aby...
Komisja Europejska powołała grupę ekspertów, którzy będą doradzać w zakresie strategii dotyczącej sztucznej inteligencji.
Europejski sojusz na rzecz sztucznej inteligencji jest inicjatywą Komisji Europejskiej mającą na celu ustanowienie otwartego dialogu politycznego na temat sztucznej inteligencji. Od momentu uruchomienia w 2018 r. Sojusz ds. AI zaangażował około 6000 zainteresowanych stron poprzez...