Ustawa osztucznej inteligencji ma na celu zapewnienie twórcom i instalatorom sztucznej inteligencji jasnych wymogów i obowiązków dotyczących konkretnych zastosowań sztucznej inteligencji. Jednocześnie rozporządzenie ma na celu zmniejszenie obciążeń administracyjnych i finansowych dla przedsiębiorstw, w szczególności małych i średnich przedsiębiorstw (MŚP).
Akt osztucznej inteligencji jest częścią szerszego pakietu środków politycznych wspierających rozwój wiarygodnej sztucznej inteligencji, który obejmuje również pakiet innowacji w dziedzinie AI i skoordynowany plan w zakresie sztucznej inteligencji. Łącznie środki te zagwarantują bezpieczeństwo i podstawowe prawa obywateli i przedsiębiorstw w odniesieniu do sztucznej inteligencji. Wzmocnią one również absorpcję, inwestycje i innowacje w dziedzinie AI w całej UE.
Ustawa osztucznej inteligencji to pierwsze w historii kompleksowe ramy prawne dotyczące sztucznej inteligencji na całym świecie. Celem nowych przepisów jest wspieranie wiarygodnej sztucznej inteligencji w Europie i poza nią poprzez zapewnienie, aby systemy sztucznej inteligencji przestrzegały praw podstawowych, bezpieczeństwa i zasad etycznych, a także przez przeciwdziałanie zagrożeniom związanym z bardzo potężnymi i wpływowymi modelami sztucznej inteligencji.
Po co nam przepisy dotyczące AI?
Akt w sprawie sztucznej inteligencji zapewnia Europejczykom zaufanie do tego, co AI ma do zaoferowania. Podczas gdy większość systemów sztucznej inteligencji nie stwarza żadnego ryzyka i może przyczynić się do rozwiązania wielu problemów społecznych, niektóre systemy sztucznej inteligencji stwarzają ryzyko, którym musimy się zająć, aby uniknąć niepożądanych skutków.
Na przykład często nie jest możliwe ustalenie, dlaczego system sztucznej inteligencji podjął decyzję lub przewidywanie i podjął konkretne działanie. W związku z tym może być trudno ocenić, czy ktoś znalazł się niesprawiedliwie w niekorzystnej sytuacji, na przykład w decyzji o zatrudnieniu lub we wniosku o przyznanie programu pożytku publicznego.
Chociaż obowiązujące przepisy zapewniają pewną ochronę, nie są one wystarczające do sprostania konkretnym wyzwaniom, jakie mogą nieść ze sobą systemy sztucznej inteligencji.
Proponowane przepisy:
- przeciwdziałanie ryzyku stwarzanemu przez aplikacje sztucznej inteligencji;
- zakazanie praktyk związanych z sztuczną inteligencją, które stwarzają niedopuszczalne ryzyko;
- określenie wykazu zastosowań wysokiego ryzyka;
- określenie jasnych wymogów dla systemów sztucznej inteligencji do zastosowań wysokiego ryzyka;
- określa szczegółowe obowiązki podmiotów wdrażających i dostawców zastosowań sztucznej inteligencji wysokiego ryzyka;
- wymagają oceny zgodności przed oddaniem danego systemu sztucznej inteligencji do użytku lub wprowadzeniem do obrotu;
- wprowadzenie egzekwowania przepisów po wprowadzeniu danego systemu sztucznej inteligencji do obrotu;
- ustanowienie struktury zarządzania na szczeblu europejskim i krajowym.
Podejście oparte na analizie ryzyka
Ramy regulacyjne określają 4 poziomy ryzyka dla systemów sztucznej inteligencji:
Wszystkie systemy sztucznej inteligencji uważane za wyraźne zagrożenie dla bezpieczeństwa, środków utrzymania i praw ludzi zostaną zakazane, od punktacji społecznej przez rządy do zabawek wykorzystujących pomoc głosową, która zachęca do niebezpiecznych zachowań.
Wysokie ryzyko
Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka obejmują technologię sztucznej inteligencji stosowaną w:
- infrastruktury krytycznej (np. transport), która mogłaby narazić życie i zdrowie obywateli;
- kształcenie lub szkolenie zawodowe, które może decydować o dostępie do edukacji i przebiegu zawodowego czyjegoś życia (np. punktacja egzaminów);
- elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotem);
- zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV do procedur rekrutacyjnych);
- podstawowe usługi prywatne i publiczne (np. punktacja kredytowa odmawiająca obywatelom możliwości uzyskania pożyczki);
- egzekwowanie prawa, które może ingerować w prawa podstawowe obywateli (np. ocena wiarygodności dowodów);
- zarządzanie migracją, azylem i kontrolą graniczną ( np. zautomatyzowane rozpatrywanie wniosków wizowych);
- administrowanie wymiarem sprawiedliwości i procesami demokratycznymi (np. rozwiązania w zakresie sztucznej inteligencji w poszukiwaniu orzeczeń sądowych).
Systemy sztucznej inteligencji wysokiego ryzyka będą podlegać ścisłym obowiązkom, zanim będą mogły zostać wprowadzone do obrotu:
- odpowiednie systemy oceny ryzyka i ograniczania ryzyka;
- wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminujących wyników;
- rejestrowanie działalności w celu zapewnienia identyfikowalności wyników;
- szczegółowa dokumentacja zawierająca wszelkie informacje na temat systemu i jego celu, jakim jest ocena jego zgodności;
- jasne i odpowiednie informacje dla podmiotu wdrażającego;
- odpowiednie środki nadzoru ze strony człowieka w celu zminimalizowania ryzyka;
- wysoki poziom wytrzymałości, bezpieczeństwa i dokładności.
Wszystkie systemy zdalnej identyfikacji biometrycznej są uważane za systemy wysokiego ryzyka i podlegają ścisłym wymogom. Stosowanie zdalnej identyfikacji biometrycznej w przestrzeniach ogólnodostępnych do celów egzekwowania prawa jest co do zasady zabronione.
Wąskie wyjątki są ściśle określone i uregulowane, np. w razie potrzeby w celu poszukiwania zaginionego dziecka, zapobiegania konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy lub podejrzanego o poważne przestępstwo.
Zastosowania te wymagają zezwolenia sądowego lub innego niezależnego organu oraz odpowiednich ograniczeń czasowych, zasięgu geograficznego i wyszukiwanych baz danych.
Ograniczone ryzyko
Ograniczone ryzyko rodnosi się do ryzyka związanego z brakiem przejrzystości w stosowaniu sztucznej inteligencji. Ustawa o sztucznej inteligencji wprowadza szczególne obowiązki w zakresie przejrzystości w celu zapewnienia , aby ludzie byli informowani w razie potrzeby, zwiększając zaufanie. Na przykład podczas korzystania z systemów sztucznej inteligencji, takich jak chatboty, ludzie powinni być świadomi, że wchodzą w interakcję z maszyną, aby mogli podjąć świadomą decyzję o kontynuowaniu lub cofnięciu się. Dostawcy będą również musieli zapewnić identyfikowalność treści generowanych przez sztuczną inteligencję. Ponadto tekst wygenerowany przez sztuczną inteligencję opublikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym musi być oznakowany jako sztucznie wygenerowany. Dotyczy to również treści audio i wideo stanowiących głębokie podróbki.
Minimalne lub bez ryzyka
Ustawa o sztucznej inteligencji umożliwia swobodne stosowanie sztucznej inteligencji o minimalnym ryzyku. Obejmuje to aplikacje, takie jak gry wideo z obsługą AI lub filtry spamu. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii.
Jak to wszystko działa w praktyce w przypadku dostawców systemów sztucznej inteligencji wysokiego ryzyka?
Po wprowadzeniu na rynek systemu sztucznej inteligencji organy są odpowiedzialne za nadzór rynku, podmioty wdrażające zapewniają nadzór i monitorowanie ze strony człowieka, a dostawcy mają system monitorowania po wprowadzeniu do obrotu. Dostawcy i podmioty wdrażające będą również zgłaszać poważne incydenty i nieprawidłowe działanie.
Rozwiązanie do godnego zaufania wykorzystania dużych modeli sztucznej inteligencji
Coraz częściej modele sztucznej inteligencji ogólnego przeznaczenia stają się komponentami systemów sztucznej inteligencji. Modele te mogą wykonywać i dostosowywać niezliczone zadania.
Podczas gdy modele AI ogólnego przeznaczenia mogą umożliwiać lepsze i bardziej wydajne rozwiązania AI, trudno jest nadzorować wszystkie możliwości.
Tam ustawa o sztucznej inteligencji wprowadza obowiązki w zakresie przejrzystości w odniesieniu do wszystkich modeli sztucznej inteligencji ogólnego przeznaczenia, aby umożliwić lepsze zrozumienie tych modeli i dodatkowe obowiązki w zakresie zarządzania ryzykiem w odniesieniu do bardzo zdolnych i skutecznych modeli. Te dodatkowe obowiązki obejmują samoocenę i ograniczanie ryzyka systemowego, zgłaszanie poważnych incydentów, przeprowadzanie testów i ocen modeli, a także wymogi w zakresie cyberbezpieczeństwa.
Prawodawstwo dostosowane do przyszłych wyzwań
Ponieważ sztuczna inteligencja jest szybko rozwijającą się technologią, wniosek ma podejście dostosowane do przyszłości, umożliwiające dostosowanie przepisów do zmian technologicznych. Zastosowania sztucznej inteligencji powinny pozostać wiarygodne nawet po ich wprowadzeniu do obrotu. Wymaga to stałego zarządzania jakością i ryzykiem przez dostawców.
Egzekwowanie i wdrażanie
Europejski Urząd ds. AI, ustanowiony w lutym 2024 r. w ramach Komisji, nadzoruje egzekwowanie i wdrażanie ustawy o sztucznej inteligencji we współpracy z państwami członkowskimi. Jego celem jest stworzenie środowiska, w którym technologie AI szanują ludzką godność, prawa i zaufanie. Wspiera również współpracę, innowacje i badania w dziedzinie sztucznej inteligencji między różnymi zainteresowanymi stronami. Ponadto angażuje się w międzynarodowy dialog i współpracę w kwestiach związanych ze sztuczną inteligencją, uznając potrzebę globalnego dostosowania do zarządzania sztuczną inteligencją. Dzięki tym wysiłkom Europejski Urząd ds. AI stara się pozycjonować Europę jako lidera w zakresie etycznego i zrównoważonego rozwoju technologii AI.
Kolejne kroki
W grudniu 2023 r. Parlament Europejski i Rada UE osiągnęły porozumienie polityczne w sprawie aktu w sprawie AI. Tekst jest w trakcie formalnego przyjmowania i tłumaczenia. Ustawa o sztucznej inteligencji wejdzie w życie 20 dni po jej opublikowaniu w Dzienniku Urzędowym i będzie w pełni stosowana 2 lata później, z pewnymi wyjątkami: zakazy wejdą w życie po sześciu miesiącach, zasady zarządzania i obowiązki dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia zaczną obowiązywać po upływie 12 miesięcy, a przepisy dotyczące systemów sztucznej inteligencji – wbudowane w produkty regulowane – będą obowiązywać po 36 miesiącach. Aby ułatwić przejście na nowe ramy regulacyjne, Komisja uruchomiła pakt na rzecz sztucznej inteligencji – dobrowolną inicjatywę mającą na celu wsparcie przyszłego wdrażania i zachęca twórców AI z Europy i spoza niej do przestrzegania kluczowych obowiązków określonych w akcie o sztucznej inteligencji z wyprzedzeniem.
Najnowsze wiadomości
Sprawozdanie/badanie
- 30-11-2023Potencjał Europy w dziedzinie obliczeń ewidencyjnych: Wspieranie innowacji przemysłowych poprzez projekty pilotażowe na dużą skalę
- 30-11-2023Trends in advanced manufacturing Research and Innovation
- 30-11-2023Tendencje w zakresie zaawansowanych badań naukowych i innowacji w dziedzinie produkcji
Zestawienie informacji / infografika
Podobne tematy
W szerszej perspektywie
Podejście UE do sztucznej inteligencji koncentruje się na doskonałości i zaufaniu, mając na celu zwiększenie potencjału badawczego i przemysłowego przy jednoczesnym zapewnieniu bezpieczeństwa i praw podstawowych.
Szczegółowe wyjaśnienia
Pakt na rzecz AI będzie zachęcać i wspierać przedsiębiorstwa w planowaniu środków przewidzianych w akcie o sztucznej inteligencji.
Zobacz też
Międzynarodowa inicjatywa na rzecz sztucznej inteligencji skoncentrowana na człowieku pomoże promować wizję UE dotyczącą zrównoważonej i godnej zaufania sztucznej inteligencji.
Skoordynowany plan w sprawie sztucznej inteligencji ma na celu przyspieszenie inwestycji w sztuczną inteligencję, wdrożenie strategii i programów AI oraz dostosowanie polityki AI w celu zapobiegania fragmentacji w Europie.
Komisja Europejska powołała grupę ekspertów, którzy będą doradzać w zakresie strategii dotyczącej sztucznej inteligencji.
Europejski sojusz na rzecz sztucznej inteligencji jest inicjatywą Komisji Europejskiej mającą na celu ustanowienie otwartego dialogu politycznego na temat sztucznej inteligencji. Od momentu uruchomienia w 2018 r. Sojusz ds. AI zaangażował około 6000 zainteresowanych stron poprzez...