Skip to main content
Kształtowanie cyfrowej przyszłości Europy

Ustawa o sztucznej inteligencji

Akt w sprawie AI to pierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które odnoszą się do zagrożeń związanych z AI i umożliwiają Europie odgrywanie wiodącej roli na całym świecie.

    mężczyzna i kobieta pracujący na ekranie high tech

© gorodenkoff - iStock Getty Images Plus

Ustawa osztucznej inteligencji ma na celu zapewnienie twórcom i instalatorom sztucznej inteligencji jasnych wymogów i obowiązków dotyczących konkretnych zastosowań sztucznej inteligencji. Jednocześnie rozporządzenie ma na celu zmniejszenie obciążeń administracyjnych i finansowych dla przedsiębiorstw, w szczególności małych i średnich przedsiębiorstw (MŚP).

Akt osztucznej inteligencji jest częścią szerszego pakietu środków politycznych wspierających rozwój wiarygodnej sztucznej inteligencji, który obejmuje również pakiet innowacji w dziedzinie AI i skoordynowany plan w zakresie sztucznej inteligencji. Łącznie środki te zagwarantują bezpieczeństwo i podstawowe prawa obywateli i przedsiębiorstw w odniesieniu do sztucznej inteligencji. Wzmocnią one również absorpcję, inwestycje i innowacje w dziedzinie AI w całej UE.

Ustawa osztucznej inteligencji to pierwsze w historii kompleksowe ramy prawne dotyczące sztucznej inteligencji na całym świecie. Celem nowych przepisów jest wspieranie wiarygodnej sztucznej inteligencji w Europie i poza nią poprzez zapewnienie, aby systemy sztucznej inteligencji przestrzegały praw podstawowych, bezpieczeństwa i zasad etycznych, a także przez przeciwdziałanie zagrożeniom związanym z bardzo potężnymi i wpływowymi modelami sztucznej inteligencji.

Po co nam przepisy dotyczące AI?

Akt w sprawie sztucznej inteligencji zapewnia Europejczykom zaufanie do tego, co AI ma do zaoferowania. Podczas gdy większość systemów sztucznej inteligencji nie stwarza żadnego ryzyka i może przyczynić się do rozwiązania wielu problemów społecznych, niektóre systemy sztucznej inteligencji stwarzają ryzyko, którym musimy się zająć, aby uniknąć niepożądanych skutków.

Na przykład często nie jest możliwe ustalenie, dlaczego system sztucznej inteligencji podjął decyzję lub przewidywanie i podjął konkretne działanie. W związku z tym może być trudno ocenić, czy ktoś znalazł się niesprawiedliwie w niekorzystnej sytuacji, na przykład w decyzji o zatrudnieniu lub we wniosku o przyznanie programu pożytku publicznego.

Chociaż obowiązujące przepisy zapewniają pewną ochronę, nie są one wystarczające do sprostania konkretnym wyzwaniom, jakie mogą nieść ze sobą systemy sztucznej inteligencji.

Proponowane przepisy:

  • przeciwdziałanie ryzyku stwarzanemu przez aplikacje sztucznej inteligencji;
  • zakazanie praktyk związanych z sztuczną inteligencją, które stwarzają niedopuszczalne ryzyko;
  • określenie wykazu zastosowań wysokiego ryzyka;
  • określenie jasnych wymogów dla systemów sztucznej inteligencji do zastosowań wysokiego ryzyka;
  • określa szczegółowe obowiązki podmiotów wdrażających i dostawców zastosowań sztucznej inteligencji wysokiego ryzyka;
  • wymagają oceny zgodności przed oddaniem danego systemu sztucznej inteligencji do użytku lub wprowadzeniem do obrotu;
  • wprowadzenie egzekwowania przepisów po wprowadzeniu danego systemu sztucznej inteligencji do obrotu;
  • ustanowienie struktury zarządzania na szczeblu europejskim i krajowym.

Podejście oparte na analizie ryzyka

Ramy regulacyjne określają 4 poziomy ryzyka dla systemów sztucznej inteligencji:

piramida pokazująca cztery poziomy ryzyka: Niedopuszczalne ryzyko; Wysokiego ryzyka; ograniczone ryzyko, minimalne lub bez ryzyka

 

Wszystkie systemy sztucznej inteligencji uważane za wyraźne zagrożenie dla bezpieczeństwa, środków utrzymania i praw ludzi zostaną zakazane, od punktacji społecznej przez rządy do zabawek wykorzystujących pomoc głosową, która zachęca do niebezpiecznych zachowań.

Wysokie ryzyko

Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka obejmują technologię sztucznej inteligencji stosowaną w:

  • infrastruktury krytycznej (np. transport), która mogłaby narazić życie i zdrowie obywateli;
  • kształcenie lub szkolenie zawodowe, które może decydować o dostępie do edukacji i przebiegu zawodowego czyjegoś życia (np. punktacja egzaminów);
  • elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotem);
  • zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV do procedur rekrutacyjnych);
  • podstawowe usługi prywatne i publiczne (np. punktacja kredytowa odmawiająca obywatelom możliwości uzyskania pożyczki);
  • egzekwowanie prawa, które może ingerować w prawa podstawowe obywateli (np. ocena wiarygodności dowodów);
  • zarządzanie migracją, azylem i kontrolą graniczną ( np. zautomatyzowane rozpatrywanie wniosków wizowych);
  • administrowanie wymiarem sprawiedliwości i procesami demokratycznymi (np. rozwiązania w zakresie sztucznej inteligencji w poszukiwaniu orzeczeń sądowych).

Systemy sztucznej inteligencji wysokiego ryzyka będą podlegać ścisłym obowiązkom, zanim będą mogły zostać wprowadzone do obrotu:

  • odpowiednie systemy oceny ryzyka i ograniczania ryzyka;
  • wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminujących wyników;
  • rejestrowanie działalności w celu zapewnienia identyfikowalności wyników;
  • szczegółowa dokumentacja zawierająca wszelkie informacje na temat systemu i jego celu, jakim jest ocena jego zgodności;
  • jasne i odpowiednie informacje dla podmiotu wdrażającego;
  • odpowiednie środki nadzoru ze strony człowieka w celu zminimalizowania ryzyka;
  • wysoki poziom wytrzymałości, bezpieczeństwa i dokładności.

Wszystkie systemy zdalnej identyfikacji biometrycznej są uważane za systemy wysokiego ryzyka i podlegają ścisłym wymogom. Stosowanie zdalnej identyfikacji biometrycznej w przestrzeniach ogólnodostępnych do celów egzekwowania prawa jest co do zasady zabronione.

Wąskie wyjątki są ściśle określone i uregulowane, np. w razie potrzeby w celu poszukiwania zaginionego dziecka, zapobiegania konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy lub podejrzanego o poważne przestępstwo.

Zastosowania te wymagają zezwolenia sądowego lub innego niezależnego organu oraz odpowiednich ograniczeń czasowych, zasięgu geograficznego i wyszukiwanych baz danych.

Ograniczone ryzyko

Ograniczone ryzyko rodnosi się do ryzyka związanego z brakiem przejrzystości w stosowaniu sztucznej inteligencji. Ustawa o sztucznej inteligencji wprowadza szczególne obowiązki w zakresie przejrzystości w celu zapewnienia , aby ludzie byli informowani w razie potrzeby, zwiększając zaufanie. Na przykład podczas korzystania z systemów sztucznej inteligencji, takich jak chatboty, ludzie powinni być świadomi, że wchodzą w interakcję z maszyną, aby mogli podjąć świadomą decyzję o kontynuowaniu lub cofnięciu się. Dostawcy będą również musieli zapewnić identyfikowalność treści generowanych przez sztuczną inteligencję. Ponadto tekst wygenerowany przez sztuczną inteligencję opublikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym musi być oznakowany jako sztucznie wygenerowany. Dotyczy to również treści audio i wideo stanowiących głębokie podróbki.

Minimalne lub bez ryzyka

Ustawa o sztucznej inteligencji umożliwia swobodne stosowanie sztucznej inteligencji o minimalnym ryzyku. Obejmuje to aplikacje, takie jak gry wideo z obsługą AI lub filtry spamu. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii.

Jak to wszystko działa w praktyce w przypadku dostawców systemów sztucznej inteligencji wysokiego ryzyka?

krok po kroku proces deklaracji zgodności
How does it all work in practice for providers of high risk AI systems?

Po wprowadzeniu na rynek systemu sztucznej inteligencji organy są odpowiedzialne za nadzór rynku, podmioty wdrażające zapewniają nadzór i monitorowanie ze strony człowieka, a dostawcy mają system monitorowania po wprowadzeniu do obrotu. Dostawcy i podmioty wdrażające będą również zgłaszać poważne incydenty i nieprawidłowe działanie.

Rozwiązanie do godnego zaufania wykorzystania dużych modeli sztucznej inteligencji

Coraz częściej modele sztucznej inteligencji ogólnego przeznaczenia stają się komponentami systemów sztucznej inteligencji. Modele te mogą wykonywać i dostosowywać niezliczone zadania.

Podczas gdy modele AI ogólnego przeznaczenia mogą umożliwiać lepsze i bardziej wydajne rozwiązania AI, trudno jest nadzorować wszystkie możliwości.

Tam ustawa o sztucznej inteligencji wprowadza obowiązki w zakresie przejrzystości w odniesieniu do wszystkich modeli sztucznej inteligencji ogólnego przeznaczenia, aby umożliwić lepsze zrozumienie tych modeli i dodatkowe obowiązki w zakresie zarządzania ryzykiem w odniesieniu do bardzo zdolnych i skutecznych modeli. Te dodatkowe obowiązki obejmują samoocenę i ograniczanie ryzyka systemowego, zgłaszanie poważnych incydentów, przeprowadzanie testów i ocen modeli, a także wymogi w zakresie cyberbezpieczeństwa.

Prawodawstwo dostosowane do przyszłych wyzwań

Ponieważ sztuczna inteligencja jest szybko rozwijającą się technologią, wniosek ma podejście dostosowane do przyszłości, umożliwiające dostosowanie przepisów do zmian technologicznych. Zastosowania sztucznej inteligencji powinny pozostać wiarygodne nawet po ich wprowadzeniu do obrotu. Wymaga to stałego zarządzania jakością i ryzykiem przez dostawców.

Egzekwowanie i wdrażanie

Europejski Urząd ds. AI, ustanowiony w lutym 2024 r. w ramach Komisji, nadzoruje egzekwowanie i wdrażanie ustawy o sztucznej inteligencji we współpracy z państwami członkowskimi. Jego celem jest stworzenie środowiska, w którym technologie AI szanują ludzką godność, prawa i zaufanie. Wspiera również współpracę, innowacje i badania w dziedzinie sztucznej inteligencji między różnymi zainteresowanymi stronami. Ponadto angażuje się w międzynarodowy dialog i współpracę w kwestiach związanych ze sztuczną inteligencją, uznając potrzebę globalnego dostosowania do zarządzania sztuczną inteligencją. Dzięki tym wysiłkom Europejski Urząd ds. AI stara się pozycjonować Europę jako lidera w zakresie etycznego i zrównoważonego rozwoju technologii AI.

Kolejne kroki

W grudniu 2023 r. Parlament Europejski i Rada UE osiągnęły porozumienie polityczne w sprawie aktu w sprawie AI. Tekst jest w trakcie formalnego przyjmowania i tłumaczenia. Ustawa o sztucznej inteligencji wejdzie w życie 20 dni po jej opublikowaniu w Dzienniku Urzędowym i będzie w pełni stosowana 2 lata później, z pewnymi wyjątkami: zakazy wejdą w życie po sześciu miesiącach, zasady zarządzania i obowiązki dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia zaczną obowiązywać po upływie 12 miesięcy, a przepisy dotyczące systemów sztucznej inteligencji – wbudowane w produkty regulowane – będą obowiązywać po 36 miesiącach. Aby ułatwić przejście na nowe ramy regulacyjne, Komisja uruchomiła pakt na rzecz sztucznej inteligencji – dobrowolną inicjatywę mającą na celu wsparcie przyszłego wdrażania i zachęca twórców AI z Europy i spoza niej do przestrzegania kluczowych obowiązków określonych w akcie o sztucznej inteligencji z wyprzedzeniem.

Najnowsze wiadomości

UE i Republika Korei potwierdzają partnerstwo na rzecz inkluzywnej i odpornej transformacji cyfrowej

Dziś UE i Republika Korei zorganizowały w Brukseli drugą Radę ds. Partnerstwa Cyfrowego. Radzie współprzewodniczyli komisarz ds. rynku wewnętrznego Thierry Breton oraz koreański minister nauki i technologii informacyjno-komunikacyjnych dr Lee Jong-Ho.

KOMUNIKAT PRASOWY |
Komisja ogłasza zaproszenia do zainwestowania ponad 176 mln euro w zdolności cyfrowe i technologie

Komisja Europejska ogłosiła nowy zestaw zaproszeń do składania wniosków w ramach programów prac na lata 2023–2024 w ramach programu „Cyfrowa Europa” w celu wzmocnienia zdolności cyfrowych w całej UE. Zaproszenia te są otwarte dla przedsiębiorstw, administracji publicznej i innych podmiotów z państw członkowskich UE, państw EFTA/EOG i państw stowarzyszonych. Budżet na ten zestaw zaproszeń do składania wniosków wynosi ponad 176 mln EUR.

PRESS RELEASE |
Commission makes first payment of €202 million to Finland under the Recovery Facility

The European Commission opened a new set of calls for proposals under the 2023-2024 Work Programmes of the Digital Europe Programme to strengthen digital capacities across EU. These calls are open to businesses, public administrations, and other entities from the EU Member States, EFTA/EEA countries, and associated countries. The budget for this set of calls is over €176 million.

Podobne tematy

W szerszej perspektywie

Europejskie podejście do sztucznej inteligencji

Podejście UE do sztucznej inteligencji koncentruje się na doskonałości i zaufaniu, mając na celu zwiększenie potencjału badawczego i przemysłowego przy jednoczesnym zapewnieniu bezpieczeństwa i praw podstawowych.

Szczegółowe wyjaśnienia

Pakt na rzecz AI

Pakt na rzecz AI będzie zachęcać i wspierać przedsiębiorstwa w planowaniu środków przewidzianych w akcie o sztucznej inteligencji.

Zobacz też

Skoordynowany plan w zakresie sztucznej inteligencji

Skoordynowany plan w sprawie sztucznej inteligencji ma na celu przyspieszenie inwestycji w sztuczną inteligencję, wdrożenie strategii i programów AI oraz dostosowanie polityki AI w celu zapobiegania fragmentacji w Europie.

Europejski sojusz na rzecz sztucznej inteligencji

Europejski sojusz na rzecz sztucznej inteligencji jest inicjatywą Komisji Europejskiej mającą na celu ustanowienie otwartego dialogu politycznego na temat sztucznej inteligencji. Od momentu uruchomienia w 2018 r. Sojusz ds. AI zaangażował około 6000 zainteresowanych stron poprzez...