Skip to main content
Kształtowanie cyfrowej przyszłości Europy
Report / Study | Publikacja

Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji

W dniu 8 kwietnia 2019 r. grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji przedstawiła wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji. Po opublikowaniu pierwszego projektu wytycznych w grudniu 2018 r. otrzymano ponad 500 uwag w ramach otwartych konsultacji.

Zgodnie z wytycznymi wiarygodna sztuczna inteligencja powinna być:

Zgodne z prawem – przestrzeganie wszystkich mających zastosowanie przepisów ustawowych i wykonawczych

(2) etyczne – poszanowanie zasad i wartości etycznych

3) solidny – zarówno z technicznego punktu widzenia, jak i z uwzględnieniem otoczenia społecznego

Pobierz wytyczne w swoim języku poniżej:

BG [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] CS [NOTRANSLATE] ==DELETE= =|[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DAEL ≠ EN Ļ ES ETFIFR |0|1|2|[ /NOTRANSLATE]3[NOTRANSLATE]==DELETE = =|4[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]5 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]6[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]8 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]1 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

Wytyczne te zawierają zestaw siedmiu kluczowych wymagań, które powinny spełniać systemy AI, aby mogły zostać uznane za godne zaufania. Szczegółowa lista kontrolna ma pomóc w weryfikacji stosowania każdego z kluczowych wymogów:

  • Przewodnia i nadzorcza rola człowieka — Systemy sztucznej inteligencji powinny wzmacniać pozycję ludzi, umożliwiając im podejmowanie świadomych decyzji i wspierając ich prawa podstawowe. Jednocześnie należy zapewnić odpowiednie mechanizmy nadzoru, które można osiągnąć poprzez podejście oparte na człowieku w pętli, człowiek-w pętli i człowiek-dowództwo.
  • Pewność i bezpieczeństwo techniczne: Systemy sztucznej inteligencji muszą być odporne i bezpieczne. Muszą być bezpieczne, zapewniając plan awaryjny w przypadku problemów, a także precyzję, rzetelność i odtwarzalność. Jest to jedyny sposób na zapewnienie zminimalizowania i zapobieżenia również niezamierzonym szkodom.
  • Ochrona prywatności i danych — oprócz zapewnienia pełnego poszanowania prywatności i ochrony danych należy również zapewnić odpowiednie mechanizmy zarządzania danymi, z uwzględnieniem jakości i integralności danych oraz przy zapewnieniu usprawiedliwionego dostępu do danych.
  • Przejrzystość: modele biznesowe oparte na danych, systemach i sztucznej inteligencji powinny być przejrzyste. Mechanizmy identyfikowalności mogą pomóc w osiągnięciu tego celu. Ponadto systemy sztucznej inteligencji i ich decyzje należy wyjaśnić w sposób dostosowany do zainteresowanych stron. Ludzie muszą być świadomi, że wchodzą w interakcję z systemem sztucznej inteligencji, oraz muszą być informowani o możliwościach i ograniczeniach systemu.
  • Różnorodność, niedyskryminacja i sprawiedliwość — Należy unikać niesprawiedliwej tendencyjności, ponieważ może ona mieć wiele negatywnych skutków, począwszy od marginalizacji słabszych grup społecznych po nasilenie uprzedzeń i dyskryminacji. Wspierając różnorodność, systemy sztucznej inteligencji powinny być dostępne dla wszystkich, niezależnie od wszelkich niepełnosprawności, i angażować odpowiednie zainteresowane strony w całym cyklu życiowym.
  • Dobrostan społeczny i środowiskowy — Systemy sztucznej inteligencji powinny przynosić korzyści wszystkim ludziom, w tym przyszłym pokoleniom. Należy zatem zadbać o to, by były one zrównoważone i przyjazne dla środowiska. Ponadto powinny one uwzględniać środowisko, w tym inne istoty żywe, a ich wpływ społeczny i społeczny należy starannie rozważyć. 
  • Rozliczalność: Należy wprowadzić mechanizmy zapewniające odpowiedzialność za systemy SI oraz ich wyniki. Możliwość kontroli, która umożliwia ocenę algorytmów, danych i procesów projektowania, odgrywa kluczową rolę w tym procesie, zwłaszcza w zastosowaniach o krytycznym znaczeniu. Ponadto należy zapewnić odpowiednie dostępne środki odwoławcze.

Grupa ekspertów wysokiego szczebla ds. AI przygotowała również dokument, w którym omówiono definicję sztucznej inteligencji stosowaną do celów wytycznych.

Pobierz definicję sztucznej inteligencji w poniższym języku:

BG [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] CS [NOTRANSLATE] ==DELETE= =|[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DAEL ≠ EN Ļ ES ETFIFR |0|1|2|[ /NOTRANSLATE]3[NOTRANSLATE]==DELETE = =|4[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]5 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]6[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]8 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]1 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

 

Proces pilotażowy

Dokument zawiera również wykaz ocen, który wprowadza w życie kluczowe wymogi i zawiera wytyczne dotyczące ich wdrożenia w praktyce. Począwszy od 26 czerwca ta lista ewaluacyjna została poddana procesowi pilotażowemu, w ramach którego wszystkie zainteresowane strony zostały poproszone o przetestowanie listy oceniającej i przedstawienie praktycznych informacji zwrotnych na temat tego, w jaki sposób można ją ulepszyć.

Informacje zwrotne otrzymano za pośrednictwem różnych ścieżek:

Etap pilotażowy zakończył się 1 grudnia 2019 r.

Na podstawie otrzymanych informacji zwrotnych grupa ekspertów wysokiego szczebla ds. AI przedstawiła w lipcu 2020 r. ostateczną listę kontrolną dotyczącągodnej zaufania sztucznej inteligencji (ALTAI). Altai jest praktycznym narzędziem, które przekłada wytyczne dotyczące etyki na dostępną i dynamiczną listę kontrolną (samooceny). Lista kontrolna może być wykorzystywana przez twórców i podmioty wdrażające sztuczną inteligencję, które chcą wdrożyć kluczowe wymogi w praktyce. Ten nowy wykaz jest dostępny jako prototypowe narzędzie internetowe w formacie PDF.