Zgodnie z wytycznymi wiarygodna sztuczna inteligencja powinna być:
Zgodne z prawem – przestrzeganie wszystkich mających zastosowanie przepisów ustawowych i wykonawczych
(2) etyczne – poszanowanie zasad i wartości etycznych
3) solidny – zarówno z technicznego punktu widzenia, jak i z uwzględnieniem otoczenia społecznego
Pobierz wytyczne w swoim języku poniżej:
BG [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] CS [NOTRANSLATE] ==DELETE= =|[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DA ≠ EL ≠ EN Ļ ES ET ≠ FI ≠ FR |0|1|2|[ /NOTRANSLATE]3[NOTRANSLATE]==DELETE = =|4[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]5 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]6[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]8 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]1 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2
Wytyczne te zawierają zestaw siedmiu kluczowych wymagań, które powinny spełniać systemy AI, aby mogły zostać uznane za godne zaufania. Szczegółowa lista kontrolna ma pomóc w weryfikacji stosowania każdego z kluczowych wymogów:
- Przewodnia i nadzorcza rola człowieka — Systemy sztucznej inteligencji powinny wzmacniać pozycję ludzi, umożliwiając im podejmowanie świadomych decyzji i wspierając ich prawa podstawowe. Jednocześnie należy zapewnić odpowiednie mechanizmy nadzoru, które można osiągnąć poprzez podejście oparte na człowieku w pętli, człowiek-w pętli i człowiek-dowództwo.
- Pewność i bezpieczeństwo techniczne: Systemy sztucznej inteligencji muszą być odporne i bezpieczne. Muszą być bezpieczne, zapewniając plan awaryjny w przypadku problemów, a także precyzję, rzetelność i odtwarzalność. Jest to jedyny sposób na zapewnienie zminimalizowania i zapobieżenia również niezamierzonym szkodom.
- Ochrona prywatności i danych — oprócz zapewnienia pełnego poszanowania prywatności i ochrony danych należy również zapewnić odpowiednie mechanizmy zarządzania danymi, z uwzględnieniem jakości i integralności danych oraz przy zapewnieniu usprawiedliwionego dostępu do danych.
- Przejrzystość: modele biznesowe oparte na danych, systemach i sztucznej inteligencji powinny być przejrzyste. Mechanizmy identyfikowalności mogą pomóc w osiągnięciu tego celu. Ponadto systemy sztucznej inteligencji i ich decyzje należy wyjaśnić w sposób dostosowany do zainteresowanych stron. Ludzie muszą być świadomi, że wchodzą w interakcję z systemem sztucznej inteligencji, oraz muszą być informowani o możliwościach i ograniczeniach systemu.
- Różnorodność, niedyskryminacja i sprawiedliwość — Należy unikać niesprawiedliwej tendencyjności, ponieważ może ona mieć wiele negatywnych skutków, począwszy od marginalizacji słabszych grup społecznych po nasilenie uprzedzeń i dyskryminacji. Wspierając różnorodność, systemy sztucznej inteligencji powinny być dostępne dla wszystkich, niezależnie od wszelkich niepełnosprawności, i angażować odpowiednie zainteresowane strony w całym cyklu życiowym.
- Dobrostan społeczny i środowiskowy — Systemy sztucznej inteligencji powinny przynosić korzyści wszystkim ludziom, w tym przyszłym pokoleniom. Należy zatem zadbać o to, by były one zrównoważone i przyjazne dla środowiska. Ponadto powinny one uwzględniać środowisko, w tym inne istoty żywe, a ich wpływ społeczny i społeczny należy starannie rozważyć.
- Rozliczalność: Należy wprowadzić mechanizmy zapewniające odpowiedzialność za systemy SI oraz ich wyniki. Możliwość kontroli, która umożliwia ocenę algorytmów, danych i procesów projektowania, odgrywa kluczową rolę w tym procesie, zwłaszcza w zastosowaniach o krytycznym znaczeniu. Ponadto należy zapewnić odpowiednie dostępne środki odwoławcze.
Grupa ekspertów wysokiego szczebla ds. AI przygotowała również dokument, w którym omówiono definicję sztucznej inteligencji stosowaną do celów wytycznych.
Pobierz definicję sztucznej inteligencji w poniższym języku:
BG [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] CS [NOTRANSLATE] ==DELETE= =|[/NOTRANSLATE] DE [NOTRANSLATE]= =DELETE==|[/NOTRANSLATE] DA ≠ EL ≠ EN Ļ ES ET ≠ FI ≠ FR |0|1|2|[ /NOTRANSLATE]3[NOTRANSLATE]==DELETE = =|4[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]5 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]6[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]8 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]9[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]0[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE]1 [ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2
Proces pilotażowy
Dokument zawiera również wykaz ocen, który wprowadza w życie kluczowe wymogi i zawiera wytyczne dotyczące ich wdrożenia w praktyce. Począwszy od 26 czerwca ta lista ewaluacyjna została poddana procesowi pilotażowemu, w ramach którego wszystkie zainteresowane strony zostały poproszone o przetestowanie listy oceniającej i przedstawienie praktycznych informacji zwrotnych na temat tego, w jaki sposób można ją ulepszyć.
Informacje zwrotne otrzymano za pośrednictwem różnych ścieżek:
- Otwarta ankieta lub „analiza ilościowa” wysłana do wszystkich osób, które zarejestrowały się w projekcie pilotażowym
- Szczegółowe wywiady z szeregiem organizacji przedstawicielskich w celu zebrania bardziej szczegółowych informacji zwrotnych dotyczących różnych sektorów
- Stała możliwość przesyłania informacji zwrotnych i najlepszych praktyk za pośrednictwem europejskiego sojuszu na rzecz sztucznej inteligencji
Etap pilotażowy zakończył się 1 grudnia 2019 r.
Na podstawie otrzymanych informacji zwrotnych grupa ekspertów wysokiego szczebla ds. AI przedstawiła w lipcu 2020 r. ostateczną listę kontrolną dotyczącągodnej zaufania sztucznej inteligencji (ALTAI). Altai jest praktycznym narzędziem, które przekłada wytyczne dotyczące etyki na dostępną i dynamiczną listę kontrolną (samooceny). Lista kontrolna może być wykorzystywana przez twórców i podmioty wdrażające sztuczną inteligencję, które chcą wdrożyć kluczowe wymogi w praktyce. Ten nowy wykaz jest dostępny jako prototypowe narzędzie internetowe w formacie PDF.