To ważne wydarzenie stanowi znaczący postęp we wspieraniu globalnej współpracy w zakresie bezpieczeństwa sztucznej inteligencji. Spotkanie jest zorganizowane wokół trzech ścieżek.
W ramach ścieżki 1 sieć omówi inicjatywy mające na celu ograniczenie ryzyka związanego z treściami generowanymi przez sztuczną inteligencję, koncentrując się na technikach przejrzystości treści cyfrowych, a także zabezpieczeniach na poziomie modelu i systemu sztucznej inteligencji w celu ograniczenia szkodliwych lub nielegalnych wyników syntetycznych, takich jak materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, i zapobiegania im. Uczestnicy omówią zasady i wstępne praktyki. Chociaż metody techniczne wciąż się rozwijają, najlepsze praktyki mogą wspierać dostosowanie zainteresowanych stron w zakresie przejrzystości i ograniczania ryzyka wynikającego z treści syntetycznych oraz wykazywać zaufanie do docelowych odbiorców. Niezbędne są podejścia uzupełniające - w tym środki normatywne, edukacyjne, regulacyjne i rynkowe.
Wkład zainteresowanych stron w trakcie spotkania udoskonali te prace, przygotowując grunt pod dyskusje na paryskim szczycie w sprawie AI w lutym 2025 r.
Ścieżka 2 skupi się na ocenie i testowaniu modeli fundamentowych. Celem jest wspieranie wspólnego zrozumienia, w jaki sposób przeprowadzać oceny, aby ostatecznie osiągnąć stan komplementarnych testów wśród członków sieci. Instytuty bezpieczeństwa AI zaprezentują prototyp wspólnego ćwiczenia testowego, które położy podwaliny pod dyskusję na temat tego, jak rozszerzyć i rozwinąć to w ramach przygotowań do szczytu AI Action we Francji.
W ramach ścieżki 3 sieć zatwierdzi wspólne oświadczenie w sprawie oceny ryzyka związanego z zaawansowanymi systemami sztucznej inteligencji. Niniejszy dokument techniczny, koordynowany przez Urząd UE ds. Sztucznej Inteligencji ze Zjednoczonym Królestwem, przedstawia ewolucję nauki i praktyki w zakresie oceny ryzyka. Jego celem jest ustanowienie wspólnej podstawy technicznej w celu wsparcia bieżących wysiłków sieci na rzecz stworzenia kompleksowych i skutecznych strategii oceny ryzyka dla zaawansowanych systemów sztucznej inteligencji.
We wspólnym oświadczeniu wprowadzono sześć kluczowych aspektów niezbędnych do rzetelnej oceny ryzyka:
- Przekonujące spostrzeżenia
- Przejrzystość
- Kompleksowy zakres
- Zaangażowanie wielu zainteresowanych stron
- Procesy iteracyjne
- Odtwarzalność
Ścieżka 3 omówi, w jaki sposób prace te mogą posunąć się dalej do szczytu AI Action Summit we Francji w lutym.
Więcej informacji na temat Międzynarodowej Sieci Instytutów Bezpieczeństwa Sztucznej Inteligencji .