Tento míľnik predstavuje významný pokrok pri podpore globálnej spolupráce v oblasti bezpečnosti umelej inteligencie. Zasadnutie sa koná v troch okruhoch.
V rámci okruhu 1 bude sieť diskutovať o iniciatívach na zmiernenie rizík spojených so syntetickým obsahom vytvoreným umelou inteligenciou, pričom sa zameria na techniky transparentnosti digitálneho obsahu, ako aj na záruky na úrovni modelu a systému umelej inteligencie s cieľom znížiť škodlivé alebo nezákonné syntetické výstupy, ako sú materiály obsahujúce sexuálne zneužívanie detí, a predchádzať im. Účastníci budú diskutovať o zásadách a počiatočných postupoch. Hoci sa technické metódy stále vyvíjajú, najlepšie postupy môžu podporiť zosúladenie zainteresovaných strán v oblasti transparentnosti a zmierňovania rizík vyplývajúcich zo syntetického obsahu a preukázať dôveru cieľovému publiku. Nevyhnutné sú doplnkové prístupy vrátane normatívnych, vzdelávacích, regulačných a trhových opatrení.
Príspevok zainteresovaných strán počas zasadnutia túto prácu vylepší a pripraví pôdu pre diskusie na parížskom akčnom samite o umelej inteligencii vo februári 2025.
Track 2 sa zameria na hodnotenie a testovanie základných modelov. Cieľom je podporiť spoločné chápanie toho, ako vykonávať hodnotenia, aby sa v konečnom dôsledku dosiahol stav doplnkového testovania medzi členmi siete. Inštitúty pre bezpečnosť umelej inteligencie predstavia prototyp spoločného testovacieho cvičenia, ktoré položí základ pre diskusiu o tom, ako ho rozšíriť a rozvinúť v rámci prípravy na samit o akcii v oblasti umelej inteligencie vo Francúzsku.
V treťom kroku sieť schváli spoločné vyhlásenie o hodnotení rizík pokročilých systémov umelej inteligencie. V tomto technickom dokumente, ktorý koordinuje Úrad EÚ pre umelú inteligenciu so Spojeným kráľovstvom, sa opisuje vyvíjajúca sa veda a prax v oblasti posudzovania rizík. Jeho cieľom je vytvoriť spoločnú technickú základňu na podporu prebiehajúceho úsilia siete o vytvorenie komplexných a účinných stratégií posudzovania rizík pre pokročilé systémy umelej inteligencie.
V spoločnom vyhlásení sa uvádza šesť kľúčových aspektov, ktoré sú nevyhnutné pre dôkladné posúdenie rizika:
- Praktické postrehy
- Transparentnosť
- Komplexný rozsah pôsobnosti
- Zapojenie viacerých zainteresovaných strán
- Iteratívne procesy
- Reprodukovateľnosť
V rámci okruhu 3 sa bude diskutovať o tom, ako by táto práca mohla ďalej napredovať až do februárového samitu o akcii v oblasti umelej inteligencie vo Francúzsku.
Ďalšie informácie o Medzinárodnej sieti inštitútov pre bezpečnosť umelej inteligencie.