Ta mejnik pomeni pomemben napredek pri spodbujanju globalnega sodelovanja na področju varnosti umetne inteligence. Srečanje je organizirano v treh smereh.
V okviru sklopa 1 bo mreža razpravljala o pobudah za zmanjšanje tveganj, povezanih s sintetičnimi vsebinami, ustvarjenimi z umetno inteligenco, pri čemer se bo osredotočila na tehnike preglednosti digitalnih vsebin ter zaščitne ukrepe na ravni modela umetne inteligence in sistema za zmanjšanje in preprečevanje škodljivih ali nezakonitih sintetičnih rezultatov, kot so posnetki spolne zlorabe otrok. Udeleženci bodo razpravljali o načelih in začetnih praksah. Čeprav se tehnične metode še vedno razvijajo, lahko dobre prakse spodbudijo usklajevanje deležnikov na področju preglednosti in zmanjševanja tveganj, ki izhajajo iz sintetičnih vsebin, ter izkažejo zaupanje ciljnemu občinstvu. Bistvenega pomena so dopolnilni pristopi, vključno z normativnimi, izobraževalnimi, regulativnimi in tržnimi ukrepi.
Prispevki deležnikov na srečanju bodo izpopolnili to delo in postavili temelje za razprave na pariškem akcijskem vrhu za umetno inteligenco februarja 2025.
Sklop 2 bo osredotočen na ocenjevanje in preskušanje temeljnih modelov. Cilj je spodbujati skupno razumevanje, kako izvajati vrednotenja, da bi sčasoma dosegli stanje dopolnilnega testiranja med člani mreže. Inštituti za varnost umetne inteligence bodo predstavili prototip skupne testne vaje, ki bo postavila temelje za razpravo o tem, kako to razširiti in razviti v okviru priprav na akcijski vrh o umetni inteligenci v Franciji.
V okviru sklopa 3 bo mreža potrdila skupno izjavo o oceni tveganja naprednih umetnointeligenčnih sistemov. V tem tehničnem dokumentu, ki ga usklajuje urad EU za umetno inteligenco z Združenim kraljestvom, sta opisani razvijajoča se znanost in praksa ocenjevanja tveganja. Njegov cilj je vzpostaviti skupno tehnično podlago za podporo stalnim prizadevanjem mreže za oblikovanje celovitih in učinkovitih strategij ocenjevanja tveganja za napredne umetnointeligenčne sisteme.
Skupna izjava uvaja šest ključnih vidikov, ki so bistveni za zanesljivo oceno tveganja:
- Vpogledi, ki jih je mogoče uporabiti
- Preglednost
- Celovito področje uporabe
- Sodelovanje več deležnikov
- Iterativni procesi
- Obnovljivost
V tretjem sklopu bo potekala razprava o tem, kako bi lahko to delo napredovalo do februarskega akcijskega vrha o umetni inteligenci v Franciji.
Več informacij o mednarodni mreži inštitutov za varnost umetne inteligence.