Questa pietra miliare segna un progresso significativo nella promozione della cooperazione globale sulla sicurezza dell'IA. L'incontro è organizzato su tre binari.
Nella traccia 1, la rete discuterà le iniziative volte a mitigare i rischi associati ai contenuti sintetici generati dall'IA, concentrandosi sulle tecniche di trasparenza dei contenuti digitali nonché sulle garanzie a livello di modello e di sistema di IA per ridurre e prevenire i risultati sintetici dannosi o illegali, come i materiali pedopornografici. I partecipanti discuteranno i principi e le pratiche iniziali. Sebbene i metodi tecnici siano ancora in evoluzione, le migliori pratiche possono promuovere l'allineamento delle parti interessate in materia di trasparenza e attenuazione dei rischi derivanti dai contenuti sintetici e dimostrare la fiducia nei confronti di un pubblico mirato. Approcci complementari - tra cui misure normative, educative, normative e basate sul mercato - sono essenziali.
I contributi delle parti interessate durante la riunione perfezioneranno questo lavoro, gettando le basi per le discussioni al vertice d'azione sull'IA di Parigi nel febbraio 2025.
La traccia 2 si concentrerà sulla valutazione e sulla sperimentazione dei modelli di base. L'obiettivo è promuovere una comprensione comune di come condurre valutazioni per raggiungere infine uno stato di test complementari tra i membri della rete. Gli istituti di sicurezza dell'IA presenteranno un prototipo di un esercizio di test congiunto che getterà le basi per discutere su come espanderlo ed evolverlo in preparazione del vertice AI Action in Francia.
Nel binario 3, la rete approverà una dichiarazione congiunta sulla valutazione dei rischi dei sistemi avanzati di IA. Questo documento tecnico, coordinato dall'Ufficio dell'UE per l'IA con il Regno Unito, delinea l'evoluzione della scienza e della pratica della valutazione del rischio. Mira a stabilire una base tecnica condivisa per sostenere gli sforzi in corso della rete volti a creare strategie di valutazione dei rischi complete ed efficaci per i sistemi di IA avanzati.
La dichiarazione congiunta introduce sei aspetti chiave essenziali per una solida valutazione del rischio:
- Intuizioni attuabili
- Trasparenza
- Ambito di applicazione generale
- Coinvolgimento multipartecipativo
- Processi iterativi
- Riproducibilità
La traccia 3 discuterà di come questo lavoro potrebbe progredire ulteriormente fino al vertice di azione sull'IA in Francia a febbraio.
Per ulteriori informazioni sulla rete internazionale degli istituti per la sicurezza dell'IA .