Ce rassemblement marquant marque une avancée significative dans la promotion de la coopération mondiale en matière de sécurité de l'IA. La réunion est organisée autour de trois pistes.
Dans le cadre du volet 1, le réseau discutera des initiatives visant à atténuer les risques associés aux contenus synthétiques générés par l’IA, en mettant l’accent sur les techniques de transparence des contenus numériques ainsi que sur les garanties au niveau du modèle et du système d’IA afin de réduire et de prévenir les productions synthétiques préjudiciables ou illégales telles que les contenus pédopornographiques. Les participants discuteront des principes et des pratiques initiales. Bien que les méthodes techniques continuent d’évoluer, les meilleures pratiques peuvent favoriser l’alignement des parties prenantes sur la transparence et l’atténuation des risques découlant des contenus synthétiques et démontrer la confiance des publics ciblés. Des approches complémentaires - y compris des mesures normatives, éducatives, réglementaires et fondées sur le marché - sont essentielles.
Les contributions des parties prenantes au cours de la réunion affineront ces travaux, préparant le terrain pour les discussions lors du sommet d’action de Paris sur l’IA en février 2025.
La piste 2 se concentrera sur l'évaluation et la mise à l'essai des modèles de fondation. L'objectif est de favoriser une compréhension commune de la façon de mener des évaluations pour finalement atteindre un état de tests complémentaires parmi les membres du réseau. Les instituts de sécurité de l'IA présenteront un prototype d'exercice de test conjoint qui jettera les bases d'une discussion sur la manière de l'étendre et de le faire évoluer en préparation du sommet AI Action en France.
Dans la voie 3, le réseau approuvera une déclaration commune sur l’évaluation des risques des systèmes d’IA avancés. Ce document technique, coordonné par le Bureau de l'IA de l'UE avec le Royaume-Uni, décrit l'évolution de la science et de la pratique de l'évaluation des risques. Il vise à établir une base technique commune pour soutenir les efforts en cours du réseau visant à créer des stratégies globales et efficaces d’évaluation des risques pour les systèmes d’IA avancés.
La déclaration commune présente six aspects essentiels pour une évaluation solide des risques:
- Aperçus exploitables
- Transparence
- Portée globale
- Participation multipartite
- Processus itératifs
- Reproductibilité
La piste 3 discutera de la manière dont ce travail pourrait progresser jusqu'au sommet d'action sur l'IA en France en février.
Vous trouverez de plus amples informations sur le réseau international des instituts de sécurité de l’IA.