
Le 5 novembre, le Bureau de l’IA a tenu une séance plénière de lancement pour lancer l’élaboration du nouveau code de bonnes pratiques sur le marquage et l’étiquetage des contenus générés par l’IA au titre de la législation sur l’IA. Cela marque le début d’un processus multipartite de sept mois visant à élaborer un cadre solide et volontaire qui aidera les déployeurs et les fournisseurs de systèmes d’IA générative à démontrer le respect des obligations de marquage et d’étiquetage énoncées à l’article 50 de la législation sur l’IA. L'objectif est de faire face aux risques de tromperie et de manipulation découlant de contenus synthétiques qui deviennent de plus en plus difficiles à distinguer, de favoriser la confiance et d'améliorer l'intégrité de l'écosystème de l'information.
Le code sera élaboré par deux groupes de travail spécialisés, axés sur les obligations énoncées à l’article 50 de la législation sur l’IA. Chaque groupe de travail sera dirigé par des présidents et des vice-présidents indépendants qui seront chargés de rédiger le code. Le retour d’information de la consultation multipartite sur les exigences de transparence applicables à certains systèmes d’IA sera pris en considération dans le cadre de ce processus. Les présidents et vice-présidents utiliseront également les études d’experts commandées par le Bureau de l’IA et les contributions des parties prenantes éligibles participant au processus du code de bonnes pratiques.
Les présidents et les vice-présidents sont censés fournir un leadership et des conseils stratégiques, en veillant à ce que les discussions restent ciblées et productives. Ils travailleront en étroite collaboration avec le Bureau de l’IA qui coordonnera le processus et pourront être invités à faire rapport sur les progrès accomplis au comité de l’IA ou au Parlement européen.
Les groupes de travail se concentreront sur les domaines suivants:
- Groupe de travail 1: Obligations de transparence applicables aux fournisseurs de systèmes d’IA générative
- Groupe de travail 2: Obligations de transparence applicables aux déployeurs de systèmes d’IA générative
Vous pouvez télécharger la liste complète des participants des groupes de travail 1&2(PDF).
Compte tenu de leur rôle central dans l’élaboration du code, les présidents et vice-présidents ont été soigneusement sélectionnés en fonction de leur expertise en matière de transparence du contenu généré par l’IA, de leur indépendance et de leur capacité à s’acquitter efficacement de leurs responsabilités. D'autres considérations pertinentes, telles que l'équilibre entre les sexes et l'équilibre géographique, ont également été prises en considération. Collectivement, ils rassemblent de solides compétences techniques, en sciences sociales et en politiques juridiques, couvrant l’ensemble des questions liées à la transparence générative de l’IA. Leur expertise couvre l’IA et la science des données, la désinformation, le marquage et la détection de l’IA, la criminalistique numérique, la transparence algorithmique, les contenus générés par les médias et l’IA, la gouvernance numérique et le droit constitutionnel, garantissant ainsi une approche multidisciplinaire reliant la technologie, la société et la réglementation.
La plénière de lancement a fourni de plus amples détails sur le processus de rédaction en situant le code de bonnes pratiques dans la législation sur l’IA, en décrivant les objectifs, le calendrier et les méthodes de travail avec les différents acteurs concernés et en donnant un aperçu des contributions de consultation multipartites reçues qui seront utilisées par les présidents pour éclairer la première version du code.
Liste des présidents et vice-présidents
Groupe de travail 1

Président: Kalina Bontcheva est une professeure qui dirige une équipe de recherche de 20 personnes à l'École d'informatique de l'Université de Sheffield et est chercheuse principale invitée à l'Institut Big Data for Smart Society en Bulgarie. Elle est également membre du Centre pour la liberté des médias de Sheffield. Les recherches de Kalina sont axées sur la détection de la désinformation générée par l’IA, les méthodes d’apprentissage automatique pour la détection de la désinformation et de la désinformation, l’analyse des abus en ligne et la détection des discours de haine; analyse à grande échelle et en temps réel du contenu des médias sociaux.

Vice-président: Dino Pedreschi est professeur d'informatique à l'Université de Pise et scientifique pionnier dans les sciences des données sociales, l'intelligence artificielle centrée sur l'homme et la coévolution homme-IA. Dino co-dirige le Knowledge Discovery & Data Mining Laboratory à Pise, et « Human-centered AI » a parlé du projet Next Generation EU FAIR - Future AI Research.

Christian Riess, vice-président, est professeur à la Friedrich-Alexander Universität Erlangen-Nürnberg, en Allemagne. Son expertise est dans la criminalistique des médias et la dissimulation d'informations, en utilisant des techniques à l'intersection du traitement du signal, de l'apprentissage automatique et de la sécurité. Entre autres projets, il a été PI dans le programme DARPA MediFor et il est actuellement PI dans le groupe de formation à la recherche 2475 "Cybercriminalité et informatique légale" par la Fondation allemande de la recherche.
Groupe de travail 2

Président: Anja Bechmann est professeure à Media Studies et directrice du DATALAB - Center for Digital Social Research à l'Université d'Aarhus au Danemark. Ses recherches examinent le comportement collectif des plateformes à travers des données de trace à grande échelle, en mettant l'accent sur les défis à la démocratie tels que la désinformation et les deepfakes. Elle est actuellement PI du projet Independent Research Fund Denmark Social Media Influence, fondatrice de l'Observatoire nordique des troubles de l'information (NORDIS) et ancienne membre du conseil exécutif fondateur de l'Observatoire européen des médias numériques (EDMO). Elle était membre du groupe d’experts de haut niveau de la Commission européenne sur la désinformation.

Vice-président: Giovanni De Gregorio est titulaire de la chaire PLMJ de droit et de technologie à la Católica Global School of Law et à la Católica Lisbon School of Law. Son expertise en recherche se situe à l'intersection du droit européen, du droit constitutionnel et de la politique numérique, en mettant l'accent sur la réglementation et la gouvernance de l'IA. Giovanni est l’auteur de la monographie intitulée «Digital Constitutionalism in Europe: Reframing Rights and Powers in the Algorithmic Society» (Cambridge University Press, 2022), et il est le coéditeur correspondant de «The Oxford Handbook on Digital Constitutionalism» (OUP, à paraître).

Vice-président: Madalina Botan est professeure agrégée à la SNSPA (Bucarest) et coordonne le Center for Media Studies. Ses recherches portent sur la désinformation, la propagande algorithmique, les distorsions des processus démocratiques induites par l’IA et les évaluations des cadres réglementaires pour les plateformes numériques et les déployeurs d’IA. Elle a dirigé les évaluations de l’Observatoire européen des médias numériques sur la conformité des plateformes avec le code de bonnes pratiques contre la désinformation et coordonne désormais le pôle EDMO Bulgarie-Roumanie (BROD). Elle siège au groupe scientifique de l'IPIE sur l'indexation de l'environnement de l'information, coordonne la recherche dans le cadre du projet WHAT-IF d'Horizon Europe et siège à deux comités de gestion de l'action COST de l'UE.