Le présent code de bonnes pratiques vise à soutenir le respect des obligations de transparence prévues par la législation sur l’IA en ce qui concerne le marquage et l’étiquetage des contenus générés par l’IA.
Marquage et étiquetage des contenus générés par l’IA
Les obligations prévues à l’article 50 de la législation sur l’IA (obligations de transparence pour les fournisseurs et les déployeurs de systèmes d’IA génératifs) visent à garantir la transparence des contenus générés ou manipulés par l’IA, tels que les deep fakes. L'article traite des risques de tromperie et de manipulation, favorisant l'intégrité de l'écosystème de l'information. Ces obligations de transparence compléteront d’autres règles telles que celles applicables aux systèmes d’IA à haut risque ou aux modèles d’IA à usage général.
Afin de contribuer au respect de ces obligations de transparence, le Bureau de l’IA a lancé le processus d’élaboration d’un code de bonnes pratiques sur la transparence des contenus générés par l’IA. Le code sera rédigé par des experts indépendants nommés par le Bureau de l’IA dans le cadre d’un processus inclusif. Les parties prenantes éligibles participeront à la rédaction du code. S’il est approuvé par la Commission, le code final servira d’outil volontaire permettant aux fournisseurs et aux déployeurs de systèmes d’IA générative de démontrer le respect de leurs obligations respectives au titre de l’article 50, paragraphes 2 et 4, de la législation sur l’IA. Ces obligations concernent le marquage et la détection du contenu généré par l’IA et l’étiquetage des contrefaçons profondes et de certaines publications générées par l’IA.
Champ d'application des groupes de travail
La rédaction du code s’articule autour de deux groupes de travail, suivant la structure des obligations de transparence pour les contenus générés par l’IA à l’article 50.
Groupe de travail 1: Fournisseurs
Se concentre sur les obligations, exigeant des fournisseurs de systèmes d’IA générative qu’ils garantissent:
- Les sorties des systèmes d’IA (audio, image, vidéo, texte) sont marquées dans un format lisible par machine et détectables comme générées ou manipulées artificiellement.
- Les solutions techniques employées sont efficaces, interopérables, robustes et fiables dans la mesure où cela est techniquement possible. Celles-ci doivent tenir compte des spécificités et des limites des différents types de contenu, des coûts de mise en œuvre et de l'état de la technique généralement reconnu, tel qu'il peut être reflété dans les normes techniques pertinentes.
Groupe de travail 2: Déployeurs
Se concentre sur les obligations, exigeant des déployeurs de systèmes d’IA générative qu’ils divulguent:
- Contenu généré ou manipulé artificiellement, constituant un faux profond (image, audio ou vidéo qui ressemble à des personnes, objets, lieux, entités ou événements existants et qui semblerait faussement authentique ou véridique à une personne).
- Publication de textes générés/manipulés par l’IA informant le public sur des questions d’intérêt public, à moins que la publication n’ait fait l’objet d’un processus de révision humaine et ne soit soumise à la responsabilité éditoriale.
Les deux groupes examineront également des questions transversales, y compris les exigences horizontales relatives aux informations à fournir aux personnes physiques en vertu de l’article 50, paragraphe 5, et viseront à promouvoir la coopération entre les acteurs concernés tout au long de la chaîne de valeur afin d’atteindre les objectifs de la législation sur l’IA en matière de marquage et d’étiquetage des contenus générés par l’IA.
Chaque groupe de travail sera dirigé par des présidents et des vice-présidents indépendants, qui sont censés fournir un leadership et une orientation stratégiques, en veillant à ce que les discussions restent ciblées et productives. Vous pouvez télécharger la liste complète des participants des groupes de travail 1&2(PDF).
Processus de rédaction
La rédaction du code implique des parties prenantes éligibles qui ont répondu à un appel public lancé par le Bureau de l’IA. Ce groupe comprend des fournisseurs de systèmes d’IA générative spécifiques, des développeurs de techniques de marquage et de détection, des associations de déployeurs de systèmes d’IA générative, des organisations de la société civile, des experts universitaires et des organisations spécialisées possédant une expertise en matière de transparence et de très grandes plateformes en ligne.
Dans son rôle de facilitateur, le Bureau de l’IA a également invité des observateurs internationaux et européens à se joindre à l’élaboration du code de bonnes pratiques. Ces organisations ne satisfaisaient pas aux critères d’éligibilité de l’appel, mais peuvent néanmoins apporter une expertise précieuse et soumettre des contributions écrites. Tous les participants et observateurs seront invités à participer aux séances plénières, aux réunions des groupes de travail et aux ateliers thématiques consacrés à l'examen des aspects techniques du Code.
Le processus de rédaction tiendra compte des éléments suivants:
- Retour d’information de la consultation multipartite sur les exigences de transparence applicables à certains systèmes d’IA
- Études d’experts commandées par le Bureau de l’IA et contributions des parties prenantes éligibles participant à l’élaboration du code de bonnes pratiques
L'exercice complet devrait durer 7 mois. Ce calendrier laisse suffisamment de temps aux fournisseurs et aux déployeurs pour se préparer à la conformité avant l'entrée en vigueur des règles en août 2026. Les obligations de transparence prévues à l’article 50 de la législation sur l’IA compléteront d’autres règles telles que celles applicables aux systèmes d’IA à haut risque ou aux modèles d’IA à usage général.
La Commission élaborera en parallèle des lignes directrices visant à clarifier la portée des obligations juridiques et à traiter des aspects non couverts par le code.
Chronologie
Les réunions du groupe de travail et les ateliers avec les participants, les présidents et les vice-présidents auront lieu entre novembre 2025 et mai 2026.
Les dates ci-dessous sont indicatives et devront peut-être être confirmées (à confirmer).
-
Septembre 2025Appel à manifestation d’intérêt pour participer au code de bonnes pratiques (également sur le lien ci-dessus)
-
Octobre 2025Contrôles d’éligibilité et sélection des candidatures aux postes de président et de vice-président
-
17-18 novembre 2025
-
17 décembre 2025
-
12 & 14 janvier 2026Réunions des groupes de travailDébut du deuxième cycle de rédaction
-
21-22 janvier 2026Ateliers - groupes de travail 1 & 2
-
Mars 2026 (à confirmer)Publication du deuxième projetDébut du dernier cycle de rédaction
-
Avril 2026 (à confirmer)Réunions des groupes de travail
-
Mai-juin 2026Plénière de clôturePublication du code de bonnes pratiques définitif
Contenu associé
Vue d’ensemble