Le code de bonnes pratiques aide l’industrie à se conformer aux obligations légales de la législation sur l’IA en matière de sécurité, de transparence et de droit d’auteur des modèles d’IA à usage général.
Le code de bonnes pratiques pour l’IA à usage général (GPAI) est un outil volontaire, élaboré par des experts indépendants dans le cadre d’un processus multipartite, conçu pour aider l’industrie à se conformer aux obligations de la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général. En savoir plus sur le calendrier et le processus de rédaction du code.
Le code a été publié le 10 juillet 2025. Elle est complétée par des lignes directrices de la Commission sur les concepts clés liés aux modèles d’IA à usage général. La Commission et le comité de l’IA ont confirmé que le code est un outil volontaire adéquat permettant aux fournisseurs de modèles d’IAGP de démontrer le respect de la législation sur l’IA.
À la suite de l’approbation, les fournisseurs de modèles d’IA qui le signent volontairement peuvent montrer qu’ils respectent la législation sur l’IA en adhérant au code. Cela réduira leur charge administrative et leur donnera plus de sécurité juridique que s'ils prouvaient leur conformité par d'autres méthodes. Vous trouverez plus d’informations sur les questions et réponses (Q&A) concernant le code de bonnes pratiques pour l’IA à usage général.
Les fournisseurs de modèles d’IA à usage général peuvent signer le code en remplissant le formulaire de signature et en envoyant le formulaire signé à l’adresse EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu. Les signataires potentiels peuvent également envoyer un courriel à cette adresse pour poser des questions sur le processus d'inscription au code. Pour en savoir plus sur le processus de signature, consultez ce Q&A dédié.
Les 3 chapitres du code
Ci-dessous, vous pouvez télécharger le code, composé de trois chapitres écrits séparément: Transparence, droit d'auteur et sûreté et sécurité.
Les chapitres sur la transparence et le droit d’auteur offrent à tous les fournisseurs de modèles d’IA à usage général un moyen de démontrer le respect de leurs obligations au titre de l’article 53 de la législation sur l’IA.
Les chapitres sur la sûreté et la sécurité ne concernent que le petit nombre de fournisseurs des modèles les plus avancés, ceux qui sont soumis aux obligations de la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique en vertu de l’article 55 de la législation sur l’IA.
![]() |
Transparence Le chapitre sur la transparence (PDF) propose un modèle de formulaire de documentation (DOCX) convivial qui permet aux fournisseurs de documenter facilement les informations nécessaires pour se conformer à l’obligation imposée par la législation sur l’IA aux fournisseurs de modèles afin de garantir une transparence suffisante. |
![]() |
Droit d'auteur Le chapitre sur le droit d'auteur (PDF) offre aux fournisseurs des solutions pratiques pour satisfaire à l'obligation de la législation sur l'IA de mettre en place une politique de conformité avec la législation de l'UE sur le droit d'auteur. |
![]() |
Sûreté et sécurité Le chapitre sur la sûreté et la sécurité (PDF) décrit des pratiques concrètes de pointe pour gérer les risques systémiques, c'est-à-dire les risques des modèles les plus avancés. Les fournisseurs peuvent s’appuyer sur ce chapitre pour se conformer aux obligations prévues par la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique. |
Signataires du code de bonnes pratiques
Certains signataires peuvent ne pas apparaître immédiatement, mais nous nous assurons de mettre à jour continuellement la liste au fur et à mesure que les signatures sont confirmées.
- Accexible
- AI Alignment Solutions
- Aleph Alpha
- Almawave
- Amazon
- Anthropic
- Black Forest Labs
- Bria AI
- Cohere
- Cyber Institute
- Domyn
- Dweve
- Euc Inovação Portugal
- Fastweb
- Humane Technology
- IBM
- Lawise
- LINAGORA
- Microsoft
- Mistral AI
- Open Hippo
- OpenAI
- Pleias
- re-inventa
- ServiceNow
- Virtuo Turing
- WRITER
En outre, xAI a adhéré au chapitre sur la sûreté et la sécurité; cela signifie qu’elle devra démontrer le respect des obligations de la législation sur l’IA en matière de transparence et de droit d’auteur par d’autres moyens adéquats.
Contenu associé
Vue d’ensemble
Aller plus loin
-

Le premier code de bonnes pratiques en matière d’IA à usage général reçu par la Commission détaille...


