Skip to main content
Bâtir l’avenir numérique de l’Europe

Le code de bonnes pratiques de l’IA à usage général

Le code de bonnes pratiques aide l’industrie à se conformer aux obligations légales de la législation sur l’IA en matière de sécurité, de transparence et de droit d’auteur des modèles d’IA à usage général.

Le code de bonnes pratiques pour l’IA à usage général (GPAI) est un outil volontaire, élaboré par des experts indépendants dans le cadre d’un processus multipartite, conçu pour aider l’industrie à se conformer aux obligations de la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général. En savoir plus sur le calendrier et le processus de rédaction du code.

Le code a été publié le 10 juillet 2025. Elle est complétée par des lignes directrices de la Commission sur les concepts clés liés aux modèles d’IA à usage général. La Commission et le comité de l’IA ont confirmé que le code est un outil volontaire adéquat permettant aux fournisseurs de modèles d’IAGP de démontrer le respect de la législation sur l’IA.

À la suite de l’approbation, les fournisseurs de modèles d’IA qui le signent volontairement peuvent montrer qu’ils respectent la législation sur l’IA en adhérant au code. Cela réduira leur charge administrative et leur donnera plus de sécurité juridique que s'ils prouvaient leur conformité par d'autres méthodes. Vous trouverez plus d’informations sur les questions et réponses (Q&A) concernant le code de bonnes pratiques pour l’IA à usage général.

Les fournisseurs de modèles d’IA à usage général peuvent signer le code en remplissant le formulaire de signature et en envoyant le formulaire signé à l’adresse EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu. Les signataires potentiels peuvent également envoyer un courriel à cette adresse pour poser des questions sur le processus d'inscription au code. Pour en savoir plus sur le processus de signature, consultez ce Q&A dédié.

Les 3 chapitres du code

Ci-dessous, vous pouvez télécharger le code, composé de trois chapitres écrits séparément: Transparence, droit d'auteur et sûreté et sécurité.

Les chapitres sur la transparence et le droit d’auteur offrent à tous les fournisseurs de modèles d’IA à usage général un moyen de démontrer le respect de leurs obligations au titre de l’article 53 de la législation sur l’IA.

Les chapitres sur la sûreté et la sécurité ne concernent que le petit nombre de fournisseurs des modèles les plus avancés, ceux qui sont soumis aux obligations de la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique en vertu de l’article 55 de la législation sur l’IA.

GPAI code of practice transparency

Transparence

Le chapitre sur la transparence (PDF) propose un modèle de formulaire de documentation (DOCX) convivial qui permet aux fournisseurs de documenter facilement les informations nécessaires pour se conformer à l’obligation imposée par la législation sur l’IA aux fournisseurs de modèles afin de garantir une transparence suffisante.

GPAI code of practice copyright

Droit d'auteur

Le chapitre sur le droit d'auteur (PDF) offre aux fournisseurs des solutions pratiques pour satisfaire à l'obligation de la législation sur l'IA de mettre en place une politique de conformité avec la législation de l'UE sur le droit d'auteur.

GPAI code of practice security

Sûreté et sécurité

Le chapitre sur la sûreté et la sécurité (PDF) décrit des pratiques concrètes de pointe pour gérer les risques systémiques, c'est-à-dire les risques des modèles les plus avancés. Les fournisseurs peuvent s’appuyer sur ce chapitre pour se conformer aux obligations prévues par la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique.

Signataires du code de bonnes pratiques

Certains signataires peuvent ne pas apparaître immédiatement, mais nous nous assurons de mettre à jour continuellement la liste au fur et à mesure que les signatures sont confirmées.

  • Accexible
  • AI Alignment Solutions
  • Aleph Alpha
  • Almawave
  • Amazon
  • Anthropic
  • Black Forest Labs
  • Bria AI
  • Cohere
  • Cyber Institute
  • Domyn
  • Dweve
  • Euc Inovação Portugal
  • Fastweb
  • Google
  • Humane Technology
  • IBM
  • Lawise
  • LINAGORA
  • Microsoft
  • Mistral AI
  • Open Hippo
  • OpenAI
  • Pleias
  • re-inventa
  • ServiceNow
  • Virtuo Turing
  • WRITER

 

En outre, xAI a adhéré au chapitre sur la sûreté et la sécurité; cela signifie qu’elle devra démontrer le respect des obligations de la législation sur l’IA en matière de transparence et de droit d’auteur par d’autres moyens adéquats.

Contenu associé

Vue d’ensemble

L’approche de l’UE en matière d’intelligence artificielle favorise l’excellence et la confiance, en stimulant la recherche et les capacités industrielles tout en garantissant la sécurité et les droits fondamentaux.

Aller plus loin