Skip to main content
Bâtir l’avenir numérique de l’Europe
Report / Study | Publication

Lignes directrices en matière d’éthique pour une IA digne de confiance

Le 8 avril 2019, le groupe d’experts de haut niveau sur l’IA a publié des «Lignes directrices en matière d’éthique pour une IA digne de confiance», Elle faisait suite à la publication du premier projet de lignes directrices en décembre 2018, au sujet duquel plus de 500 commentaires ont été reçus dans le cadre d’une consultation ouverte.

Conformément aux lignes directrices, une IA digne de confiance devrait être:

(1) licite — respect de toutes les lois et réglementations applicables

(2) éthique — respect des valeurs et principes éthiques

(3) solide — d’un point de vue technique, tout en tenant compte de son environnement social

Téléchargez les lignes directrices dans votre langue ci-dessous:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

Les lignes directrices présentent un ensemble de 7 exigences clés auxquelles les systèmes d’IA devraient satisfaire pour être considérés comme fiables. Une liste d’évaluation spécifique vise à faciliter la vérification du respect de chacune de ces exigences clés:

  • Facteur humain et contrôle humain: Les systèmes d’IA devraient donner aux êtres humains les moyens d’agir, en leur permettant de prendre des décisions en connaissance de cause et en promouvant leurs droits fondamentaux. Dans le même temps, des mécanismes de surveillance appropriés doivent être mis en place, ce qui peut être réalisé grâce à des approches humaines en boucle, en boucle sur le terrain et en mode «humain».
  • Robustesse technique et sécurité: Les systèmes d’IA doivent être résilients et sécurisés. Ils doivent être sûrs, garantir un plan de repli en cas de problème, et être précis, fiable et reproductibles. C’est le seul moyen de faire en sorte que les dommages non intentionnels puissent également être réduits au minimum et évités.
  • Respect de la vie privée et gouvernance des données: en plus de garantir le plein respect de la vie privée et de la protection des données, des mécanismes adéquats de gouvernance des données doivent également être mis en place, en tenant compte de la qualité et de l’intégrité des données, et en garantissant un accès légitime aux données.
  • Transparence: les modèles économiques des données, des systèmes et de l’IA devraient être transparents. Les mécanismes de traçabilité peuvent contribuer à y parvenir. En outre, les systèmes d’IA et leurs décisions devraient être expliqués d’une manière adaptée aux parties prenantes concernées. Les humains doivent être conscients qu’ils interagissent avec un système d’IA et doivent être informés des capacités et des limites du système.
  • Diversité, non-discrimination et équité: Il convient d’éviter les préjugés injustes, car ils pourraient avoir de multiples conséquences négatives, allant de la marginalisation des groupes vulnérables à l’exacerbation des préjugés et de la discrimination. En favorisant la diversité, les systèmes d’IA devraient être accessibles à tous, indépendamment de tout handicap, et associer les parties prenantes concernées tout au long de leur cercle de vie.
  • Bien-être sociétal et environnemental: Les systèmes d’IA devraient bénéficier à tous les êtres humains, y compris aux générations futures. Il convient donc de veiller à ce qu’elles soient durables et respectueuses de l’environnement. En outre, ils devraient tenir compte de l’environnement, y compris d’autres êtres vivants, et leur impact social et sociétal devrait être soigneusement pris en considération. 
  • Responsabilisation: Il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes. L’auditabilité, qui permet d’évaluer les algorithmes, les données et les processus de conception, y joue un rôle clé, en particulier dans les applications critiques. En outre, il convient de garantir un recours adéquat et accessible.

Le groupe d’experts de haut niveau sur l’IA a également élaboré un document qui développe une définition de l’intelligence artificielle utilisée aux fins des lignes directrices.

Téléchargez la définition de l’IA dans votre langue ci-dessous:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

 

Processus de pilotage

Le document fournit également une liste d’évaluation qui met en œuvre les exigences clés et fournit des orientations pour les mettre en œuvre dans la pratique. À partir du 26 juin, cette liste d’évaluation a fait l’objet d’un processus pilote, auquel toutes les parties prenantes ont été invitées à tester la liste d’évaluation et à fournir un retour d’information pratique sur la manière dont elle peut être améliorée.

Les retours d’information ont été reçus par différentes voies:

  • Une enquête ouverte ou une «analyse quantitative» envoyée à tous ceux qui se sont inscrits au pilote;
  • Entretiens approfondis avec un certain nombre d’organisations représentatives afin de recueillir un retour d’information plus détaillé pour différents secteurs 
  • Possibilité continue de télécharger les retours d’information et les bonnes pratiques par l’intermédiaire de l’ Alliance européenne pour l’IA

La phase pilote s’est achevée le 1 décembre 2019.

Sur la base des retours d’information reçus, le groupe d’experts de haut niveau sur l’IA a présenté la liste d’évaluation finale pour une IA digne de confiance (ALTAI) en juillet 2020. Altai est un outil pratique qui traduit les lignes directrices en matière d’éthique en une liste de contrôle accessible et dynamique (autoévaluation). La liste de contrôle peut être utilisée par les développeurs et les déployeurs d’ IA qui souhaitent mettre en œuvre les exigences clés dans la pratique. Cette nouvelle liste est disponible sous la forme d’un prototype d’outil web et au format PDF.