Définitions de l’article 4 et de la législation sur l’IA
L’article 4 de la législation sur l’IA exige que les fournisseurs et les déployeurs de systèmes d’IA prennent des mesures pour garantir un niveau suffisant de connaissances en matière d’IA de leur personnel et des autres personnes chargées de l’exploitation et de l’utilisation de systèmes d’IA en leur nom. Ils sont tenus de le faire en tenant compte de leurs connaissances techniques, de leur expérience, de l’éducation et de la formation du personnel et d’autres personnes, ainsi que du contexte dans lequel les systèmes d’IA doivent être utilisés et des personnes sur lesquelles les systèmes d’IA doivent être utilisés.
La notion d’alphabétisation en matière d’IA mentionnée à l’article 4 de la législation sur l’IA repose sur la définition du terme donnée à l’article 3, point 56), de la législation sur l’IA, selon laquelle: «compétences, connaissances et compréhension en matière d’IA»: les compétences, les connaissances et la compréhension qui permettent aux fournisseurs, aux déployeurs et aux personnes concernées, compte tenu de leurs droits et obligations respectifs dans le contexte du présent règlement, de procéder à un déploiement éclairé des systèmes d’IA, ainsi que de prendre conscience des possibilités et des risques liés à l’IA et des préjudices éventuels qu’elle peut causer.
L’article 4 de la législation sur l’IA est une disposition essentielle pour garantir que tous les fournisseurs et déployeurs de systèmes d’IA dotent leur personnel des compétences, des connaissances et de la compréhension adéquates du ou des systèmes fournis ou déployés. Cela concerne toute personne au sein de l’organisation traitant directement d’un système d’IA et renforce les dispositions relatives à la transparence (article 13 de la législation sur l’IA) et à la surveillance humaine (article 14 de la législation sur l’IA) incluses dans le règlement. Dans le même temps, l’article 4 contribue indirectement à la protection des personnes concernées, car il garantit une application effective des règles de la législation sur l’IA.
Les «personnes chargées de l’exploitation et de l’utilisation de systèmes d’IA pour le compte de fournisseurs/déployeurs» signifient qu’il ne s’agit pas de salariés, mais de personnes relevant globalement de la compétence organisationnelle. Il peut s'agir, par exemple, d'un entrepreneur, d'un fournisseur de services, d'un client.
L'article 3, paragraphe 56, mentionne les personnes concernées. Le considérant 20 est également libellé comme suit: «Afinde tirer le meilleur parti des systèmes d’IA tout en protégeant les droits fondamentaux, la santé et la sécurité et en permettant un contrôle démocratique, l’éducation à l’IA devrait doter les fournisseurs, les déployeurs et les personnes concernées des notions nécessaires pour prendre des décisions éclairées concernant les systèmes d’IA. Ces notions peuvent varier en fonction du contexte pertinent et peuvent inclure la compréhension de l’application correcte des éléments techniques au cours de la phase de développement du système d’IA, les mesures à appliquer au cours de son utilisation, les moyens appropriés d’interpréter les résultats du système d’IA et, dans le cas des personnes concernées, les connaissances nécessaires pour comprendre comment les décisions prises avec l’aide de l’IA auront une incidence sur elles. Dans le contexte de l’application du présent règlement, l’éducation à l’IA devrait fournir à tous les acteurs concernés de la chaîne de valeur de l’IA les informations nécessaires pour garantir la conformité appropriée et son application correcte. En outre, la mise en œuvre à grande échelle de mesures d’alphabétisation en matière d’IA et l’introduction d’actions de suivi appropriées pourraient contribuer à améliorer les conditions de travail et, à terme, soutenir la consolidation et la voie de l’innovation d’une IA digne de confiance dans l’Union». Compte tenu de ce qui précède, en fonction du risque spécifique, il peut être utile d’avoir également des connaissances en lecture et en écriture pour les clients/clients.»
L’article 4 de la législation sur l’IA n’entraîne pas l’obligation de mesurer les connaissances des travailleurs en matière d’IA. Pourtant, il affirme que les fournisseurs et les déployeurs d’IA devraient garantir un niveau suffisant de connaissances en matière d’IA en tenant compte des connaissances techniques, de l’expérience, de l’éducation et de la formation des employés.
Oui, la législation sur l’IA établit une distinction entre les modèles d’IA (modèles GPAI), les systèmes d’IA, y compris les systèmes GPAI, les systèmes interdits et à haut risque. Pour plus de détails, veuillez également consulter les lignes directrices sur la définition des systèmes d’IA publiées par la Commission le 6 février afin d’aider les fournisseurs et les autres personnes concernées à déterminer si un système logiciel constitue un système d’IA et de faciliter l’application effective des règles. Ces lignes directrices, qui sont non contraignantes et conçues pour évoluer au fil du temps, expliquent l’application pratique du concept juridique, tel qu’ancré dans la législation sur l’IA. Les lignes directrices sur la définition des systèmes d’IA ont été publiées en plus des lignes directrices sur les pratiques interdites en matière d’intelligence artificielle (IA), telles que définies par la législation sur l’IA.
Pour le moment, des informations sur les activités de la Commission en lien avec l’article 4 de la législation sur l’IA sont disponibles sur la page webdu pacte surl’IA, y compris l’enregistrement du webinaire qui a eu lieu le 20 février et lerépertoire vivant sur l’alphabétisationen matière d’IA. Une page web consacrée à la littératie et aux compétences en matière d’IA est en cours de préparation.
Respect de l'article 4
Le Bureau de l’IA n’imposera pas d’exigences strictes en ce qui concerne l’article 4 de la législation sur l’IA et son «niveau suffisant d’alphabétisation en matière d’IA». Au contraire, elle estime nécessaire de faire preuve d’un certain degré de flexibilité, compte tenu du thème général de l’éducation à l’IA et de l’évolution rapide de la technologie qu’est l’IA. Pourtant, au minimum, pour se conformer à l’article 4 de la législation sur l’IA, les fournisseurs et les déployeurs de systèmes d’IA devraient:
a) Assurer une compréhension générale de l'IA au sein de leur organisation: Qu'est-ce que l'IA? Comment ça marche? Quelle IA est utilisée dans notre organisation? Quelles sont ses opportunités et ses dangers?
b) Examiner le rôle de leur organisation (fournisseur ou déployeur de systèmes d'IA): Mon organisation développe-t-elle des systèmes d’IA ou utilise-t-elle simplement des systèmes d’IA développés par une autre organisation?
c) Tenir compte du risque que présentent les systèmes d'IA fournis ou déployés: Que doivent savoir les employés lorsqu'ils traitent avec un tel système d'IA? Quels sont les risques dont ils doivent être conscients et doivent-ils être conscients des mesures d'atténuation?
d) Concrètement construire leurs actions de littératie de l'IA sur l'analyse précédente, en considérant
- différences dans les connaissances techniques, l’expérience, l’éducation et la formation du personnel et d’autres personnes – dans quelle mesure les employés/personnes connaissent-ils l’IA et les systèmes de l’organisation qu’ils utilisent? Que devraient-ils savoir d'autre?
- ainsi que le contexte dans lequel les systèmes d’IA doivent être utilisés et les personnes sur lesquelles les systèmes d’IA doivent être utilisés – dans quel secteur et à quelle fin/pour quel service le système d’IA est-il utilisé?
Les considérations a, b, c et d comprennent des aspects juridiques et éthiques. Par conséquent, les liens avec le règlement de l’UE sur l’IA (c’est-à-dire la compréhension de la législation sur l’IA) et avec les principes d’éthique et de gouvernance sont encouragés.
Comme indiqué dans la réponse à la question précédente, pour se conformer à l’article 4 de la législation sur l’IA, les organisations devraient tenir compte de leur rôle (en tant que fournisseurs ou déployeurs de systèmes d’IA) ainsi que des risques associés aux systèmes d’IA qu’elles fournissent et/ou déploient. Selon cela, les organisations devraient adapter leur approche de littératie en IA. Par exemple, si les systèmes d’IA de l’organisation sont à haut risque, conformément au chapitre III de la législation sur l’IA, des mesures supplémentaires pourraient être pertinentes pour veiller à ce que les employés sachent comment gérer les systèmes d’IA donnés et éviter et/ou atténuer leurs risques.
Cela dépend des réponses de l’organisation aux considérations de la question 1. Pourtant, dans de nombreux cas, le simple fait de s’appuyer sur les instructions d’utilisation des systèmes d’IA ou de demander au personnel de les lire pourrait être inefficace et insuffisant. L’article 4 de la législation sur l’IA vise à fournir les formations et les orientations les plus appropriées en fonction du niveau et du type de connaissances de chaque groupe cible, ainsi que du contexte et de la finalité des systèmes d’IA utilisés dans l’organisation.
Cela est également conforme à d’autres dispositions de la législation sur l’IA. Par exemple, l’article 26 introduit l’obligation pour les déployeurs de systèmes à haut risque de veiller à ce que le personnel chargé des systèmes d’IA dans la pratique soit suffisamment formé pour gérer le système et assurer une surveillance humaine. S’appuyer sur la notice d’utilisation n’est donc pas suffisant, d’autres mesures sont nécessaires.
Il n’existe pas de solution universelle en matière d’alphabétisation en matière d’IA et le Bureau de l’IA n’a pas l’intention d’imposer des exigences strictes ou des formations obligatoires. Les exigences d'une formation dépendent du contexte concret. Bien que la reproduction des pratiques collectées n’accorde pas automatiquement une présomption de conformité avec l’article 4, les initiatives durépertoire vivant sur l’alphabétisation en matière d’IA pourraient fournir une certaine inspiration.
Non, le Bureau de l’IA n’impose pas d’exigences pour des secteurs spécifiques. Pourtant, comme indiqué dans la réponse à la question 1, le contexte – y compris le secteur et la finalité – dans lequel les systèmes d’IA sont fournis/déployés devrait être pertinent lors de l’élaboration et de l’initiative d’alphabétisation en matière d’IA. En outre, le niveau de risque des systèmes d’IA devrait être pris en considération.
Cela dépend du type concret de système d’IA et du risque (par exemple, pour un risque élevé). En général, les personnes travaillant pour un prestataire de services ou un contractant doivent posséder les compétences appropriées en matière d’IA pour accomplir la tâche en question (comme les employés).
Oui, ils doivent être informés des risques spécifiques, par exemple l'hallucination.
Il s'agit de deux questions distinctes. Les employés et l'humain dans la boucle ont besoin des compétences appropriées, ciblées quant au système qu'ils utilisent.
Normalement oui, mais cela dépend de l'outil d'IA en question et de leur qualification spécifique. Cela est particulièrement important compte tenu de la rapidité des évolutions technologiques.
L’organisation doit toujours prendre en considération les étapes de la réponse à la question 1 et se demande: Ces employés techniques savent-ils ce qu'il faut savoir sur les systèmes d'IA de l'organisation et comment y faire face? Sont-ils conscients de tous les risques et comment les éviter/les atténuer? En outre, l'organisation devrait examiner ce que ces employés pourraient avoir besoin de savoir d'autre; par exemple, les aspects juridiques et éthiques de l’IA.
Oui, l’article 4 de la législation sur l’IA encourage les fournisseurs et les déployeurs à tenir compte des connaissances, de l’expérience, de l’éducation et de la formation des employés et d’autres personnes afin de fournir un niveau suffisant d’alphabétisation en matière d’IA. Compte tenu de la différence entre les systèmes d’IA et du fait que le niveau de connaissances et d’expérience, ainsi que le type d’éducation et de formation reçu, peuvent varier, il peut être approprié d’avoir différents niveaux de formation ou d’approches d’apprentissage.
Il n'est pas nécessaire d'obtenir un certificat. Les organisations peuvent tenir un registre interne des formations et/ou autres initiatives d’orientation.
Non, aucune structure de gouvernance spécifique n’est chargée de se conformer à l’article 4 de la législation sur l’IA.
La Commission européenne a proposé l’omnibus numérique avec des modifications ciblées de la législation sur l’IA, dans le cadre plus large des efforts déployés par la Commission pour simplifier et rendre plus efficace le corpus réglementaire numérique de l’UE.
En ce qui concerne l’article 4, la Commission a proposé de déplacer l’obligation faite aux États membres et à la Commission de promouvoir l’alphabétisation en matière d’IA et le perfectionnement et la reconversion professionnels dans le domaine de l’IA, plutôt que d’imposer une obligation non spécifique aux organisations. Ce faisant, la Commission assurera également la continuité des efforts déployés jusqu’à présent (notamment par l’intermédiaire de cette série de questions-réponses sur l’alphabétisation en matière d’IA et du répertoire des pratiques d’alphabétisation en matière d’IA).
Il est important de souligner que, pour ceux qui déploient des systèmes d’IA à haut risque, l’obligation de veiller à ce que leur personnel soit formé pour garantir que la surveillance humaine reste en place.
Application de l'article 4
L’article 4 de la législation sur l’IA est entré en application le 2 février 2025, de sorte que l’obligation de prendre des mesures pour garantir la maîtrise de l’IA par leur personnel s’applique déjà. Les règles de surveillance et d’exécution s’appliquent à partir du 3 août 2026.
La surveillance et l’application de l’article 4 de la législation sur l’IA ne relèvent pas du Bureau de l’IA, mais desautorités nationales desurveillance du marché. Les autorités nationales de surveillance du marché commenceront à superviser et à faire appliquer les règles à partir du 2 août 2026. Alors que les décisions relatives à l’application relèvent des autorités nationales de surveillance du marché dans les différents États membres, le Bureau de l’IA travaillera en étroite collaboration avec le comité de l’IA pour soutenir une mise en œuvre appropriée.
Les interdictions s’appliquent depuis le 2 février 2025. Avec le comité de l’IA et la coopération entre toutes les autorités concernées, une application cohérente des règles sera assurée.
Les autorités nationales de surveillance du marché pourraient imposer des sanctions et d’autres mesures coercitives pour sanctionner les infractions à l’article 4. Cela se fondera sur les législations nationales que les États membres doivent adopter au plus tard le 2 août 2025.
Il importe de souligner que l’application de la législation sur l’IA suit une approche proportionnée. Toute sanction doit être proportionnée, fondée sur le cas d’espèce et tenir compte de facteurs tels que la nature et la gravité ainsi que le caractère intentionnel et négligent de l’infraction. Cela pourrait toutefois être plus probable s'il existe des preuves d'un incident en raison du manque de formation et d'orientation appropriées des employés ou d'autres personnes.
Le cadre juridique de la législation sur l’IA s’applique à la fois aux acteurs publics et privés à l’intérieur et à l’extérieur de l’UE tant que le système d’IA est mis sur le marché de l’Union, utilisé dans l’Union ou que son utilisation a une incidence sur les personnes situées dans l’UE. Cela vaut également pour l’article 4 de la législation sur l’IA.
L’application publique signifie que chaque État membre désignera des autorités chargées de faire appliquer les dispositions de la législation sur l’IA, qui supervisent et font respecter cette loi. L’exécution privée concerne le scénario dans lequel une personne privée subit un préjudice et considère que cela est dû au fait qu’une organisation ne respecte pas l’obligation prévue à l’article 4 et poursuit l’organisation en justice pour obtenir des dommages-intérêts.
En cas de préjudice/dommage, le fournisseur d’un système d’IA peut être poursuivi en justice, conformément au droit national. La législation sur l’IA ne crée pas d’infractions pénales ni de droit à indemnisation.
Approche du Bureau de l’IA en matière d’alphabétisation en matière d’IA
Pour l’instant, des orientations seront fournies au moyen d’autres exemples de pratiques, de webinaires et de clarifications au moyen de ce questionnaire.
Une fois désignées, les autorités nationales de surveillance du marché concernées pourraient fournir d’autres orientations sur l’application de la législation. Le Bureau de l’IA travaillera en étroite collaboration avec le comité de l’IA sur la question de l’alphabétisation en matière d’IA, conformément à l’article 66, point f), et à l’article 95, paragraphe 2 septies, de la législation sur l’IA.
La Commission publiera des lignes directrices sur l’application des exigences et obligations visées aux articles 8 à 15 et à l’article 25 de la législation sur l’IA, et ces lignes directrices aborderont également des questions d’alphabétisation, lors de l’examen, par exemple, de la surveillance humaine ou de la gestion des risques.
La communication AI@EC a déjà identifié comme action opérationnelle l’élaborationd’une politique visant à constituer et à maintenir une main-d’œuvre qualifiée dans le domaine de l’IA. La Commission européenne a déjà mis en œuvre plusieurs mesures pour son personnel en ce qui concerne l’alphabétisation en matière d’IA:
- la création d’un portail web interne spécifique à l’IA en tant que guichet unique accessible à l’ensemble du personnel pour le contenu lié à l’IA – lignes directrices en matière d’IA, ressources de formation à l’IA, événements et actualités.
- Définition sur la plateforme de formation de la Commission de modules d’apprentissage de l’IA, orientés vers différents objectifs – généraliste, gestionnaires et développeurs (spécialiste). Ces paquets contiennent une liste organisée de formations pertinentes, catégorisant ensuite les formations essentielles, fortement recommandées et recommandées. Des formations supplémentaires et l’enregistrement des webinaires sont également disponibles sur la plateforme.
- Formations sur les outils d’IA - Une section spécifique du portail d’IA répertorie les outils d’IA, mis à la disposition de l’ensemble du personnel, qui comprennent les ressources d’apprentissage pertinentes pour chaque outil. Il y a des séances périodiques de questions-réponses sur l'utilisation de l'IA dans votre travail quotidien.
- Il existe une communauté de pratique de l'IA où toute personne peut poser des questions liées à l'IA et interagir avec des experts en IA.
À l’heure actuelle, de nombreuses agences ont déjà accès à la plateforme d’apprentissage de la Commission (EU-Learn) ainsi qu’à des ressources telles que les modules d’apprentissage de l’IA et d’autres formations de la Commission.
Afin de soutenir la mise en œuvre et le respect de l’article 4 de la législation sur l’IA, le Bureau de l’IA continuera de nourrir lerépertoire vivant sur les pratiques d’alphabétisation en matière d’IA, de recueillir d’autres exemples auprès des organisations et de mettre à jour le questionnaire en question. D’autres activités de sensibilisation seront organisées et une page web dédiée aux activités liées à l’alphabétisation en matière d’IA (dans le cadre et au-delà du champ d’application de l’article 4), aux compétences et aux talents sera lancée dans le but de promouvoir l’accès à l’alphabétisation en matière d’IA et de favoriser le dialogue sur l’IA pour tous.
Le Bureau de l’IA attache une grande importance aux connaissances et à l’expertise de toutes les parties prenantes, y compris l’industrie. Pour cette raison, nous avons créé le pacte sur l’IA afin de favoriser la création d’une communauté collaborative, au sein de laquelle les parties prenantes peuvent partager les meilleures pratiques et les politiques internes susceptibles d’être utiles à d’autres dans leur démarche de mise en conformité. En ce qui concerne l’alphabétisation en matière d’IA, nous avons récemment publié, dans le cadre du pacte sur l’IA, un répertoire vivant des pratiques d’alphabétisation en matière d’IA; tout fournisseur et/ou développeur de systèmes d’IA qui a mis en place un programme d’alphabétisation en matière d’IA est invité à soumettre sa contribution.
À intervalles réguliers, le Bureau de l’IA vérifiera que toutes les contributions reçues répondent aux critères minimaux de transparence et de fiabilité avant de les accepter dans le répertoire public. Pendant la période de vérification, l'enquête pourrait être temporairement fermée.
Autres ressources utiles
Le référentiel vivant sur les pratiques d’alphabétisation en matière d’IA est disponible gratuitement sur notre site web: Répertoire vivant pour favoriser l’apprentissage et l’échange sur l’alphabétisation en matière d’IA
Le répertoire comprend plusieurs exemples d’initiatives en cours visant à encourager les organisations d’alphabétisation en IA de différentes tailles à fournir et/ou à déployer différents types de systèmes d’IA dans divers secteurs privés et publics. Les pratiques fournissent des exemples sur la manière d’aborder les connaissances de différents employés (par exemple, techniques – comme celle des développeurs, contre non techniques, comme celle d’un administrateur ou d’un juriste), mais font également référence à des initiatives pour d’autres personnes, y compris les fournisseurs, les partenaires et les clients. La liste des pratiques n'est pas exhaustive et sera régulièrement mise à jour avec d'autres pratiques.
Bien que la reproduction des pratiques collectées dans ce répertoire vivant n’accorde pas automatiquement une présomption de conformité avec l’article 4, le répertoire vise à encourager l’apprentissage et l’échange entre les fournisseurs et les déployeurs de systèmes d’IA. En publiant les pratiques, la Commission n’implique ni approbation ni évaluation d’aucune manière.
Un exemple d’initiative de l’UE susceptible de soutenir les PME est le réseau des pôles européens d’innovation numérique (PEID). Les EDIH sont 251 guichets uniques dans toute l’Europe (27 États membres, 3 pays de l’AELE – Norvège, Islande et Liechtenstein; 8 pays associés: Albanie, Bosnie-Herzégovine, Kosovo, Monténégro, Macédoine du Nord, Serbie, Turquie et Ukraine), en aidant les PME et les organisations du secteur public à numériser leurs processus. 80% des EDIH fournissent déjà des services axés sur l'IA, y compris des formations, des ateliers, des bootcamps pour différents besoins et niveaux de connaissance de l'IA. Les PME et les organisations du secteur public peuvent contacter les EDIH pour bénéficier d’un soutien en ce qui concerne les technologies de l’IA et, plus généralement, leurs objectifs en matière de numérisation. Les EDIH peuvent fournir une assistance en tant que premier service d’assistance sur la législation sur l’IA et servir de points d’entrée vers d’autres mesures de soutien financées par l’UE,telles que, entre autres, les installations d’essai et d’expérimentation (TEF) ou les usines d’IA. Vous pouvez trouver l'EDIH la plus proche de chez vous sur ce catalogue.
Dans le cadre du pacte sur l’IA, le Bureau de l’IA organise des événements et des webinaires pour mobiliser la communauté de l’IA, promouvoir le partage des connaissances et les bonnes pratiques afin de favoriser une IA digne de confiance. Vous pouvez trouver tous les enregistrements d’événements passés et l’annonce d’événements à venir lors des événements du pacte sur l’IA.
Un module de formation introductif sur les principes fondamentaux de la législation sur l’IA et les instruments de l’écosystème européen de l’innovation dans le domaine de l’IAa récemment été mis à disposition sur la plateforme d’apprentissage en ligne des EDIH. Bien que le package ait été conçu pour les EDIH, il peut également être utilisé par un public plus large.
D’autres documents utiles sur l’IA peuvent être librement consultés via la plateforme «Compétences et emplois numériques»,notamment:
Comme il n'existe pas d'approche universelle pour la littératie en IA, il n'existe pas non plus de cadre unique. Voici quelques-uns des cadres les plus utilisés au niveau européen et international, selon leur groupe cible.
Pour tous les citoyens
- Le cadre de compétences numériques pour les citoyens fournit une compréhension commune de ce qu'est la compétence numérique. La publication comporte deux parties principales: le cadre intégré DigComp 2.2 fournit plus de 250 nouveaux exemples de connaissances, de compétences et d’attitudes qui aident les citoyens à s’engager en toute confiance, de manière critique et en toute sécurité dans les technologies numériques, y compris l’IA. Une nouvelle version du cadre sera publiée en 2025.
- La plateforme «Compétences et emplois numériques» offre un accès ouvert à une grande variété d’informations et de ressources de haute qualité pour toutes les personnes intéressées par le vaste sujet des compétences et des emplois numériques, y compris sur le thème de l’intelligence artificielle.
Pour le secteur de l’éducation, les enseignants et les apprenants:
- Ces lignes directrices éthiques sur l’utilisation de l’IA et des données dans l’enseignement et l’apprentissage sont conçues pour aider les éducateurs à comprendre le potentiel que les applications de l’IA et de l’utilisation des données peuvent avoir dans l’éducation et à sensibiliser aux risques possibles afin qu’ils soient en mesure de s’engager de manière positive, critique et éthique avec les systèmes d’IA et d’exploiter pleinement leur potentiel.
- La plateforme européenne pour l’éducation scolaire propose un certain nombre de supports sur l’IA à l’intention des enseignants et des apprenants.
- La communauté de pratique dupôle d’éducationnumérique offre aux parties prenantes de l’éducation et de la formation l’occasion de discuter et d’échanger sur des sujets liés à l’éducation numérique, y compris l’IA. Au sein du pôle, un groupe de travail spécialisé (équipe) a publié un rapport sur l’IA dans l’éducation, qui fournit des informations supplémentaires sur le développement des compétences en matière d’IA et la formation des enseignants.
- Le cadre de compétences de l’UNESCO en matière d’IA pour les enseignants vise à soutenir le développement des compétences en matière d’IA parmi les enseignants afin de leur donner les moyens d’utiliser ces outils technologiques dans leurs pratiques pédagogiques de manière sûre, efficace et éthique.
- Le cadre de compétences de l’UNESCO en matière d’IA pour les étudiants vise à servir de guide aux systèmes d’éducation publique afin de renforcer les compétences requises de tous les étudiants et citoyens pour la mise en œuvre efficace des stratégies nationales en matière d’IA et la construction d’un avenir inclusif, juste et durable dans cette nouvelle ère technologique.
Related content

La Commission vise à accroître le nombre d’experts en IA en formant et en attirant davantage de chercheurs et de professionnels, ainsi qu’en améliorant les compétences en IA et l’alphabétisation des travailleurs et de la population en général.