Des centaines de participants devraient assister à la plénière de lancement de l’élaboration du premier code de bonnes pratiques pour les modèles d’IA à usage général au titre de la législation sur l’IA.
Organisé par le Bureau européen de l’IA, cet événement marque le début d’un effort de collaboration associant des fournisseurs de modèles d’IA à usage général, des organisations industrielles, des universités et la société civile, dans le but d’élaborer un cadre solide. La Plénière se concentrera sur la présentation des groupes de travail, des échéanciers et des résultats attendus, y compris les idées initiales d'une consultation multipartite avec près de 430 soumissions.
Les présidents et les vice-présidents jouent un rôle central dans l’élaboration du premier code de bonnes pratiques en matière d’IA à finalité générale. Ces experts, issus de divers horizons en informatique, en gouvernance de l'IA et en droit, guideront le processus dans quatre groupes de travail. Leur leadership est essentiel pour élaborer et affiner les projets qui traitent de la transparence, du droit d'auteur, de l'évaluation des risques, des mesures d'atténuation et de la gestion interne des risques et de la gouvernance des fournisseurs d'IA à usage général. Les critères de sélection privilégiaient l’expertise, l’indépendance et la garantie de la diversité géographique et de l’équilibre hommes-femmes.
Par exemple, les coprésidents du groupe de travail sur la transparence et le droit d'auteur apportent une combinaison unique d'expertise. L'un a une formation approfondie en droit d'auteur européen, avec plus de 25 ans d'expérience, tandis que l'autre offre une connaissance approfondie de la transparence de l'IA, soutenue par un doctorat du MIT et un leadership dans la recherche en IA centrée sur l'humain.
La diversité des spécialisations des chaires garantit une attention globale aux considérations techniques, juridiques et de gouvernance à la pointe de la technologie.
Les présidents et vice-présidents synthétiseront les contributions des participants et mèneront des discussions itératives entre octobre 2024 et avril 2025, garantissant ainsi un code de bonnes pratiques complet et efficace. Le projet final devrait être présenté lors d’une plénière de clôture d’ici avril 2025.
Liste des présidents & Vice-présidents
Groupe de travail 1: Transparence et règles relatives au droit d'auteur
Coprésident (transparence): Nuria Oliver (Espagne)
Nuria Oliver est directrice de la Fondation ELLIS Alicante et titulaire d'un doctorat en IA du MIT. Elle a 25 ans d'expérience en recherche sur l'IA centrée sur l'humain, couvrant le monde universitaire, l'industrie et les ONG. Nuria est membre indépendant du conseil d'administration de l'Agence espagnole de surveillance de l'IA, membre du Comité consultatif international d'experts sur le rapport scientifique sur la sécurité de l'IA avancée et membre de l'IEEE, de l'ACM, de l'EurAI et de l'ELLIS. Elle est également co-fondatrice et vice-présidente d'ELLIS.
Coprésident (droit d'auteur): Alexander Peukert (Allemagne)
Alexander Peukert est professeur de droit civil, commercial et de l'information à l'Université Goethe de Francfort-sur-le-Main. Avec plus de 25 ans d'expérience, il est un expert de premier plan du droit d'auteur européen et international, se concentrant récemment sur l'intersection du droit d'auteur et de l'intelligence artificielle. Il est membre du comité d’experts sur le droit d’auteur de l’Association allemande pour la protection de la propriété intellectuelle (GRUR) depuis 2004 et membre fondateur de la Société européenne du droit d’auteur, qu’il a présidée en 2023/2024.
Vice-président (transparence): Rishi Bommasani (États-Unis)
Rishi Bommasani est responsable de la société au Stanford Center for Research on Models dans le cadre du Stanford Institute for Human-Centered AI. Il étudie l'impact sociétal des modèles d'IA à usage général, faisant progresser le rôle du milieu universitaire dans les politiques fondées sur des données probantes. Son travail a remporté plusieurs reconnaissances scientifiques et a été présenté dans l'Atlantique, Euractiv, Nature, New York Times, Reuters, Science, Wall Street Journal et Washington Post.
Vice-président (Droit d'auteur): Céline Castets-Renard (France)
Céline Castets-Renard est professeure titulaire de droit à la Faculté de droit civil de l'Université d'Ottawa et titulaire d'une chaire de recherche sur l'IA responsable dans un contexte mondial. Ses recherches portent sur la réglementation et la gouvernance des technologies numériques et de l'IA dans une perspective de droit international et comparé. Elle est experte en droit de l'IA, en droit des données personnelles et de la vie privée, en droit du droit d'auteur numérique et en réglementation des plateformes. Elle étudie également l'impact des technologies sur les droits de l'homme, l'équité et la justice sociale.
Groupe de travail 2: Identification et évaluation des risques, y compris les évaluations
Président: Matthias Samwald (Autriche)
Matthias Samwald est professeur associé à l'Institut d'intelligence artificielle de l'Université de médecine de Vienne. Ses recherches se concentrent sur l'exploitation de l'IA pour accélérer la recherche scientifique, transformer la médecine et contribuer au bien-être humain, tout en veillant à ce que ces systèmes d'IA soient sûrs et fiables dans leur fonctionnement.
Vice-président: Marta Ziosi (Italie)
Marta Ziosi est chercheuse postdoctorale à l'Oxford Martin AI Governance Initiative, où ses recherches portent sur les normes de l'IA exploratoire. Au cours de son doctorat à l'Oxford Internet Institute, elle a travaillé sur les biais algorithmiques et a collaboré à des projets à l'intersection de la politique de l'IA, de l'équité et des normes pour les grands modèles linguistiques. Elle est également la fondatrice d'une organisation à but non lucratif qui se consacre à faire en sorte que la technologie serve le bien public.
Vice-président: Alexander Zacherl (Allemagne)
Alexander Zacherl est un concepteur de systèmes indépendant. Lors de la création du UK AI Safety Institute, il a aidé à construire l'équipe de recherche technique et l'équipe d'évaluation des systèmes autonomes. Auparavant, il a travaillé chez DeepMind sur des simulations et des environnements d'interaction humaine pour la recherche sur l'apprentissage par renforcement multi-agents.
Groupe de travail 3: Atténuation des risques techniques
Président: Yoshua Bengio (Canada)
Reconnu dans le monde entier comme l’un des principaux experts en intelligence artificielle, Yoshua Bengio est surtout connu pour son travail de pionnier dans l’apprentissage profond, qui lui a valu le prix A.M. Turing 2018, «le prix Nobel d’informatique», avec Geoffrey Hinton et Yann LeCun. Il est professeur titulaire à l’Université de Montréal et fondateur et directeur scientifique de Mila – Institut québécois de l’IA. Il co-dirige le programme CIFAR Learning in Machines & Brains en tant que Senior Fellow et agit en tant que directeur scientifique d'IVADO.
Vice-président: Daniel Privitera (Italie et Allemagne)
Daniel Privitera est le fondateur et directeur exécutif du KIRA Center, une organisation indépendante à but non lucratif basée à Berlin. Il est l'auteur principal du rapport scientifique international sur la sécurité de l'IA avancée, co-écrit par 75 experts internationaux en IA et soutenu par 30 pays leaders en IA, l'ONU et l'UE.
Vice-président: Nitarshan Rajkumar (Canada)
Nitarshan Rajkumar est doctorant en IA à l'Université de Cambridge. Auparavant, il était conseiller politique principal du secrétaire d'État britannique à la science, à l'innovation et à la technologie, un rôle dans lequel il a cofondé l'Institut de sécurité de l'IA et co-créé le Sommet sur la sécurité de l'IA et le programme britannique de supercalcul. Auparavant, il était chercheur chez Mila à Montréal et ingénieur logiciel dans des startups à San Francisco.
Groupe de travail 4: Gestion interne des risques et gouvernance des fournisseurs d’IA à usage général
Président: Marietje Schaake (Pays-Bas)
Marietje Schaake est membre du Cyber Policy Center de Stanford et de l’Institute for Human-Centred AI. Elle est chroniqueuse pour le Financial Times et siège à un certain nombre de conseils d'administration à but non lucratif ainsi qu'à l'organe consultatif de haut niveau de l'ONU sur l'IA. Entre 2009 et 2019, elle a été députée au Parlement européen, où elle a travaillé sur la politique commerciale, étrangère et technologique.
Vice-président: Markus Anderljung (Suède)
Markus Anderljung est directeur des politiques et de la recherche au Centre pour la gouvernance de l'IA. Ses recherches portent sur la réglementation de l'IA, le développement responsable de pointe, la gouvernance du calcul, à côté d'autres sujets. Il est également membre associé du Center for a New American Security et membre du groupe d’experts sur l’avenir de l’IA de l’Observatoire des politiques en matière d’IA de l’OCDE. Auparavant, il a été détaché auprès du cabinet du Royaume-Uni en tant que spécialiste principal des politiques, directeur adjoint du gouvernement et consultant principal chez EY Sweden.
Vice-président: Anka Reuel (Allemagne)
Anka Reuel est candidate au doctorat en informatique de l'Université de Stanford. Ses recherches portent sur la gouvernance technique de l'IA. Elle mène des recherches au Stanford Trustworthy AI Research Lab et au Stanford Intelligent Systems Laboratory. Elle est également chargée de recherche en géopolitique et technologie au Belfer Center de la Harvard Kennedy School.