Hundratals deltagare kommer att delta i den inledande plenarsessionen för utvecklingen av den första uppförandekoden för AI-modeller för allmänna ändamål enligt AI-akten.
Evenemanget, som anordnas av EU:s AI-byrå, markerar början på ett samarbete mellan leverantörer av AI-modeller för allmänna ändamål, branschorganisationer, den akademiska världen och det civila samhället i syfte att skapa en robust ram. Plenarförsamlingen kommer att fokusera på att beskriva arbetsgrupperna, tidsplanerna och de förväntade resultaten, inbegripet de inledande insikterna från ett flerpartssamråd med nästan 430 inlagor.
Ordförandena och vice ordförandena spelar en central roll i utformningen av den första allmänna uppförandekoden för AI. Dessa experter, som kommer från olika bakgrunder inom datavetenskap, AI-styrning och juridik, kommer att vägleda processen i fyra arbetsgrupper. Deras ledarskap är centralt för att utveckla och förfina utkast som tar upp transparens, upphovsrätt, riskbedömning, riskreducerande åtgärder och intern riskhantering och styrning av AI-leverantörer för allmänna ändamål. Urvalskriterierna prioriterade sakkunskap, oberoende och säkerställande av geografisk mångfald och jämn könsfördelning.
Till exempel ger medordförandena för arbetsgruppen för öppenhet och upphovsrätt en unik kombination av expertis. Den ena har en djup bakgrund inom europeisk upphovsrättsrätt, med över 25 års erfarenhet, medan den andra erbjuder omfattande kunskap om AI-transparens, uppbackad av en doktorsexamen från MIT och ledarskap inom människocentrerad AI-forskning.
Mångfalden i ordförandenas specialiseringar säkerställer omfattande uppmärksamhet på tekniska, rättsliga och styrningsmässiga överväganden på den senaste teknikens nivå.
Ordförandena och vice ordförandena kommer att sammanställa synpunkter från deltagarna och leda iterativa diskussioner mellan oktober 2024 och april 2025, för att säkerställa en övergripande och effektiv uppförandekod. Det slutliga utkastet förväntas läggas fram vid ett avslutande plenarsammanträde i april 2025.
Förteckning över ordförande och vice ordförande
Arbetsgrupp 1: Öppenhet och upphovsrättsliga regler
Medordförande (insyn): Nuria Oliver (olika betydelser)
Nuria Oliver är direktör för ELLIS Alicante Foundation och har en doktorsexamen i AI från MIT. Hon har 25 års forskningserfarenhet inom människocentrerad AI, som spänner över akademi, industri och icke-statliga organisationer. Nuria är en oberoende styrelseledamot i den spanska tillsynsmyndigheten för AI, en medlem av den internationella expertrådgivande panelen för den vetenskapliga rapporten om säkerheten hos avancerad AI och en medlem av IEEE, ACM, EurAI och ELLIS. Hon är också medgrundare och vice ordförande för ELLIS.
Medordförande (upphovsrätt): Alexander Peukert (Tyskland)
Alexander Peukert är professor i civil-, handels- och informationsrätt vid Goethe-universitetet i Frankfurt am Main. Med över 25 års erfarenhet är han en ledande expert på europeisk och internationell upphovsrättsrätt, med fokus nyligen på skärningspunkten mellan upphovsrätt och artificiell intelligens. Han har varit medlem i expertkommittén för upphovsrätt vid den tyska föreningen för skydd av immateriella rättigheter (GRUR) sedan 2004 och är en av grundarna av European Copyright Society, som han var ordförande för 2023/2024.
Vice ordförande (öppenhet): Rishi Bommasani (Storbritannien)
Rishi Bommasani är Society Lead vid Stanford Center for Research on Models som en del av Stanford Institute for Human-Centered AI. Han forskar om samhällseffekterna av generella AI-modeller och främjar den akademiska världens roll i evidensdriven politik. Hans arbete har vunnit flera vetenskapliga erkännanden och presenterats i Atlantic, Euractiv, Nature, New York Times, Reuters, Science, Wall Street Journal och Washington Post.
Vice ordförande (upphovsrätt): Céline Castets-Renard (Frankrike)
Céline Castets-Renard är professor i juridik vid civilrättsfakulteten, University of Ottawa, och forskningsprofessor med ansvar för AI i ett globalt sammanhang. Hennes forskning fokuserar på reglering och styrning av digital teknik och AI ur ett internationellt och komparativt rättsperspektiv. Hon är expert på AI-rätt, personuppgifts- och integritetsrätt, digital upphovsrättslagstiftning och plattformsreglering. Hon studerar också teknikens inverkan på mänskliga rättigheter, rättvisa och social rättvisa.
Arbetsgrupp 2: Riskidentifiering och riskbedömning, inklusive utvärderingar
Ordförande: Matthias Samwald (Österrike)
Matthias Samwald är docent vid institutet för artificiell intelligens vid Wiens medicinska universitet. Hans forskning fokuserar på att utnyttja AI för att påskynda vetenskaplig forskning, omvandla medicin och bidra till människors välbefinnande, samtidigt som man säkerställer att dessa AI-system är säkra och tillförlitliga i sin drift.
Vice ordförande: Marta Ziosi (Italien)
Marta Ziosi är en postdoktoral forskare vid Oxford Martin AI Governance Initiative, där hennes forskning fokuserar på standarder för gräns AI. Under sin doktorsexamen vid Oxford Internet Institute arbetade hon med algoritmisk bias och samarbetade i projekt i skärningspunkten mellan AI-politik, rättvisa och standarder för stora språkmodeller. Hon är också grundare av en ideell organisation som arbetar för att tekniken ska tjäna det allmänna bästa.
Vice ordförande: Alexander Zacherl (Tyskland)
Alexander Zacherl är en oberoende systemdesigner. Vid starten av det brittiska AI-säkerhetsinstitutet hjälpte han till att bygga upp det tekniska forskningsteamet och utvärderingsteamet för autonoma system. Tidigare arbetade han på DeepMind på simuleringar och mänskliga interaktionsmiljöer för multi-agent förstärkning lärande forskning.
Arbetsgrupp 3: Teknisk riskreducering
Ordförande: Yoshua Bengio (Kanada)
Yoshua Bengio, som är erkänd över hela världen som en av de ledande experterna på artificiell intelligens, är mest känd för sitt banbrytande arbete inom djupinlärning och förtjänade 2018 A.M. Turing Award, ”Nobelpriset i databehandling”, med Geoffrey Hinton och Yann LeCun. Han är professor vid Université de Montréal och grundare av och vetenskaplig direktör för Mila – Quebec AI Institute. Han leder CIFAR Learning in Machines & Brains-programmet som Senior Fellow och fungerar som vetenskaplig direktör för IVADO.
Vice ordförande: Daniel Privitera (Italien och Tyskland)
Daniel Privitera är grundare och verkställande direktör för KIRA Center, en oberoende AI-policy ideell baserad i Berlin. Han är huvudförfattare till International Scientific Report on the Safety of Advanced AI, som är skriven av 75 internationella AI-experter och stöds av 30 ledande AI-länder, FN och EU.
Vice ordförande: Nitarshan Rajkumar (Kanada)
Nitarshan Rajkumar är doktorand som forskar om AI vid University of Cambridge. Han var tidigare Senior Policy Adviser till Storbritanniens statssekreterare för vetenskap, innovation och teknik, en roll där han var med och grundade AI Safety Institute och var med och skapade AI Safety Summit och Storbritanniens superdatorprogram. Dessförinnan var han forskare vid Mila i Montréal och programvaruingenjör vid startups i San Francisco.
Arbetsgrupp 4: Intern riskhantering och styrning av AI-leverantörer för allmänna ändamål
Ordförande: Marietje Schaake (Nederländerna)
Marietje Schaake är stipendiat vid Stanfords centrum för cyberpolitik och vid institutet för människocentrerad AI. Hon är kolumnist för Financial Times och tjänar på ett antal icke-vinstdrivande styrelser samt FN: s rådgivande organ på hög nivå om AI. Mellan 2009 och 2019 var hon ledamot av Europaparlamentet där hon arbetade med handels-, utrikes- och teknikpolitik.
Vice ordförande: Markus Anderljung (Sverige)
Markus Anderljung är chef för policy och forskning vid Centre for the Governance of AI. Hans forskning fokuserar på AI-reglering, ansvarsfull spjutspetsutveckling, beräkningsstyrning, bredvid andra ämnen. Han är också adjungerad forskare vid Center for a New American Security och medlem i OECD:s AI Policy Observatorys expertgrupp för AI Futures. Han var tidigare utstationerad vid det brittiska regeringskansliet som Senior Policy Specialist, GovAI:s biträdande direktör och Senior Consultant vid EY Sweden.
Vice ordförande: Anka Reuel (Tyskland)
Anka Reuel är en datavetenskap Ph.D. kandidat vid Stanford University. Hennes forskning fokuserar på teknisk AI-styrning. Hon bedriver forskning vid Stanford Trustworthy AI Research Lab och Stanford Intelligent Systems Laboratory. Hon är också Geopolitics and Technology Fellow vid Belfer Center vid Harvard Kennedy School.