Skip to main content
Shaping Europe’s digital future
News article | Publicatie

Ontmoet de voorzitters die leiding geven aan de ontwikkeling van de eerste algemene AI-praktijkcode

De voorzitters maken de vier werkgroepen van de eerste algemene AI-praktijkcode bekend.

Honderden deelnemers zullen de kick-offzitting bijwonen voor de ontwikkeling van de eerste praktijkcode voor AI-modellen voor algemeen gebruik in het kader van de AI-wet.

Dit evenement, georganiseerd door het AI-bureau van de EU, markeert het begin van een gezamenlijke inspanning waarbij aanbieders van AI-modellen voor algemeen gebruik, brancheorganisaties, de academische wereld en het maatschappelijk middenveld betrokken zijn, met als doel een robuust kader tot stand te brengen. De plenaire vergadering zal zich toespitsen op het schetsen van de werkgroepen, tijdschema’s en de verwachte resultaten, met inbegrip van de eerste inzichten van een raadpleging van meerdere belanghebbenden met bijna 430 inzendingen.

De voorzitters en vicevoorzitters spelen een centrale rol bij het vormgeven van de eerste algemene AI-praktijkcode. Deze experts, afkomstig uit verschillende achtergronden in informatica, AI-governance en recht, zullen het proces in vier werkgroepen begeleiden. Hun leiderschap staat centraal bij het ontwikkelen en verfijnen van ontwerpen die betrekking hebben op transparantie, auteursrecht, risicobeoordeling, risicobeperkende maatregelen en intern risicobeheer en bestuur van AI-aanbieders voor algemeen gebruik. Bij de selectiecriteria werd prioriteit gegeven aan deskundigheid, onafhankelijkheid en het waarborgen van geografische diversiteit en genderevenwicht. 

Zo brengen de covoorzitters van de werkgroep transparantie en auteursrecht een unieke combinatie van expertise met zich mee. De ene heeft een diepe achtergrond in het Europese auteursrecht, met meer dan 25 jaar ervaring, terwijl de andere uitgebreide kennis biedt op het gebied van AI-transparantie, ondersteund door een doctoraat van MIT en leiderschap in mensgericht AI-onderzoek.

De diversiteit in de specialisaties van de voorzitters zorgt voor uitgebreide aandacht voor technische, juridische en governanceoverwegingen bij de stand van de techniek.

De voorzitters en vicevoorzitters zullen de input van de deelnemers samenvatten en iteratieve besprekingen leiden tussen oktober 2024 en april 2025, waarbij een alomvattende en doeltreffende praktijkcode wordt gewaarborgd. Het definitieve ontwerp zal naar verwachting in april 2025 tijdens een afsluitende plenaire vergadering worden gepresenteerd.

Lijst van voorzitters & ondervoorzitters

Werkgroep 1: Transparantie en regels in verband met auteursrechten

 

Medevoorzitter (transparantie): Nuria Oliver (Spanje)

Nuria Oliver is de directeur van de ELLIS Alicante Foundation en heeft een PhD in AI van MIT. Ze heeft 25 jaar onderzoekservaring in mensgerichte AI, verspreid over de academische wereld, de industrie en NGO's. Nuria is een onafhankelijk bestuurslid van de Spaanse toezichthouder voor AI, lid van het International Expert Advisory Panel van het Scientific Report on the Safety of Advanced AI en Fellow van IEEE, ACM, EurAI en ELLIS. Ze is ook medeoprichter en vicevoorzitter van Ellis.

Medevoorzitter (auteursrecht): Alexander Peukert (Duitsland)

Alexander Peukert is hoogleraar burgerlijk, handels- en informatierecht aan de Goethe Universiteit Frankfurt am Main. Met meer dan 25 jaar ervaring is hij een toonaangevende expert op het gebied van Europees en internationaal auteursrecht, onlangs gericht op het snijvlak van auteursrecht en kunstmatige intelligentie. Hij is sinds 2004 lid van het deskundigencomité inzake auteursrecht van de Duitse Vereniging voor de bescherming van intellectuele eigendom (GRUR) en is medeoprichter van de Europese Vereniging voor auteursrechten, die hij in 2023/2024 voorzat.

Ondervoorzitter (transparantie): Rishi Bommasani (Verenigde Staten)

Rishi Bommasani is de Society Lead bij het Stanford Center for Research on Models als onderdeel van het Stanford Institute for Human-Centered AI. Hij onderzoekt de maatschappelijke impact van AI-modellen voor algemeen gebruik en bevordert de rol van de academische wereld in evidence-driven beleid. Zijn werk heeft verschillende wetenschappelijke erkenningen gewonnen en is te zien geweest in de Atlantic, Euractiv, Nature, New York Times, Reuters, Science, Wall Street Journal en Washington Post.

Ondervoorzitter (auteursrecht): Céline Castets-Renard (Frankrijk)

Céline Castets-Renard is hoogleraar rechten aan de faculteit burgerlijk recht van de Universiteit van Ottawa en onderzoeksleerstoelhouder Accountable AI in a Global Context. Haar onderzoek richt zich op de regulering en governance van digitale technologieën en AI vanuit een internationaal en rechtsvergelijkend perspectief. Ze is expert op het gebied van AI-recht, persoonsgegevens- en privacyrecht, digitaal auteursrecht en platformregulering. Ze bestudeert ook de impact van technologieën op mensenrechten, rechtvaardigheid en sociale rechtvaardigheid.

Werkgroep 2: Risico-identificatie en -beoordeling, met inbegrip van evaluaties

Voorzitter: Matthias Samwald (Oostenrijk)

Matthias Samwald is universitair hoofddocent aan het Instituut voor Kunstmatige Intelligentie van de Medische Universiteit van Wenen. Zijn onderzoek richt zich op het benutten van AI om wetenschappelijk onderzoek te versnellen, de geneeskunde te transformeren en bij te dragen aan het menselijk welzijn, terwijl ervoor wordt gezorgd dat deze AI-systemen veilig en betrouwbaar zijn in hun werking.

Ondervoorzitter: Marta Ziosi (Italië)

Marta Ziosi is postdoctoraal onderzoeker bij het Oxford Martin AI Governance Initiative, waar haar onderzoek zich richt op standaarden voor frontier AI. Tijdens haar doctoraat aan het Oxford Internet Institute werkte ze aan algoritmische bias en werkte ze samen aan projecten op het snijvlak van AI-beleid, eerlijkheid en normen voor grote taalmodellen. Ze is ook de oprichter van een non-profit organisatie die zich inzet om ervoor te zorgen dat technologie het algemeen belang dient.

Ondervoorzitter: Alexander Zacherl (Duitsland)

Alexander Zacherl is een onafhankelijke systeemontwerper. Bij de oprichting van het UK AI Safety Institute heeft hij meegewerkt aan de opbouw van het technisch onderzoeksteam en het evaluatieteam voor autonome systemen. Eerder werkte hij bij DeepMind aan simulaties en menselijke interactie-omgevingen voor multi-agent reinforcement learning-onderzoek.

Werkgroep 3: Beperking van technische risico's

Voorzitter: Yoshua Bengio (Canada)

Yoshua Bengio wordt wereldwijd erkend als een van de toonaangevende experts op het gebied van kunstmatige intelligentie en staat het meest bekend om zijn baanbrekende werk op het gebied van deep learning, waarmee hij in 2018 de A.M. Turing Award, “de Nobelprijs voor computergebruik”, won met Geoffrey Hinton en Yann LeCun. Hij is hoogleraar aan de Université de Montréal en oprichter en wetenschappelijk directeur van het AI-instituut Mila – Quebec. Hij is mede-directeur van het CIFAR Learning in Machines & Brains-programma als Senior Fellow en treedt op als wetenschappelijk directeur van IVADO.

Ondervoorzitter: Daniel Privitera (Italië en Duitsland)
Daniel Privitera is de oprichter en uitvoerend directeur van het KIRA Center, een onafhankelijke non-profitorganisatie voor AI-beleid in Berlijn. Hij is de hoofdauteur van het International Scientific Report on the Safety of Advanced AI, dat mede is geschreven door 75 internationale AI-experts en wordt ondersteund door 30 toonaangevende AI-landen, de VN en de EU.

Ondervoorzitter: Nitarshan Rajkumar (Canada)
Nitarshan Rajkumar is een promovendus die AI onderzoekt aan de Universiteit van Cambridge. Eerder was hij senior beleidsadviseur van de Britse minister van Wetenschap, Innovatie en Technologie, een rol waarin hij mede-oprichter was van het AI Safety Institute en mede-oprichter van de AI Safety Summit en het Britse supercomputingprogramma. Daarvoor was hij onderzoeker bij Mila in Montreal en software engineer bij startups in San Francisco.

Werkgroep 4: Intern risicobeheer en governance van aanbieders van AI voor algemeen gebruik

Voorzitter: Marietje Schaake (Nederland) Marietje
Schaake is Fellow bij het Cyber Policy Center van Stanford en bij het Institute for Human-Centred AI. Ze is columnist voor de Financial Times en is lid van een aantal non-profitraden en van het High Level Advisory Body on AI van de VN. Tussen 2009 en 2019 was ze lid van het Europees Parlement, waar ze werkte aan het handels-, buitenlands- en technologiebeleid. 

Ondervoorzitter: Markus Anderljung (Zweden)
Markus Anderljung is directeur Beleid en Onderzoek bij het Centre for the Governance of AI. Zijn onderzoek richt zich op AI-regulering, verantwoorde cutting-edge ontwikkeling, compute governance, naast andere onderwerpen. Hij is ook Adjunct Fellow bij het Center for a New American Security en lid van de Expert Group on AI Futures van het AI Policy Observatory van de OESO. Hij was eerder gedetacheerd bij het Britse kabinet als senior beleidsspecialist, adjunct-directeur van GovAI en senior consultant bij EY Sweden.

Ondervoorzitter: Anka Reuel (Duitsland)
Anka Reuel is een promovendus Computer Science aan de Stanford University. Haar onderzoek richt zich op technische AI-governance. Ze doet onderzoek bij het Stanford Trustworthy AI Research Lab en het Stanford Intelligent Systems Laboratory. Ze is ook een Geopolitics and Technology Fellow aan het Belfer Center aan de Harvard Kennedy School.