Skip to main content
Plasmare il futuro digitale dell'Europa
News article | Pubblicazione

Incontra i presidenti che guidano lo sviluppo del primo codice di buone pratiche sull'IA per scopi generali

I presidenti annunciano i quattro gruppi di lavoro del primo codice di buone pratiche sull'IA per scopi generali.

European Artificial Intelligence Office logo

Centinaia di partecipanti parteciperanno alla sessione plenaria di avvio per lo sviluppo del primo codice di buone pratiche per i modelli di IA generici ai sensi della legge sull'IA.

Organizzato dall'Ufficio dell'UE per l'IA, questo evento segna l'inizio di uno sforzo collaborativo che coinvolge fornitori di modelli di IA generici, organizzazioni del settore, mondo accademico e società civile, con l'obiettivo di creare un quadro solido. La plenaria si concentrerà sulla definizione dei gruppi di lavoro, dei calendari e dei risultati attesi, comprese le intuizioni iniziali di una consultazione multilaterale con quasi 430 contributi.

I presidenti e i vicepresidenti svolgono un ruolo fondamentale nella definizione del primo codice di buone pratiche in materia di IA per scopi generali. Questi esperti, provenienti da diversi background in informatica, governance dell'IA e diritto, guideranno il processo attraverso quattro gruppi di lavoro. La loro leadership è fondamentale per sviluppare e perfezionare progetti che affrontino la trasparenza, il diritto d'autore, la valutazione del rischio, le misure di mitigazione e la gestione interna del rischio e la governance dei fornitori di IA generici. I criteri di selezione hanno privilegiato le competenze, l'indipendenza e la garanzia della diversità geografica e dell'equilibrio di genere. 

Ad esempio, i copresidenti del gruppo di lavoro sulla trasparenza e il diritto d'autore apportano una combinazione unica di competenze. Uno ha un profondo background nel diritto d'autore europeo, con oltre 25 anni di esperienza, mentre l'altro offre una vasta conoscenza della trasparenza dell'IA, sostenuta da un dottorato di ricerca del MIT e dalla leadership nella ricerca sull'IA antropocentrica.

La diversità delle specializzazioni dei presidenti garantisce un'attenzione completa alle considerazioni tecniche, giuridiche e di governance allo stato dell'arte.

I presidenti e i vicepresidenti sintetizzano i contributi dei partecipanti e conducono discussioni iterative tra ottobre 2024 e aprile 2025, garantendo un codice di buone pratiche completo ed efficace. Il progetto definitivo dovrebbe essere presentato in una sessione plenaria conclusiva entro aprile 2025.

Elenco dei presidenti e dei vicepresidenti

Gruppo di lavoro 1: Trasparenza e norme sul diritto d'autore

 

Copresidente (trasparenza): Nuria Oliver (Spagna)

Nuria Oliver è direttrice della ELLIS Alicante Foundation e ha conseguito un dottorato di ricerca in IA presso il MIT. Ha 25 anni di esperienza di ricerca nell'intelligenza artificiale antropocentrica, che abbraccia il mondo accademico, l'industria e le ONG. Nuria è membro indipendente del consiglio di amministrazione dell'Agenzia spagnola di vigilanza dell'IA, membro del gruppo consultivo internazionale di esperti per il rapporto scientifico sulla sicurezza dell'IA avanzata e membro di IEEE, ACM, EurAI e ELLIS. È anche co-fondatrice e vicepresidente di ELLIS.

Copresidente (diritto d'autore): Alexander Peukert (Germania)

Alexander Peukert è professore di diritto civile, commerciale e dell'informazione presso l'Università Goethe di Francoforte sul Meno. Con oltre 25 anni di esperienza, è uno dei principali esperti di diritto d'autore europeo e internazionale, concentrandosi recentemente sull'intersezione tra diritto d'autore e intelligenza artificiale. È membro del comitato di esperti sul diritto d'autore dell'Associazione tedesca per la protezione della proprietà intellettuale (GRUR) dal 2004 ed è membro fondatore della Società europea del diritto d'autore, che ha presieduto nel 2023/2024.

Vicepresidente (Trasparenza): Rishi Bommasani (Stati Uniti)

Rishi Bommasani è il capo della società presso lo Stanford Center for Research on Models come parte dello Stanford Institute for Human-Centered AI. Studia l'impatto sociale dei modelli di IA generici, promuovendo il ruolo del mondo accademico nella politica basata sull'evidenza. Il suo lavoro ha vinto diversi riconoscimenti scientifici ed è stato pubblicato su Atlantic, Euractiv, Nature, New York Times, Reuters, Science, Wall Street Journal e Washington Post.

Vicepresidente (diritto d'autore): Céline Castets-Renard (Francia)

Céline Castets-Renard è professoressa di diritto presso la facoltà di diritto civile dell'Università di Ottawa e titolare della cattedra di ricerca responsabile dell'IA in un contesto globale. La sua ricerca si concentra sulla regolamentazione e la governance delle tecnologie digitali e dell'IA da una prospettiva di diritto internazionale e comparato. È esperta in diritto dell'IA, diritto dei dati personali e della privacy, diritto d'autore digitale e regolamentazione delle piattaforme. Studia anche l'impatto delle tecnologie sui diritti umani, l'equità e la giustizia sociale.

Gruppo di lavoro 2: Identificazione e valutazione dei rischi, comprese le valutazioni

presidente: Matthias Samwald (Austria)

Matthias Samwald è professore associato presso l'Istituto di intelligenza artificiale dell'Università medica di Vienna. La sua ricerca si concentra sullo sfruttamento dell'IA per accelerare la ricerca scientifica, trasformare la medicina e contribuire al benessere umano, garantendo nel contempo che questi sistemi di IA siano sicuri e affidabili nel loro funzionamento.

vicepresidente: Marta Ziosi (Italia)

Marta Ziosi è ricercatrice post-dottorato presso l'Oxford Martin AI Governance Initiative, dove la sua ricerca si concentra sugli standard per l'IA di frontiera. Durante il suo dottorato di ricerca presso l'Oxford Internet Institute, ha lavorato su pregiudizi algoritmici e ha collaborato a progetti all'intersezione tra politica AI, equità e standard per modelli linguistici di grandi dimensioni. È anche la fondatrice di un'organizzazione senza scopo di lucro dedicata a garantire che la tecnologia serva il bene pubblico.

vicepresidente: Alexander Zacherl (Germania)

Alexander Zacherl è un Systems Designer indipendente. All'inizio del Regno Unito AI Safety Institute, ha contribuito a costruire il team di ricerca tecnica e il team di valutazione dei sistemi autonomi. In precedenza, ha lavorato presso DeepMind su simulazioni e ambienti di interazione umana per la ricerca di apprendimento di rinforzo multi-agente.

Gruppo di lavoro 3: Attenuazione del rischio tecnico

presidente: Yoshua Bengio (Canada)

Riconosciuto in tutto il mondo come uno dei maggiori esperti di intelligenza artificiale, Yoshua Bengio è noto soprattutto per il suo lavoro pionieristico nel deep learning, che gli è valso il premio A.M. Turing 2018, "il premio Nobel per l'informatica", con Geoffrey Hinton e Yann LeCun. È professore ordinario presso l'Université de Montréal e fondatore e direttore scientifico di Mila – Quebec AI Institute. Co-dirige il programma CIFAR Learning in Machines & Brains come Senior Fellow e funge da Direttore Scientifico di IVADO.

vicepresidente: Daniel Privitera (Italia e Germania)
Daniel Privitera è il fondatore e direttore esecutivo del KIRA Center, un'organizzazione indipendente senza scopo di lucro con sede a Berlino. È l'autore principale dell'International Scientific Report on the Safety of Advanced AI, co-scritto da 75 esperti internazionali di IA e supportato da 30 importanti paesi dell'IA, dalle Nazioni Unite e dall'UE.

Vicepresidente: Nitarshan Rajkumar (Canada)
Nitarshan Rajkumar è un dottorando che fa ricerca sull'IA presso l'Università di Cambridge. In precedenza è stato Senior Policy Adviser del Segretario di Stato britannico per la scienza, l'innovazione e la tecnologia, ruolo in cui ha co-fondato l'AI Safety Institute e co-creato l'AI Safety Summit e il programma di supercalcolo del Regno Unito. In precedenza, è stato ricercatore presso Mila a Montréal e ingegnere del software presso le startup di San Francisco.

Gruppo di lavoro 4: Gestione interna dei rischi e governance dei fornitori di IA per finalità generali

presidente: Marietje Schaake (Paesi Bassi)
Marietje Schaake è borsista presso il Cyber Policy Center di Stanford e presso l'Institute for Human-Centred AI. È editorialista del Financial Times e fa parte di numerosi consigli di amministrazione senza scopo di lucro e dell'organo consultivo di alto livello delle Nazioni Unite sull'IA. Tra il 2009 e il 2019 è stata deputata al Parlamento europeo, dove si è occupata di politica commerciale, estera e tecnologica. 

Vicepresidente: Markus Anderljung (Svezia)
Markus Anderljung è direttore della politica e della ricerca presso il Centro per la governance dell'IA. La sua ricerca si concentra sulla regolamentazione dell'IA, sullo sviluppo all'avanguardia responsabile, sulla governance dell'elaborazione, accanto ad altri argomenti. È inoltre Adjunct Fellow presso il Center for a New American Security e membro del gruppo di esperti sui futuri dell'IA dell'Osservatorio sulle politiche in materia di IA dell'OCSE. In precedenza è stato distaccato presso l'ufficio di gabinetto del Regno Unito in qualità di esperto politico di alto livello, vicedirettore del GovAI e consulente di alto livello presso EY Sweden.

Vicepresidente: Anka Reuel (Germania)
Anka Reuel è un dottorando in Informatica alla Stanford University. La sua ricerca si concentra sulla governance tecnica dell'IA. Svolge attività di ricerca presso lo Stanford Trustworthy AI Research Lab e lo Stanford Intelligent Systems Laboratory. È inoltre borsista di geopolitica e tecnologia presso il Belfer Center della Harvard Kennedy School.