Skip to main content
Plasmare il futuro digitale dell'Europa

Proposta quadro normativo sull'intelligenza artificiale

La Commissione propone il primo quadro giuridico in materia di IA, che affronta i rischi dell'IA e posiziona l'Europa a svolgere un ruolo guida a livello globale.

    un uomo e una donna che lavorano su uno schermo ad alta tecnologia

© gorodenkoff - iStock Getty Images Plus

La proposta di regolamentazione mira a fornire agli sviluppatori di IA, ai deploymenter e agli utenti requisiti e obblighi chiari per quanto riguarda gli usi specifici dell'IA. Allo stesso tempo, la proposta mira a ridurre gli oneri amministrativi e finanziari per le imprese, in particolare le piccole e medie imprese (PMI).

La proposta fa parte di un più ampio pacchetto di IA, che include anche il piano coordinato aggiornato sull'IA. Insieme, il quadro normativo e il piano coordinato garantiranno la sicurezza e i diritti fondamentali delle persone e delle imprese quando si tratta di IA. Inoltre, rafforzeranno l'adozione, gli investimenti e l'innovazione nell'IA in tutta l'UE.

Perché abbiamo bisogno di regole sull'IA?

La proposta di regolamento sull'IA garantisce che gli europei possano fidarsi di ciò che l'IA ha da offrire. Mentre la maggior parte dei sistemi di IA è limitata a nessun rischio e può contribuire a risolvere molte sfide sociali, alcuni sistemi di IA creano rischi che dobbiamo affrontare per evitare esiti indesiderati.

Ad esempio, spesso non è possibile scoprire perché un sistema di IA ha preso una decisione o una previsione e ha intrapreso una particolare azione. Quindi, può diventare difficile valutare se qualcuno è stato ingiustamente svantaggiato, come in una decisione di assunzione o in una domanda per un regime di pubblica utilità.

Sebbene la legislazione vigente fornisca una certa protezione, non è sufficiente affrontare le sfide specifiche che i sistemi di IA possono comportare.

Le norme proposte:

  • affrontare i rischi creati specificamente dalle applicazioni di IA;
  • proporre un elenco delle domande ad alto rischio;
  • stabilire requisiti chiari per i sistemi di IA per le applicazioni ad alto rischio;
  • definire obblighi specifici per gli utenti di IA e i fornitori di applicazioni ad alto rischio;
  • proporre una valutazione della conformità prima che il sistema di IA sia messo in servizio o immesso sul mercato;
  • proporre l'applicazione dopo l'immissione sul mercato di tale sistema di IA;
  • proporre una struttura di governance a livello europeo e nazionale.

Un approccio basato sul rischio

piramide che mostra i quattro livelli di rischio: Rischio inaccettabile; Ad alto rischio; rischio limitato, minimo o nessun rischio

Il quadro normativo definisce 4 livelli di rischio nell'IA:

  • Rischio inaccettabile
  • Alto rischio
  • Rischio limitato
  • Minimo o nessun rischio

Rischio inaccettabile

Tutti i sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati, dal punteggio sociale da parte dei governi ai giocattoli che utilizzano l'assistenza vocale che incoraggia comportamenti pericolosi.

Alto rischio

I sistemi di IA identificati come ad alto rischio includono la tecnologia di IA utilizzata in:

  • infrastrutture critiche (ad esempio i trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini;
  • formazione scolastica o professionale, che può determinare l'accesso all'istruzione e al corso professionale della vita di qualcuno (ad esempio il punteggio degli esami);
  • componenti di sicurezza dei prodotti (ad es. applicazione di IA in chirurgia assistita da robot);
  • occupazione, gestione dei lavoratori e accesso al lavoro autonomo (ad esempio software di selezione CV per le procedure di assunzione);
  • servizi pubblici e privati essenziali (ad esempio, il punteggio di credito che nega ai cittadini l'opportunità di ottenere un prestito);
  • forze dell'ordine che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell'affidabilità delle prove);
  • gestione della migrazione, dell'asilo e del controllo delle frontiere (ad esempio verifica dell'autenticità dei documenti di viaggio);
  • amministrazione della giustizia e dei processi democratici (ad esempio l'applicazione della legge a un insieme concreto di fatti).

I sistemi di IA ad alto rischio saranno soggetti a obblighi rigorosi prima di poter essere immessi sul mercato:

  • adeguati sistemi di valutazione e mitigazione dei rischi;
  • elevata qualità delle serie di dati che alimentano il sistema per ridurre al minimo i rischi e i risultati discriminatori;
  • registrazione delle attività per garantire la tracciabilità dei risultati;
  • documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità ne valutino la conformità;
  • informazioni chiare e adeguate per l'utente;
  • adeguate misure di sorveglianza umana per ridurre al minimo i rischi;
  • alto livello di robustezza, sicurezza e precisione.

Tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a rigorosi requisiti. L'uso dell'identificazione biometrica remota in spazi accessibili al pubblico a fini di contrasto è, in linea di principio, vietato.

Le eccezioni ristrette sono rigorosamente definite e regolamentate, come ad esempio quando necessario per la ricerca di un minore scomparso, per prevenire una minaccia terroristica specifica e imminente o per individuare, individuare, identificare o perseguire un colpevole o sospettato di un reato grave.

Tale uso è soggetto ad autorizzazione da parte di un organo giudiziario o di altro organismo indipendente e a limiti adeguati nel tempo, nella portata geografica e nelle basi di dati ricercate.

Rischio limitato

Il rischio limitato si riferisce ai sistemi di IA con specifici obblighi di trasparenza. Quando si utilizzano sistemi di intelligenza artificiale come i chatbot, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina in modo da poter prendere una decisione informata di continuare o fare un passo indietro.

Minimo o nessun rischio

La proposta consente l'uso gratuito dell'IA a rischio minimo. Ciò include applicazioni come i videogiochi abilitati all'intelligenza artificiale o i filtri antispam. La stragrande maggioranza dei sistemi di IA attualmente utilizzati nell'UE rientrano in questa categoria.

processo graduale per la dichiarazione di conformità
How does it all work in practice for providers of high risk AI systems?

Una volta che un sistema di IA è sul mercato, le autorità sono responsabili della vigilanza del mercato, gli utenti assicurano la sorveglianza e il monitoraggio umani e i fornitori dispongono di un sistema di monitoraggio post-commercializzazione. I fornitori e gli utenti segnalano anche gravi incidenti e malfunzionamenti.

Legislazione a prova di futuro

Poiché l'IA è una tecnologia in rapida evoluzione, la proposta ha un approccio a prova di futuro, consentendo alle regole di adattarsi ai cambiamenti tecnologici. Le applicazioni di IA dovrebbero rimanere affidabili anche dopo essere state immesse sul mercato. Ciò richiede una gestione continua della qualità e del rischio da parte dei fornitori.

Prossimi passi

A seguito della proposta della Commissione nell'aprile 2021, il regolamento potrebbe entrare in vigore tra la fine del 2022 e l'inizio del 2023 in un periodo transitorio. In questo periodo, le norme sarebbero state stabilite e sviluppate e le strutture di governance istituite sarebbero operative. La seconda metà del 2024 è la prima volta che il regolamento potrebbe diventare applicabile agli operatori con le norme pronte e le prime valutazioni di conformità effettuate.

Come ulteriore rilascio normativo del Libro bianco sull'IA, il 28 settembre 2022 è stata adottata una proposta di direttiva sulla responsabilità dell'IA.

Ultime notizie

COMUNICATO STAMPA |
Diritti e principi digitali: una trasformazione digitale per i cittadini dell'UE

La Commissione accoglie con favore l'accordo raggiunto ieri con il Parlamento e il Consiglio sulla dichiarazione europea sui diritti e i principi digitali. La dichiarazione, proposta a gennaio, stabilisce un chiaro punto di riferimento sul tipo di trasformazione digitale antropocentrica che l'UE promuove e difende, sia all'interno che all'estero.

Contenuti correlati

Quadro generale

Un approccio europeo all'intelligenza artificiale

L'approccio dell'UE all'intelligenza artificiale è incentrato sull'eccellenza e la fiducia, con l'obiettivo di rafforzare la ricerca e la capacità industriale garantendo al tempo stesso la sicurezza e i diritti fondamentali.

Vedere anche

L'Alleanza europea per l'IA

L'Alleanza europea per l'intelligenza artificiale è un'iniziativa della Commissione europea volta a istituire un dialogo politico aperto sull'intelligenza artificiale. Dal suo lancio nel 2018, l'Alleanza AI ha coinvolto circa 6000 stakeholder attraverso eventi regolari...