Skip to main content
Plasmare il futuro digitale dell'Europa
Report / Study | Pubblicazione

Orientamenti etici per un'IA affidabile

Il 8 aprile 2019 il gruppo di esperti ad alto livello sull'IA ha presentato orientamenti etici per un'intelligenza artificiale affidabile. Ciò ha fatto seguito alla pubblicazione del primo progetto di orientamenti nel dicembre 2018, in merito al quale sono pervenute oltre 500 osservazioni nell'ambito di una consultazione aperta.

Secondo gli orientamenti, un'IA affidabile dovrebbe essere:

(1) lecito — rispetto di tutte le disposizioni legislative e regolamentari applicabili

(2) etica — rispetto dei principi e dei valori etici

(3) robusto — entrambi da un punto di vista tecnico tenendo conto del suo ambiente sociale

Scarica gli orientamenti nella tua lingua qui sotto:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL PL | PT | RO | SK | SL | SV

Gli orientamenti hanno presentato una serie di 7 requisiti fondamentali che i sistemi di IA dovrebbero soddisfare per essere considerati affidabili. Una lista di controllo specifica per la valutazione contribuisce alla verifica dell'applicazione di ciascuno dei seguenti requisiti fondamentali:

  • Azione e sorveglianza umane: I sistemi di IA dovrebbero responsabilizzare gli esseri umani, consentendo loro di prendere decisioni informate e promuovendo i loro diritti fondamentali. Al tempo stesso, devono essere garantiti adeguati meccanismi di sorveglianza, che possono essere conseguiti mediante approcci "human-in-the-loop", "human-on-the-loop" e "human-in-command".
  • Robustezza tecnica e sicurezza: I sistemi di IA devono essere resilienti e sicuri. Devono essere sicuri, garantire un piano di regresso in caso di problemi, nonché essere accurati, affidabili e riproducibili. Questo è l'unico modo per garantire che anche i danni involontari possano essere ridotti al minimo e prevenuti.
  • Riservatezza e governance dei dati: oltre a garantire il pieno rispetto della vita privata e della protezione dei dati, devono essere garantiti adeguati meccanismi di governance dei dati, tenendo conto della qualità e dell'integrità dei dati e garantendo un accesso legittimo ai dati.
  • Trasparenza: i modelli aziendali relativi ai dati, al sistema e all'IA dovrebbero essere trasparenti. I meccanismi di tracciabilità possono contribuire a raggiungere questo obiettivo. Inoltre, i sistemi di IA e le loro decisioni dovrebbero essere spiegati in modo adattato ai portatori di interessi interessati. Gli esseri umani devono essere consapevoli di interagire con un sistema di IA e devono essere informati delle capacità e dei limiti del sistema.
  • Diversità, non discriminazione ed equità: Occorre evitare distorsioni inique, in quanto potrebbero avere molteplici implicazioni negative, dall'emarginazione dei gruppi vulnerabili all'inasprimento dei pregiudizi e delle discriminazioni. Promuovendo la diversità, i sistemi di IA dovrebbero essere accessibili a tutti, indipendentemente da qualsiasi disabilità, e coinvolgere i portatori di interessi pertinenti durante l'intero ciclo di vita.
  • Benessere sociale e ambientale: I sistemi di IA dovrebbero andare a beneficio di tutti gli esseri umani, comprese le generazioni future. Occorre pertanto garantire che siano sostenibili e rispettose dell'ambiente. Inoltre, dovrebbero tenere conto dell'ambiente, compresi altri esseri viventi, e il loro impatto sociale e sociale dovrebbe essere attentamente preso in considerazione. 
  • Responsabilità: Dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l'accountability dei sistemi di IA e dei loro risultati. La verificabilità, che consente la valutazione degli algoritmi, dei dati e dei processi di progettazione, svolge un ruolo fondamentale in tale contesto, in particolare nelle applicazioni critiche. Inoltre, dovrebbe essere garantito un adeguato ricorso accessibile.

Il gruppo di esperti ad alto livello sull'IA ha inoltre elaborato un documento che approfondisce una definizione di intelligenza artificiale utilizzata ai fini degli orientamenti.

Scarica la definizione di IA nella tua lingua qui sotto:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL PL | PT | RO | SK | SL | SV

 

Processo pilota

Il documento fornisce inoltre un elenco di valutazione che rende operativi i requisiti fondamentali e offre orientamenti per attuarli nella pratica. A partire dal 26 giugno, l'elenco di valutazione è stato sottoposto a un processo pilota, al quale tutte le parti interessate sono state invitate a testarlo e a fornire riscontri pratici su come migliorarlo.

Il feedback è stato ricevuto attraverso diversi percorsi:

  • Un sondaggio aperto o "analisi quantitativa" inviato a tutti coloro che si sono registrati al progetto pilota
  • Interviste approfondite con una serie di organizzazioni rappresentative per raccogliere riscontri più dettagliati per i diversi settori 
  • Possibilità continua di caricare riscontri e migliori pratiche attraverso l' Alleanza europea per l'IA

La fase pilota si è conclusa il 1º dicembre 2019

Sulla base dei riscontri ricevuti, nel luglio 2020 il gruppo di esperti ad alto livello sull'IA ha presentato la lista di controllo finale per un' IAaffidabile (ALTAI). Altai è uno strumento pratico che traduce gli orientamenti etici in una lista di controllo accessibile e dinamica (autovalutazione). La lista di controllo può essere utilizzata dagli sviluppatori e dagli operatori dell' IA che desiderano attuare i requisiti fondamentali nella pratica. Questo nuovo elenco è disponibile come prototipo di strumento web e in formato PDF.