Skip to main content
Plasmare il futuro digitale dell'Europa
  • REPORT / STUDY
  • Pubblicazione 17 Luglio 2020

Elenco di valutazione dell'intelligenza artificiale affidabile (ALTAI) per l'autovalutazione

Il 17 luglio 2020 il gruppo di esperti ad alto livello sull'intelligenza artificiale (AI HLEG) ha presentato l'elenco di valutazione finale per un'intelligenza artificiale affidabile.

Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment

A seguito di un processo pilota a cui hanno partecipato oltre 350 portatori di interessi, un precedente prototipo dell'elenco è stato rivisto e tradotto in uno strumento per sostenere gli sviluppatori e i deployer di IA nello sviluppo di un'IA affidabile.

Lo strumento sostiene l'attuabilità dei requisiti chiave delineati dagli orientamenti etici per un'intelligenza artificiale affidabile (IA), presentati dal gruppo di esperti ad alto livello sull'IA (AI HLEG) presentato alla Commissione europea nell'aprile 2019. Le linee guida etiche hanno introdotto il concetto di IA affidabile, basato su sette requisiti chiave:

  1. agenzia umana e supervisione
  2. robustezza tecnica e sicurezza
  3. privacy e governance dei dati
  4. trasparenza
  5. diversità, non discriminazione ed equità
  6. benessere ambientale e sociale e
  7. responsabilità

Attraverso l'elenco di valutazione per un'IA affidabile (ALTAI), i principi dell'IA sono tradotti in una lista di controllo accessibile e dinamica che guida gli sviluppatori e gli operatori dell'IA nell'attuazione pratica di tali principi.  ALTAI contribuirà a garantire che gli utenti beneficino dell'IA senza essere esposti a rischi inutili indicando una serie di misure concrete per l'autovalutazione.

Scarica l'elenco di valutazione dell'intelligenza artificiale affidabile (ALTAI) (.pdf)

L'ALTAI è disponibile anche in versione tool web-based.

Maggiori informazioni sullo strumento basato sul web ALTAI