Skip to main content
Shaping Europe’s digital future
  • REPORT / STUDY
  • Offentliggørelse 17 Juli 2020

Vurderingsliste for pålidelig kunstig intelligens (ALTAI) til selvevaluering

Den 17. juli 2020 fremlagde Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens (AI HLEG) sin endelige vurderingsliste for pålidelig kunstig intelligens.

Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment

Efter en pilotproces, hvor over 350 interessenter deltog, blev en tidligere prototype af listen revideret og omsat til et værktøj til støtte for AI-udviklere og -idriftsættere i udviklingen af pålidelig kunstig intelligens.

Værktøjet understøtter anvendeligheden af de centrale krav, der er skitseret i de etiske retningslinjer for pålidelig kunstig intelligens (AI), som ekspertgruppen på højt plan om kunstig intelligens (AI HLEG) fremlagde for Europa-Kommissionen i april 2019. De etiske retningslinjer indførte begrebet pålidelig kunstig intelligens baseret på syv centrale krav:

  1. menneskeligt agentur og tilsyn
  2. teknisk robusthed og sikkerhed
  3. beskyttelse af privatlivets fred og datastyring
  4. gennemsigtighed
  5. mangfoldighed, ikkeforskelsbehandling og retfærdighed
  6. miljømæssig og samfundsmæssig velfærd og
  7. ansvarlighed

Gennem vurderingslisten for pålidelig kunstig intelligens (ALTAI) omsættes AI-principperne til en tilgængelig og dynamisk tjekliste, der vejleder udviklere og udbredere af kunstig intelligens i gennemførelsen af sådanne principper i praksis.  ALTAI vil bidrage til at sikre, at brugerne drager fordel af kunstig intelligens uden at blive udsat for unødvendige risici, ved at angive en række konkrete skridt til selvevaluering.

Download vurderingslisten for pålidelig kunstig intelligens (ALTAI) (.pdf)

ALTAI findes også i en webbaseret værktøjsversion.

Mere om det webbaserede værktøj ALTAI