
Efter en pilotproces, hvor over 350 interessenter deltog, blev en tidligere prototype af listen revideret og omsat til et værktøj til støtte for AI-udviklere og -idriftsættere i udviklingen af pålidelig kunstig intelligens.
Værktøjet understøtter anvendeligheden af de centrale krav, der er skitseret i de etiske retningslinjer for pålidelig kunstig intelligens (AI), som ekspertgruppen på højt plan om kunstig intelligens (AI HLEG) fremlagde for Europa-Kommissionen i april 2019. De etiske retningslinjer indførte begrebet pålidelig kunstig intelligens baseret på syv centrale krav:
- menneskeligt agentur og tilsyn
- teknisk robusthed og sikkerhed
- beskyttelse af privatlivets fred og datastyring
- gennemsigtighed
- mangfoldighed, ikkeforskelsbehandling og retfærdighed
- miljømæssig og samfundsmæssig velfærd og
- ansvarlighed
Gennem vurderingslisten for pålidelig kunstig intelligens (ALTAI) omsættes AI-principperne til en tilgængelig og dynamisk tjekliste, der vejleder udviklere og udbredere af kunstig intelligens i gennemførelsen af sådanne principper i praksis. ALTAI vil bidrage til at sikre, at brugerne drager fordel af kunstig intelligens uden at blive udsat for unødvendige risici, ved at angive en række konkrete skridt til selvevaluering.
Download vurderingslisten for pålidelig kunstig intelligens (ALTAI) (.pdf)
ALTAI findes også i en webbaseret værktøjsversion.
Mere om det webbaserede værktøj ALTAI