Skip to main content
Shaping Europe’s digital future
Report / Study | Offentliggørelse

Etiske retningslinjer for pålidelig kunstig intelligens

Den 8. april 2019 fremlagde Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens etiske retningslinjer for pålidelig kunstig intelligens. Dette skete efter offentliggørelsen af retningslinjernes første udkast i december 2018, hvor der blev modtaget mere end 500 bemærkninger gennem en åben høring.

I henhold til retningslinjerne bør pålidelig kunstig intelligens være:

(1) lovlig — under overholdelse af alle gældende love og forskrifter

(2) etisk — respekt for etiske principper og værdier

(3) robust — begge ud fra et teknisk perspektiv, samtidig med at der tages hensyn til det sociale miljø

Download retningslinjerne på dit sprog nedenfor:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

Retningslinjerne indeholder et sæt af 7 centrale krav, som AI-systemer skal opfylde for at blive anset for at være pålidelige. En særlig evalueringsliste skal hjælpe med at kontrollere, at alle de centrale krav bringes i anvendelse:

  • Menneskelige aktiviteter og kontrol udført af mennesker: AI-systemer bør styrke mennesker og give dem mulighed for at træffe informerede beslutninger og fremme deres grundlæggende rettigheder. Samtidig skal der sikres passende tilsynsmekanismer, som kan opnås ved hjælp af tilgange, der involverer mennesker i kredsløbet, mennesket i kredsløbet og mennesket i kommandoen.
  • Teknisk robusthed og sikkerhed: AI-systemer skal være modstandsdygtige og sikre. De skal være sikre, sikre en faldplan, hvis noget går galt, og være nøjagtige, pålidelige og reproducerbare. Det er den eneste måde, hvorpå man kan sikre, at også utilsigtede skader kan minimeres og forebygges.
  • Beskyttelse af privatlivets fred og datastyring: ud over at sikre fuld respekt for privatlivets fred og databeskyttelse skal der også sikres passende datastyringsmekanismer under hensyntagen til dataenes kvalitet og integritet og sikring af legitim adgang til data.
  • Gennemsigtighed: data-, system- og AI-forretningsmodeller bør være gennemsigtige. Sporbarhedsmekanismer kan bidrage til at opnå dette. Desuden bør AI-systemer og deres beslutninger forklares på en måde, der er tilpasset den berørte interessent. Mennesker skal være opmærksomme på, at de interagerer med et AI-system, og skal informeres om systemets kapacitet og begrænsninger.
  • Mangfoldighed, ikkediskrimination og retfærdighed: Uretfærdig forudindtagethed skal undgås, da den kan have flere negative konsekvenser, lige fra marginalisering af sårbare grupper til forværring af fordomme og forskelsbehandling. AI-systemer, der fremmer mangfoldighed, bør være tilgængelige for alle uanset handicap og inddrage relevante interessenter gennem hele deres livscyklus.
  • Social og miljømæssig velfærd: AI-systemer bør være til gavn for alle mennesker, herunder fremtidige generationer. Det skal derfor sikres, at de er bæredygtige og miljøvenlige. Desuden bør de tage hensyn til miljøet, herunder andre levende væsener, og deres sociale og samfundsmæssige virkninger bør overvejes nøje. 
  • Ansvarlighed: Der bør indføres mekanismer til at sikre ansvar og ansvarlighed for AI-systemer og deres resultater. Mulighed for revision, som gør det muligt at vurdere algoritmer, data og designprocesser, spiller en central rolle heri, navnlig i kritiske anvendelser. Der bør desuden sikres en passende og tilgængelig klageadgang.

Ekspertgruppen vedrørende kunstig intelligens har også udarbejdet et dokument, der uddyber en definition af kunstig intelligens, der anvendes med henblik på retningslinjerne.

Download definitionen af kunstig intelligens på dit sprog nedenfor:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

 

Pilotproces

Dokumentet indeholder også en evalueringsliste, der operationaliserer de centrale krav og giver vejledning med henblik på at gennemføre dem i praksis. Fra den 26. juni gennemgik denne evalueringsliste en pilotproces, hvor alle interessenter blev opfordret til at teste evalueringslisten og give praktisk feedback om, hvordan den kan forbedres.

Der blev modtaget feedback på forskellige spor:

  • En åben undersøgelse eller en "kvantitativ analyse", der sendes til alle, der har tilmeldt sig piloten
  • Dybdegående interviews med en række repræsentative organisationer for at indsamle mere detaljeret feedback om forskellige sektorer 
  • Løbende mulighed for at uploade feedback og bedste praksis gennem den europæiske alliance for kunstig intelligens

Pilotfasen blev afsluttet den 1. december 2019.

På grundlag af den modtagne feedback fremlagde ekspertgruppen vedrørende kunstig intelligens den endelige vurderingsliste for pålidelig kunstig intelligens (ALTAI) i juli 2020. Altai er et praktisk værktøj, der omsætter de etiske retningslinjer til en tilgængelig og dynamisk tjekliste (selvevalueringstjekliste). Tjeklisten kan anvendes af udviklere og udbredere af kunstig intelligens, som ønsker at gennemføre de centrale krav i praksis. Denne nye liste er tilgængelig som prototype webbaseret værktøj og i PDF-format.