Skip to main content
Shaping Europe’s digital future

Lov om kunstig intelligens

AI-retsakten er den første retlige ramme for kunstig intelligens nogensinde, som tager højde for risiciene ved kunstig intelligens og sætter Europa i stand til at spille en ledende rolle på globalt plan.

    en mand og en kvinde, der arbejder på en højteknologisk skærm

© gorodenkoff - iStock Getty Images Plus

AI-retsakten har til formål at give udviklere og udbredere af kunstig intelligens klare krav og forpligtelser vedrørende specifikke anvendelser af kunstig intelligens. Samtidig har forordningen til formål at mindske de administrative og finansielle byrder for virksomhederne, navnlig små og mellemstore virksomheder (SMV'er).

AI-retsakten er en del af en bredere pakke af politiske foranstaltninger til støtte for udviklingen af pålidelig kunstig intelligens, som også omfatter innovationspakken for kunstig intelligens og den koordinerede plan for kunstig intelligens. Disse foranstaltninger vil tilsammen garantere menneskers og virksomheders sikkerhed og grundlæggende rettigheder, når det drejer sig om kunstig intelligens. De vil også styrke udbredelsen, investeringerne og innovationen inden for kunstig intelligens i hele EU.

AI-loven er den første omfattende retlige ramme for kunstig intelligens i hele verden nogensinde. Formålet med de nye regler er at fremme pålidelig kunstig intelligens i og uden for Europa ved at sikre, at AI-systemer overholder de grundlæggende rettigheder, sikkerhed og etiske principper, og ved at imødegå risici ved meget kraftfulde og virkningsfulde AI-modeller.

Hvorfor har vi brug for regler om kunstig intelligens?

AI-retsakten sikrer, at europæerne kan stole på, hvad AI har at tilbyde. Selv om de fleste AI-systemer udgør en begrænset risiko og kan bidrage til at løse mange samfundsmæssige udfordringer, skaber visse AI-systemer risici, som vi skal håndtere for at undgå uønskede resultater.

For eksempel er det ofte ikke muligt at finde ud af, hvorfor et AI-system har truffet en beslutning eller en forudsigelse og truffet en bestemt handling. Det kan således blive vanskeligt at vurdere, om nogen har været uretfærdigt dårligt stillet, f.eks. i en ansættelsesbeslutning eller i en ansøgning om en offentlig ydelsesordning.

Selv om den eksisterende lovgivning giver en vis beskyttelse, er den utilstrækkelig til at imødegå de specifikke udfordringer, som AI-systemer kan medføre.

De foreslåede regler vil:

  • imødegå de risici, der specifikt er skabt af AI-applikationer
  • forbyde AI-praksisser, der udgør uacceptable risici
  • udarbejde en liste over højrisikoapplikationer
  • fastsætte klare krav til AI-systemer til højrisikoanvendelser
  • definere specifikke forpligtelser, som udbredere og udbydere af højrisiko-AI-applikationer
  • kræve en overensstemmelsesvurdering, før et givet AI-system tages i brug eller bringes i omsætning
  • indføre håndhævelse, efter at et givet AI-system er bragt i omsætning
  • etablere en forvaltningsstruktur på europæisk og nationalt plan.

En risikobaseret tilgang

Regelsættet definerer fire risikoniveauer for AI-systemer:

pyramide, der viser de fire risikoniveauer: Uacceptabel risiko Høj risiko begrænset risiko, minimal eller ingen risiko

 

Alle AI-systemer, der betragtes som en klar trussel mod menneskers sikkerhed, levebrød og rettigheder, vil blive forbudt, fra social scoring af regeringer til legetøj ved hjælp af talehjælp, der tilskynder til farlig adfærd.

Høj risiko

AI-systemer, der er identificeret som højrisikosystemer, omfatter AI-teknologi, der anvendes i:

  • kritisk infrastruktur (f.eks. transport), der kan bringe borgernes liv og sundhed i fare
  • uddannelse eller erhvervsuddannelse, der kan bestemme adgangen til uddannelse og faglig uddannelse i en persons liv (f.eks. bedømmelse af eksamener)
  • sikkerhedskomponenter i produkter (f.eks. AI-anvendelse i forbindelse med robotassisteret kirurgi)
  • beskæftigelse, ledelse af arbejdstagere og adgang til selvstændig virksomhed (f.eks. CV-sorteringssoftware til ansættelsesprocedurer)
  • væsentlige private og offentlige tjenester (f.eks. kreditvurdering, der nægter borgerne mulighed for at optage et lån)
  • retshåndhævelse, der kan gribe ind i folks grundlæggende rettigheder (f.eks. evaluering af bevisernes pålidelighed)
  • migrations-, asyl- og grænsekontrolforvaltning (f.eks. automatisk behandling af visumansøgninger)
  • retspleje og demokratiske processer (f.eks. AI-løsninger til søgning efter retsafgørelser).

Højrisiko-AI-systemer vil være underlagt strenge forpligtelser, før de kan markedsføres:

  • passende risikovurderings- og afbødningssystemer
  • høj kvalitet af de datasæt, der forsyner systemet med henblik på at minimere risici og diskriminerende resultater
  • logning af aktiviteter for at sikre resultaternes sporbarhed
  • detaljeret dokumentation med alle de oplysninger, der er nødvendige om systemet, og dets formål, for at myndighederne kan vurdere dets overensstemmelse
  • klare og tilstrækkelige oplysninger til udbrederen
  • passende foranstaltninger til menneskeligt tilsyn med henblik på at minimere risikoen
  • høj grad af robusthed, sikkerhed og nøjagtighed.

Alle biometriske fjernidentifikationssystemer betragtes som højrisikosystemer og er underlagt strenge krav. Anvendelse af biometrisk fjernidentifikation på offentligt tilgængelige steder til retshåndhævelsesformål er i princippet forbudt.

Snævre undtagelser er nøje defineret og reguleret, f.eks. når det er nødvendigt for at søge efter et forsvunden barn, for at forebygge en specifik og overhængende terrortrussel eller for at opdage, lokalisere, identificere eller retsforfølge en gerningsmand eller mistænkt for en alvorlig strafbar handling.

Disse anvendelser er betinget af tilladelse fra et retsligt eller andet uafhængigt organ og af passende tidsfrister, geografisk rækkevidde og de databaser, der søges i.

Begrænset risiko

Begrænset risiko vedrørerde risici, der er forbundet med manglende gennemsigtighed i brugen af kunstig intelligens. AI-loven indfører specifikke gennemsigtighedsforpligtelser for at sikre, at mennesker informeres, når det er nødvendigt, og fremmer tillid. For eksempel bør mennesker, når de bruger AI-systemer som chatbots, gøres opmærksomme på, at de interagerer med en maskine, så de kan træffe en informeret beslutning om at fortsætte eller træde tilbage. Udbyderne skal også sikre, at AI-genereret indhold kan identificeres. Desuden skal AI-genereret tekst, der offentliggøres med det formål at informere offentligheden om spørgsmål af almen interesse, mærkes som kunstigt genereret. Dette gælder også for lyd- og videoindhold, der udgør dybe forfalskninger.

Minimal eller ingen risiko

AI-loven giver mulighed for fri brug af minimal risiko-AI. Dette omfatter applikationer som AI-aktiverede videospil eller spamfiltre. Langt størstedelen af de AI-systemer, der i øjeblikket anvendes i EU, falder ind under denne kategori.

Hvordan fungerer det hele i praksis for udbydere af højrisiko-AI-systemer?

trinvis proces for overensstemmelseserklæring
How does it all work in practice for providers of high risk AI systems?

Når et AI-system er på markedet, er myndighederne ansvarlige for markedsovervågning, udbredere sikrer menneskeligt tilsyn og overvågning, og udbyderne har et system til overvågning, efter at udstyret er bragt i omsætning. Udbydere og udbredere vil også indberette alvorlige hændelser og funktionsfejl.

En løsning til pålidelig brug af store AI-modeller

Flere og flere generelle AI-modeller bliver komponenter i AI-systemer. Disse modeller kan udføre og tilpasse utallige forskellige opgaver.

Selv om AI-modeller til generelle formål kan muliggøre bedre og mere effektive AI-løsninger, er det vanskeligt at overvåge alle kapaciteter.

Der indføres AI-retsakten gennemsigtighedsforpligtelser for alle AI-modeller til generelle formål for at muliggøre en bedre forståelse af disse modeller og yderligere risikostyringsforpligtelser for meget velegnede og virkningsfulde modeller. Disse yderligere forpligtelser omfatter selvevaluering og afbødning af systemiske risici, indberetning af alvorlige hændelser, gennemførelse af test- og modelevalueringer samt cybersikkerhedskrav.

Fremtidssikret lovgivning

Da AI er en teknologi, der udvikler sig hurtigt, har forslaget en fremtidssikret tilgang, der gør det muligt at tilpasse reglerne til teknologiske ændringer. AI-applikationer bør forblive pålidelige, selv efter at de er blevet bragt i omsætning. Dette kræver løbende kvalitet og risikostyring fra udbydernes side.

Håndhævelse og gennemførelse

Det Europæiske AI- kontor, der blev oprettet i februar 2024 i Kommissionen, fører tilsyn med AI-retsaktens håndhævelse og gennemførelse sammen med medlemsstaterne. Det har til formål at skabe et miljø, hvor AI-teknologier respekterer den menneskelige værdighed, rettigheder og tillid. Det fremmer også samarbejde, innovation og forskning inden for kunstig intelligens blandt forskellige interessenter. Desuden deltager det i international dialog og samarbejde om AI-spørgsmål og anerkender behovet for global tilpasning til forvaltning af kunstig intelligens. Gennem disse bestræbelser bestræber Det Europæiske AI-kontor sig på at positionere Europa som førende inden for etisk og bæredygtig udvikling af AI-teknologier.

Næste skridt

I december 2023 nåede Europa-Parlamentet og Rådet for Den Europæiske Union til politisk enighed om AI-retsakten. Teksten er ved at blive formelt vedtaget og oversat. Loven om kunstig intelligens træder i kraft 20 dage efter offentliggørelsen i EU-Tidende og vil finde fuld anvendelse to år senere, med visse undtagelser: forbud træder i kraft efter seks måneder, forvaltningsreglerne og forpligtelserne for AI-modeller til generelle formål finder anvendelse efter 12 måneder, og reglerne for AI-systemer — indlejret i regulerede produkter — finder anvendelse efter 36 måneder. For at lette overgangen til den nye lovgivningsmæssige ramme har Kommissionen lanceret AI-pagten, et frivilligt initiativ, der har til formål at støtte den fremtidige gennemførelse, og opfordrer AI-udviklere fra og uden for Europa til at overholde de centrale forpligtelser i AI-retsakten på forhånd.

Seneste nyt

EU og USA fortsætter et stærkt handels- og teknologisamarbejde i en tid med globale udfordringer

I dag afholdt EU og USA det sjette møde i Handels- og Teknologirådet mellem EU og USA (TTC) i Leuven, Belgien. Mødet gav ministrene mulighed for at bygge videre på det igangværende arbejde og fremlægge nye resultater af TTC efter to et halvt års samarbejde.

PRESS RELEASE |
Kommissionen åbner opfordringer til at investere over 176 mio. EUR i digital kapacitet og teknologi

Europa-Kommissionen indledte et nyt sæt indkaldelser af forslag under arbejdsprogrammerne for 2023-2024 under programmet for et digitalt Europa for at styrke den digitale kapacitet i hele EU. Disse indkaldelser er åbne for virksomheder, offentlige forvaltninger og andre enheder fra EU-medlemsstaterne, EFTA/EØS-landene og associerede lande. Budgettet for dette sæt indkaldelser er på over 176 mio. EUR.

Se også

Det store billede

Europæisk tilgang til kunstig intelligens

EU's tilgang til kunstig intelligens centrerer om ekspertise og tillid med henblik på at styrke forskning og industriel kapacitet og samtidig sikre sikkerhed og grundlæggende rettigheder.

Grav dybere

AI-pagten

AI-pagten vil tilskynde og støtte virksomhederne i planlægningen af de foranstaltninger, der er fastsat i AI-loven.

Se også

Koordineret plan for kunstig intelligens

Den koordinerede plan for kunstig intelligens har til formål at fremskynde investeringer i kunstig intelligens, gennemføre AI-strategier og -programmer og tilpasse AI-politikken for at forhindre fragmentering i Europa.

Den europæiske AI-alliance

Den europæiske AI-alliance er et initiativ fra Europa-Kommissionen til at etablere en åben politisk dialog om kunstig intelligens. Siden den blev lanceret i 2018, har AI-alliancen engageret omkring 6000 interessenter gennem regelmæssige arrangementer, offentlige høringer og...