Anvendelsesområde og målsætninger
Forordningen om kunstig intelligens er verdens første omfattende lov om kunstig intelligens. Den har til formål at imødegå risici for sundhed, sikkerhed og grundlæggende rettigheder. Forordningen har også til formål at beskytte demokratiet, retsstatsprincippet og miljøet.
Udbredelsen af AI-systemer og AI-modeller til almen brug har et stort potentiale til at skabe samfundsmæssige fordele, økonomisk vækst og styrke EU's innovation og globale konkurrenceevne. I visse tilfælde kan de specifikke karakteristika ved visse AI-systemer og AI-modeller til almen brug imidlertid skabe nye risici i forbindelse med brugersikkerhed, herunder fysisk sikkerhed, og grundlæggende rettigheder. Nogle AI-modeller til almen brug, de mest avancerede, kan endda udgøre såkaldte "systemiske risici".
Dette fører til retsusikkerhed og en potentielt langsommere udbredelse af AI-teknologier blandt offentlige myndigheder, virksomheder og borgere på grund af manglende tillid. Uensartede lovgivningsmæssige reaktioner fra de nationale myndigheders side kan risikere at fragmentere det indre marked.
Som reaktion på disse udfordringer var der behov for lovgivningsmæssige tiltag for at sikre et velfungerende indre marked for AI-systemer og AI-modeller til almen brug, hvor risici håndteres på passende vis, og fordele tages i betragtning.
Den retlige ramme finder anvendelse på både offentlige og private aktører i og uden for EU, som bringer et AI-system eller en AI-model til almen brug i omsætning på EU-markedet eller tager et AI-system i brug eller anvender det i EU.
Forpligtelserne gælder bl.a. for udbydere (f.eks. en udvikler af et CV-screeningværktøj) og udbredere af AI-systemer (f.eks. en bank, der anvender dette screeningværktøj) samt for udbydere af AI-modeller til almen brug. Der er visse undtagelser fra forordningen. Forsknings-, udviklings- og prototypeaktiviteter, der finder sted, inden et AI-system eller en AI-model frigives på markedet, er ikke omfattet af denne forordning. AI-systemer, der udelukkende er designet til militære, forsvarsmæssige eller nationale sikkerhedsformål, er også undtaget, uanset hvilken type enhed der udfører disse aktiviteter.
Forordningen om kunstig intelligens indfører en ensartet ramme på tværs af alle EU's medlemsstater baseret på en risikobaseret tilgang.
Forbudte AI-systemer
Et meget begrænset sæt særligt skadelige anvendelser af AI-systemer, der er i strid med EU's værdier, fordi de krænker grundlæggende rettigheder og derfor vil blive forbudt:
- Udnyttelse af personers sårbarheder, manipulation og anvendelse af subliminale teknikker
- Social scoring til offentlige og private formål
- Individuelt prædiktivt politiarbejde udelukkende baseret på profilering af personer
- Ikke-målrettet skrabning af internet eller CCTV til ansigtsbilleder for at opbygge eller udvide databaser
- Følelsesgenkendelse på arbejdspladsen og uddannelsesinstitutioner, medmindre det er af medicinske eller sikkerhedsmæssige årsager (dvs. overvågning af en pilots træthedsniveau)
- Biometrisk kategorisering af fysiske personer med henblik på at udlede eller udlede deres race, politiske anskuelser, fagforeningsmæssige tilhørsforhold, religiøse eller filosofiske overbevisning eller seksuelle orientering. Mærkning eller filtrering af datasæt og kategorisering af data vil stadig være mulig
- Biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse, med forbehold af snævre undtagelser (se nedenfor)
Kommissionen har udstedt retningslinjer for forbudt AI-praksis og retningslinjer for definitionen af AI-systemer i AI-forordningen. Disse indeholder juridiske forklaringer og praktiske eksempler for at hjælpe interessenterne med at overholde disse regler.
Højrisiko-AI-systemer
AI-forordningen betragter et begrænset antal AI-systemer som højrisikosystemer, fordi de potentielt kan have en negativ indvirkning på menneskers sikkerhed eller deres grundlæggende rettigheder (som beskyttet af EU's charter om grundlæggende rettigheder). Bilaget til retsakten er listerne over højrisiko-AI-systemer, som kan revideres for at tilpasse dem til udviklingen i AI-brugstilfælde.
Højrisiko-AI-systemer omfatter f.eks. AI-systemer, der vurderer, om nogen er i stand til at modtage en bestemt lægebehandling, få et bestemt job eller låne penge til at købe en lejlighed. Andre højrisiko-AI-systemer er dem, der anvendes af politiet til at vurdere risikoen for, at nogen begår en forbrydelse (medmindre det er forbudt i henhold til artikel 5).
Højrisiko-AI-systemer omfatter også sikkerhedskomponenter i produkter, der er omfattet af sektorspecifik EU-lovgivning, eller AI-systemer, der selv udgør sådanne produkter. De vil altid blive betragtet som højrisiko, når de er underlagt tredjepartsoverensstemmelsesvurdering i henhold til den sektorspecifikke lovgivning. Dette kan f.eks. omfatte AI-systemer, der betjener robotter, droner eller medicinsk udstyr.
Gennemsigtighedskrav til visse AI-systemer
For at fremme tilliden er det vigtigt at sikre gennemsigtighed omkring den kunstige oprindelse af visse former for indhold eller interaktioner med kunstig intelligens. Forordningen om kunstig intelligens indfører derfor specifikke gennemsigtighedskrav for udbydere eller udbredere af visse interaktive eller generative AI-systemer (f.eks. chatbots eller deepfakes). Disse gennemsigtighedskrav har til formål at imødegå risikoen for misinformation og manipulation, svig, efterligning og vildledning af forbrugerne.
AI-systemer med minimal risiko
De fleste AI-systemer kan udvikles og anvendes i henhold til den eksisterende lovgivning uden yderligere retlige forpligtelser.
AI-modeller til almen brug
Forordningen om kunstig intelligens regulerer også AI-modeller til almen brug. Disse kan anvendes til en række forskellige opgaver og er ved at blive grundlaget for mange AI-systemer i EU. Udbydere af AI-modeller til almen brug skal dokumentere visse oplysninger (medmindre de er berettiget til open source-undtagelsen) og træffe foranstaltninger, der sikrer, at de overholder EU-retten om ophavsret og beslægtede rettigheder.
De mest avancerede GPAI-modeller kan også udgøre systemiske risici. Stærke modeller kan f.eks. muliggøre kemiske, biologiske, radiologiske eller nukleare (CBRN) angreb eller omfattende sofistikerede cyberangreb, undslippe menneskelig kontrol eller muliggøre strategisk forvridning af menneskelig adfærd eller overbevisning. Udbydere af AI-modeller til almen brug med systemiske risici skal desuden vurdere og afbøde systemiske risici.
Forordningen om kunstig intelligens skaber en retlig ramme, der er lydhør over for nye udviklinger, nem og hurtig at tilpasse og giver mulighed for hyppig evaluering. Forordningen fastsætter resultatorienterede krav og forpligtelser, men overlader de konkrete tekniske løsninger og operationaliseringen til industridrevne standarder og adfærdskodekser, der er fleksible, så de kan tilpasses forskellige anvendelsestilfælde og muliggøre nye teknologiske løsninger.
AI-forordningen kan ændres ved delegerede retsakter og gennemførelsesretsakter, f.eks. for at revidere listen over højrisikoanvendelsestilfælde i bilag III. Der vil være hyppige evalueringer af visse dele af forordningen om kunstig intelligens og i sidste ende af hele forordningen, idet det sikres, at der identificeres et behov for revision og ændringer.
I henhold til forordningen om kunstig intelligens vil højrisiko-AI-systemer være underlagt specifikke krav. Europæiske harmoniserede standarder vil indeholde detaljerede specifikationer for gennemførelse og overholdelse af højrisikokravene. Udbydere, der udvikler et højrisiko-AI-system i overensstemmelse med de harmoniserede standarder, vil drage fordel af en formodning om overensstemmelse.
I maj 2023 gav Europa-Kommissionen de europæiske standardiseringsorganisationer CEN og CENELEC mandat til at udvikle standarder for disse højrisikokrav. Dette mandat blev ændret i juni 2025 for at bringe det i overensstemmelse med den endelige tekst til retsakten om kunstig intelligens. CEN og CENELEC har ikke været i stand til at udvikle standarderne i den ønskede tidsplan fra august 2025. Standardiseringsarbejdet er stadig i gang.
Standarder er frivillige, men afgørende for retssikkerheden. De hjælper virksomhederne med at forstå, hvad de skal gøre, og myndighederne med at vide, hvad de skal kontrollere. Den forsinkede tilgængelighed af standarderne bringer den vellykkede ikrafttræden af højrisikoreglerne den 2. august 2026 i fare. Kommissionen mener derfor, at det er hensigtsmæssigt at give mere tid til effektiv gennemførelse af de regler, for hvilke standarderne er af væsentlig betydning (se forslaget om en digital omnibus).
AI-muligheder og -påvirkning går på tværs af grænser. Udfordringerne er globale, og derfor er samarbejde vigtigt og nødvendigt. AI-kontoret leder Kommissionens internationale engagement inden for kunstig intelligens på grundlag af forordningen om kunstig intelligens og den koordinerede plan for kunstig intelligens. EU søger at:
- Føre an i den globale indsats inden for kunstig intelligens ved at støtte innovation, etablere passende værn om kunstig intelligens og udvikle den globale forvaltning af kunstig intelligens
- Fremme ansvarlig forvaltning og god forvaltning af kunstig intelligens
- Sikre, at internationale aftaler er i overensstemmelse med vores tilgang
Efterhånden som det globale landskab ændrer sig, er proaktivt AI-engagement — koordineret tæt med vores allierede — blevet en væsentlig og voksende prioritet. EU er en proaktiv, samarbejdsvillig og pålidelig partner, der går foran med et godt eksempel og samarbejder internationalt, samtidig med at det beskytter sine interesser, sikkerhed og værdier.
Den engagerer sig bilateralt og multilateralt for at fremme pålidelig og menneskecentreret kunstig intelligens. Bilateralt samarbejder EU med et stigende antal lande og regioner såsom Canada, USA, Indien, Japan, Republikken Korea, Singapore, Australien, Det Forenede Kongerige, Latinamerika og Caribien, Afrika osv. Multilateralt er EU involveret i centrale fora og initiativer, hvor kunstig intelligens drøftes — navnlig G7, G20, OECD og det globale partnerskab om kunstig intelligens, Europarådet, det internationale netværk for avanceret AI-måling, -evaluering og -videnskab, men også i FN-sammenhæng.
EU bygger på strategiske aktiver og styrker — såsom talent, forskning, industriel styrke og et stort indre marked med ensartede regler — og udbreder disse internationalt som led i EU's teknologitilbud for at opbygge gensidigt fordelagtige partnerskaber og alliancer i hele verden.
Højrisiko-AI-systemer
AI-forordningen fastsætter en solid metode til klassificering af AI-systemer som højrisikosystemer. Dette har til formål at skabe retssikkerhed for virksomheder og andre aktører.
Risikoklassificeringen er baseret på AI-systemets tilsigtede formål i overensstemmelse med EU's eksisterende produktsikkerhedslovgivning. Det betyder, at klassificeringen afhænger af den funktion, der udføres af AI-systemet, og af det specifikke formål og de nærmere bestemmelser, som systemet anvendes til.
AI-systemer kan klassificeres som højrisikosystemer i to tilfælde:
- Hvis AI-systemet er indlejret som en sikkerhedskomponent i produkter, der er omfattet af eksisterende produktlovgivning (bilag I), eller selv udgør sådanne produkter. Dette kan f.eks. være AI-baseret medicinsk software.
- Hvis AI-systemet er beregnet til at blive anvendt i et højrisikobrugstilfælde, jf. bilag III til AI-forordningen. Listen omfatter use cases på områder som uddannelse, beskæftigelse, retshåndhævelse eller migration. Den revideres årligt af Kommissionen og kan ajourføres.
Kommissionen er ved at udarbejde retningslinjer for højrisikoklassificeringen, som vil blive offentliggjort forud for anvendelsesdatoen for disse regler.
Bilag III til forordningen om kunstig intelligens omfatter 8 områder, hvor anvendelsen af kunstig intelligens kan være særlig følsom, og indeholder en liste over konkrete anvendelsestilfælde for hvert område. Et AI-system klassificeres som højrisiko, hvis det er beregnet til at blive anvendt i et af disse anvendelsestilfælde. Nogle eksempler:
- AI-systemer, der anvendes som sikkerhedskomponenter i visse kritiske infrastrukturer. F.eks. inden for vejtrafik og vandforsyning, gas, opvarmning og elektricitet.
- AI-systemer, der anvendes til visse opgaver inden for uddannelse og erhvervsuddannelse. F.eks. at evaluere læringsresultater og styre læringsprocessen og overvågningen af snyd.
- AI-systemer, der anvendes til visse opgaver inden for beskæftigelse og forvaltning af arbejdstagere og adgang til selvstændig erhvervsvirksomhed. F.eks. til at placere målrettede jobannoncer, analysere og filtrere jobansøgninger og evaluere kandidater.
- AI-systemer, der anvendes i forbindelse med adgang til væsentlige private og offentlige tjenester og ydelser (f.eks. sundhedspleje), vurdering af fysiske personers kreditværdighed og risikovurdering og prisfastsættelse i forbindelse med livs- og sygeforsikring.
- AI-systemer, der anvendes til visse opgaver inden for retshåndhævelse, migration og grænsekontrol, for så vidt som de ikke allerede er forbudt, samt inden for retspleje og demokratiske processer.
- AI-systemer, der anvendes til biometrisk identifikation, biometrisk kategorisering og følelsesgenkendelse, for så vidt som de ikke er forbudt.
Inden et højrisiko-AI-system bringes i omsætning på EU-markedet eller på anden måde tages i brug, skal udbyderne underkaste det en overensstemmelsesvurdering. Dette vil gøre det muligt for dem at påvise, at deres system opfylder de obligatoriske krav til pålidelig kunstig intelligens (f.eks. risikostyring, datakvalitet, dokumentation og sporbarhed, gennemsigtighed, menneskeligt tilsyn, nøjagtighed, cybersikkerhed og robusthed). Denne vurdering skal gentages, hvis systemet eller dets formål ændres væsentligt. Afhængigt af typen af højrisiko-AI-system kan overensstemmelsesvurderingen skulle foretages af et uafhængigt overensstemmelsesvurderingsorgan. Udbydere af højrisiko-AI-systemer vil også skulle indføre kvalitetsstyringssystemer for at sikre, at de overholder de nye krav, og minimere risiciene for brugere og berørte personer i hele AI-systemets livscyklus.
For at muliggøre tilsyn og sikre offentlig gennemsigtighed skal udbydere af højrisiko-AI-systemer registrere systemet i en offentlig EU-database.
Udbydere af højrisiko-AI-systemer er fortsat ansvarlige for systemets sikkerhed og overholdelse i hele dets livscyklus. Om nødvendigt skal de indberette og reagere på alvorlige forhold, træffe korrigerende foranstaltninger i tilfælde af konstaterede risici eller manglende overholdelse, give oplysninger og samarbejde med markedsovervågningsmyndighederne.
Som udgangspunkt skal udbrederne anvende højrisiko-AI-systemet i overensstemmelse med brugsanvisningen og tage alle tekniske midler i brug med henblik herpå. Udbredere af højrisiko-AI-systemer skal på grundlag af brugsanvisningen overvåge AI-systemets drift og reagere på identificerede risici eller alvorlige hændelser. Udbredere skal tildele menneskeligt tilsyn til en person i deres organisation. Den eller de pågældende personer skal være tilstrækkeligt udstyret og i stand til at føre menneskeligt tilsyn. Når en udbreder leverer inputdata til et højrisiko-AI-system, kræver AI-forordningen, at inputdataene skal være relevante og tilstrækkeligt repræsentative for AI-systemets tilsigtede formål.
Udbredere, der er offentlige myndigheder, eller som leverer offentlige tjenester, skal foretage en konsekvensanalyse vedrørende grundlæggende rettigheder forud for den første anvendelse.
Desuden kan udbrederen have oplysningsforpligtelser:
- Højrisiko-AI-systemer, der anvendes af offentlige myndigheder eller enheder, der handler på deres vegne, skal registreres i en offentlig EU-database, bortset fra højrisiko-AI-systemer til kritisk infrastruktur. AI-systemer, der anvendes til retshåndhævelse og migration, skal registreres i en ikkeoffentlig del af databasen, som kun vil være tilgængelig for relevante tilsynsmyndigheder.
- Hvis højrisiko-AI-systemet anvendes på arbejdspladsen, skal udbrederne på forhånd underrette de berørte arbejdstagere og arbejdstagerrepræsentanter. Dette supplerer eventuelle regler for høring af arbejdstagerne, der allerede måtte finde anvendelse.
- Hvis højrisiko-AI-systemet er udformet til at træffe beslutninger eller bistå med at træffe beslutninger om fysiske personer, skal udbrederen underrette den berørte person.
Forordningen om kunstig intelligens indfører også en ret til en forklaring for fysiske personer. Dette gælder, hvis outputtet fra et højrisiko-AI-system blev anvendt til at træffe en afgørelse om en fysisk person, og denne afgørelse har retsvirkninger. Udbredere af højrisiko-AI-systemer skal tage højde for denne mulighed og i tilfælde af en anmodning give en klar og meningsfuld forklaring til den berørte person.
Testning i den virkelige verden af højrisiko-AI-systemer kan udføres i højst seks måneder (dette kan forlænges med yderligere seks måneder). Forud for prøvningen skal der udarbejdes en plan, som skal forelægges for en markedsovervågningsmyndighed, der skal godkende planen og de specifikke prøvningsbetingelser med stiltiende standardgodkendelse, hvis der ikke er givet noget svar inden for 30 dage. Prøvning kan gøres til genstand for uanmeldte inspektioner fra myndighedens side.
Prøvning under faktiske forhold kan kun udføres med specifikke sikkerhedsforanstaltninger, f.eks. skal brugere af systemerne under prøvning under faktiske forhold give informeret samtykke, prøvningen må ikke have nogen negativ indvirkning på dem, resultaterne skal være reversible eller uoverskuelige, og deres data skal slettes, efter at prøvningen er afsluttet. Der skal ydes særlig beskyttelse til sårbare grupper, f.eks. på grund af deres alder, fysiske eller psykiske handicap.
AI-systemer skaber eller reproducerer ikke bias. Når AI-systemer udformes og anvendes korrekt, kan de snarere bidrage til at mindske forudindtagethed og eksisterende strukturel forskelsbehandling og dermed føre til mere retfærdige og ikkediskriminerende beslutninger (f.eks. i forbindelse med ansættelse).
De nye obligatoriske krav til alle højrisiko-AI-systemer vil tjene dette formål. AI-systemer skal være teknisk robuste for at sikre, at de er egnede til formålet og ikke giver partiske resultater såsom falske positive eller negative resultater, der i uforholdsmæssig grad påvirker marginaliserede grupper, herunder dem, der er baseret på race eller etnisk oprindelse, køn, alder og andre beskyttede karakteristika.
Højrisikosystemer skal også uddannes og testes med tilstrækkeligt repræsentative datasæt for at minimere risikoen for uretfærdige skævheder, der er indlejret i modellen, og sikre, at disse kan afhjælpes gennem passende foranstaltninger til påvisning, korrektion og afbødning af skævheder. De skal også kunne spores og revideres og sikre, at der opbevares passende dokumentation, herunder de data, der anvendes til at træne den algoritme, der vil være afgørende i efterfølgende undersøgelser.
Overholdelsessystemer skal overvåges regelmæssigt, og potentielle risici skal straks imødegås, før og efter at de bringes i omsætning.
Biometrisk identifikation kan antage forskellige former. Biometrisk autentificering og verifikation, dvs. at låse en smartphone op eller til verifikation/autentificering ved grænseovergange for at kontrollere en persons identitet i forhold til vedkommendes rejsedokumenter (en-til-en-matchning), er fortsat ureguleret, fordi de ikke udgør en væsentlig risiko for de grundlæggende rettigheder.
I modsætning hertil kan biometrisk fjernidentifikation (f.eks. for at identificere personer i en menneskemængde) i væsentlig grad påvirke privatlivets fred i det offentlige rum. Nøjagtigheden af systemer til ansigtsgenkendelse kan påvirkes betydeligt af en lang række faktorer, såsom kamerakvalitet, lys, afstand, database, algoritme og motivets etnicitet, alder eller køn. Det samme gælder gang- og stemmegenkendelse og andre biometriske systemer.
Mens en 99% nøjagtighed kan synes godt i almindelighed, er det betydeligt risikabelt, når resultatet kan føre til mistanke om en uskyldig person. Selv en fejlprocent på 0,1 % kan have en betydelig indvirkning, når den anvendes på store befolkningsgrupper, f.eks. på togstationer.
Anvendelse af biometrisk fjernidentifikation i realtid på offentlige steder (dvs. ansigtsgenkendelse ved hjælp af CCTV) til retshåndhævelsesformål er forbudt. Medlemsstaterne kan ved lov indføre undtagelser, der gør det muligt at anvende biometrisk fjernidentifikation i realtid i følgende tilfælde:
- Retshåndhævelsesaktiviteter i forbindelse med 16 specificerede meget alvorlige forbrydelser
- Målrettet eftersøgning efter specifikke ofre, bortførelser, menneskehandel og seksuel udnyttelse af mennesker samt forsvundne personer
- Forebyggelse af trusler mod menneskers liv eller fysiske sikkerhed eller af et terrorangreb
Enhver ekstraordinær anvendelse skal være nødvendig og forholdsmæssig og være betinget af forudgående tilladelse fra en judiciel eller uafhængig administrativ myndighed, hvis afgørelse er bindende. I hastetilfælde kan der anmodes om godkendelse inden for 24 timer. Hvis tilladelsen afvises, skal alle data og resultater vedrørende anvendelsen slettes.
Anvendelsen af biometrisk fjernidentifikation i realtid bør meddeles den relevante markedsovervågningsmyndighed og databeskyttelsesmyndigheden.
Anvendelsen af AI-systemer til efterfølgende biometrisk fjernidentifikation (identifikation af personer i tidligere indsamlet materiale) af personer, der undersøges, er ikke forbudt, men kræver forudgående tilladelse fra en judiciel myndighed eller en administrativ myndighed samt underretning af den relevante databeskyttelses- og markedsovervågningsmyndighed.
Der findes allerede en stærk beskyttelse af grundlæggende rettigheder og ikkeforskelsbehandling på EU-plan og i medlemsstaterne, men visse AI-applikationers kompleksitet og uigennemsigtighed ("sorte bokse") kan udgøre et problem.
En menneskecentreret tilgang til AI betyder, at AI-applikationer skal være i overensstemmelse med lovgivningen om grundlæggende rettigheder. Ved at integrere ansvarligheds- og gennemsigtighedskrav i udviklingen af højrisiko-AI-systemer og forbedre håndhævelseskapaciteten kan vi sikre, at disse systemer udformes med tanke på overholdelse af lovgivningen lige fra starten. Hvis der forekommer overtrædelser, vil sådanne krav give de nationale myndigheder adgang til de oplysninger, der er nødvendige for at undersøge, om anvendelsen af AI er i overensstemmelse med EU-retten.
AI-forordningen kræver, at visse udbredere af højrisiko-AI-systemer foretager en konsekvensanalyse vedrørende grundlæggende rettigheder.
Udbydere af højrisiko-AI-systemer skal foretage en risikovurdering og udforme systemet på en sådan måde, at risiciene for sundhed, sikkerhed og grundlæggende rettigheder minimeres.
Visse risici for de grundlæggende rettigheder kan imidlertid kun identificeres fuldt ud med kendskab til konteksten for anvendelsen af højrisiko-AI-systemet. Når højrisiko-AI-systemer anvendes på særligt følsomme områder med mulig effektasymmetri, er der behov for yderligere overvejelser om sådanne risici.
Idriftsættere, der er offentligretlige organer, eller private operatører, der leverer offentlige tjenester, samt operatører, der leverer højrisiko-AI-systemer, og som foretager vurderinger af kreditværdighed eller pris- og risikovurderinger inden for livs- og sygeforsikring, skal derfor foretage en vurdering af indvirkningen på de grundlæggende rettigheder og underrette den nationale myndighed om resultaterne.
I praksis vil mange udbredere også skulle foretage en konsekvensanalyse vedrørende databeskyttelse. For at undgå væsentlige overlapninger i sådanne tilfælde gennemføres konsekvensanalysen vedrørende grundlæggende rettigheder sammen med denne konsekvensanalyse vedrørende databeskyttelse.
AI-modeller til generelle formål (GPAI)
AI-modeller til almen brug, herunder generative AI-modeller, kan anvendes til en række forskellige opgaver. De kan integreres i et stort antal AI-systemer.
En udbyder af et AI-system, der integrerer en AI-model til almen brug, skal have adgang til de oplysninger, der er nødvendige for at gøre det, og sikre, at systemet er i overensstemmelse med forordningen om kunstig intelligens. AI-forordningen forpligter udbydere af sådanne modeller til at dokumentere tekniske oplysninger om modellerne og til at videregive visse oplysninger til udbydere af downstreamsystemer. En sådan gennemsigtighed muliggør en bedre forståelse af disse modeller.
Modeludbyderne skal have indført politikker, der sikrer overholdelse af EU-lovgivningen om ophavsret og beslægtede rettigheder. Navnlig for at identificere og overholde rettighedsforbehold i henhold til undtagelsen for tekst- og datamining. Udbydere skal også offentliggøre et resumé af det indhold, der anvendes til at træne modellen, baseret på en skabelon fra AI-kontoret.
De mest avancerede af disse modeller kan udgøre systemiske risici. I øjeblikket antages AI-modeller til almen brug, der er trænet ved hjælp af en samlet mængde beregningsressourcer, der overstiger 10 ^ 25 FLOP (flydende punktoperationer), at udgøre systemiske risici. Kommissionen kan ajourføre denne tærskel i lyset af den teknologiske udvikling. Efter anmodning fra en udbyder kan Kommissionen også afkræfte formodningen om, at en model over FLOP-tærsklen udgør en systemisk risiko, hvis modellen ikke anses for at være blandt de mest avancerede. Kommissionen kan også udpege modeller under FLOP-tærsklen som AI-modeller til almen brug med systemisk risiko på grundlag af kriterierne i bilag XIII til AI-forordningen.
Udbydere af modeller med systemiske risici skal vurdere og afbøde disse risici, herunder ved at foretage avancerede modelevalueringer, indberette alvorlige hændelser og sikre tilstrækkelig cybersikkerhed for deres modeller og deres fysiske infrastruktur.
For at hjælpe udbyderne med at opfylde disse forpligtelser har Kommissionen fremmet udviklingen af adfærdskodeksen for kunstig intelligens til generelle formål (GPAI). GPAI-adfærdskodeksen er et frivilligt værktøj, der er udarbejdet af uafhængige eksperter i en multiinteressentproces, og som har til formål at hjælpe industrien med at opfylde AI-forordningens forpligtelser for udbydere af AI-modeller til almen brug. Kodeksen suppleres af Kommissionens retningslinjer for omfanget af forpligtelser for udbydere af AI-modeller til almen brug i henhold til AI-forordningen.
Den første adfærdskodeks for kunstig intelligens (GPAI) indeholder nærmere regler om AI-forordningen for udbydere af AI-modeller til almen brug og AI-modeller til almen brug med systemiske risici. GPAI-adfærdskodeksen er et frivilligt værktøj, der er udarbejdet af uafhængige eksperter i en multiinteressentproces, og som har til formål at hjælpe industrien med at opfylde AI-forordningens forpligtelser for udbydere af AI-modeller til almen brug.
AI-kontoret lettede udarbejdelsen af kodeksen. Processen blev ledet af uafhængige eksperter med deltagelse af næsten 1 000 interessenter samt repræsentanter for EU's medlemsstater og europæiske og internationale observatører. Kommissionen og AI-udvalget har bekræftet, at kodeksen er et passende frivilligt redskab for udbydere af GPAI-modeller til at påvise overholdelse af AI-forordningen.
Efter godkendelsen kan GPAI-modeludbydere, der frivilligt underskriver den, vise, at de overholder AI-forordningen ved at overholde koden. Dette vil mindske deres administrative byrde og give dem større retssikkerhed, end hvis de beviste overholdelse ved hjælp af andre metoder. Kodeksen suppleres af Kommissionens retningslinjer for nøglebegreber i forbindelse med AI-modeller til almen brug.
AI-Kontoret vil, hvor det er relevant, tilskynde til og lette gennemgangen og tilpasningen af kodeksen for at afspejle teknologiske fremskridt og den nyeste teknologi. Når en harmoniseret standard er offentliggjort og vurderet som egnet til at dække de relevante forpligtelser af AI-Kontoret, bør overholdelse af en europæisk harmoniseret standard give udbyderne formodning om overensstemmelse.
Udbydere af AI-modeller til almen brug bør kunne påvise overensstemmelse ved hjælp af alternative passende midler, hvis der ikke findes adfærdskodekser eller harmoniserede standarder, eller de vælger ikke at forlade sig på disse.
AI-forordningen indfører specifikke gennemsigtighedskrav for udbydere og udbredere af visse interaktive eller generative AI-systemer (herunder chatbots eller deepfakes). Disse gennemsigtighedskrav har til formål at imødegå risikoen for misinformation og manipulation, svig, efterligning og vildledning af forbrugerne:
- Udbydere af AI-systemer, der interagerer direkte med fysiske personer, skal udforme og udvikle disse systemer på en sådan måde, at de berørte fysiske personer underrettes om, at de interagerer med et AI-system.
- Udbydere af generative AI-systemer skal mærke AI-output i et maskinlæsbart format og sikre, at de kan påvises som kunstigt genererede eller manipulerede d. De tekniske løsninger skal være effektive, interoperable, robuste og pålidelige, i det omfang det er teknisk muligt, under hensyntagen til de særlige forhold og begrænsninger, der gør sig gældende for forskellige typer indhold, gennemførelsesomkostningerne og det generelt anerkendte aktuelle tekniske niveau, som kan afspejles i relevante tekniske standarder.
- Udbredere af systemer til følelsesgenkendelse eller biometrisk kategorisering skal sikre, at personer, der udsættes for disse systemer, informeres
- Idriftsættere af generative AI-systemer, der genererer eller manipulerer billed-, lyd- eller videoindhold, der udgør en deepfake, skal tydeligt kunne se, at indholdet er blevet kunstigt genereret eller manipuleret. Tilsvarende skal udbredere af AI-systemer, der genererer eller manipulerer tekst, der er offentliggjort med det formål at informere offentligheden om spørgsmål af offentlig interesse, også oplyse, at teksten er blevet kunstigt genereret eller manipuleret.
Der gælder særlige undtagelser for alle de nævnte gennemsigtighedsforpligtelser.
AI-kontoret vil udstede retningslinjer for at give udbydere og udbredere yderligere vejledning om forpligtelserne i artikel 50, som finder anvendelse fra den 2. august 2026.
For at hjælpe med at opfylde nogle af disse gennemsigtighedsforpligtelser har AI-kontoret indledt processen med at udarbejde en adfærdskodeks for gennemsigtighed i AI-genereret indhold. Kodeksen vil blive udarbejdet af uafhængige eksperter udpeget af AI-kontoret på grundlag af en inklusiv proces. Mere end 200 interessenter fra forskellige sektorer bidrager til udarbejdelsen af kodeksen. Hvis den godkendes af Kommissionen, vil den endelige kodeks tjene som et frivilligt redskab for udbydere og udbredere af generative AI-systemer til at påvise overholdelse af deres respektive forpligtelser.
Forvaltning, håndhævelse og gennemførelse
AI-forordningen finder anvendelse to år efter ikrafttrædelsen den 2. august 2026, bortset fra følgende specifikke bestemmelser:
- Forbuddene, definitionerne og bestemmelserne vedrørende AI-færdigheder har fundet anvendelse siden den 2. februar 2025. Kommissionen har offentliggjort retningslinjer for forbud og definitioner samt et levende register over AI-færdigheder og en særlig FAQ.
- Reglerne om forvaltning og forpligtelserne vedrørende AI til generelle formål trådte i kraft den 2. august 2025.
- Forpligtelserne for højrisiko-AI-systemer, der klassificeres som højrisikosystemer, fordi de er indlejret i regulerede produkter, der er opført i bilag II (liste over EU-harmoniseringslovgivning), finder anvendelse 36 måneder efter ikrafttrædelsen den 2. august 2027.
Den 19. november 2025 foreslog Kommissionen som led i forslaget om en digital omnibus at tilpasse tidsplanen for anvendelsen af højrisikoregler ved at knytte anvendelsesdatoen til tilgængeligheden af støtteforanstaltninger såsom harmoniserede standarder, fælles specifikationer eller Kommissionens retningslinjer.
Dette forslag er fremsat i forbindelse med en forsinkelse i udarbejdelsen af standarder til støtte for anvendelsen af højrisikokravene og oprettelsen af kompetente myndigheder i EU-medlemsstaterne. Dette bringer en gnidningsløs anvendelse den 2. august 2026 i fare. Den digitale omnibus er nu til behandling i Europa-Parlamentet og Rådet for Den Europæiske Union.
AI-forordningen indfører et tostrenget forvaltningssystem, hvor de nationale kompetente myndigheder er ansvarlige for at føre tilsyn med og håndhæve reglerne for AI-systemer, mens AI-kontoret er ansvarligt for at styre og håndhæve forpligtelserne for udbydere af AI-modeller til almen brug og for en delmængde af visse AI-systemer.
Det Europæiske Udvalg for Kunstig Intelligens (AI-udvalget) blev oprettet for at sikre sammenhæng og samarbejde i hele EU. Det består af højtstående repræsentanter fra medlemsstaterne og specialiserede undergrupper for nationale tilsynsmyndigheder og andre kompetente myndigheder.
Ved forordningen om kunstig intelligens oprettes to rådgivende organer, der skal yde ekspertinput: ekspertpanelet og det rådgivende forum. Disse organer vil give værdifuld indsigt fra interessenter og tværfaglige videnskabelige samfund, informere beslutningstagningen og sikre en afbalanceret tilgang til udvikling af kunstig intelligens.
Det Europæiske Udvalg for Kunstig Intelligens består af højtstående repræsentanter for medlemsstaterne og Den Europæiske Tilsynsførende for Databeskyttelse (EDPS). Som central rådgiver yder AI-udvalget vejledning om alle spørgsmål vedrørende AI-politik, navnlig AI-regulering, innovations- og ekspertisepolitik og internationalt samarbejde om AI.
Udvalget for Kunstig Intelligens spiller en afgørende rolle med hensyn til at sikre en gnidningsløs, effektiv og harmoniseret gennemførelse af forordningen om kunstig intelligens. Det har specialiserede undergrupper bestående af tekniske eksperter, nationale tilsynsmyndigheder og andre kompetente myndigheder. Udvalget er et forum, hvor AI-tilsynsmyndighederne kan koordinere den konsekvente anvendelse af AI-forordningen.
Medlemsstaterne skal fastsætte sanktioner for overtrædelse af reglerne for AI-systemer, der er effektive, står i et rimeligt forhold til overtrædelsen og har afskrækkende virkning. Forordningen fastsætter tærskler, der skal tages i betragtning:
- Op til 35 mio. EUR eller 7 % af den samlede årlige omsætning på verdensplan i det foregående regnskabsår (alt efter hvad der er højest) for overtrædelser af forbudt praksis eller manglende overholdelse i forbindelse med datakrav
- Op til 15 mio. EUR eller 3 % af den samlede årlige omsætning på verdensplan i det foregående regnskabsår som følge af manglende overholdelse af andre krav eller forpligtelser i forordningen
- Op til 7,5 mio. EUR eller 1,5 % af den samlede årlige omsætning på verdensplan i det foregående regnskabsår for afgivelse af ukorrekte, ufuldstændige eller vildledende oplysninger til bemyndigede organer og nationale kompetente myndigheder som svar på en anmodning
- For hver overtrædelseskategori vil tærsklen være det laveste af de to beløb for SMV'er og det højeste for andre virksomheder.
Kommissionen kan også håndhæve reglerne om udbydere af AI-modeller til almen brug ved hjælp af bøder under hensyntagen til tærsklen:
- Op til 15 mio. EUR eller 3 % af den samlede årlige omsætning på verdensplan i det foregående regnskabsår for manglende overholdelse af de forpligtelser eller foranstaltninger, som Kommissionen har anmodet om i henhold til forordningen.
EU's institutioner, agenturer eller organer forventes at gå foran med et godt eksempel, hvorfor de også vil være underlagt reglerne og eventuelle sanktioner. Den Europæiske Tilsynsførende for Databeskyttelse (EDPS) vil have beføjelse til at pålægge dem bøder i tilfælde af manglende overholdelse.
Pagten om kunstig intelligens, der blev indledt i maj 2023, fremmer samarbejdet mellem AI-kontoret og organisationer (søjle I) og tilskynder industrien til frivilligt at forpligte sig til at begynde at gennemføre kravene i forordningen om kunstig intelligens inden den lovbestemte frist (søjle II).
Under søjle I bidrager deltagerne til oprettelsen af et samarbejdsfællesskab, hvor de deler deres erfaringer og viden. Dette omfatter webinarer arrangeret af AI-kontoret, som giver deltagerne en bedre forståelse af AI-forordningen, deres ansvar og hvordan de forbereder sig på dens gennemførelse. Til gengæld giver disse webinarer AI-kontoret mulighed for at indsamle indsigt i bedste praksis og de udfordringer, som deltagerne står over for.
Under søjle II opfordres organisationer til proaktivt at offentliggøre de processer og den praksis, de gennemfører for at foregribe overholdelse, gennem frivillige tilsagn (.PDF). Tilsagn er tænkt som "erklæringer om engagement" og vil indeholde foranstaltninger (planlagte eller igangværende) for at opfylde nogle af kravene i forordningen om kunstig intelligens.
De fleste regler i forordningen om kunstig intelligens (f.eks. visse krav til højrisiko-AI-systemer) vil finde anvendelse ved udgangen af en overgangsperiode (dvs. tiden mellem ikrafttrædelsen og anvendelsesdatoen). I denne forbindelse og inden for rammerne af AI-pagten har AI-kontoret opfordret alle organisationer til proaktivt at foregribe og gennemføre nogle af de centrale bestemmelser i AI-forordningen med henblik på at afbøde risiciene for sundhed, sikkerhed og grundlæggende rettigheder så hurtigt som muligt.
Mere end 3 000 organisationer har allerede udtrykt interesse for at tilslutte sig initiativet vedrørende pagten for kunstig intelligens efter en indkaldelse, der blev iværksat i november 2023. Et første informationsmøde blev afholdt online den 6. maj med 300 deltagere. Den officielle undertegnelse af de frivillige tilsagn fandt sted i efteråret 2024, og til dato har mere end 230 virksomheder underskrevet tilsagnene. Den 15. december 2025 samlede AI-kontoret tilsagnsstillerne under AI-pagten for at gøre status over de fremskridt, der er gjort.
Kommissionen har oprettet servicedesken for retsakten om kunstig intelligens og en fælles informationsplatform. Begge blev lanceret sideløbende med strategien for anvendelse af kunstig intelligens, og de var allerede blevet bebudet i handlingsplanen for AI-kontinentet. SIP indeholder alle relevante oplysninger, overholdelsesværktøjer og skræddersyet vejledning om AI-forordningen. Det tilbyder:
- Spørgsmål og svar og ressourcer om forordningen om kunstig intelligens
- en overensstemmelseskontrol, et værktøj, der er udformet til at hjælpe interessenter med at afgøre, om de er underlagt retlige forpligtelser, og forstå de skridt, de skal tage for at overholde reglerne
- en AI Act Explorer, et onlineværktøj, der er udformet til at hjælpe brugerne med at gennemse forskellige kapitler, bilag og betragtninger i AI-forordningen på en intuitiv måde
- en onlineformular giver interessenter mulighed for at indsende spørgsmål til AI Act Service Desk – et team af eksperter, der arbejder tæt sammen med AI-kontoret
Innovation og bæredygtighed
Forordningen om kunstig intelligens kan øge udbredelsen af kunstig intelligens på to måder:
- Øget brugertillid vil øge virksomhedernes og de offentlige myndigheders efterspørgsel efter kunstig intelligens
- ved at harmonisere reglerne på tværs af EU's medlemsstater vil AI-udbydere få adgang til større markeder med produkter, som brugere og forbrugere sætter pris på og køber
Forordningen om kunstig intelligens er innovationsvenlig. Reglerne vil kun finde anvendelse, hvor det er strengt nødvendigt, og på en måde, der minimerer byrden for de erhvervsdrivende, med en let forvaltningsstruktur. For SMV'er indeholder AI-forordningen forenklede overholdelsesveje for visse byrdefulde forpligtelser såsom teknisk dokumentation. For at give plads til innovatorer er der fastsat undtagelser for forsknings- og udviklingsaktiviteter.
Forordningen om kunstig intelligens gør det endvidere muligt at oprette reguleringsmæssige sandkasser og prøvning under faktiske forhold, som giver et kontrolleret miljø til at teste innovative teknologier i en begrænset periode. Disse foranstaltninger fremmer innovation hos virksomheder, SMV'er og nystartede virksomheder og vil bidrage til at skabe de rette rammebetingelser for udvikling og udbredelse af kunstig intelligens. Yderligere initiativer til støtte for innovation omfatter:
Formålet med AI-forordningen er at imødegå risici for sikkerheden og de grundlæggende rettigheder, herunder den grundlæggende ret til miljøbeskyttelse på højt niveau. Miljøet er også en af de udtrykkeligt nævnte og beskyttede juridiske interesser.
I 2026 planlægger Kommissionen at anmode europæiske standardiseringsorganisationer om at udarbejde et standardiseringsdokument om rapporterings- og dokumentationsprocesserne for at forbedre AI-systemernes ressourcepræstationer. Dette omfatter reduktion af højrisiko-AI-systemets energi- og ressourceforbrug i løbet af dets livscyklus og energieffektiv udvikling af AI-modeller til almen brug.
Kommissionen anmodes om at forelægge en statusrapport om udviklingen af standardiseringspublikationer om energieffektiv udvikling af modeller til generelle formål og vurdere behovet for yderligere foranstaltninger eller tiltag (herunder bindende foranstaltninger). Denne forpligtelse begynder to år efter anvendelsesdatoen for forordningen om kunstig intelligens og finder sted hvert fjerde år derefter.
Udbydere af AI-modeller til almen brug, som er uddannet i store datamængder og derfor udsat for et højt energiforbrug, skal oplyse om energiforbruget. I tilfælde af AI-modeller til almen brug med systemiske risici skal energieffektiviteten vurderes.
Kommissionen tillægges beføjelser til at udvikle en metode med passende og sammenlignelig måling for disse oplysningsforpligtelser.
Related content
Forordningen om kunstig intelligens er den første retlige ramme for kunstig intelligens nogensinde, som imødegår risiciene ved kunstig intelligens og sætter Europa i stand til at spille en førende rolle på globalt plan.