Generelle spørgsmål og svar
Kunstig intelligens ("AI")indebærer enorme fordele for vores økonomi og samfund. AI-modeller til almen brug spiller en vigtig rolle i denne henseende, da de kan anvendes til en række forskellige opgaver og derfor danner grundlag for en række downstream-AI-systemer, der anvendes i Europa og på verdensplan.
Forordningen om kunstig intelligens har til formål at sikre, at AI-modeller til almen brug er sikre og pålidelige.
For at nå dette mål er det afgørende, at udbydere af AI-modeller til almen brug sikrer en god forståelse af deres modeller i hele AI-værdikæden, således at downstreamudbydere både kan integrere sådanne modeller i AI-systemer og opfylde deres egne forpligtelser i henhold til AI-forordningen. Mere specifikt og som forklaret nærmere nedenfor skal udbydere af AI-modeller til almen brug udarbejde teknisk dokumentation for deres modeller for at stille dem til rådighed for downstreamudbydere og efter anmodning forelægge AI-kontoret og de nationale kompetente myndigheder en politik for ophavsret og offentliggøre et resumé af uddannelsesindholdet. Desuden skal udbydere af AI-modeller til almen brug, der udgør systemiske risici, hvilket kan være tilfældet, enten fordi modellerne er meget egnede, eller fordi de af andre årsager har en betydelig indvirkning på det indre marked, anmelde disse modeller til Kommissionen, vurdere og afbøde systemiske risici, der følger af disse modeller, herunder ved at foretage modelevalueringer, indberette alvorlige hændelser og sikre tilstrækkelig cybersikkerhed for disse modeller.
På denne måde bidrager AI-forordningen til sikker og pålidelig innovation i Den Europæiske Union.
I forordningen om kunstig intelligens defineres en AI-model til almen brug som "en AI-model, herunder når en sådan AI-model trænes med en stor mængde data ved hjælp af selvovervågning i stor skala, der udviser betydelig generalitet og er i stand til kompetent at udføre en lang række forskellige opgaver, uanset hvordan modellen bringes i omsætning, og som kan integreres i en række downstreamsystemer eller -applikationer" (artikel 3, stk. 63, i forordningen om kunstig intelligens).
Betragtningerne til forordningen om kunstig intelligens præciserer yderligere, hvilke modeller der bør anses for at være meget generelle og for at være i stand til at udføre en lang række forskellige opgaver.
I henhold til betragtning 98 i AI-forordningen "mens en models generelle karakter bl.a. også kan bestemmes af en række parametre, bør modeller med mindst en milliard parametre og trænet med en stor mængde data ved hjælp af selvovervågning i stor skala anses for at have en betydelig generel karakter og for kompetent at udføre en lang række særlige opgaver."
I betragtning 99 i AI-forordningen tilføjes det, at "store generative AI-modeller er et typisk eksempel på en AI-model til almen brug, da de giver mulighed for fleksibel generering af indhold, f.eks. i form af tekst, lyd, billeder eller video, der let kan rumme en lang række særlige opgaver."
Bemærk, at modeller inden for en enkelt modalitet, f.eks. tekst, lyd, billeder eller video, kan opnå betydelig generalitet og evne til kompetent at udføre en lang række forskellige opgaver, hvis modaliteten er fleksibel nok. Dette kan også opnås ved hjælp af modeller, der er udviklet, finjusteret eller på anden måde modificeret til at være særligt gode til en bestemt opgave eller til en række opgaver inden for et bestemt område.
Forskellige stadier af udviklingen af en model udgør ikke forskellige modeller.
AI-Kontoret har til hensigt at give yderligere præciseringer af, hvad der bør betragtes som en AI-model til almen brug, ved at trække på indsigter fra Kommissionens Fælles Forskningscenter, som i øjeblikket arbejder på et videnskabeligt forskningsprojekt, der behandler dette og andre spørgsmål.
Systemiske risici er risici for omfattende skade fra de mest avancerede (dvs. de mest avancerede) modeller på et givet tidspunkt eller fra andre modeller, der har en tilsvarende virkning (jf. artikel 3, stk. 65, i forordningen om kunstig intelligens). Sådanne risici kan f.eks. manifestere sig ved at mindske hindringerne for udvikling af kemiske eller biologiske våben eller utilsigtede problemer med kontrol over autonome AI-modeller til almen brug (betragtning 110 i AI-forordningen). De mest avancerede modeller på et givet tidspunkt kan udgøre systemiske risici, herunder nye risici, da de presser det aktuelle tekniske niveau. Samtidig kan nogle modeller under den tærskel, der afspejler det aktuelle tekniske niveau, også udgøre systemiske risici, f.eks. gennem rækkevidde, skalerbarhed eller stilladser.
AI-forordningen klassificerer derfor en AI-model til almen brug som en AI-model til almen brug med systemisk risiko, hvis den er en af de mest avancerede modeller på det pågældende tidspunkt, eller hvis den har en tilsvarende virkning (artikel 51, stk. 1, i AI-forordningen). Hvilke modeller, der betragtes som AI-modeller til almen brug med systemisk risiko, kan ændre sig over tid, hvilket afspejler udviklingen i det aktuelle tekniske niveau og den potentielle samfundsmæssige tilpasning til stadig mere avancerede modeller. I øjeblikket udvikles AI-modeller til almen brug med systemisk risiko af en håndfuld virksomheder, selv om dette kan ændre sig i fremtiden.
For at opfange de mest avancerede modeller, dvs. modeller, der matcher eller overstiger de kapaciteter, der hidtil er registreret i de mest avancerede modeller, fastsætter AI-forordningen en tærskel på 10-25flydende kommaoperationer (FLOP), der anvendes til træning af modellen (artikel 51, stk. 1, litra a), og stk. 2, i AI-forordningen). Uddannelse af en model, der opfylder denne tærskel, anslås i øjeblikket at koste et tocifret millionbeløb i euro (EpochAI, 2024). AI-kontoret overvåger løbende den teknologiske og industrielle udvikling, og Kommissionen kan ajourføre tærsklen gennem vedtagelse af en delegeret retsakt (artikel 51, stk. 3, i forordningen om kunstig intelligens) for at sikre, at det fortsat udvælger de mest avancerede modeller, efterhånden som det aktuelle tekniske niveau udvikler sig. F.eks. kan værdien af selve tærsklen justeres, og/eller der kan indføres yderligere tærskler.
For at opfange modeller med en virkning, der svarer til de mest avancerede modeller, giver forordningen om kunstig intelligens Kommissionen beføjelse til at udpege yderligere modeller, der udgør en systemisk risiko, på grundlag af kriterier såsom evalueringer af modellens kapacitet, antal brugere, skalerbarhed eller adgang til værktøjer (artikel 51, stk. 1, litra b), og bilag XIII til forordningen om kunstig intelligens).
AI-Kontoret har til hensigt at give yderligere præciseringer af, hvordan AI-modeller til almen brug vil blive klassificeret som AI-modeller til almen brug med systemisk risiko, idet der trækkes på indsigter fra Kommissionens Fælles Forskningscenter, som i øjeblikket arbejder på et videnskabeligt forskningsprojekt, der behandler dette og andre spørgsmål.
Reglerne i forordningen om kunstig intelligens om AI-modeller til almen brug finder anvendelse på udbydere, der bringer sådanne modeller i omsætning i Unionen, uanset om disse udbydere er etableret eller beliggende i Unionen eller i et tredjeland (artikel 2, stk. 1, litra a), i forordningen om kunstig intelligens).
En udbyder af en AI-model til almen brug er en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et andet organ, der udvikler en AI-model til almen brug, eller som får udviklet en sådan model og bringer den i omsætning, enten mod betaling eller gratis eller gratis (artikel 3, stk. 3, i forordningen om kunstig intelligens).
Ved markedsføring af en model forstås første tilgængeliggørelse af modellen på EU-markedet (artikel 3, stk. 9, i forordningen om kunstig intelligens), dvs. levering med henblik på distribution eller anvendelse på EU-markedet for første gang som led i erhvervsvirksomhed mod eller uden vederlag (artikel 3, stk. 10, i forordningen om kunstig intelligens). Bemærk, at en AI-model til almen brug også anses for at være bragt i omsætning, hvis udbyderen af den pågældende model integrerer modellen i sit eget AI-system, som gøres tilgængeligt på markedet eller tages i brug, medmindre modellen a) anvendes til rent interne processer, der ikke er afgørende for at levere et produkt eller en tjeneste til tredjeparter, b) fysiske personers rettigheder ikke påvirkes, og c) modellen ikke er en AI-model til almen brug med systemisk risiko (betragtning 97 i AI-forordningen).
Udbydere af AI-modeller til almen brug skal dokumentere tekniske oplysninger om deres modeller med henblik på efter anmodning at give disse oplysninger til AI-kontoret og de nationale kompetente myndigheder (artikel 53, stk. 1, litra a), i AI-forordningen) og stille dem til rådighed for downstreamudbydere (artikel 53, stk. 1, litra b), i AI-forordningen). De skal også indføre en politik for overholdelse af EU-retten om ophavsret og beslægtede rettigheder (artikel 53, stk. 1, litra c), i AI-forordningen) og udarbejde og offentliggøre et tilstrækkeligt detaljeret resumé af det indhold, der anvendes til træning af modellen (artikel 53, stk. 1, litra d), i AI-forordningen).
Adfærdskodeksen for kunstig intelligens til generelle formål bør give underskriverne yderligere oplysninger om, hvordan de kan sikre overholdelse af disse forpligtelser i de afsnit, der omhandler gennemsigtighed og ophavsret (ledet af arbejdsgruppe 1).
I henhold til forordningen om kunstig intelligens har udbydere af AI-modeller til almen brug med systemisk risiko yderligere forpligtelser. De skal vurdere og afbøde systemiske risici, navnlig ved at foretage modelevalueringer, holde øje med, dokumentere og indberette alvorlige hændelser og sikre tilstrækkelig cybersikkerhedsbeskyttelse af modellen og dens fysiske infrastruktur (artikel 55 i forordningen om kunstig intelligens).
Adfærdskodeksen for kunstig intelligens til generelle formål bør give underskriverne yderligere oplysninger om, hvordan de kan sikre overholdelse af disse forpligtelser i de afsnit, der omhandler systemisk risikovurdering, teknisk risikoreduktion og styringsrisikoreduktion (ledet af henholdsvis arbejdsgruppe 2, 3 og 4).
Forpligtelserne for udbydere af AI-modeller til almen brug finder anvendelse fra den 2. august 2025 (artikel 113, litra b), i AI-forordningen) med særlige regler for AI-modeller til almen brug, der er bragt i omsætning inden denne dato (artikel 111, stk. 3).
Forpligtelserne til at udarbejde og fremlægge dokumentation for AI-kontoret, de nationale kompetente myndigheder og downstreamudbydere (artikel 53, stk. 1, litra a) og b), i AI-forordningen) finder ikke anvendelse, hvis modellen frigives i henhold til en gratis open source-licens, og dens parametre, herunder vægte, oplysninger om modelarkitekturen og oplysninger om modelanvendelse, gøres offentligt tilgængelige (artikel 53, stk. 2, i AI-forordningen). Betragtning 102 og 103 i AI-forordningen præciserer yderligere, hvad der udgør en gratis open source-licens, og AI-kontoret har til hensigt at give yderligere præciseringer af spørgsmål vedrørende open source-AI-modeller til almen brug.
Undtagelsen finder ikke anvendelse på AI-modeller til almen brug med systemisk risiko. Efter frigivelsen af open source-modellen kan det være vanskeligere at gennemføre de foranstaltninger, der er nødvendige for at sikre overholdelse af forpligtelserne i artikel 55 (betragtning 112 i AI-forordningen). Derfor kan udbydere af AI-modeller til almen brug med systemisk risiko være nødt til at vurdere og afbøde systemiske risici, inden de frigiver deres modeller som open source.
Adfærdskodeksen for kunstig intelligens til almen brug bør give underskriverne yderligere oplysninger om, hvordan de overholder forpligtelserne i artikel 53 og 55 i forbindelse med de forskellige måder at frigive AI-modeller til almen brug på, herunder open source.
Et vigtigt, men vanskeligt spørgsmål, der understøtter processen med at udarbejde adfærdskodeksen, er at finde en balance mellem at forfølge fordelene og afbøde risiciene ved open source af avancerede AI-modeller til almen brug: open source-avancerede AI-modeller til almen brug kan faktisk give betydelige samfundsmæssige fordele, herunder ved at fremme AI-sikkerhedsforskning Samtidig er det lettere at omgå eller fjerne risikoreduktioner, når sådanne modeller er open source.
I henhold til artikel 2, stk. 8, i forordningen om kunstig intelligens finder forordningen om kunstig intelligens generelt ikke anvendelse på forsknings-, test- eller udviklingsaktiviteter vedrørende AI-systemer eller AI-modeller, inden de bringes i omsætning eller tages i brug.
Samtidig vedrører visse forpligtelser for udbydere af AI-modeller til almen brug (med og uden systemisk risiko) eksplicit eller implicit udviklingsfasen for modeller, der er beregnet til, men forud for, markedsføringen. Dette er f.eks. tilfældet med udbydernes forpligtelser til at underrette Kommissionen om, at deres AI-model til almen brug opfylder eller vil opfylde tærsklen for træningsberegning (artikel 51 og 52 i AI-forordningen), til at dokumentere oplysninger om træning og prøvning (artikel 53 i AI-forordningen) og til at vurdere og afbøde systemiske risici (artikel 55 i AI-forordningen). Navnlig fastsættes det udtrykkeligt i artikel 55, stk. 1, litra b), i forordningen om kunstig intelligens, at "udbydere af AI-modeller til almen brug med systemisk risiko vurderer og afbøder mulige systemiske risici på EU-plan, herunder deres kilder, som kan stamme fra udviklingen (...) af AI-modeller til almen brug med systemisk risiko.
AI-kontoret forventer, at drøftelserne med udbydere af AI-modeller til almen brug med systemisk risiko begynder tidligt i udviklingsfasen. Dette er i overensstemmelse med forpligtelsen for udbydere af AI-modeller til almen brug, der opfylder den tærskel for træningsberegning, der er fastsat i artikel 51, stk. 2, i AI-forordningen, til at "underrette Kommissionen straks og under alle omstændigheder senest to uger efter, at dette krav er opfyldt, eller det bliver kendt, at det vil blive opfyldt" (artikel 52, stk. 1, i AI-forordningen). Uddannelse af AI-modeller til almen brug kræver faktisk betydelig planlægning, hvilket omfatter forudgående tildeling af beregningsressourcer, og udbydere af AI-modeller til almen brug kan derfor vide, om deres model vil opfylde beregningstærsklen for uddannelse, inden uddannelsen er afsluttet (betragtning 112 i AI-forordningen).
AI-Kontoret har til hensigt at præcisere dette spørgsmål yderligere.
AI-modeller til almen brug kan ændres yderligere eller finjusteres til nye modeller (betragtning 97 i AI-forordningen). Derfor kan downstreamenheder, der finjusterer eller på anden måde ændrer en eksisterende AI-model til almen brug, blive udbydere af nye modeller. De specifikke omstændigheder, hvorunder en downstream-enhed bliver udbyder af en ny model, er et vanskeligt spørgsmål med potentielt store økonomiske konsekvenser, da mange organisationer og enkeltpersoner finjusterer eller på anden måde ændrer AI-modeller til almen brug, der er udviklet af en anden enhed.
I tilfælde af en ændring eller finjustering af en eksisterende AI-model til almen brug bør forpligtelserne for udbydere af AI-modeller til almen brug i artikel 53 i forordningen om kunstig intelligens begrænses til ændringen eller finjusteringen, f.eks. ved at supplere den allerede eksisterende tekniske dokumentation med oplysninger om ændringerne (betragtning 109). Forpligtelserne for udbydere af AI-modeller til almen brug med systemisk risiko i artikel 55 i AI-forordningen bør kun finde anvendelse i klart specificerede tilfælde. AI-Kontoret har til hensigt at præcisere dette spørgsmål yderligere.
Uanset om en downstream-enhed, der indarbejder en AI-model til almen brug i et AI-system, anses for at være udbyder af AI-modellen til almen brug, skal denne enhed overholde de relevante krav og forpligtelser i AI-forordningen for AI-systemer.
På grundlag af artikel 56 i forordningen om kunstig intelligens bør adfærdskodeksen for kunstig intelligens til almen brug præcisere, hvordan udbydere af AI-modeller til almen brug og AI-modeller til almen brug med systemisk risiko kan opfylde deres forpligtelser i henhold til forordningen om kunstig intelligens. AI-kontoret letter udarbejdelsen af denne adfærdskodeks med fire arbejdsgrupper under ledelse af uafhængige eksperter og med deltagelse af næsten 1 000 interessenter, repræsentanter for EU-medlemsstaterne samt europæiske og internationale observatører.
Mere præcist bør adfærdskodeksen som minimum præcisere, hvordan udbydere af AI-modeller til almen brug kan opfylde de forpligtelser, der er fastsat i artikel 53 og 55 i AI-forordningen. Det betyder, at adfærdskodeksen kan forventes at bestå af to dele: én, der finder anvendelse på udbydere af alle AI-modeller til almen brug (artikel 53), og én, der kun finder anvendelse på udbydere af AI-modeller til almen brug med systemisk risiko (artikel 55).
Adfærdskodeksen bør bl.a. ikke behandle følgende spørgsmål: definition af centrale begreber og definitioner fra AI-forordningen (f.eks. "AI-model til almen brug"), ajourføring af kriterierne eller tærsklerne for klassificering af en AI-model til almen brug som en AI-model til almen brug med systemisk risiko (artikel 51), skitsering af, hvordan AI-kontoret vil håndhæve forpligtelserne for udbydere af AI-modeller til almen brug (kapitel IX, afdeling 5), og spørgsmål vedrørende bøder, sanktioner og ansvar.
Disse spørgsmål kan i stedet behandles på andre måder (afgørelser, delegerede retsakter, gennemførelsesretsakter, yderligere meddelelser fra AI-kontoret osv.).
Ikke desto mindre kan adfærdskodeksen omfatte tilsagn fra udbydere af AI-modeller til almen brug, der undertegner kodeksen, om at dokumentere og indberette yderligere oplysninger samt inddrage AI-kontoret og tredjeparter i hele modellens livscyklus, for så vidt som dette anses for nødvendigt for, at udbyderne effektivt kan opfylde deres forpligtelser i henhold til AI-forordningen.
I AI-forordningen skelnes der mellem AI-systemer og AI-modeller, idet der indføres krav til visse AI-systemer (kapitel II-IV) og forpligtelser for udbydere af AI-modeller til almen brug (kapitel V). Selv om bestemmelserne i AI-forordningen om AI-systemer afhænger af konteksten for anvendelsen af systemet, finder bestemmelserne i AI-forordningen om AI-modeller til almen brug anvendelse på selve modellen, uanset hvad der er eller vil være dens endelige anvendelse. Adfærdskodeksen bør kun vedrøre forpligtelserne i AI-forordningen for udbydere af AI-modeller til almen brug.
Ikke desto mindre er der interaktioner mellem de to regelsæt, da AI-modeller til almen brug typisk integreres i og udgør en del af AI-systemer. Hvis en udbyder af en AI-model til almen brug integrerer denne model i et AI-system, skal den pågældende udbyder opfylde forpligtelserne for udbydere af AI-modeller til almen brug og, hvis AI-systemet er omfattet af AI-forordningen, kravene til AI-systemer. Hvis en downstreamudbyder integrerer en AI-model til almen brug i et AI-system, skal udbyderen af AI-modellen til almen brug samarbejde med downstreamudbyderen af AI-systemet for at sikre, at sidstnævnte kan opfylde sine forpligtelser i henhold til AI-forordningen, hvis AI-systemet er omfattet af AI-forordningens anvendelsesområde (f.eks. ved at give visse oplysninger til downstreamudbyderen).
I betragtning af disse interaktioner mellem modeller og systemer og mellem forpligtelser og krav for hver af dem vedrører et vigtigt spørgsmål, der ligger til grund for adfærdskodeksen, hvilke foranstaltninger der er hensigtsmæssige i modellaget, og hvilke der skal træffes i systemlaget i stedet.
Adfærdskodeksen bør fastsætte dens mål, forpligtelser, foranstaltninger og, hvor det er relevant, centrale resultatindikatorer (KPI'er) til måling af opfyldelsen af dens mål. Forpligtelser, foranstaltninger og KPI'er vedrørende de forpligtelser, der gælder for udbydere af alle AI-modeller til almen brug, bør tage behørigt hensyn til udbyderens størrelse og give mulighed for forenklede måder at overholde reglerne på for SMV'er, herunder nystartede virksomheder, som ikke bør udgøre en uforholdsmæssig stor omkostning og ikke afskrække fra at anvende sådanne modeller (betragtning 109 i AI-forordningen). Desuden bør rapporteringsforpligtelserne vedrørende de forpligtelser, der gælder for udbydere af AI-modeller til almen brug med systemisk risiko, afspejle forskelle i størrelse og kapacitet mellem forskellige udbydere (artikel 56, stk. 5, i AI-forordningen), samtidig med at det sikres, at de står i et rimeligt forhold til risiciene (artikel 56, stk. 2, litra d), i AI-forordningen).
Hvis adfærdskodeksen godkendes ved hjælp af en gennemførelsesretsakt, opnår den generel gyldighed, hvilket betyder, at overholdelse af adfærdskodeksen bliver et middel til at påvise overholdelse af AI-forordningen, uden at der gives en formodning om overensstemmelse med AI-forordningen. Udbydere kan også påvise overholdelse af forordningen om kunstig intelligens på andre måder. I så fald forventes udbyderne at vedtage foranstaltninger for at sikre overholdelse af deres forpligtelser i henhold til forordningen om kunstig intelligens, som er tilstrækkelige, effektive og forholdsmæssige, og som kan omfatte rapportering til AI-kontoret.
På grundlag af AI-forordningen er yderligere retsvirkninger af adfærdskodeksen, at AI-kontoret kan tage hensyn til en udbyders overholdelse af adfærdskodeksen, når det overvåger dens effektive gennemførelse og overholdelse af AI-forordningen (artikel 89, stk. 1, i AI-forordningen), og kan tage hensyn til de forpligtelser, der er indgået i adfærdskodeksen, ved fastsættelsen af bøder afhængigt af de specifikke omstændigheder (artikel 101, stk. 1, i AI-forordningen).
Endelig "Hvis en adfærdskodeks ikke kan færdiggøres senest den 2. august 2025, eller hvis AI-kontoret efter sin vurdering i henhold til denne artikels stk. 6 finder, at den ikke er tilstrækkelig, kan Kommissionen ved hjælp af gennemførelsesretsakter fastsætte fælles regler for gennemførelsen af de forpligtelser, der er fastsat i artikel 53 og 55, herunder de spørgsmål, der er fastsat i denne artikels stk. 2." (artikel 56, stk. 9, i AI-forordningen).
På grundlag af artikel 56, stk. 8, i forordningen om kunstig intelligens skal AI-kontoret, hvor det er relevant, også tilskynde til og lette gennemgangen og tilpasningen af adfærdskodekserne, navnlig i lyset af nye standarder. Det tredje udkast til adfærdskodeksen indeholder en foreslået mekanisme til revision og ajourføring heraf.
AI-kontoret vil føre tilsyn med og håndhæve de forpligtelser, der er fastsat i AI-forordningen for udbydere af AI-modeller til almen brug (artikel 88 i AI-forordningen), og undtagelsesvis forpligtelserne for udbydere af AI-systemer baseret på AI-modeller til almen brug, hvis udbyderen af modellen og systemet er de samme (artikel 75, stk. 1, i AI-forordningen). AI-kontoret vil bl.a. støtte medlemsstaternes relevante markedsovervågningsmyndigheder i deres håndhævelse af kravene til AI-systemer (artikel 75, stk. 2 og 3, i forordningen om kunstig intelligens). AI-kontorets håndhævelse understøttes af de beføjelser, det er tillagt ved AI-forordningen, nemlig beføjelser til at anmode om oplysninger (artikel 91 i AI-forordningen), foretage evalueringer af AI-modeller til almen brug (artikel 92 i AI-forordningen), anmode om foranstaltninger fra udbydere, herunder gennemførelse af risikobegrænsende foranstaltninger, og tilbagekalde modellen fra markedet (artikel 93 i AI-forordningen) og pålægge bøder på op til 3 % af den globale årlige omsætning eller 15 mio. EUR, alt efter hvad der er højest (artikel 101 i AI-forordningen).
Related content
Den første adfærdskodeks for kunstig intelligens til almen brug, som Kommissionen har modtaget, beskriver reglerne i forordningen om kunstig intelligens for udbydere af AI-modeller til almen brug og AI-modeller til almen brug med systemiske risici.