Skip to main content
Shaping Europe’s digital future

AI-rättsakten

AI-akten är den första rättsliga ramen för AI, som tar itu med riskerna med AI och positionerar Europa att spela en ledande roll globalt.

    en man och en kvinna som arbetar på en högteknologisk skärm

© gorodenkoff - iStock Getty Images Plus

Syftet med AI-lagen är att förse AI-utvecklare och AI-utvecklare med tydliga krav och skyldigheter när det gäller specifik användning av AI. Samtidigt syftar förordningen till att minska de administrativa och ekonomiska bördorna för företagen, särskilt små och medelstora företag.

AI-akten är en del av ett bredare paket med politiska åtgärder för att stödja utvecklingen av tillförlitlig AI, som också omfattar AI-innovationspaketet och den samordnade planen för AI. Tillsammans kommer dessa åtgärder att garantera människors och företags säkerhet och grundläggande rättigheter när det gäller AI. De kommer också att stärka användningen, investeringarna och innovationen inom AI i hela EU.

AI-lagen är den första övergripande rättsliga ramen för AI världen över. Syftet med de nya reglerna är att främja tillförlitlig AI i och utanför Europa, genom att säkerställa att AI-system respekterar grundläggande rättigheter, säkerhet och etiska principer och genom att hantera riskerna med mycket kraftfulla och effektfulla AI-modeller.

Varför behöver vi regler för AI?

AI-akten säkerställer att européerna kan lita på vad AI har att erbjuda. Även om de flesta AI-system är begränsade till ingen risk och kan bidra till att lösa många samhällsutmaningar, skapar vissa AI-system risker som vi måste ta itu med för att undvika oönskade resultat.

Det är till exempel ofta inte möjligt att ta reda på varför ett AI-system har fattat ett beslut eller förutsägelse och vidtagit en viss åtgärd. Det kan därför bli svårt att bedöma om någon har missgynnats på ett orättvist sätt, t.ex. i ett anställningsbeslut eller i en ansökan om ett offentligt förmånssystem.

Även om befintlig lagstiftning ger ett visst skydd är den otillräcklig för att ta itu med de specifika utmaningar som AI-systemen kan medföra.

De föreslagna reglerna kommer att

  • hantera risker som specifikt skapas av AI-tillämpningar,
  • förbjuda AI-metoder som medför oacceptabla risker,
  • fastställa en förteckning över högrisktillämpningar,
  • fastställa tydliga krav för AI-system för högrisktillämpningar,
  • fastställa särskilda skyldigheter för spridare och leverantörer av AI-tillämpningar med hög risk,
  • kräva en bedömning av överensstämmelse innan ett visst AI-system tas i bruk eller släpps ut på marknaden,
  • införa efterlevnadsåtgärder efter det att ett visst AI-system har släppts ut på marknaden,
  • inrätta en styrningsstruktur på europeisk och nationell nivå.

En riskbaserad metod

I regelverket fastställs fyra risknivåer för AI-system:

pyramid som visar de fyra risknivåerna: Oacceptabla risker. Hög risk. begränsad risk, minimal eller ingen risk

 

Alla AI-system som anses utgöra ett tydligt hot mot människors säkerhet, försörjningsmöjligheter och rättigheter kommer att förbjudas, från regeringars sociala poäng till leksaker med hjälp av rösthjälp som uppmuntrar till farligt beteende.

Hög risk

AI-system som identifierats som högrisksystem omfattar AI-teknik som används i

  • kritisk infrastruktur (t.ex. transport) som skulle kunna äventyra medborgarnas liv och hälsa.
  • utbildning eller yrkesutbildning, som kan avgöra tillgången till utbildning och yrkesutövning i någons liv (t.ex. poängsättning av tentor).
  • säkerhetskomponenter i produkter (t.ex. AI-tillämpningar vid robotassisterad kirurgi).
  • anställning, hantering av arbetstagare och tillgång till egenföretagande (t.ex. CV-sorteringsprogram för rekryteringsförfaranden).
  • viktiga privata och offentliga tjänster (t.ex. kreditpoäng som nekar medborgarna möjlighet att få ett lån).
  • brottsbekämpning som kan inkräkta på människors grundläggande rättigheter (t.ex. utvärdering av bevisens tillförlitlighet).
  • migration, asyl och gränskontroll (t.ex. automatisk prövning av viseringsansökningar).
  • rättskipning och demokratiska processer (t.ex. AI-lösningar för att söka domstolsavgöranden).

AI-system med hög risk kommer att omfattas av strikta skyldigheter innan de kan släppas ut på marknaden:

  • lämpliga system för riskbedömning och riskreducering.
  • hög kvalitet på de datamängder som matar systemet för att minimera risker och diskriminerande resultat.
  • loggning av verksamhet för att säkerställa resultatens spårbarhet.
  • detaljerad dokumentation med all information som behövs om systemet och dess syfte för att myndigheterna ska kunna bedöma om systemet uppfyller kraven.
  • tydlig och adekvat information till spridaren.
  • lämpliga åtgärder för mänsklig tillsyn för att minimera risken.
  • hög nivå av robusthet, säkerhet och noggrannhet.

Alla system för biometrisk fjärridentifiering anses vara högrisksystem och omfattas av strikta krav. Användning av biometrisk fjärridentifiering på allmänt tillgängliga platser för brottsbekämpande ändamål är i princip förbjuden.

Snäva undantag är strikt definierade och reglerade, t.ex. när det är nödvändigt för att söka efter ett försvunnet barn, för att förhindra ett specifikt och överhängande terroristhot eller för att upptäcka, lokalisera, identifiera eller lagföra en förövare eller misstänkt för ett allvarligt brott.

För dessa användningar krävs tillstånd från ett rättsligt eller annat oberoende organ och lämpliga begränsningar i tid, geografisk räckvidd och de databaser som har sökts.

Begränsad risk

Begränsad risk hänförsig till de risker som är förknippade med bristande transparens i användningen av AI. Genom AI-akten införs särskilda transparenskrav för att säkerställa att människor vid behov informeras, vilket främjar förtroendet. När man till exempel använder AI-system som chatbots bör människor göras medvetna om att de interagerar med en maskin så att de kan fatta ett välgrundat beslut om att fortsätta eller gå tillbaka. Leverantörerna måste också se till att AI-genererat innehåll kan identifieras. Dessutom måste AI-genererad text som offentliggörs i syfte att informera allmänheten om frågor av allmänt intresse märkas som artificiellt genererad. Detta gäller även ljud- och videoinnehåll som utgör djupa förfalskningar.

Minimal eller ingen risk

AI-lagen tillåter fri användning av AI med minimal risk. Detta inkluderar applikationer som AI-aktiverade videospel eller spamfilter. Den stora majoriteten av de AI-system som för närvarande används i EU hör till denna kategori.

Hur fungerar allt i praktiken för leverantörer av AI-system med hög risk?

steg-för-steg-process för försäkran om överensstämmelse
How does it all work in practice for providers of high risk AI systems?

När ett AI-system väl finns på marknaden ansvarar myndigheterna för marknadskontroll, distribuerarna säkerställer mänsklig tillsyn och övervakning, och leverantörerna har ett system för övervakning av produkter som släppts ut på marknaden. Leverantörer och distribuerare kommer också att rapportera allvarliga incidenter och funktionsstörningar.

En lösning för tillförlitlig användning av stora AI-modeller

Allt fler AI-modeller för allmänna ändamål håller på att bli komponenter i AI-system. Dessa modeller kan utföra och anpassa otaliga olika uppgifter.

Medan AI-modeller för allmänna ändamål kan möjliggöra bättre och kraftfullare AI-lösningar är det svårt att övervaka alla funktioner.

I AI-akten införs transparenskrav för alla AI-modeller för allmänna ändamål för att möjliggöra en bättre förståelse av dessa modeller och ytterligare riskhanteringsskyldigheter för mycket kapabla och effektfulla modeller. Dessa ytterligare skyldigheter omfattar självbedömning och begränsning av systemrisker, rapportering av allvarliga incidenter, genomförande av test- och modellutvärderingar samt cybersäkerhetskrav.

Framtidssäkrad lagstiftning

Eftersom AI är en teknik som utvecklas snabbt har förslaget en framtidssäkrad strategi som gör det möjligt att anpassa sig till tekniska förändringar. AI-tillämpningar bör förbli tillförlitliga även efter det att de har släppts ut på marknaden. Detta kräver löpande kvalitet och riskhantering från leverantörernas sida.

Verkställighet och genomförande

Europeiska AI-byrån, som inrättades inom kommissionen i februari 2024, övervakar efterlevnaden och genomförandet av AI-akten tillsammans med medlemsstaterna. Syftet är att skapa en miljö där AI-teknik respekterar mänsklig värdighet, rättigheter och förtroende. Det främjar också samarbete, innovation och forskning inom AI mellan olika intressenter. Den inleder dessutom internationell dialog och internationellt samarbete om AI-frågor och erkänner behovet av global anpassning av AI-styrningen. Genom dessa ansträngningar strävar Europeiska AI-byrån efter att positionera Europa som ledande inom etisk och hållbar utveckling av AI-teknik.

Nästa steg

I december 2023 nådde Europaparlamentet och Europeiska unionens råd en politisk överenskommelse om AI-akten. Texten håller på att antas och översättas formellt. AI-akten träder i kraft 20 dagar efter det att den har offentliggjorts i Europeiska unionens officiella tidning och kommer att tillämpas fullt ut två år senare, med vissa undantag: förbuden kommer att träda i kraft efter sex månader och styrningsreglerna och skyldigheterna för AI-modeller för allmänna ändamål blir tillämpliga efter tolv månader och reglerna för AI-system – inbäddade i reglerade produkter – kommer att gälla efter 36 månader. För att underlätta övergången till det nya regelverket har kommissionen lanserat AI-pakten, ett frivilligt initiativ som syftar till att stödja det framtida genomförandet och uppmanar AI-utvecklare från och utanför Europa att uppfylla de viktigaste skyldigheterna i AI-akten i förväg.

Senaste nytt

EU och USA fortsätter ett starkt handels- och tekniksamarbete i en tid av globala utmaningar

I dag höll EU och Förenta staterna det sjätte mötet i handels- och teknikrådet EU-USA i Leuven, Belgien. Mötet gjorde det möjligt för ministrarna att bygga vidare på det pågående arbetet och lägga fram nya resultat från TTC efter två och ett halvt års samarbete.

PRESS RELEASE |
Kommissionen inleder ansökningsomgångar för investeringar på över 176 miljoner euro i digital kapacitet och teknik

Europeiska kommissionen inledde en ny uppsättning ansökningsomgångar inom arbetsprogrammen för 2023–2024 inom ramen för programmet för ett digitalt Europa för att stärka den digitala kapaciteten i hela EU. Dessa ansökningsomgångar är öppna för företag, offentliga förvaltningar och andra enheter från EU:s medlemsstater, Efta/EES-länderna och associerade länder. Budgeten för denna uppsättning ansökningsomgångar uppgår till över 176 miljoner euro.

Läs mer

Översikt

En europeisk strategi för artificiell intelligens

EU:s strategi för artificiell intelligens är inriktad på spetskompetens och förtroende, som syftar till att främja forskning och industriell kapacitet och samtidigt garantera säkerhet och grundläggande rättigheter.

Fördjupning

AI-pakten

AI-pakten kommer att uppmuntra och stödja företag i planeringen av de åtgärder som föreskrivs i AI-lagen.

Se också

Samordnad plan för artificiell intelligens

Den samordnade planen för artificiell intelligens syftar till att påskynda investeringarna i AI, genomföra AI-strategier och AI-program och anpassa AI-politiken för att förhindra fragmentering inom Europa.

Den europeiska AI-alliansen

Den europeiska AI-alliansen är ett initiativ från Europeiska kommissionen för att upprätta en öppen politisk dialog om artificiell intelligens. Sedan AI-alliansen lanserades 2018 har cirka 6000 intressenter engagerats genom regelbundna evenemang, offentliga samråd och utbyten av...