Skip to main content
Shaping Europe’s digital future

Förslag till regelverk om artificiell intelligens

Kommissionen föreslår den första rättsliga ramen för AI någonsin, som tar itu med riskerna med AI och gör det möjligt för Europa att spela en ledande roll globalt.

    en man och en kvinna som arbetar på en högteknologisk skärm

© gorodenkoff - iStock Getty Images Plus

Lagstiftningsförslaget syftar till att ge AI-utvecklare, distribuerare och användare tydliga krav och skyldigheter när det gäller specifik användning av AI. Samtidigt syftar förslaget till att minska de administrativa och ekonomiska bördorna för företagen, särskilt små och medelstora företag.

Förslaget ingår i ett bredare AI-paket, som även omfattar den uppdaterade samordnade AI-planen. Tillsammans kommer regelverket och den samordnade planen att garantera människors och företags säkerhet och grundläggande rättigheter när det gäller AI. Och de kommer att stärka spridningen, investeringarna och innovationen i AI i hela EU.

Varför behöver vi regler om AI?

Den föreslagna AI-förordningen säkerställer att européerna kan lita på vad AI har att erbjuda. Även om de flesta AI-system inte utgör någon risk och kan bidra till att lösa många samhällsutmaningar, skapar vissa AI-system risker som vi måste ta itu med för att undvika oönskade resultat.

Till exempel är det ofta inte möjligt att ta reda på varför ett AI-system har fattat ett beslut eller förutsägelse och vidtagit en viss åtgärd. Det kan därför bli svårt att bedöma om någon har varit orättvist missgynnad, t.ex. i ett anställningsbeslut eller i en ansökan om ett offentligt förmånssystem.

Även om befintlig lagstiftning ger ett visst skydd är den otillräcklig för att ta itu med de specifika utmaningar som AI-system kan medföra.

De föreslagna reglerna kommer att

  • hantera risker som specifikt skapas av AI-tillämpningar,
  • föreslå en förteckning över högrisktillämpningar,
  • fastställa tydliga krav för AI-system för högrisktillämpningar,
  • fastställa särskilda skyldigheter för AI-användare och leverantörer av högrisktillämpningar,
  • föreslå en bedömning av överensstämmelse innan AI-systemet tas i bruk eller släpps ut på marknaden,
  • föreslå verkställighet efter det att ett sådant AI-system har släppts ut på marknaden,
  • föreslå en styrningsstruktur på europeisk och nationell nivå.

En riskbaserad strategi

pyramid som visar de fyra risknivåerna: Oacceptabla risker, Hög risk; begränsad risk, minimal eller ingen risk

I regelverket fastställs fyra risknivåer inom AI:

  • Oacceptabel risk
  • Hög risk
  • Begränsad risk
  • Minimal eller ingen risk

Oacceptabel risk

Alla AI-system anses vara ett tydligt hot mot människors säkerhet, försörjning och rättigheter kommer att förbjudas, från sociala poäng av regeringar till leksaker som använder rösthjälp som uppmuntrar till farligt beteende.

Hög risk

AI-system som identifierats som högrisk inkluderar AI-teknik som används i:

  • kritisk infrastruktur (t.ex. transport), som skulle kunna äventyra medborgarnas liv och hälsa.
  • utbildning eller yrkesutbildning, som kan avgöra tillgången till utbildning och yrkesutbildning i någons liv (t.ex. poängsättning av prov).
  • säkerhetskomponenter i produkter (t.ex. AI-tillämpning vid robotassisterad kirurgi).
  • anställning, hantering av arbetstagare och tillgång till egenföretagande (t.ex. programvara för CV-sortering för rekryteringsförfaranden).
  • viktiga privata och offentliga tjänster (t.ex. kreditpoäng som nekar medborgarna möjlighet att få lån).
  • brottsbekämpning som kan inkräkta på människors grundläggande rättigheter (t.ex. utvärdering av bevisens tillförlitlighet).
  • hantering av migration, asyl och gränskontroll (t.ex. kontroll av resehandlingarnas äkthet).
  • rättskipning och demokratiska processer (t.ex. tillämpning av lagen på konkreta fakta).

AI-system med hög risk kommer att omfattas av strikta krav innan de kan släppas ut på marknaden:

  • adekvata riskbedömnings- och riskreducerande system.
  • hög kvalitet på de dataset som matas in i systemet för att minimera risker och diskriminerande resultat.
  • loggning av verksamhet för att säkerställa att resultaten kan spåras.
  • detaljerad dokumentation som innehåller all information om systemet och dess syfte för att myndigheterna ska kunna bedöma dess efterlevnad.
  • tydlig och adekvat information till användaren.
  • lämpliga åtgärder för mänsklig tillsyn för att minimera riskerna.
  • hög nivå av robusthet, säkerhet och noggrannhet.

Alla biometriska system för fjärridentifiering anses vara högrisk och omfattas av strikta krav. Det är i princip förbjudet att använda biometrisk fjärridentifiering på allmänt tillgängliga platser för brottsbekämpande ändamål.

Snäva undantag är strikt definierade och reglerade, t.ex. när det är nödvändigt för att söka efter ett försvunnet barn, för att förhindra ett specifikt och överhängande terroristhot eller för att upptäcka, lokalisera, identifiera eller lagföra en förövare eller misstänkt för ett allvarligt brott.

För sådan användning krävs tillstånd från ett rättsligt eller annat oberoende organ och lämpliga tidsgränser, geografisk räckvidd och de databaser som söks.

Begränsad risk

Med begränsad risk avses AI-system med särskilda transparenskrav. När du använder AI-system som chatbots bör användarna vara medvetna om att de interagerar med en maskin så att de kan fatta ett välgrundat beslut att fortsätta eller gå tillbaka.

Minimal eller ingen risk

Förslaget tillåter fri användning av AI med minimal risk. Detta inkluderar applikationer som AI-aktiverade videospel eller spamfilter. De allra flesta AI-system som för närvarande används i EU hör till denna kategori.

steg för steg process för försäkran om överensstämmelse
How does it all work in practice for providers of high risk AI systems?

När ett AI-system finns på marknaden ansvarar myndigheterna för marknadskontroll, användare säkerställer mänsklig tillsyn och övervakning, och leverantörerna har ett system för övervakning efter utsläppandet på marknaden. Leverantörer och användare kommer också att rapportera allvarliga incidenter och funktionsfel.

Framtidssäkrad lagstiftning

Eftersom AI är en teknik som utvecklas snabbt har förslaget en framtidssäker strategi som gör det möjligt att anpassa sig till tekniska förändringar. AI-tillämpningar bör förbli tillförlitliga även efter att de har släppts ut på marknaden. Detta kräver löpande kvalitet och riskhantering från leverantörernas sida.

Nästa steg

Enligt kommissionens förslag i april 2021 kan förordningen träda i kraft i slutet av 2022/början av 2023 under en övergångsperiod. Under denna period skulle standarder ges i uppdrag och utvecklas, och de förvaltningsstrukturer som inrättas skulle vara operativa. Den andra halvan av 2024 är den tidigaste tidpunkt då förordningen skulle kunna bli tillämplig på operatörer med de färdiga standarderna och de första bedömningarna av överensstämmelse.

Som ett ytterligare regelverk för vitboken om AI antogs ett förslag till direktiv om AI-ansvar den 28 september 2022.

Senaste nytt

Povezane vsebine

Širša slika

En europeisk strategi för artificiell intelligens

EU:s strategi för artificiell intelligens är inriktad på spetskompetens och förtroende, som syftar till att främja forskning och industriell kapacitet samtidigt som säkerhet och grundläggande rättigheter säkerställs.

Glej tudi

Samordnad plan för artificiell intelligens

Den samordnade planen för artificiell intelligens syftar till att påskynda investeringarna i AI, agera på AI-strategier och AI-program och anpassa AI-politiken för att undvika fragmentering i Europa.

Europeiska AI-alliansen

Den europeiska AI-alliansen är ett initiativ från Europeiska kommissionen för att upprätta en öppen politisk dialog om artificiell intelligens. Sedan lanseringen 2018 har AI Alliance engagerat cirka 6 000 intressenter genom regelbundna evenemang, offentliga samråd och utbyten av...