Skip to main content
Shaping Europe’s digital future

AI-wet

De AI-wet is het allereerste juridische kader voor AI, dat de risico’s van AI aanpakt en Europa een leidende rol geeft wereldwijd.

    een man en een vrouw werken op een hightech scherm

© gorodenkoff - iStock Getty Images Plus

De AI-wet heeft tot doel AI-ontwikkelaars en -exploitanten duidelijke vereisten en verplichtingen te bieden met betrekking tot specifieke toepassingen van AI. Tegelijkertijd beoogt de verordening de administratieve en financiële lasten voor het bedrijfsleven, met name het midden- en kleinbedrijf (kmo’s), te verminderen.

De AI-wet maakt deel uit van een breder pakket beleidsmaatregelen ter ondersteuning van de ontwikkeling van betrouwbare AI, dat ook hetAI-innovatiepakket en het gecoördineerde plan inzake AIomvat. Samen zullen deze maatregelen de veiligheid en grondrechten van mensen en bedrijven waarborgen als het gaat om AI. Zij zullen ook het gebruik, de investeringen en de innovatie op het gebied van AI in de hele EU versterken.

De AI Act is het allereerste uitgebreide juridische kader voor AI wereldwijd. Het doel van de nieuwe regels is het bevorderen van betrouwbare AI in Europa en daarbuiten, door ervoor te zorgen dat AI-systemen de grondrechten, veiligheid en ethische beginselen eerbiedigen en door risico’s van zeer krachtige en impactvolle AI-modellen aan te pakken.

Waarom hebben we regels voor AI nodig?

De AI-wet zorgt ervoor dat Europeanen kunnen vertrouwen wat AI te bieden heeft. Hoewel de meeste AI-systemen beperkt zijn tot geen risico’s en kunnen bijdragen aan het oplossen van veel maatschappelijke uitdagingen, creëren bepaalde AI-systemen risico’s die we moeten aanpakken om ongewenste resultaten te voorkomen.

Het is bijvoorbeeld vaak niet mogelijk om erachter te komen waarom een AI-systeem een beslissing of voorspelling heeft gemaakt en een bepaalde actie heeft ondernomen. Het kan dus moeilijk worden om te beoordelen of iemand oneerlijk benadeeld is, zoals bij een aanwervingsbesluit of in een aanvraag voor een regeling van algemeen nut.

Hoewel bestaande wetgeving enige bescherming biedt, is het onvoldoende om de specifieke uitdagingen aan te pakken die AI-systemen met zich mee kunnen brengen.

De voorgestelde regels zullen:

  • de risico’s die specifiek door AI-toepassingen worden gecreëerd, aan te pakken;
  • AI-praktijken die onaanvaardbare risico’s met zich meebrengen, verbieden;
  • een lijst van toepassingen met een hoog risico te bepalen;
  • duidelijke eisen stellen voor AI-systemen voor toepassingen met een hoog risico;
  • specifieke verplichtingen definiëren voor exploitanten en aanbieders van AI-toepassingen met een hoog risico;
  • een conformiteitsbeoordeling vereisen voordat een bepaald AI-systeem in gebruik wordt genomen of in de handel wordt gebracht;
  • handhaving instellen nadat een bepaald AI-systeem in de handel is gebracht;
  • opzetten van een bestuursstructuur op Europees en nationaal niveau.

Een op risico’s gebaseerde aanpak

Het regelgevingskader definieert vier risiconiveaus voor AI-systemen:

piramide toont de vier risiconiveaus: Onaanvaardbaar risico; Een hoog risico; beperkt risico, minimaal of geen risico

 

Alle AI-systemen worden beschouwd als een duidelijke bedreiging voor de veiligheid, het levensonderhoud en de rechten van mensen, van sociale score door overheden tot speelgoed met behulp van spraakhulp dat gevaarlijk gedrag aanmoedigt.

Hoog risico

AI-systemen die als hoog risico worden aangemerkt, omvatten AI-technologie die wordt gebruikt in:

  • kritieke infrastructuur (bv. vervoer), die het leven en de gezondheid van de burgers in gevaar kan brengen;
  • onderwijs of beroepsopleiding, die de toegang tot het onderwijs en de beroepsloop van iemands leven kan bepalen (bv. het scoren van examens);
  • veiligheidscomponenten van producten (bv. AI-toepassing bij robotondersteunde chirurgie);
  • werkgelegenheid, beheer van werknemers en toegang tot zelfstandige arbeid (bv. cv-sorteersoftware voor wervingsprocedures);
  • essentiële particuliere en openbare diensten (bv. kredietscore die burgers de mogelijkheid ontzegt om een lening te verkrijgen);
  • rechtshandhaving die afbreuk kan doen aan de grondrechten van mensen (bv. evaluatie van de betrouwbaarheid van bewijsmateriaal);
  • beheer van migratie, asiel en grenstoezicht ( bv. geautomatiseerde behandeling van visumaanvragen);
  • rechtsbedeling en democratische processen (bv. AI-oplossingen voor het zoeken naar rechterlijke uitspraken).

AI-systemen met een hoog risico zullen aan strikte verplichtingen worden onderworpen voordat ze op de markt kunnen worden gebracht:

  • adequate systemen voor risicobeoordeling en -beperking;
  • hoge kwaliteit van de datasets die het systeem voeden om risico’s en discriminerende resultaten tot een minimum te beperken;
  • het loggen van activiteiten om de traceerbaarheid van de resultaten te waarborgen;
  • gedetailleerde documentatie met alle informatie die nodig is over het systeem en het doel ervan voor de autoriteiten om de naleving ervan te beoordelen;
  • duidelijke en adequate informatie aan de exploitant;
  • passende maatregelen voor menselijk toezicht om risico’s tot een minimum te beperken;
  • hoge mate van robuustheid, veiligheid en nauwkeurigheid.

Alle biometrische identificatiesystemen op afstand worden beschouwd als risicovolle systemen en zijn onderworpen aan strenge eisen. Het gebruik van biometrische identificatie op afstand in openbaar toegankelijke ruimten voor rechtshandhavingsdoeleinden is in beginsel verboden.

Restrictieve uitzonderingen zijn strikt gedefinieerd en gereguleerd, bijvoorbeeld wanneer dat nodig is om een vermist kind te zoeken, om een specifieke en dreigende terroristische dreiging te voorkomen of om een dader of verdachte van een ernstig strafbaar feit op te sporen, te lokaliseren, te identificeren of te vervolgen.

Dit gebruik is onderworpen aan toestemming van een gerechtelijke of andere onafhankelijke instantie en aan passende beperkingen in de tijd, het geografische bereik en de doorzochte databanken.

Beperkt risico

Beperkt risico r gaatgepaard met de risico’s die gepaard gaan met een gebrek aan transparantie in het gebruik van AI. De AI-wet voert specifieke transparantieverplichtingen in om ervoor te zorgen dat mensen indien nodig worden geïnformeerd, waardoor vertrouwen wordt bevorderd. Bijvoorbeeld, bij het gebruik van AI-systemen zoals chatbots, moeten mensen zich ervan bewust worden dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen om door te gaan of een stap terug te doen. Aanbieders moeten er ook voor zorgen dat door AI gegenereerde inhoud identificeerbaar is. Bovendien moet door AI gegenereerde tekst die wordt gepubliceerd om het publiek te informeren over aangelegenheden van algemeen belang, worden bestempeld als kunstmatig gegenereerd. Dit geldt ook voor audio- en videocontent die diepe vervalsingen vormen.

Minimaal of geen risico

De AI-wet maakt het gratis gebruik van AI met een minimaal risico mogelijk. Dit omvat toepassingen zoals AI-gestuurde videogames of spamfilters. De overgrote meerderheid van de AI-systemen die momenteel in de EU worden gebruikt, valt onder deze categorie.

Hoe werkt het allemaal in de praktijk voor aanbieders van AI-systemen met een hoog risico?

stapsgewijze procedure voor de conformiteitsverklaring
How does it all work in practice for providers of high risk AI systems?

Zodra een AI-systeem op de markt is, zijn de autoriteiten verantwoordelijk voor markttoezicht, exploitanten zorgen voor menselijk toezicht en monitoring, en aanbieders beschikken over een systeem voor monitoring na het in de handel brengen. Providers en operators melden ook ernstige incidenten en storingen.

Een oplossing voor het betrouwbare gebruik van grote AI-modellen

Steeds meer worden AI-modellen voor algemene doeleinden componenten van AI-systemen. Deze modellen kunnen talloze verschillende taken uitvoeren en aanpassen.

Hoewel AI-modellen voor algemene doeleinden betere en krachtigere AI-oplossingen mogelijk kunnen maken, is het moeilijk om alle mogelijkheden te overzien.

Daar introduceert de AI-wet transparantieverplichtingen voor alle AI-modellen voor algemene doeleinden om een beter begrip van deze modellen en aanvullende verplichtingen inzake risicobeheer voor zeer capabele en impactvolle modellen mogelijk te maken. Deze aanvullende verplichtingen omvatten zelfbeoordeling en beperking van systeemrisico’s, melding van ernstige incidenten, het uitvoeren van tests en modelevaluaties, en cyberbeveiligingsvereisten.

Toekomstbestendige wetgeving

Aangezien AI een snel evoluerende technologie is, heeft het voorstel een toekomstbestendige aanpak, waardoor regels kunnen worden aangepast aan technologische veranderingen. AI-toepassingen moeten betrouwbaar blijven, zelfs nadat ze in de handel zijn gebracht. Dit vereist voortdurende kwaliteit en risicobeheer door aanbieders.

Handhaving en uitvoering

Het Europees AI-bureau, dat in februari 2024 binnen de Commissie is opgericht, houdt toezicht op de handhaving en uitvoering van de AI-wet met de lidstaten. Het doel is om een omgeving te creëren waarin AI-technologieën de menselijke waardigheid, rechten en vertrouwen respecteren. Het bevordert ook samenwerking, innovatie en onderzoek op het gebied van AI tussen verschillende belanghebbenden. Bovendien voert zij internationale dialoog en samenwerking op het gebied van KI-kwesties, waarbij wordt erkend dat er behoefte is aan mondiale afstemming op AI-governance. Met deze inspanningen streeft het Europees AI-bureau ernaar Europa te positioneren als een leider in de ethische en duurzame ontwikkeling van AI-technologieën.

Volgende stappen

In december 2023 bereikten het Europees Parlement en de Raad van de EU een politiek akkoord over de AI-wet. De tekst wordt formeel aangenomen en vertaald. De AI-wet treedt 20 dagen na de bekendmaking ervan in het Publicatieblad in werking en is twee jaar later volledig van toepassing, met enkele uitzonderingen: de verbodsbepalingen worden na zes maanden van kracht, de governanceregels en de verplichtingen voor AI-modellen voor algemene doeleinden worden na 12 maanden van toepassing en de regels voor AI-systemen — ingebed in gereguleerde producten — zullen na 36 maanden van toepassing zijn. Om de overgang naar het nieuwe regelgevingskader te vergemakkelijken, heeft de Commissie het AI-pactgelanceerd,een vrijwillig initiatief om de toekomstige uitvoering te ondersteunen en verzoekt de Commissie AI-ontwikkelaars uit Europa en daarbuiten tijdig aan de belangrijkste verplichtingen van de AI-wet te voldoen.

Laatste nieuws

PRESS RELEASE |
Commissie investeert 112 miljoen euro in AI en kwantumonderzoek en innovatie

De Europese Commissie heeft oproepen tot het indienen van voorstellen gelanceerd in het kader van Horizon Europa’s digitale, industriële en ruimtevaartwerkprogramma 2023-2024 voor onderzoek en innovatie op het gebied van artificiële intelligentie (AI) en kwantumtechnologieën.

Gerelateerde inhoud

Grote afbeelding

Europese benadering van artificiële intelligentie

De EU-aanpak van artificiële intelligentie is gericht op excellentie en vertrouwen, met als doel de onderzoeks- en industriële capaciteit te vergroten en tegelijkertijd de veiligheid en de grondrechten te waarborgen.

Zoek verder

AI-pact

Het AI-pact moedigt en ondersteunt organisaties om vooruit te plannen voor de uitvoering van AI Act-maatregelen.

Zie ook

Gecoördineerd plan voor artificiële intelligentie

Het gecoördineerde plan voor kunstmatige intelligentie heeft tot doel investeringen in AI te versnellen, AI-strategieën en -programma’s uit te voeren en AI-beleid op elkaar af te stemmen om versnippering binnen Europa te voorkomen.

De Europese AI-alliantie

De Europese AI-alliantie is een initiatief van de Europese Commissie om een open beleidsdialoog over artificiële intelligentie op te zetten. Sinds de oprichting in 2018 heeft de AI Alliance ongeveer 6000 belanghebbenden betrokken via regelmatige evenementen, openbare...