Skip to main content
Shaping Europe’s digital future

AI-wet

De AI-wet is het allereerste rechtskader inzake AI, dat de risico’s van AI aanpakt en Europa in staat stelt wereldwijd een leidende rol te spelen.

De AI-wet heeft tot doel AI-ontwikkelaars en -exploitanten duidelijke eisen en verplichtingen te bieden met betrekking tot specifiek gebruik van AI. Tegelijkertijd beoogt de verordening de administratieve en financiële lasten voor het bedrijfsleven, met name het midden- en kleinbedrijf (MKB), te verminderen.

De AI-verordening maakt deel uit van een breder pakket beleidsmaatregelen ter ondersteuning van de ontwikkeling van betrouwbare AI, dat ook hetAI-innovatiepakket en het gecoördineerde plan inzake AIomvat. Samen zullen deze maatregelen de veiligheid en grondrechten van mensen en bedrijven op het gebied van AI waarborgen. Zij zullen ook het gebruik van, de investeringen in en de innovatie op het gebied van AI in de hele EU versterken.

De AI-wet is het allereerste alomvattende rechtskader op het gebied van AI wereldwijd. Het doel van de nieuwe regels is het bevorderen van betrouwbare AI in Europa en daarbuiten, door ervoor te zorgen dat AI-systemen de grondrechten, veiligheid en ethische beginselen eerbiedigen en door de risico’s van zeer krachtige en impactvolle AI-modellen aan te pakken.

Waarom hebben we regels nodig over AI?

De AI-wet zorgt ervoor dat Europeanen kunnen vertrouwen op wat AI te bieden heeft. Hoewel de meeste AI-systemen tot geen enkel risico beperkt zijn en kunnen bijdragen tot het oplossen van veel maatschappelijke uitdagingen, creëren bepaalde AI-systemen risico’s die we moeten aanpakken om ongewenste resultaten te voorkomen.

Het is bijvoorbeeld vaak niet mogelijk om erachter te komen waarom een AI-systeem een beslissing of voorspelling heeft gemaakt en een bepaalde actie heeft ondernomen. Het kan dus moeilijk worden om te beoordelen of iemand oneerlijk is benadeeld, zoals in een aanwervingsbesluit of in een aanvraag voor een regeling van algemeen nut.

Hoewel de bestaande wetgeving enige bescherming biedt, is deze ontoereikend om de specifieke uitdagingen aan te pakken die AI-systemen met zich mee kunnen brengen.

De voorgestelde regels zullen:

  • risico’s aanpakken die specifiek door AI-toepassingen worden gecreëerd;
  • AI-praktijken verbieden die onaanvaardbare risico’s met zich meebrengen;
  • een lijst van toepassingen met een hoog risico op te stellen;
  • duidelijke eisen vast te stellen voor AI-systemen voor toepassingen met een hoog risico;
  • specifieke verplichtingen vaststellen voor exploitanten en aanbieders van AI-toepassingen met een hoog risico;
  • een conformiteitsbeoordeling vereisen voordat een bepaald AI-systeem in gebruik wordt genomen of in de handel wordt gebracht;
  • handhaving in te voeren nadat een bepaald AI-systeem in de handel is gebracht;
  • een governancestructuur op Europees en nationaal niveau op te zetten.

Een risicogebaseerde aanpak

Het regelgevingskader definieert vier risiconiveaus voor AI-systemen:

piramide met de vier risiconiveaus: Onaanvaardbaar risico; hoog risico; beperkt risico, minimaal of geen risico

 

Alle AI-systemen die als een duidelijke bedreiging voor de veiligheid, het levensonderhoud en de rechten van mensen worden beschouwd, zullen worden verboden, van sociale scoring door overheden tot speelgoed dat gebruikmaakt van spraakassistentie die gevaarlijk gedrag aanmoedigt.

Hoog risico

AI-systemen die als risicovol zijn aangemerkt, omvatten AI-technologie die wordt gebruikt in:

  • kritieke infrastructuur (bv. vervoer) die het leven en de gezondheid van burgers in gevaar kan brengen;
  • onderwijs of beroepsopleiding, die de toegang tot onderwijs en beroepsopleiding van iemands leven kan bepalen (bv. scoren van examens);
  • veiligheidscomponenten van producten (bv. AI-toepassing bij robotondersteunde chirurgie);
  • werkgelegenheid, beheer van werknemers en toegang tot zelfstandige arbeid (bv. software voor het sorteren van cv's voor aanwervingsprocedures);
  • essentiële particuliere en openbare diensten (bv. kredietscores die burgers de mogelijkheid ontzeggen een lening te krijgen);
  • wetshandhaving die de grondrechten van mensen kan aantasten (bv. evaluatie van de betrouwbaarheid van bewijsmateriaal);
  • migratie-, asiel- en grenscontrolebeheer (bv. geautomatiseerde behandeling van visumaanvragen);
  • rechtsbedeling en democratische processen (bv. AI-oplossingen om te zoeken naar rechterlijke uitspraken).

AI-systemen met een hoog risico zullen aan strenge verplichtingen worden onderworpen voordat zij in de handel kunnen worden gebracht:

  • adequate risicobeoordelings- en mitigatiesystemen;
  • hoge kwaliteit van de datasets die het systeem voeden om risico's en discriminerende resultaten tot een minimum te beperken;
  • registratie van activiteiten om de traceerbaarheid van de resultaten te waarborgen;
  • gedetailleerde documentatie met alle informatie die de autoriteiten nodig hebben over het systeem en het doel ervan om de naleving ervan te beoordelen;
  • duidelijke en adequate informatie aan de exploitant;
  • passende maatregelen voor menselijk toezicht om het risico tot een minimum te beperken;
  • hoge mate van robuustheid, veiligheid en nauwkeurigheid.

Alle systemen voor biometrische identificatie op afstand worden beschouwd als systemen met een hoog risico en zijn onderworpen aan strenge eisen. Het gebruik van biometrische identificatie op afstand in openbaar toegankelijke ruimten voor rechtshandhavingsdoeleinden is in beginsel verboden.

Beperkte uitzonderingen zijn strikt gedefinieerd en gereguleerd, zoals wanneer dat nodig is om een vermist kind te zoeken, om een specifieke en onmiddellijke terroristische dreiging te voorkomen of om een dader of verdachte van een ernstig strafbaar feit op te sporen, te lokaliseren, te identificeren of te vervolgen.

Dit gebruik is onderworpen aan toestemming van een gerechtelijke of andere onafhankelijke instantie en aan passende beperkingen in de tijd, het geografische bereik en de doorzochte databanken.

Beperkt risico

Beperkt risicoleidt tot de risico’s die gepaard gaan met een gebrek aan transparantie in het gebruik van AI. De AI-verordening voert specifieke transparantieverplichtingen in om ervoor te zorgen dat mensen indien nodig worden geïnformeerd, wat het vertrouwen bevordert. Bij het gebruik van AI-systemen zoals chatbots moeten mensen er bijvoorbeeld bewust van worden gemaakt dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen om door te gaan of een stap terug te doen. Aanbieders moeten er ook voor zorgen dat door AI gegenereerde inhoud identificeerbaar is. Bovendien moet AI-gegenereerde tekst die wordt gepubliceerd om het publiek te informeren over zaken van algemeen belang, als kunstmatig gegenereerd worden bestempeld. Dit geldt ook voor audio- en video-inhoud die diepe vervalsingen vormt.

Minimaal of geen risico

De AI-wet staat het gratis gebruik van AI met een minimaal risico toe. Dit omvat toepassingen zoals AI-compatibele videogames of spamfilters. De overgrote meerderheid van de AI-systemen die momenteel in de EU worden gebruikt, vallen in deze categorie.

Hoe werkt het allemaal in de praktijk voor aanbieders van AI-systemen met een hoog risico?

stapsgewijze procedure voor de conformiteitsverklaring
How does it all work in practice for providers of high risk AI systems?

Zodra een AI-systeem op de markt is, zijn de autoriteiten belast met markttoezicht, zorgen exploitanten voor menselijk toezicht en menselijke monitoring en beschikken aanbieders over een systeem voor monitoring na het in de handel brengen. Aanbieders en exploitanten zullen ook ernstige incidenten en storingen melden.

Een oplossing voor het betrouwbare gebruik van grote AI-modellen

Meer en meer worden AI-modellen voor algemeen gebruik componenten van AI-systemen. Deze modellen kunnen talloze verschillende taken uitvoeren en aanpassen.

Hoewel AI-modellen voor algemene doeleinden betere en krachtigere AI-oplossingen mogelijk kunnen maken, is het moeilijk om toezicht te houden op alle mogelijkheden.

Daar introduceert de AI-wet transparantieverplichtingen voor alle AI-modellen voor algemene doeleinden om een beter begrip van deze modellen mogelijk te maken en aanvullende verplichtingen inzake risicobeheer voor zeer capabele en impactvolle modellen. Deze aanvullende verplichtingen omvatten zelfbeoordeling en beperking van systeemrisico’s, het melden van ernstige incidenten, het uitvoeren van test- en modelevaluaties en cyberbeveiligingsvereisten.

Toekomstbestendige wetgeving

Aangezien AI een snel evoluerende technologie is, heeft het voorstel een toekomstbestendige aanpak, waardoor regels kunnen worden aangepast aan technologische veranderingen. AI-toepassingen moeten betrouwbaar blijven, zelfs nadat ze in de handel zijn gebracht. Dit vereist doorlopend kwaliteits- en risicobeheer door aanbieders.

Handhaving en uitvoering

Het Europees AI-bureau, dat in februari 2024 binnen de Commissie is opgericht, ziet samen met de lidstaten toe op de handhaving en uitvoering van de AI-verordening. Het doel is een omgeving te creëren waarin AI-technologieën de menselijke waardigheid, rechten en vertrouwen respecteren. Het bevordert ook samenwerking, innovatie en onderzoek op het gebied van AI tussen verschillende belanghebbenden. Bovendien gaat zij een internationale dialoog aan en werkt zij samen op het gebied van KI-kwesties, en erkent zij de noodzaak van wereldwijde afstemming op het gebied van KI-governance. Met deze inspanningen wil het Europees AI-bureau Europa positioneren als koploper op het gebied van ethische en duurzame ontwikkeling van AI-technologieën.

Volgende stappen

In december 2023 bereikten het Europees Parlement en de Raad van de EU een politiek akkoord over de AI-verordening. De tekst wordt momenteel formeel aangenomen en vertaald. De AI-wet treedt 20 dagen na de bekendmaking ervan in het Publicatieblad in werking en zal twee jaar later volledig van toepassing zijn, met enkele uitzonderingen: verbodsbepalingen worden na zes maanden van kracht, de governanceregels en de verplichtingen voor AI-modellen voor algemeen gebruik worden na twaalf maanden van toepassing en de regels voor AI-systemen – ingebed in gereguleerde producten – worden na 36 maanden van toepassing. Om de overgang naar het nieuwe regelgevingskader te vergemakkelijken, heeft de Commissie het AI-pactgelanceerd,een vrijwillig initiatief dat tot doel heeft de toekomstige uitvoering te ondersteunen en AI-ontwikkelaars uit Europa en daarbuiten uitnodigt om van tevoren aan de belangrijkste verplichtingen van de AI-verordening te voldoen.

Laatste nieuws

Oprichting van AI-fabrieken nu mogelijk na wijziging EuroHPC-verordening

De wijziging van de EuroHPC-verordening tot oprichting van AI-fabrieken is in werking getreden, waardoor een nieuwe pijler van activiteiten voor de Gemeenschappelijke Onderneming Europese high-performance computing (EuroHPC JU) kan worden opgericht.

Gerelateerde inhoud

Grote afbeelding

Europese aanpak van artificiële intelligentie

De EU-aanpak van artificiële intelligentie is gericht op excellentie en vertrouwen, met als doel onderzoek en industriële capaciteit te stimuleren en tegelijkertijd de veiligheid en de grondrechten te waarborgen.

Zoek verder

KI-pact

Het AI-pact moedigt organisaties aan en ondersteunt hen om vooruit te plannen voor de uitvoering van maatregelen in het kader van de AI-verordening.

Zie ook

Gecoördineerd plan voor artificiële intelligentie

Het gecoördineerde plan inzake artificiële intelligentie heeft tot doel investeringen in AI te versnellen, AI-strategieën en -programma’s uit te voeren en het AI-beleid op elkaar af te stemmen om versnippering binnen Europa te voorkomen.

De Europese AI-alliantie

De Europese AI-alliantie is een initiatief van de Europese Commissie om een open beleidsdialoog over artificiële intelligentie op te zetten. Sinds de oprichting in 2018 heeft de AI Alliance ongeveer 6000 belanghebbenden betrokken via regelmatige evenementen, openbare...