De AI-wet is het allereerste rechtskader inzake AI, dat de risico’s van AI aanpakt en Europa in staat stelt wereldwijd een leidende rol te spelen.
De AI-verordening (Verordening (EU) 2024/1689 tot vaststelling van geharmoniseerde regels inzake artificiële intelligentie) is het allereerste alomvattende rechtskader inzake AI ter wereld. Het doel van de regels is om betrouwbare AI in Europa te bevorderen.
De AI-verordening bevat een duidelijke reeks op risico’s gebaseerde regels voor AI-ontwikkelaars en -exploitanten met betrekking tot specifiek gebruik van AI. De AI-verordening maakt deel uit van een breder pakket beleidsmaatregelen ter ondersteuning van de ontwikkeling van betrouwbare AI, dat ook het AI-innovatiepakket, de lancering van AI-fabrieken en het gecoördineerde plan inzake AI omvat. Samen garanderen deze maatregelen veiligheid, grondrechten en mensgerichte AI, en versterken zij de toepassing van, investeringen in en innovatie in AI in de hele EU.
Om de overgang naar het nieuwe regelgevingskader te vergemakkelijken, heeft de Commissie het AI-pact gelanceerd, een vrijwillig initiatief dat tot doel heeft de toekomstige uitvoering te ondersteunen, met belanghebbenden samen te werken en AI-aanbieders en -exploitanten uit Europa en daarbuiten uit te nodigen om van tevoren aan de belangrijkste verplichtingen van de AI-verordening te voldoen.
Waarom hebben we regels nodig over AI?
De AI-wet zorgt ervoor dat Europeanen kunnen vertrouwen op wat AI te bieden heeft. Hoewel de meeste AI-systemen tot geen enkel risico beperkt zijn en kunnen bijdragen tot het oplossen van veel maatschappelijke uitdagingen, creëren bepaalde AI-systemen risico’s die we moeten aanpakken om ongewenste resultaten te voorkomen.
Het is bijvoorbeeld vaak niet mogelijk om erachter te komen waarom een AI-systeem een beslissing of voorspelling heeft gemaakt en een bepaalde actie heeft ondernomen. Het kan dus moeilijk worden om te beoordelen of iemand oneerlijk is benadeeld, zoals in een aanwervingsbesluit of in een aanvraag voor een regeling van algemeen nut.
Hoewel de bestaande wetgeving enige bescherming biedt, is deze ontoereikend om de specifieke uitdagingen aan te pakken die AI-systemen met zich mee kunnen brengen.
Een risicogebaseerde aanpak
De AI-verordening definieert vier risiconiveaus voor AI-systemen:
Onaanvaardbaar risico
Alle AI-systemen die als een duidelijke bedreiging voor de veiligheid, het levensonderhoud en de rechten van mensen worden beschouwd, zijn verboden. De AI-wet verbiedt acht praktijken, namelijk:
- schadelijke AI-gebaseerde manipulatie en misleiding
- schadelijke AI-gebaseerde exploitatie van kwetsbaarheden
- sociale score
- Risicobeoordeling of -voorspelling van individuele strafbare feiten
- ongetarget schrapen van internet- of CCTV-materiaal om gezichtsherkenningsdatabases te maken of uit te breiden
- emotieherkenning op de werkvloer en in onderwijsinstellingen
- biometrische categorisering om bepaalde beschermde kenmerken af te leiden
- biometrische identificatie op afstand in real time voor rechtshandhavingsdoeleinden in openbaar toegankelijke ruimten
Hoog risico
AI-gebruiksgevallen die ernstige risico’s voor de gezondheid, de veiligheid of de grondrechten kunnen inhouden, worden aangemerkt als gevallen met een hoog risico. Deze risicovolle use-cases omvatten:
- AI-veiligheidscomponenten in kritieke infrastructuur (bv. vervoer), waarvan het falen het leven en de gezondheid van burgers in gevaar kan brengen
- AI-oplossingen die in onderwijsinstellingen worden gebruikt en die de toegang tot onderwijs en het verloop van iemands beroepsleven kunnen bepalen (bv. scoren van examens)
- AI-gebaseerde veiligheidscomponenten van producten (bv. AI-toepassing bij robotondersteunde chirurgie)
- AI-instrumenten voor werkgelegenheid, beheer van werknemers en toegang tot zelfstandige arbeid (bv. software voor het sorteren van cv’s voor aanwerving)
- Bepaalde AI-gebruiksgevallen die worden gebruikt om toegang te geven tot essentiële particuliere en openbare diensten (bv. kredietscores die burgers de mogelijkheid ontnemen om een lening te verkrijgen)
- AI-systemen die worden gebruikt voor biometrische identificatie op afstand, emotieherkenning en biometrische categorisering (bv. AI-systeem om een winkeldief met terugwerkende kracht te identificeren)
- AI-gebruiksgevallen bij rechtshandhaving die de grondrechten van mensen kunnen aantasten (bv. evaluatie van de betrouwbaarheid van bewijsmateriaal)
- AI-gebruikssituaties bij migratie-, asiel- en grenscontrolebeheer (bv. geautomatiseerde behandeling van visumaanvragen)
- AI-oplossingen die worden gebruikt bij de rechtsbedeling en democratische processen (bv. AI-oplossingen ter voorbereiding van rechterlijke uitspraken)
AI-systemen met een hoog risico zijn onderworpen aan strenge verplichtingen voordat zij in de handel kunnen worden gebracht:
- adequate risicobeoordelings- en mitigatiesystemen
- hoge kwaliteit van de datasets die het systeem voeden om het risico op discriminerende resultaten tot een minimum te beperken
- logboekregistratie van activiteiten om de traceerbaarheid van de resultaten te waarborgen
- gedetailleerde documentatie met alle informatie die de autoriteiten nodig hebben over het systeem en het doel ervan om de naleving ervan te beoordelen
- duidelijke en adequate informatie voor de exploitant
- passende maatregelen voor menselijk toezicht
- hoge mate van robuustheid, cyberbeveiliging en nauwkeurigheid
Transparantierisico
Dit verwijst naar de risico’s die verbonden zijn aan de behoefte aan transparantie rond het gebruik van AI. De AI-wet voert specifieke openbaarmakingsverplichtingen in om ervoor te zorgen dat mensen worden geïnformeerd wanneer dat nodig is om het vertrouwen te behouden. Bij het gebruik van AI-systemen zoals chatbots moeten mensen er bijvoorbeeld bewust van worden gemaakt dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen.
Bovendien moeten aanbieders van generatieve AI ervoor zorgen dat door AI gegenereerde inhoud identificeerbaar is. Bovendien moet bepaalde door AI gegenereerde inhoud duidelijk en zichtbaar worden geëtiketteerd, namelijk “deep fakes” en tekst die wordt gepubliceerd om het publiek te informeren over aangelegenheden van algemeen belang.
Minimaal of geen risico
De AI-wet bevat geen regels voor AI die als minimaal of zonder risico worden beschouwd. De overgrote meerderheid van de AI-systemen die momenteel in de EU worden gebruikt, vallen in deze categorie. Dit omvat toepassingen zoals AI-compatibele videogames of spamfilters.
Hoe werkt het allemaal in de praktijk voor aanbieders van AI-systemen met een hoog risico?
Hoe werkt het allemaal in de praktijk voor aanbieders van AI-systemen met een hoog risico?
Zodra een AI-systeem op de markt is, zijn de autoriteiten belast met markttoezicht, zorgen exploitanten voor menselijk toezicht en menselijke monitoring en beschikken aanbieders over een systeem voor monitoring na het in de handel brengen. Aanbieders en exploitanten zullen ook ernstige incidenten en storingen melden.
Een oplossing voor het betrouwbare gebruik van grote AI-modellen
AI-modellen voor algemeen gebruik kunnen een breed scala aan taken uitvoeren en vormen de basis voor veel AI-systemen in de EU. Sommige van deze modellen kunnen systeemrisico's met zich meebrengen als ze zeer capabel zijn of op grote schaal worden gebruikt. Om veilige en betrouwbare AI te waarborgen, bevat de AI-verordening regels voor aanbieders van dergelijke modellen. Dit omvat transparantie en regels in verband met auteursrechten. Voor modellen die systeemrisico’s kunnen inhouden, moeten aanbieders deze risico’s beoordelen en beperken.
De regels van de AI-wet inzake AI voor algemeen gebruik worden in augustus 2025 van kracht. Het AI-bureau faciliteert de opstelling van een praktijkcode om deze regels nader uit te werken. De code moet voor aanbieders een centraal instrument zijn om de naleving van de AI-verordening aan te tonen, met inbegrip van geavanceerde praktijken.
Governance en uitvoering
Het Europees AI-bureau en de autoriteiten van de lidstaten zijn verantwoordelijk voor de uitvoering van, het toezicht op en de handhaving van de AI-verordening. De AI-raad, het wetenschappelijk panel en het adviesforum sturen en adviseren de governance van de AI-verordening. Meer informatie over de governance en handhaving van de AI-verordening.
Volgende stappen
De AI-wet is op 1 augustus 2024 in werking getreden en zal twee jaar later, op 2 augustus 2026, volledig van toepassing zijn, met enkele uitzonderingen:
- verbodsbepalingen en verplichtingen inzake AI-geletterdheid die met ingang van 2 februari 2025 van toepassing zijn geworden
- de governanceregels en de verplichtingen voor AI-modellen voor algemeen gebruik worden van toepassing op 2 augustus 2025
- de regels voor AI-systemen met een hoog risico – ingebed in gereguleerde producten – hebben een verlengde overgangsperiode tot en met 2 augustus 2027
Laatste nieuws
Praktische informatie
- 11-03-2025Derde ontwerp van de algemene AI-praktijkcode gepubliceerd, geschreven door onafhankelijke deskundigen
- 11-03-2025Commissie stelt uitvoeringshandeling vast om een wetenschappelijk panel op te richten in het kader van de AI-verordening
- 28-02-2025Tweede zitting van de Handels- en Technologieraad India-EU - Gezamenlijke verklaring
Verslag/onderzoek
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
- 05-04-2024AI voor algemeen belang: EU-VS Onderzoeksalliantie op het gebied van AI voor het algemeen belang
- 30-11-2023Het potentieel van Europa op het gebied van „Edge Computing”: Ondersteuning van industriële innovatie door middel van grootschalige proefprojecten
Gerelateerde inhoud
Grote afbeelding
Zoek verder
-
Het Europees AI-bureau en de nationale markttoezichtautoriteiten zijn verantwoordelijk voor de...