De AI-wet is het allereerste rechtskader inzake AI, dat de risico’s van AI aanpakt en Europa in staat stelt wereldwijd een leidende rol te spelen.
De AI-verordening (Verordening(EU) 2024/1689 tot vaststelling van geharmoniseerde regels inzake artificiële intelligentie)voorziet AI-ontwikkelaars en -exploitanten van duidelijke vereisten en verplichtingen met betrekking tot specifieke toepassingen van AI. Tegelijkertijd beoogt de verordening de administratieve en financiële lasten voor het bedrijfsleven, met name het midden- en kleinbedrijf (MKB), te verminderen.
De AI-verordening maakt deel uit van een breder pakket beleidsmaatregelen ter ondersteuning van de ontwikkeling van betrouwbare AI, dat ook hetAI-innovatiepakket en het gecoördineerde plan inzake AIomvat. Samen garanderen deze maatregelen de veiligheid en grondrechten van mensen en bedrijven op het gebied van AI. Zij versterken ook het gebruik van, de investeringen in en de innovatie op het gebied van AI in de hele EU.
De AI-wet is het allereerste alomvattende rechtskader op het gebied van AI wereldwijd. Het doel van de nieuwe regels is het bevorderen van betrouwbare AI in Europa en daarbuiten, door ervoor te zorgen dat AI-systemen de grondrechten, veiligheid en ethische beginselen eerbiedigen en door de risico’s van zeer krachtige en impactvolle AI-modellen aan te pakken.
Waarom hebben we regels nodig over AI?
De AI-wet zorgt ervoor dat Europeanen kunnen vertrouwen op wat AI te bieden heeft. Hoewel de meeste AI-systemen tot geen enkel risico beperkt zijn en kunnen bijdragen tot het oplossen van veel maatschappelijke uitdagingen, creëren bepaalde AI-systemen risico’s die we moeten aanpakken om ongewenste resultaten te voorkomen.
Het is bijvoorbeeld vaak niet mogelijk om erachter te komen waarom een AI-systeem een beslissing of voorspelling heeft gemaakt en een bepaalde actie heeft ondernomen. Het kan dus moeilijk worden om te beoordelen of iemand oneerlijk is benadeeld, zoals in een aanwervingsbesluit of in een aanvraag voor een regeling van algemeen nut.
Hoewel de bestaande wetgeving enige bescherming biedt, is deze ontoereikend om de specifieke uitdagingen aan te pakken die AI-systemen met zich mee kunnen brengen.
De nieuwe regels:
- risico’s aanpakken die specifiek door AI-toepassingen worden gecreëerd
- AI-praktijken verbieden die onaanvaardbare risico’s met zich meebrengen
- een lijst van toepassingen met een hoog risico opstellen
- duidelijke eisen vast te stellen voor AI-systemen voor toepassingen met een hoog risico
- specifieke verplichtingen vaststellen voor exploitanten en aanbieders van AI-toepassingen met een hoog risico
- een conformiteitsbeoordeling vereisen voordat een bepaald AI-systeem in gebruik wordt genomen of in de handel wordt gebracht
- handhaving invoeren nadat een bepaald AI-systeem in de handel is gebracht
- een governancestructuur op Europees en nationaal niveau op te zetten
Een risicogebaseerde aanpak
Het regelgevingskader definieert vier risiconiveaus voor AI-systemen:
Alle AI-systemen die als een duidelijke bedreiging voor de veiligheid, het levensonderhoud en de rechten van mensen worden beschouwd, zijn verboden, van sociale scoring door overheden tot speelgoed met behulp van spraakassistentie die gevaarlijk gedrag aanmoedigt.
Hoog risico
AI-systemen die als risicovol zijn aangemerkt, omvatten AI-technologie die wordt gebruikt in:
- kritieke infrastructuur (bv. vervoer) die het leven en de gezondheid van burgers in gevaar kan brengen
- onderwijs of beroepsopleiding, die de toegang tot onderwijs en beroepsopleiding van iemands leven kan bepalen (bv. scoren van examens)
- veiligheidscomponenten van producten (bv. AI-toepassing bij robotondersteunde chirurgie)
- werkgelegenheid, beheer van werknemers en toegang tot zelfstandige arbeid (bv. software voor het sorteren van cv's voor aanwervingsprocedures)
- essentiële particuliere en openbare diensten (bv. kredietscores die burgers de mogelijkheid ontzeggen een lening te verkrijgen)
- wetshandhaving die de grondrechten van mensen kan aantasten (bv. evaluatie van de betrouwbaarheid van bewijsmateriaal)
- migratie-, asiel- en grenscontrolebeheer (bv. geautomatiseerde behandeling van visumaanvragen)
- rechtsbedeling en democratische processen (bv. AI-oplossingen om te zoeken naar rechterlijke uitspraken)
AI-systemen met een hoog risico zijn onderworpen aan strenge verplichtingen voordat zij in de handel kunnen worden gebracht:
- adequate risicobeoordelings- en mitigatiesystemen
- hoge kwaliteit van de datasets die het systeem voeden om risico's en discriminerende resultaten tot een minimum te beperken
- logboekregistratie van activiteiten om de traceerbaarheid van de resultaten te waarborgen
- gedetailleerde documentatie met alle informatie die de autoriteiten nodig hebben over het systeem en het doel ervan om de naleving ervan te beoordelen
- duidelijke en adequate informatie voor de exploitant
- passende maatregelen voor menselijk toezicht om het risico tot een minimum te beperken
- hoge mate van robuustheid, veiligheid en nauwkeurigheid
Alle systemen voor biometrische identificatie op afstand worden beschouwd als systemen met een hoog risico en zijn onderworpen aan strenge eisen. Het gebruik van biometrische identificatie op afstand in openbaar toegankelijke ruimten voor rechtshandhavingsdoeleinden is in beginsel verboden.
Beperkte uitzonderingen zijn strikt gedefinieerd en gereguleerd, zoals wanneer dat nodig is om een vermist kind te zoeken, om een specifieke en onmiddellijke terroristische dreiging te voorkomen of om een dader of verdachte van een ernstig strafbaar feit op te sporen, te lokaliseren, te identificeren of te vervolgen.
Dit gebruik is onderworpen aan toestemming van een gerechtelijke of andere onafhankelijke instantie en aan passende beperkingen in de tijd, het geografische bereik en de doorzochte databanken.
Beperkt risico
Beperkt risicoleidt tot de risico’s die gepaard gaan met een gebrek aan transparantie in het gebruik van AI. De AI-verordening voert specifieke transparantieverplichtingen in om ervoor te zorgen dat mensen indien nodig worden geïnformeerd, wat het vertrouwen bevordert. Bij het gebruik van AI-systemen zoals chatbots moeten mensen er bijvoorbeeld bewust van worden gemaakt dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen om door te gaan of een stap terug te doen. Aanbieders moeten er ook voor zorgen dat door AI gegenereerde inhoud identificeerbaar is. Bovendien moet AI-gegenereerde tekst die wordt gepubliceerd om het publiek te informeren over zaken van algemeen belang, als kunstmatig gegenereerd worden bestempeld. Dit geldt ook voor audio- en video-inhoud die diepe vervalsingen vormt.
Minimaal of geen risico
De AI-wet staat het gratis gebruik van AI met een minimaal risico toe. Dit omvat toepassingen zoals AI-compatibele videogames of spamfilters. De overgrote meerderheid van de AI-systemen die momenteel in de EU worden gebruikt, vallen in deze categorie.
Hoe werkt het allemaal in de praktijk voor aanbieders van AI-systemen met een hoog risico?
Zodra een AI-systeem op de markt is, zijn de autoriteiten belast met markttoezicht, zorgen exploitanten voor menselijk toezicht en menselijke monitoring en beschikken aanbieders over een systeem voor monitoring na het in de handel brengen. Aanbieders en exploitanten zullen ook ernstige incidenten en storingen melden.
Een oplossing voor het betrouwbare gebruik van grote AI-modellen
Meer en meer worden AI-modellen voor algemeen gebruik componenten van AI-systemen. Deze modellen kunnen talloze verschillende taken uitvoeren en aanpassen.
Hoewel AI-modellen voor algemene doeleinden betere en krachtigere AI-oplossingen mogelijk kunnen maken, is het moeilijk om toezicht te houden op alle mogelijkheden.
Daar introduceert de AI-wet transparantieverplichtingen voor alle AI-modellen voor algemene doeleinden om een beter begrip van deze modellen mogelijk te maken en aanvullende verplichtingen inzake risicobeheer voor zeer capabele en impactvolle modellen. Deze aanvullende verplichtingen omvatten zelfbeoordeling en beperking van systeemrisico’s, het melden van ernstige incidenten, het uitvoeren van test- en modelevaluaties en cyberbeveiligingsvereisten.
Toekomstbestendige wetgeving
Aangezien AI een snel evoluerende technologie is, heeft de verordening een toekomstbestendige aanpak, waardoor regels kunnen worden aangepast aan technologische veranderingen. AI-toepassingen moeten betrouwbaar blijven, zelfs nadat ze in de handel zijn gebracht. Dit vereist doorlopend kwaliteits- en risicobeheer door aanbieders.
Handhaving en uitvoering
Het Europees AI-bureau, dat in februari 2024 binnen de Commissie is opgericht, ziet samen met de lidstaten toe op de handhaving en uitvoering van de AI-verordening. Het doel is een omgeving te creëren waarin AI-technologieën de menselijke waardigheid, rechten en vertrouwen respecteren. Het bevordert ook samenwerking, innovatie en onderzoek op het gebied van AI tussen verschillende belanghebbenden. Bovendien gaat zij een internationale dialoog aan en werkt zij samen op het gebied van KI-kwesties, en erkent zij de noodzaak van wereldwijde afstemming op het gebied van KI-governance. Met deze inspanningen wil het Europees AI-bureau Europa positioneren als koploper op het gebied van ethische en duurzame ontwikkeling van AI-technologieën.
Volgende stappen
De AI-wet is op 1 augustus in werking getreden en zal twee jaar later volledig van toepassing zijn, met enkele uitzonderingen: verbodsbepalingen worden na zes maanden van kracht, de governanceregels en de verplichtingen voor AI-modellen voor algemeen gebruik worden na twaalf maanden van toepassing en de regels voor AI-systemen – ingebed in gereguleerde producten – worden na 36 maanden van toepassing. Om de overgang naar het nieuwe regelgevingskader te vergemakkelijken, heeft de Commissie het AI-pactgelanceerd,een vrijwillig initiatief dat tot doel heeft de toekomstige uitvoering te ondersteunen en AI-ontwikkelaars uit Europa en daarbuiten uitnodigt om van tevoren aan de belangrijkste verplichtingen van de AI-verordening te voldoen.
Laatste nieuws
Report / Study
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
- 05-04-2024AI voor algemeen belang: EU-VS Onderzoeksalliantie op het gebied van AI voor het algemeen belang
- 30-11-2023Het potentieel van Europa op het gebied van „Edge Computing”: Ondersteuning van industriële innovatie door middel van grootschalige proefprojecten
Gerelateerde inhoud
Grote afbeelding
De EU-aanpak van artificiële intelligentie is gericht op excellentie en vertrouwen, met als doel onderzoek en industriële capaciteit te stimuleren en tegelijkertijd de veiligheid en de grondrechten te waarborgen.
Zoek verder
Het AI-pact moedigt organisaties aan en ondersteunt hen om vooruit te plannen voor de uitvoering van maatregelen in het kader van de AI-verordening.
Zie ook
Het internationale initiatief voor op de mens gerichte kunstmatige intelligentie zal bijdragen tot de bevordering van de visie van de EU op duurzame en betrouwbare AI.
Het gecoördineerde plan inzake artificiële intelligentie heeft tot doel investeringen in AI te versnellen, AI-strategieën en -programma’s uit te voeren en het AI-beleid op elkaar af te stemmen om versnippering binnen Europa te voorkomen.
De Europese Commissie heeft een groep deskundigen aangewezen om advies te geven over haar strategie voor artificiële intelligentie.
De Europese AI-alliantie is een initiatief van de Europese Commissie om een open beleidsdialoog over artificiële intelligentie op te zetten. Sinds de oprichting in 2018 heeft de AI Alliance ongeveer 6000 belanghebbenden betrokken via regelmatige evenementen, openbare...