Algemene FAQ
AI belooft enorme voordelen voor onze economie en samenleving. AI-modellen voor algemene doeleinden spelen
in dit verband een belangrijke rol, aangezien zij voor verschillende taken kunnen worden gebruikt en derhalve de basis vormen voor een reeks
downstream AI-systemen die in Europa en wereldwijd worden gebruikt.
De AI-wet moet ervoor zorgen dat AI-modellen voor algemeen gebruik veilig en betrouwbaar zijn.
Om dat doel te bereiken, is het van cruciaal belang dat aanbieders van AI-modellen voor algemeen gebruik een goed inzicht hebben in hun modellen in de hele AI-waardeketen, zowel om de integratie van dergelijke modellen in downstream AI-systemen mogelijk te maken als om hun verplichtingen uit hoofde van de AI-verordening na te komen. Zoals hieronder nader wordt toegelicht, moeten aanbieders van AI-modellen voor algemeen gebruik technische documentatie van hun modellen opstellen en verstrekken aan het AI-bureau en downstreamaanbieders, een auteursrechtbeleid invoeren en een samenvatting van de opleidingsinhoud publiceren. Daarnaast moeten aanbieders van AI-modellen voor algemeen gebruik die systeemrisico’s inhouden, wat het geval kan zijn omdat zij zeer capabel zijn of omdat zij om andere redenen een aanzienlijke impact op de interne markt hebben, de Commissie daarvan in kennis stellen, systeemrisico’s beoordelen en beperken, modelevaluaties uitvoeren, ernstige incidenten melden en zorgen voor adequate cyberbeveiliging van hun modellen.
Op deze manier draagt de AI-verordening bij tot veilige en betrouwbare innovatie in Europa.
In de AI-verordening wordt een AI-model voor algemeen gebruik gedefinieerd als “een AI-model, ook wanneer een dergelijk AI-model wordt getraind met een grote hoeveelheid gegevens met behulp van zelftoezicht op grote schaal, dat een aanzienlijke algemeenheid vertoont en bekwaam is om een breed scala aan verschillende taken uit te voeren, ongeacht de manier waarop het model in de handel wordt gebracht en dat kan worden geïntegreerd in een verscheidenheid aan downstreamsystemen of -toepassingen” (artikel 3, lid 63).
In de overwegingen bij de AI-verordening wordt verder verduidelijkt welke modellen moeten worden geacht een aanzienlijke algemeenheid te vertonen en in staat te zijn een breed scala aan verschillende taken uit te voeren.
Overweging 98 luidt als volgt: “Overwegende dat de algemeenheid van een model onder meer ook kan worden bepaald door een aantal parameters, moeten modellen met ten minste een miljard parameters en getraind met een grote hoeveelheid gegevens die gebruikmaken van zelftoezicht op grote schaal, worden geacht een aanzienlijke algemeenheid te vertonen en op competente wijze een breed scala aan onderscheidende taken uit te voeren.”
Overweging 99 voegt hieraan toe dat “grote generatieve AI-modellen een typisch voorbeeld zijn voor een AI-model voor algemeen gebruik, aangezien zij een flexibele generatie van inhoud mogelijk maken, zoals in de vorm van tekst, audio, afbeeldingen of video, die gemakkelijk een breed scala aan onderscheidende taken kan vervullen.”
Merk op dat modellen binnen een enkele modaliteit, zoals tekst, audio, afbeeldingen of video, een aanzienlijke algemeenheid en het vermogen om een breed scala aan onderscheidende taken competent uit te voeren, kunnen bereiken als de modaliteit flexibel genoeg is. Dit kan ook worden bereikt door modellen die zijn ontwikkeld, verfijnd of anderszins aangepast om bijzonder goed te zijn in een specifieke taak.
Het AI-bureau is voornemens verdere verduidelijkingen te verstrekken over wat moet worden beschouwd als een AI-model voor algemene doeleinden, op basis van inzichten van het Gemeenschappelijk Centrum voor onderzoek van de Commissie, dat momenteel werkt aan een wetenschappelijk onderzoeksproject waarin deze en andere vragen aan bod komen.
Systemische risico's zijn risico's van grootschalige schade als gevolg van de meest geavanceerde (d.w.z. geavanceerde) modellen op een bepaald tijdstip of van andere modellen die een gelijkwaardig effect hebben (zie artikel 3, lid 65). Dergelijke risico’s kunnen zich bijvoorbeeld manifesteren door het verlagen van belemmeringen voor de ontwikkeling van chemische of biologische wapens, onbedoelde kwesties van controle over autonome AI-modellen voor algemeen gebruik, of schadelijke discriminatie of desinformatie op grote schaal (overweging 110). De meest geavanceerde modellen op een bepaald moment kunnen systeemrisico’s met zich meebrengen, met inbegrip van nieuwe risico’s, aangezien zij de stand van de techniek opdrijven. Tegelijkertijd kunnen sommige modellen die onder de drempel liggen en de stand van de techniek weerspiegelen, ook systeemrisico’s met zich meebrengen, bijvoorbeeld door bereik, schaalbaarheid of steigers.
De AI-verordening classificeert een AI-model voor algemene doeleinden dan ook als een AI-model voor algemene doeleinden met systeemrisico als het op dat moment een van de meest geavanceerde modellen is of als het een gelijkwaardig effect heeft (artikel 51, lid 1). Welke modellen worden beschouwd als AI-modellen voor algemeen gebruik met systeemrisico’s kunnen in de loop van de tijd veranderen, als gevolg van de zich ontwikkelende stand van de techniek en de mogelijke maatschappelijke aanpassing aan steeds geavanceerdere modellen. Momenteel worden AI-modellen voor algemeen gebruik met systeemrisico ontwikkeld door een handvol bedrijven, hoewel dit in de loop van de tijd ook kan veranderen.
Om de meest geavanceerde modellen vast te leggen, voorziet de AI-wet in eerste instantie in een drempel van 10^25 floating-point operations (FLOP) die worden gebruikt voor de opleiding van het model (artikel 51, lid 1, onder a), en lid 2). Het trainen van een model dat aan deze drempel voldoet, kost momenteel naar schatting tientallen miljoenen euro’s (EpochAI, 2024). Het AI-bureau zal de technologische en industriële ontwikkelingen voortdurend monitoren en de Commissie kan de drempel actualiseren om ervoor te zorgen dat zij de meest geavanceerde modellen blijft selecteren naarmate de stand van de techniek zich ontwikkelt door middel van een gedelegeerde handeling (artikel 51, lid 3). Zo zou bijvoorbeeld de waarde van de drempel zelf kunnen worden aangepast en/of aanvullende drempels kunnen worden ingevoerd.
Om modellen met een effect vast te leggen dat gelijkwaardig is aan dat van de meest geavanceerde modellen, machtigt de AI-verordening de Commissie om aanvullende modellen aan te wijzen als modellen met een systeemrisico, op basis van criteria zoals het aantal gebruikers, de schaalbaarheid of de toegang tot instrumenten (artikel 51, lid 1, punt b), bijlage XIII).
Het AI-bureau is voornemens verdere verduidelijkingen te verstrekken over de wijze waarop AI-modellen voor algemene doeleinden zullen worden geclassificeerd als AI-modellen voor algemene doeleinden met systeemrisico’s, op basis van inzichten van het Gemeenschappelijk Centrum voor onderzoek van de Commissie, dat momenteel werkt aan een wetenschappelijk onderzoeksproject waarin deze en andere vragen aan bod komen.
De regels van de AI-verordening inzake AI-modellen voor algemene doeleinden zijn van toepassing op aanbieders die dergelijke modellen in de Unie in de handel brengen, ongeacht of die aanbieders in de Unie of in een derde land zijn gevestigd of gevestigd (artikel 2, lid 1, punt a)).
Een aanbieder van een AI-model voor algemene doeleinden is een natuurlijke persoon of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die een AI-model voor algemene doeleinden ontwikkelt of laat ontwikkelen en in de handel brengt, al dan niet tegen betaling (artikel 3, lid 3).
Een model in de handel brengen betekent dat het eerst op de markt van de Unie wordt aangeboden (artikel 3, lid 9), dat wil zeggen dat het in het kader van een handelsactiviteit, al dan niet tegen betaling, wordt geleverd met het oog op distributie of gebruik op de markt van de Unie (artikel 3, lid 10). Merk op dat een AI-model voor algemene doeleinden ook als in de handel gebracht wordt beschouwd indien de aanbieder van dat model het model integreert in zijn eigen AI-systeem dat op de markt wordt aangeboden of in gebruik wordt genomen, tenzij het model a) wordt gebruikt voor zuiver interne processen die niet essentieel zijn voor het leveren van een product of een dienst aan derden, b) de rechten van natuurlijke personen niet worden aangetast, en c) het model geen AI-model voor algemene doeleinden met systeemrisico is (overweging 97).
De verplichtingen voor aanbieders van AI-modellen voor algemeen gebruik zijn van toepassing met ingang van 2 augustus 2025 (artikel 113, punt b)), met speciale regels voor AI-modellen voor algemeen gebruik die vóór die datum in de handel zijn gebracht (artikel 111, lid 3).
Op grond van artikel 53 van de AI-verordening moeten aanbieders van AI-modellen voor algemeen gebruik technische informatie over het model documenteren om die informatie op verzoek aan het AI-bureau en de nationale bevoegde autoriteiten te verstrekken (artikel 53, lid 1, punt a)) en beschikbaar te stellen aan downstreamaanbieders (artikel 53, lid 1, punt b)). Zij moeten ook een beleid voeren om te voldoen aan het recht van de Unie inzake auteursrechten en naburige rechten (artikel 53, lid 1, onder c)) en een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de inhoud die wordt gebruikt voor de opleiding van het model (artikel 53, lid 1, onder d)).
In de AI-praktijkcode voor algemene doeleinden moeten deze verplichtingen nader worden uitgewerkt in de hoofdstukken over transparantie en auteursrechten (onder leiding van werkgroep 1).
Op grond van artikel 55 van de AI-verordening hebben aanbieders van AI-modellen voor algemeen gebruik met systeemrisico’s aanvullende verplichtingen. Zij moeten systeemrisico’s beoordelen en beperken, met name door modelevaluaties uit te voeren, ernstige incidenten bij te houden, te documenteren en te melden, en te zorgen voor adequate cyberbeveiligingsbescherming voor het model en de fysieke infrastructuur ervan.
In de AI-praktijkcode voor algemene doeleinden moeten deze verplichtingen nader worden uitgewerkt in de hoofdstukken over systeemrisicobeoordeling, technische risicobeperking en governancerisicobeperking (respectievelijk onder leiding van de werkgroepen 2, 3 en 4).
De verplichtingen om documentatie op te stellen en te verstrekken aan het AI-bureau, de nationale bevoegde autoriteiten en downstreamaanbieders (artikel 53, lid 1, onder a) en b)) zijn niet van toepassing indien het model wordt vrijgegeven onder een vrije en opensourcelicentie en de parameters ervan, met inbegrip van de gewichten, de informatie over de modelarchitectuur en de informatie over het gebruik van het model, openbaar worden gemaakt. Deze vrijstelling is niet van toepassing op AI-modellen voor algemene doeleinden met systeemrisico’s (artikel 53, lid 2). In de overwegingen 102 en 103 wordt verder verduidelijkt wat een vrije en opensourcelicentie is en het AI-Bureau is voornemens verdere verduidelijkingen te verstrekken over vragen met betrekking tot opensourcemodellen voor algemene AI.
Aanbieders van AI-modellen voor algemeen gebruik met systeemrisico moeten daarentegen voldoen aan hun verplichtingen uit hoofde van de AI-verordening, ongeacht of hun modellen opensource zijn. Na de vrijgave van het opensourcemodel kunnen de maatregelen die nodig zijn om de naleving van de verplichtingen van de artikelen 53 en 55 te waarborgen, moeilijker te implementeren zijn (overweging 112). Daarom moeten aanbieders van AI-modellen voor algemeen gebruik met systeemrisico’s mogelijk systeemrisico’s beoordelen en beperken voordat zij hun modellen als opensourcemodellen vrijgeven.
In de AI-praktijkcode voor algemene doeleinden moet nader worden gespecificeerd wat de verplichtingen in de artikelen 53 en 55 inhouden voor verschillende manieren om AI-modellen voor algemene doeleinden, met inbegrip van open source, vrij te geven.
Een belangrijke maar moeilijke vraag die aan dit proces ten grondslag ligt, is het vinden van een evenwicht tussen het nastreven van de voordelen en het beperken van de risico’s van de open inkoop van geavanceerde AI-modellen voor algemeen gebruik: open-sourcing van geavanceerde AI-modellen voor algemeen gebruik kan inderdaad aanzienlijke maatschappelijke voordelen opleveren, onder meer door het bevorderen van AI-veiligheidsonderzoek; wanneer dergelijke modellen open source zijn, kunnen risicobeperkende maatregelen gemakkelijker worden omzeild of verwijderd.
In artikel 2, lid 8, is bepaald dat de AI-verordening “niet van toepassing [is] op onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of AI-modellen voordat deze in de handel worden gebracht of in gebruik worden genomen”.
Tegelijkertijd hebben veel van de verplichtingen voor aanbieders van AI-modellen voor algemeen gebruik (met en zonder systeemrisico) expliciet of impliciet betrekking op de onderzoeks- enamp; ontwikkelingsfase van modellen die bedoeld zijn voor maar vóór het in de handel brengen. Dit is bijvoorbeeld het geval voor de verplichtingen voor aanbieders om de Commissie ervan in kennis te stellen dat hun AI-model voor algemene doeleinden voldoet of zal voldoen aan de drempel voor de berekening van de opleiding (artikelen 51 en 52), om informatie over opleiding en tests te documenteren (artikel 53) en om systeemrisico’s te beoordelen en te beperken (artikel 55). Met name wordt in artikel 55, lid 1, onder b), uitdrukkelijk bepaald dat “aanbieders van AI-modellen voor algemeen gebruik met systeemrisico mogelijke systeemrisico’s op het niveau van de Unie, met inbegrip van hun bronnen, die kunnen voortvloeien uit de ontwikkeling (...) van AI-modellen voor algemeen gebruik met systeemrisico, beoordelen en beperken”.
In ieder geval verwacht het AI-bureau dat de besprekingen met aanbieders van AI-modellen voor algemeen gebruik met systeemrisico’s vroeg in de ontwikkelingsfase van start zullen gaan. Dit is in overeenstemming met de verplichting voor aanbieders van AI-modellen voor algemeen gebruik die voldoen aan de in artikel 51, lid 2, vastgestelde drempel voor de berekening van opleidingen om “de Commissie onverwijld en in elk geval binnen twee weken nadat aan die eis is voldaan of nadat bekend wordt dat aan die eis zal worden voldaan” (artikel 52, lid 1). Voor de opleiding van AI-modellen voor algemeen gebruik is inderdaad een aanzienlijke planning vereist, waaronder de voorafgaande toewijzing van rekenmiddelen, en aanbieders van AI-modellen voor algemeen gebruik kunnen daarom weten of hun model aan de drempel voor de berekening van de opleiding zal voldoen voordat de opleiding is voltooid (overweging 112).
Het AI-bureau is voornemens deze kwestie verder te verduidelijken.
AI-modellen voor algemene doeleinden kunnen verder worden gewijzigd of verfijnd tot nieuwe modellen (overweging 97). Dienovereenkomstig kunnen downstreamentiteiten die een bestaand AI-model voor algemeen gebruik verfijnen of anderszins wijzigen, aanbieders van nieuwe modellen worden. De specifieke omstandigheden waarin een downstreamentiteit een aanbieder van een nieuw model wordt, zijn een moeilijke kwestie met potentieel grote economische gevolgen, aangezien veel organisaties en personen AI-modellen voor algemeen gebruik die door een andere entiteit zijn ontwikkeld, verfijnen of anderszins wijzigen. Het AI-bureau is voornemens deze kwestie verder te verduidelijken.
In het geval van een wijziging of verfijning van een bestaand AI-model voor algemene doeleinden moeten de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden in artikel 53 worden beperkt tot de wijziging of verfijning, bijvoorbeeld door de reeds bestaande technische documentatie aan te vullen met informatie over de wijzigingen (overweging 109). De verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden met systeemrisico’s in artikel 55 kunnen op soortgelijke wijze worden beperkt. De algemene AI-praktijkcode kan verschillen weerspiegelen tussen aanbieders die in eerste instantie AI-modellen voor algemeen gebruik ontwikkelen en aanbieders die een bestaand model verfijnen of anderszins wijzigen.
Merk op dat ongeacht of een downstreamentiteit die een AI-model voor algemene doeleinden in een AI-systeem integreert, wordt geacht een aanbieder van het AI-model voor algemene doeleinden te zijn, die entiteit moet voldoen aan de desbetreffende vereisten en verplichtingen van de AI-verordening voor AI-systemen.
Op basis van artikel 56 van de AI-verordening moet in de AI-praktijkcode voor algemene doeleinden gedetailleerd worden beschreven hoe aanbieders van AI-modellen voor algemene doeleinden en van AI-modellen voor algemene doeleinden met systeemrisico kunnen voldoen aan hun verplichtingen uit hoofde van de AI-verordening. Het AI-bureau faciliteert de opstelling van deze praktijkcode, met vier werkgroepen die worden voorgezeten door onafhankelijke deskundigen en waaraan bijna 1000 belanghebbenden, vertegenwoordigers van de EU-lidstaten en Europese en internationale waarnemers deelnemen.
Meer bepaald moet de praktijkcode ten minste specificeren hoe aanbieders van AI-modellen voor algemeen gebruik kunnen voldoen aan de verplichtingen van de artikelen 53 en 55. Dit betekent dat de praktijkcode naar verwachting uit twee delen zal bestaan: een die van toepassing is op aanbieders van alle AI-modellen voor algemene doeleinden (artikel 53) en een die alleen van toepassing is op aanbieders van AI-modellen voor algemene doeleinden met systeemrisico (artikel 55). Een andere verplichting die onder de praktijkcode kan vallen, is de verplichting om de Commissie in kennis te stellen van aanbieders van AI-modellen voor algemeen gebruik die voldoen aan of naar verwachting zullen voldoen aan de voorwaarden van artikel 51 om te worden aangemerkt als AI-model voor algemeen gebruik met systeemrisico (artikel 52, lid 1).
In de praktijkcode mogen onder meer de volgende kwesties niet aan bod komen: het definiëren van kernbegrippen en definities uit de AI-verordening (zoals het “AI-model voor algemene doeleinden”), het actualiseren van de criteria of drempels voor het classificeren van een AI-model voor algemene doeleinden als een AI-model voor algemene doeleinden met systeemrisico’s (artikel 51), waarbij wordt uiteengezet hoe het AI-bureau de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden zal handhaven (hoofdstuk IX, afdeling 5), en vragen over boetes, sancties en aansprakelijkheid.
Deze kwesties kunnen in plaats daarvan met andere middelen worden aangepakt (besluiten, gedelegeerde handelingen, uitvoeringshandelingen, verdere mededelingen van het AI-bureau, enz.).
Desalniettemin kan de praktijkcode toezeggingen bevatten van aanbieders van AI-modellen voor algemeen gebruik om aanvullende informatie te documenteren en te rapporteren, en om het AI-bureau en derden gedurende de gehele levenscyclus van het model te betrekken, voor zover dit noodzakelijk wordt geacht om aanbieders in staat te stellen hun verplichtingen uit hoofde van de AI-verordening daadwerkelijk na te komen.
De AI-wet maakt een onderscheid tussen AI-systemen en AI-modellen en legt vereisten op voor bepaalde AI-systemen (hoofdstukken II-IV) en verplichtingen voor aanbieders van AI-modellen voor algemeen gebruik (hoofdstuk V). Hoewel de bepalingen van de AI-verordening met betrekking tot AI-systemen afhangen van de gebruikscontext van het systeem, zijn de bepalingen van de AI-verordening met betrekking tot AI-modellen voor algemeen gebruik van toepassing op het model zelf, ongeacht wat het uiteindelijke gebruik ervan is of zal zijn. De praktijkcode mag alleen betrekking hebben op de verplichtingen in de AI-verordening voor aanbieders van AI-modellen voor algemeen gebruik.
Niettemin zijn er interacties tussen de twee reeksen regels, aangezien AI-modellen voor algemeen gebruik doorgaans worden geïntegreerd in en deel uitmaken van AI-systemen. Indien een aanbieder van het AI-model voor algemene doeleinden een AI-model voor algemene doeleinden in een AI-systeem integreert, moet die aanbieder voldoen aan de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden en, indien het AI-systeem binnen het toepassingsgebied van de AI-verordening valt, aan de vereisten voor AI-systemen. Indien een downstreamaanbieder een AI-model voor algemene doeleinden in een AI-systeem integreert, moet de aanbieder van het AI-model voor algemene doeleinden samenwerken met de downstreamaanbieder van het AI-systeem om ervoor te zorgen dat deze laatste zijn verplichtingen uit hoofde van de AI-verordening kan nakomen indien het AI-systeem binnen het toepassingsgebied van de AI-verordening valt (bijvoorbeeld door bepaalde informatie aan de downstreamaanbieder te verstrekken).
Gezien deze interacties tussen modellen en systemen, en tussen de verplichtingen en vereisten voor elk, is een belangrijke vraag die ten grondslag ligt aan de praktijkcode welke maatregelen geschikt zijn voor de modellaag en welke in plaats daarvan moeten worden genomen voor de systeemlaag.
In de praktijkcode moeten de doelstellingen, maatregelen en, in voorkomend geval, kernprestatie-indicatoren (KPI's) worden vastgesteld om de verwezenlijking van de doelstellingen ervan te meten. Maatregelen en KPI’s met betrekking tot de verplichtingen die van toepassing zijn op aanbieders van alle AI-modellen voor algemene doeleinden moeten terdege rekening houden met de omvang van de aanbieder en vereenvoudigde nalevingsmethoden mogelijk maken voor kmo’s, met inbegrip van start-ups, die geen buitensporige kosten mogen met zich meebrengen en het gebruik van dergelijke modellen niet mogen ontmoedigen (overweging 109). Bovendien moeten de KPI’s met betrekking tot de verplichtingen die van toepassing zijn op aanbieders van AI-modellen voor algemeen gebruik met systeemrisico verschillen in omvang en capaciteit tussen verschillende aanbieders weerspiegelen (artikel 56, lid 5), waarbij ervoor moet worden gezorgd dat zij in verhouding staan tot de risico’s (artikel 56, lid 2, punt d)).
Na de publicatie van het eerste ontwerp van de Praktijkcode wordt verwacht dat er de komende maanden nog drie redactierondes zullen volgen. Dertien voorzitters en vicevoorzitters, met uiteenlopende achtergronden op het gebied van informatica, AI-governance en recht, zijn verantwoordelijk voor het synthetiseren van inzendingen van een raadpleging van meerdere belanghebbenden en besprekingen met de plenaire vergadering van de praktijkcode, bestaande uit ongeveer 1000 belanghebbenden. Dit iteratieve proces zal leiden tot een definitieve praktijkcode die de verschillende opmerkingen moet weerspiegelen en tegelijkertijd moet zorgen voor een overtuigende uitvoering van het rechtskader.
Indien de praktijkcode via een uitvoeringshandeling wordt goedgekeurd, krijgt deze algemene geldigheid, wat betekent dat de naleving van de praktijkcode een middel wordt om de naleving van de AI-wet aan te tonen. De naleving van de AI-wet kan echter ook op andere manieren worden aangetoond.
Op basis van de AI-wet zijn de bijkomende rechtsgevolgen van de praktijkcode dat het AI-bureau naleving van de praktijkcode kan afdwingen (artikel 89, lid 1) en bij de vaststelling van het bedrag van de geldboeten rekening moet houden met de toezeggingen in de praktijkcode (artikel 101, lid 1).
Hoewel het eerste ontwerp van de praktijkcode nog geen details bevat over de herziening en actualisering ervan, kan worden verwacht dat verdere herhalingen van het ontwerp en alle uitvoeringshandelingen die zijn vastgesteld om de definitieve praktijkcode goed te keuren, deze informatie bevatten.
Het AI-bureau zal onder meer de verplichtingen voor aanbieders van AI-modellen voor algemeen gebruik handhaven (artikel 88) en bestuursorganen in de lidstaten ondersteunen bij de handhaving van de vereisten voor AI-systemen (artikel 75). De handhaving door het AI-bureau wordt ondersteund door de bevoegdheden die het bij de AI-verordening heeft gekregen, namelijk de bevoegdheid om informatie op te vragen (artikel 91), evaluaties van AI-modellen voor algemeen gebruik uit te voeren (artikel 92), aanbieders om maatregelen te verzoeken, onder meer door risicobeperking toe te passen en het model van de markt te halen (artikel 93), en geldboeten op te leggen van maximaal 3 % van de wereldwijde jaaromzet of 15 miljoen EUR, afhankelijk van wat het hoogste is (artikel 101).
Related content
In de eerste algemene AI-praktijkcode zullen de regels van de AI-verordening voor aanbieders van AI-modellen voor algemeen gebruik en AI-modellen voor algemeen gebruik met systeemrisico’s nader worden uitgewerkt.