Algemene FAQ
Kunstmatige intelligentie (“AI”)belooft enorme voordelen voor onze economie en samenleving. AI-modellen voor algemene doeleinden spelen in dit verband een belangrijke rol, aangezien zij voor verschillende taken kunnen worden gebruikt en derhalve de basis vormen voor een reeks downstream-AI-systemen die in Europa en wereldwijd worden gebruikt.
De AI-verordening heeft tot doel ervoor te zorgen dat AI-modellen voor algemene doeleinden veilig en betrouwbaar zijn.
Om dat doel te bereiken, is het van cruciaal belang dat aanbieders van AI-modellen voor algemene doeleinden zorgen voor een goed begrip van hun modellen in de hele AI-waardeketen, zodat downstreamaanbieders dergelijke modellen in AI-systemen kunnen integreren en aan hun eigen verplichtingen uit hoofde van de AI-verordening kunnen voldoen. Meer in het bijzonder, en zoals hieronder nader wordt toegelicht, moeten aanbieders van AI-modellen voor algemene doeleinden technische documentatie van hun modellen opstellen om deze beschikbaar te stellen aan downstreamaanbieders en om op verzoek aan het AI-bureau en de nationale bevoegde autoriteiten te verstrekken, een auteursrechtenbeleid in te voeren en een samenvatting van de opleidingsinhoud te publiceren. Daarnaast moeten aanbieders van AI-modellen voor algemene doeleinden die systeemrisico’s met zich meebrengen, hetgeen het geval kan zijn omdat de modellen zeer capabel zijn of om andere redenen een aanzienlijke impact op de interne markt hebben, die modellen aan de Commissie melden, systeemrisico’s die uit die modellen voortvloeien beoordelen en beperken, onder meer door modelevaluaties uit te voeren, ernstige incidenten te melden en te zorgen voor adequate cyberbeveiliging van deze modellen.
Op die manier draagt de AI-verordening bij tot veilige en betrouwbare innovatie in de Europese Unie.
In de AI-verordening wordt een AI-model voor algemene doeleinden gedefinieerd als “een AI-model, ook wanneer een dergelijk AI-model is opgeleid met een grote hoeveelheid gegevens met behulp van zelftoezicht op grote schaal, dat een aanzienlijke algemeenheid vertoont en in staat is op competente wijze een breed scala aan verschillende taken uit te voeren, ongeacht de manier waarop het model in de handel wordt gebracht, en dat kan worden geïntegreerd in een verscheidenheid aan downstreamsystemen of -toepassingen” (artikel 3, punt 63, van de AI-verordening).
In de overwegingen bij de AI-verordening wordt verder verduidelijkt welke modellen geacht moeten worden een aanzienlijke algemeenheid te vertonen en in staat te zijn een breed scala aan verschillende taken uit te voeren.
Overweging 98 van de AI-verordening luidt als volgt: “Overwegende dat de algemeenheid van een model onder meer ook kan worden bepaald door een aantal parameters, moeten modellen met ten minste een miljard parameters die met een grote hoeveelheid gegevens zijn opgeleid door middel van zelftoezicht op grote schaal, worden geacht een aanzienlijke algemeenheid te vertonen en een breed scala aan onderscheidende taken op competente wijze uit te voeren.”
In overweging 99 van de AI-verordening wordt daaraan toegevoegd dat “grote generatieve AI-modellen een typisch voorbeeld zijn van een AI-model voor algemene doeleinden, aangezien zij het mogelijk maken op flexibele wijze inhoud te genereren, bijvoorbeeld in de vorm van tekst, audio, afbeeldingen of video, die gemakkelijk geschikt is voor een breed scala aan onderscheidende taken”.
Merk op dat een aanzienlijke algemeenheid en het vermogen om op competente wijze een breed scala aan onderscheidende taken uit te voeren, kunnen worden bereikt door modellen binnen een enkele modaliteit, zoals tekst, audio, afbeeldingen of video, als de modaliteit flexibel genoeg is. Dit kan ook worden bereikt door modellen die zijn ontwikkeld, verfijnd of anderszins aangepast om bijzonder goed te zijn in een specifieke taak of in een aantal taken in een specifiek domein.
Verschillende stadia van de ontwikkeling van een model vormen geen verschillende modellen.
Het AI-bureau is voornemens verdere verduidelijkingen te verstrekken over wat moet worden beschouwd als een AI-model voor algemene doeleinden, op basis van inzichten van het Gemeenschappelijk Centrum voor onderzoek van de Commissie, dat momenteel werkt aan een wetenschappelijk onderzoeksproject waarin deze en andere vragen aan bod komen.
Systeemrisico’s zijn risico’s op grootschalige schade als gevolg van de meest geavanceerde (d.w.z. state-of-the-art) modellen op een bepaald moment of van andere modellen met een gelijkwaardig effect (zie artikel 3, lid 65, van de AI-verordening). Dergelijke risico’s kunnen zich bijvoorbeeld manifesteren door het verlagen van belemmeringen voor de ontwikkeling van chemische of biologische wapens, of onbedoelde kwesties van controle over autonome AI-modellen voor algemene doeleinden (overweging 110 van de AI-verordening). De meest geavanceerde modellen op een bepaald moment kunnen systeemrisico’s met zich meebrengen, waaronder nieuwe risico’s, aangezien zij de stand van de techniek bevorderen. Tegelijkertijd kunnen sommige modellen onder de drempelwaarde die de stand van de techniek weerspiegelt, ook systeemrisico’s met zich meebrengen, bijvoorbeeld door bereik, schaalbaarheid of steigers.
Dienovereenkomstig classificeert de AI-verordening een AI-model voor algemene doeleinden als een AI-model voor algemene doeleinden met systeemrisico als het op dat moment een van de meest geavanceerde modellen is of als het een gelijkwaardig effect heeft (artikel 51, lid 1, van de AI-verordening). Welke modellen worden beschouwd als AI-modellen voor algemene doeleinden met systeemrisico’s kunnen in de loop van de tijd veranderen, als gevolg van de zich ontwikkelende stand van de techniek en de mogelijke maatschappelijke aanpassing aan steeds geavanceerdere modellen. Momenteel worden AI-modellen voor algemene doeleinden met systeemrisico ontwikkeld door een handvol bedrijven, hoewel dit in de toekomst kan veranderen.
Om de meest geavanceerde modellen vast te leggen, d.w.z. modellen die overeenkomen met of groter zijn dan de capaciteiten die tot dusver in de meest geavanceerde modellen zijn vastgelegd, voorziet de AI-verordening in een drempel van 10^25 floating-point operations (FLOP) die worden gebruikt voor de opleiding van het model (artikel 51, lid 1, punt a), en lid 2, van de AI-verordening). Het trainen van een model dat aan deze drempel voldoet, kost momenteel naar schatting tientallen miljoenen euro’s (EpochAI, 2024). Het AI-bureau houdt voortdurend toezicht op technologische en industriële ontwikkelingen en de Commissie kan de drempel bijwerken door middel van de vaststelling van een gedelegeerde handeling (artikel 51, lid 3, van de AI-verordening), om ervoor te zorgen dat het de meest geavanceerde modellen blijft selecteren naarmate de stand van de techniek zich ontwikkelt. De waarde van de drempel zelf kan bijvoorbeeld worden aangepast en/of aanvullende drempels worden ingevoerd.
Om modellen vast te leggen met een impact die gelijkwaardig is aan die van de meest geavanceerde modellen, verleent de AI-verordening de Commissie de bevoegdheid om aanvullende modellen aan te wijzen als modellen met een systeemrisico, op basis van criteria zoals de evaluaties van de capaciteiten van het model, het aantal gebruikers, de schaalbaarheid of de toegang tot instrumenten (artikel 51, lid 1, punt b), en bijlage XIII bij de AI-verordening).
Het AI-bureau is voornemens verdere verduidelijkingen te verschaffen over de wijze waarop AI-modellen voor algemene doeleinden zullen worden geclassificeerd als AI-modellen voor algemene doeleinden met een systeemrisico, op basis van inzichten van het Gemeenschappelijk Centrum voor onderzoek van de Commissie, dat momenteel werkt aan een wetenschappelijk onderzoeksproject waarin deze en andere vragen worden behandeld.
De regels van de AI-verordening inzake AI-modellen voor algemene doeleinden zijn van toepassing op aanbieders die dergelijke modellen in de Unie in de handel brengen, ongeacht of die aanbieders in de Unie of in een derde land zijn gevestigd of gevestigd (artikel 2, lid 1, punt a), van de AI-verordening).
Een aanbieder van een AI-model voor algemene doeleinden is een natuurlijke persoon of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die een AI-model voor algemene doeleinden ontwikkelt of laat ontwikkelen en in de handel brengt, al dan niet tegen betaling (artikel 3, lid 3, van de AI-verordening).
Een model in de handel brengen betekent het voor het eerst in de Unie op de markt aanbieden van het model (artikel 3, lid 9, van de AI-verordening), d.w.z. het voor het eerst in het kader van een handelsactiviteit, al dan niet tegen betaling, leveren met het oog op distributie of gebruik op de markt van de Unie (artikel 3, lid 10, van de AI-verordening). Merk op dat een AI-model voor algemene doeleinden ook als in de handel gebracht wordt beschouwd indien de aanbieder van dat model het model integreert in zijn eigen AI-systeem dat op de markt wordt aangeboden of in gebruik wordt gesteld, tenzij het model a) wordt gebruikt voor zuiver interne processen die niet essentieel zijn voor het leveren van een product of een dienst aan derden, b) de rechten van natuurlijke personen niet worden aangetast en c) het model geen AI-model voor algemene doeleinden is met een systeemrisico (overweging 97 van de AI-verordening).
Aanbieders van AI-modellen voor algemene doeleinden moeten technische informatie over hun modellen documenteren om die informatie op verzoek aan het AI-bureau en de nationale bevoegde autoriteiten te verstrekken (artikel 53, lid 1, punt a), van de AI-verordening) en beschikbaar te stellen aan downstreamaanbieders (artikel 53, lid 1, punt b), van de AI-verordening). Zij moeten ook een beleid invoeren om te voldoen aan het Unierecht inzake auteursrechten en naburige rechten (artikel 53, lid 1, punt c), van de AI-verordening) en een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de inhoud die wordt gebruikt voor de opleiding van het model (artikel 53, lid 1, punt d), van de AI-verordening).
De AI-praktijkcode voor algemene doeleinden moet de ondertekenaars in de secties over transparantie en auteursrecht (onder leiding van werkgroep 1) meer informatie verschaffen over de wijze waarop de naleving van deze verplichtingen kan worden gewaarborgd.
Op grond van de AI-verordening hebben aanbieders van AI-modellen voor algemene doeleinden met systeemrisico aanvullende verplichtingen. Zij moeten systeemrisico’s beoordelen en beperken, met name door modelevaluaties uit te voeren, ernstige incidenten bij te houden, te documenteren en te melden, en te zorgen voor adequate cyberbeveiligingsbescherming voor het model en de fysieke infrastructuur ervan (artikel 55 van de AI-verordening).
De AI-praktijkcode voor algemene doeleinden moet de ondertekenaars meer details verstrekken over de wijze waarop de naleving van deze verplichtingen kan worden gewaarborgd in de hoofdstukken over systeemrisicobeoordeling, technische risicobeperking en governancerisicobeperking (onder leiding van respectievelijk de werkgroepen 2, 3 en 4).
De verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden zijn van toepassing met ingang van 2 augustus 2025 (artikel 113, punt b), van de AI-verordening), met bijzondere regels voor AI-modellen voor algemene doeleinden die vóór die datum in de handel zijn gebracht (artikel 111, lid 3) van de AI-verordening.
De verplichtingen om documentatie op te stellen en te verstrekken aan het AI-bureau, de nationale bevoegde autoriteiten en downstreamaanbieders (artikel 53, lid 1, punten a) en b), van de AI-verordening) zijn niet van toepassing indien het model wordt vrijgegeven op grond van een vrije en opensourcelicentie en de parameters ervan, met inbegrip van de gewichten, de informatie over de modelarchitectuur en de informatie over het gebruik van het model, openbaar worden gemaakt (artikel 53, lid 2, van de AI-verordening). In de overwegingen 102 en 103 van de AI-verordening wordt verder verduidelijkt wat een vrije en opensourcelicentie is en het AI-bureau is voornemens verdere verduidelijkingen te verstrekken over vragen met betrekking tot AI-modellen voor algemene doeleinden voor open source.
De vrijstelling is niet van toepassing op AI-modellen voor algemene doeleinden met een systeemrisico. Na de vrijgave van het opensourcemodel kunnen de maatregelen die nodig zijn om de naleving van de verplichtingen van artikel 55 te waarborgen, moeilijker uit te voeren zijn (overweging 112 van de AI-verordening). Bijgevolg moeten aanbieders van AI-modellen voor algemene doeleinden met systeemrisico mogelijk systeemrisico’s beoordelen en beperken voordat zij hun modellen als open source vrijgeven.
De AI-praktijkcode voor algemene doeleinden moet de ondertekenaars meer details verstrekken over de wijze waarop zij kunnen voldoen aan de verplichtingen in de artikelen 53 en 55 met betrekking tot de verschillende manieren om AI-modellen voor algemene doeleinden vrij te geven, met inbegrip van open source.
Een belangrijke maar moeilijke vraag die aan het opstellen van de praktijkcode ten grondslag ligt, is het vinden van een evenwicht tussen het nastreven van de voordelen en het beperken van de risico’s van de open source van geavanceerde AI-modellen voor algemene doeleinden: open source geavanceerde AI-modellen voor algemene doeleinden kunnen inderdaad aanzienlijke maatschappelijke voordelen opleveren, onder meer door AI-veiligheidsonderzoek te bevorderen; tegelijkertijd worden risicobeperkende maatregelen gemakkelijker omzeild of verwijderd wanneer dergelijke modellen open source zijn.
In artikel 2, lid 8, van de AI-verordening is bepaald dat de AI-verordening in het algemeen niet van toepassing is op onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of AI-modellen voordat deze in de handel worden gebracht of in gebruik worden genomen.
Tegelijkertijd hebben bepaalde verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (met en zonder systeemrisico) expliciet of impliciet betrekking op de ontwikkelingsfase van modellen die bedoeld zijn voor, maar voorafgaand aan het in de handel brengen. Dit is bijvoorbeeld het geval voor de verplichtingen voor aanbieders om de Commissie ervan in kennis te stellen dat hun AI-model voor algemene doeleinden voldoet of zal voldoen aan de drempel voor de berekening van opleidingen (artikelen 51 en 52 van de AI-verordening), om informatie over opleidingen en tests te documenteren (artikel 53 van de AI-verordening) en om systeemrisico’s te beoordelen en te beperken (artikel 55 van de AI-verordening). Met name is in artikel 55, lid 1, punt b), van de AI-verordening uitdrukkelijk bepaald dat “aanbieders van AI-modellen voor algemene doeleinden met systeemrisico mogelijke systeemrisico’s op het niveau van de Unie, met inbegrip van de bronnen ervan, die kunnen voortvloeien uit de ontwikkeling (...) van AI-modellen voor algemene doeleinden met systeemrisico, beoordelen en beperken.
Het AI-bureau verwacht dat de besprekingen met aanbieders van AI-modellen voor algemene doeleinden met systeemrisico vroeg in de ontwikkelingsfase van start zullen gaan. Dit is in overeenstemming met de verplichting voor aanbieders van AI-modellen voor algemene doeleinden die voldoen aan de in artikel 51, lid 2, van de AI-verordening vastgestelde drempel voor de berekening van opleidingen om “de Commissie onverwijld en in elk geval binnen twee weken nadat aan die eis is voldaan of bekend wordt dat daaraan zal worden voldaan, daarvan in kennis te stellen” (artikel 52, lid 1, van de AI-verordening). De opleiding van AI-modellen voor algemene doeleinden vergt immers een aanzienlijke planning, waaronder de voorafgaande toewijzing van rekenmiddelen, en aanbieders van AI-modellen voor algemene doeleinden kunnen daarom weten of hun model de drempel voor de berekening van de opleiding zal halen voordat de opleiding is voltooid (overweging 112 van de AI-verordening).
Het AI-bureau is voornemens deze kwestie nader toe te lichten.
AI-modellen voor algemene doeleinden kunnen verder worden gewijzigd of verfijnd tot nieuwe modellen (overweging 97 van de AI-verordening). Bijgevolg kunnen downstreamentiteiten die een bestaand AI-model voor algemene doeleinden verfijnen of anderszins wijzigen, aanbieders van nieuwe modellen worden. De specifieke omstandigheden waarin een downstreamentiteit een aanbieder van een nieuw model wordt, is een moeilijke kwestie met mogelijk grote economische gevolgen, aangezien veel organisaties en personen AI-modellen voor algemene doeleinden die door een andere entiteit zijn ontwikkeld, verfijnen of anderszins wijzigen.
In het geval van een wijziging of finetuning van een bestaand AI-model voor algemene doeleinden moeten de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden in artikel 53 van de AI-verordening worden beperkt tot de wijziging of finetuning, bijvoorbeeld door de reeds bestaande technische documentatie aan te vullen met informatie over de wijzigingen (overweging 109). De verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico in artikel 55 van de AI-verordening mogen alleen van toepassing zijn in duidelijk gespecificeerde gevallen. Het AI-bureau is voornemens deze kwestie nader toe te lichten.
Ongeacht of een downstreamentiteit die een AI-model voor algemene doeleinden in een AI-systeem opneemt, wordt geacht een aanbieder van het AI-model voor algemene doeleinden te zijn, moet die entiteit voldoen aan de relevante vereisten en verplichtingen van de AI-verordening voor AI-systemen.
Op basis van artikel 56 van de AI-verordening moet in de AI-praktijkcode voor algemene doeleinden nader worden bepaald hoe aanbieders van AI-modellen voor algemene doeleinden en van AI-modellen voor algemene doeleinden met systeemrisico aan hun verplichtingen uit hoofde van de AI-verordening kunnen voldoen. Het AI-bureau faciliteert de opstelling van deze praktijkcode, met vier werkgroepen die worden voorgezeten door onafhankelijke deskundigen en waaraan bijna 1000 belanghebbenden, vertegenwoordigers van de EU-lidstaten en Europese en internationale waarnemers deelnemen.
Meer bepaald moet in de praktijkcode ten minste worden gespecificeerd hoe aanbieders van AI-modellen voor algemene doeleinden kunnen voldoen aan de verplichtingen van de artikelen 53 en 55 van de AI-verordening. Dit betekent dat de praktijkcode naar verwachting uit twee delen zal bestaan: een die van toepassing is op aanbieders van alle AI-modellen voor algemene doeleinden (artikel 53) en een die alleen van toepassing is op aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico (artikel 55).
In de praktijkcode mogen onder meer de volgende kwesties niet aan de orde komen: het definiëren van belangrijke concepten en definities uit de AI-verordening (zoals “algemeen AI-model”), het actualiseren van de criteria of drempels voor het classificeren van een AI-model voor algemene doeleinden als een AI-model voor algemene doeleinden met systeemrisico (artikel 51), het schetsen van de wijze waarop het AI-bureau de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden zal handhaven (hoofdstuk IX, afdeling 5), en vragen over boetes, sancties en aansprakelijkheid.
Deze kwesties kunnen in plaats daarvan met andere middelen worden aangepakt (besluiten, gedelegeerde handelingen, uitvoeringshandelingen, verdere mededelingen van het AI-bureau enz.).
Niettemin kan de praktijkcode toezeggingen bevatten van aanbieders van AI-modellen voor algemene doeleinden die de code ondertekenen om aanvullende informatie te documenteren en te rapporteren, alsook om het AI-bureau en derden gedurende de gehele levenscyclus van het model te betrekken, voor zover dit noodzakelijk wordt geacht voor aanbieders om daadwerkelijk te voldoen aan hun verplichtingen uit hoofde van de AI-verordening.
In de AI-verordening wordt een onderscheid gemaakt tussen AI-systemen en AI-modellen, waarbij vereisten worden opgelegd voor bepaalde AI-systemen (hoofdstukken II-IV) en verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden (hoofdstuk V). Hoewel de bepalingen van de AI-verordening met betrekking tot AI-systemen afhankelijk zijn van de context van het gebruik van het systeem, zijn de bepalingen van de AI-verordening met betrekking tot AI-modellen voor algemene doeleinden van toepassing op het model zelf, ongeacht wat het uiteindelijke gebruik ervan is of zal zijn. De praktijkcode mag alleen betrekking hebben op de verplichtingen in de AI-verordening voor aanbieders van AI-modellen voor algemene doeleinden.
Niettemin zijn er interacties tussen de twee reeksen regels, aangezien AI-modellen voor algemene doeleinden doorgaans worden geïntegreerd in en deel uitmaken van AI-systemen. Indien een aanbieder van een AI-model voor algemene doeleinden dat model integreert in een AI-systeem, moet die aanbieder voldoen aan de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden en, indien het AI-systeem binnen het toepassingsgebied van de AI-verordening valt, aan de vereisten voor AI-systemen. Indien een downstreamaanbieder een AI-model voor algemene doeleinden integreert in een AI-systeem, moet de aanbieder van het AI-model voor algemene doeleinden samenwerken met de downstreamaanbieder van het AI-systeem om ervoor te zorgen dat deze laatste kan voldoen aan zijn verplichtingen uit hoofde van de AI-verordening indien het AI-systeem binnen het toepassingsgebied van de AI-verordening valt (bijvoorbeeld door bepaalde informatie aan de downstreamaanbieder te verstrekken).
Gezien deze interacties tussen modellen en systemen, en tussen de verplichtingen en vereisten voor elk, is een belangrijke vraag die ten grondslag ligt aan de praktijkcode welke maatregelen geschikt zijn op de modellaag en welke in plaats daarvan op de systeemlaag moeten worden genomen.
In de praktijkcode moeten de doelstellingen, verbintenissen, maatregelen en, in voorkomend geval, kernprestatie-indicatoren (KPI’s) worden vastgesteld om de verwezenlijking van de doelstellingen te meten. Verbintenissen, maatregelen en KPI’s met betrekking tot de verplichtingen die van toepassing zijn op aanbieders van alle AI-modellen voor algemene doeleinden, moeten naar behoren rekening houden met de omvang van de aanbieder en vereenvoudigde manieren van naleving voor kmo’s, met inbegrip van start-ups, mogelijk maken die geen buitensporige kosten mogen opleveren en het gebruik van dergelijke modellen niet mogen ontmoedigen (overweging 109 van de AI-verordening). Bovendien moeten de rapportageverplichtingen met betrekking tot de verplichtingen die van toepassing zijn op aanbieders van AI-modellen voor algemene doeleinden met systeemrisico verschillen in omvang en capaciteit tussen verschillende aanbieders weerspiegelen (artikel 56, lid 5, van de AI-verordening), waarbij ervoor moet worden gezorgd dat zij evenredig zijn met de risico’s (artikel 56, lid 2, punt d), van de AI-verordening).
Na de publicatie van het derde ontwerp van de Praktijkcode wordt verwacht dat er de komende maanden nog een redactieronde zal plaatsvinden. Dertien voorzitters en ondervoorzitters, met uiteenlopende achtergronden op het gebied van informatica, AI-governance en recht, zijn verantwoordelijk voor het samenvatten van inzendingen uit een raadpleging met meerdere belanghebbenden en besprekingen met de plenaire vergadering van de praktijkcode, bestaande uit ongeveer 1000 belanghebbenden. Dit iteratieve proces zal leiden tot een definitieve praktijkcode die de verschillende inzendingen moet weerspiegelen en tegelijkertijd moet zorgen voor een passende weerspiegeling van de wijze waarop aan de AI-verordening moet worden voldaan.
Op grond van artikel 56, lid 9, “zijn de praktijkcodes uiterlijk op 2 mei 2025 gereed” om aanbieders voldoende tijd te geven voordat de GPAI-regels op 2 augustus 2025 van toepassing worden.
Zodra de code is afgerond “beoordelen het AI-bureau en de raad of de gedragscodes de verplichtingen van de artikelen 53 en 55 bestrijken (...). Zij publiceren hun beoordeling van de toereikendheid van de gedragscodes. De Commissie kan door middel van een uitvoeringshandeling een gedragscode goedkeuren en deze een algemene geldigheid binnen de Unie verlenen." (artikel 56, lid 6, van de AI-verordening).
Indien de praktijkcode via een uitvoeringshandeling wordt goedgekeurd, verkrijgt zij algemene geldigheid, wat betekent dat de naleving van de praktijkcode een middel wordt om de naleving van de AI-verordening aan te tonen, zonder een vermoeden van conformiteit met de AI-verordening te bieden. Aanbieders kunnen de naleving van de AI-verordening ook op andere manieren aantonen. In dat geval wordt van aanbieders verwacht dat zij passende, doeltreffende en evenredige maatregelen nemen om de naleving van hun verplichtingen uit hoofde van de AI-verordening te waarborgen, waaronder rapportage aan het AI-bureau.
Op basis van de AI-verordening zijn aanvullende rechtsgevolgen van de praktijkcode dat het AI-bureau rekening kan houden met de naleving van de praktijkcode door een aanbieder bij het toezicht op de effectieve uitvoering en naleving van de AI-verordening (artikel 89, lid 1, van de AI-verordening) en bij de vaststelling van het bedrag van geldboeten afhankelijk van de specifieke omstandigheden gunstig rekening kan houden met de in de praktijkcode gedane toezeggingen (artikel 101, lid 1, van de AI-verordening).
Tot slot: “Indien uiterlijk op 2 augustus 2025 een praktijkcode niet kan worden afgerond of indien het AI-bureau deze na zijn beoordeling uit hoofde van lid 6 van dit artikel ontoereikend acht, kan de Commissie door middel van uitvoeringshandelingen gemeenschappelijke regels vaststellen voor de uitvoering van de verplichtingen waarin de artikelen 53 en 55 voorzien, met inbegrip van de in lid 2 van dit artikel genoemde kwesties.” (artikel 56, lid 9, van de AI-verordening).
Op basis van artikel 56, lid 8, van de AI-verordening “stimuleert en faciliteert het AI-bureau in voorkomend geval ook de herziening en aanpassing van de praktijkcodes, met name in het licht van opkomende normen”. Het derde ontwerp van de praktijkcode bevat een voorstel voor een mechanisme voor de herziening en actualisering ervan.
Het AI-bureau houdt toezicht op en handhaaft de verplichtingen die zijn vastgelegd in de AI-verordening voor aanbieders van AI-modellen voor algemene doeleinden (artikel 88 van de AI-verordening) en, bij wijze van uitzondering, de verplichtingen voor aanbieders van AI-systemen op basis van AI-modellen voor algemene doeleinden indien de aanbieder van het model en het systeem dezelfde zijn (artikel 75, lid 1, van de AI-verordening). Het AI-bureau zal onder meer de relevante markttoezichtautoriteiten van de lidstaten ondersteunen bij de handhaving van de vereisten voor AI-systemen (artikel 75, leden 2 en 3, van de AI-verordening). De handhaving door het AI-bureau wordt geschraagd door de bevoegdheden die het op grond van de AI-verordening heeft, namelijk de bevoegdheden om informatie op te vragen (artikel 91 van de AI-verordening), evaluaties van AI-modellen voor algemene doeleinden uit te voeren (artikel 92 van de AI-verordening), aanbieders om maatregelen te verzoeken, met inbegrip van de uitvoering van risicobeperkende maatregelen, en het model van de markt terug te roepen (artikel 93 van de AI-verordening), en boetes op te leggen tot 3 % van de wereldwijde jaaromzet of 15 miljoen EUR, indien dit hoger is (artikel 101 van de AI-verordening).
Related content
De eerste AI-praktijkcode voor algemene doeleinden die de Commissie heeft ontvangen, bevat nadere gegevens over de regels van de AI-verordening voor aanbieders van AI-modellen voor algemene doeleinden en AI-modellen voor algemene doeleinden met systeemrisico’s.