Skip to main content
De digitale toekomst van Europa vormgeven

De AI-praktijkcode voor algemene doeleinden

De praktijkcode helpt de industrie te voldoen aan de wettelijke verplichtingen van de AI-verordening inzake veiligheid, transparantie en auteursrechten van AI-modellen voor algemene doeleinden.

De praktijkcode voor AI voor algemene doeleinden (GPAI) is een vrijwillig instrument, opgesteld door onafhankelijke deskundigen in een proces met meerdere belanghebbenden, dat is ontworpen om de industrie te helpen te voldoen aan de verplichtingen van de AI-verordening voor aanbieders van AI-modellen voor algemene doeleinden. Lees meer over de tijdlijn en het redactieproces van de code.

De code is op 10 juli 2025 gepubliceerd. Het wordt aangevuld met richtsnoeren van de Commissie over sleutelbegrippen in verband met AI-modellen voor algemene doeleinden. De Commissie en de AI-raad hebben bevestigd dat de code een adequaat vrijwillig instrument is voor aanbieders van GPAI-modellen om de naleving van de AI-verordening aan te tonen.

Na de goedkeuring kunnen aanbieders van AI-modellen die het vrijwillig ondertekenen, aantonen dat zij de AI-verordening naleven door zich aan de code te houden. Dit zal hun administratieve lasten verminderen en hen meer rechtszekerheid bieden dan wanneer zij de naleving met andere methoden zouden aantonen. Meer informatie over de vragen en antwoorden (Q&A) over de praktijkcode voor AI voor algemene doeleinden.

Aanbieders van AI-modellen voor algemene doeleinden kunnen de code ondertekenen door het ondertekeningsformulier in te vullen en het ondertekende formulier te sturen naar EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu. Potentiële ondertekenaars kunnen dit adres ook e-mailen om vragen te stellen over het proces van inschrijving op de code. Lees meer informatie over het ondertekeningsproces in deze speciale Q&A.

De drie hoofdstukken van de code

Hieronder kunt u de code downloaden, bestaande uit drie afzonderlijk geschreven hoofdstukken: Transparantie, auteursrecht en veiligheid en beveiliging.

De hoofdstukken over transparantie en auteursrecht bieden alle aanbieders van AI-modellen voor algemene doeleinden een manier om aan te tonen dat zij hun verplichtingen uit hoofde van artikel 53 van de AI-verordening nakomen.

De hoofdstukken over veiligheid en beveiliging zijn alleen relevant voor het kleine aantal aanbieders van de meest geavanceerde modellen, die onderworpen zijn aan de verplichtingen van de AI-verordening voor aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico uit hoofde van artikel 55 van de AI-verordening.

GPAI code of practice transparency

Transparantie

Het hoofdstuk Transparantie (PDF) biedt een gebruiksvriendelijk modeldocumentatieformulier (DOCX) waarmee aanbieders gemakkelijk de informatie kunnen documenteren die nodig is om te voldoen aan de verplichting van modelaanbieders om te voldoen aan de AI-verordening om voldoende transparantie te waarborgen.

GPAI code of practice copyright

Auteursrecht

Het hoofdstuk Auteursrecht (PDF) biedt aanbieders praktische oplossingen om te voldoen aan de verplichting van de AI-wet om een beleid in te voeren om te voldoen aan het EU-auteursrecht.

GPAI code of practice security

Veiligheid en beveiliging

Het hoofdstuk Veiligheid en beveiliging (PDF) schetst concrete state-of-the-art praktijken voor het beheersen van systeemrisico's, d.w.z. risico's van de meest geavanceerde modellen. Aanbieders kunnen op dit hoofdstuk vertrouwen om te voldoen aan de verplichtingen uit hoofde van de AI-verordening voor aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico.

Ondertekenaars van de praktijkcode

Sommige ondertekenaars verschijnen mogelijk niet onmiddellijk, maar we zorgen ervoor dat de lijst voortdurend wordt bijgewerkt naarmate handtekeningen worden bevestigd.

  • Accexible
  • AI Alignment Solutions
  • Aleph Alpha
  • Almawave
  • Amazon
  • Anthropic
  • Black Forest Labs
  • Bria AI
  • Cohere
  • Cyber Institute
  • Domyn
  • Dweve
  • Euc Inovação Portugal
  • Fastweb
  • Google
  • Humane Technology
  • IBM
  • Lawise
  • LINAGORA
  • Microsoft
  • Mistral AI
  • Open Hippo
  • OpenAI
  • Pleias
  • re-inventa
  • ServiceNow
  • Virtuo Turing
  • WRITER

 

Daarnaast heeft xAI zich aangesloten bij het hoofdstuk Veiligheid en beveiliging; dit betekent dat zij met alternatieve passende middelen moet aantonen dat zij de verplichtingen van de AI-verordening inzake transparantie en auteursrechten is nagekomen.

Gerelateerde inhoud

Grote afbeelding

De EU-aanpak van artificiële intelligentie bevordert excellentie en vertrouwen, door onderzoek en industriële capaciteit te stimuleren en tegelijkertijd de veiligheid en de grondrechten te waarborgen.

Zoek verder