Skip to main content
Shaping Europe’s digital future
Report / Study | Publicatie

Ethische richtsnoeren voor betrouwbare KI

Op 8 april 2019 heeft de deskundigengroep op hoog niveau inzake AI ethische richtsnoeren voor betrouwbare artificiële intelligentie gepresenteerd. Dit volgde op de publicatie van het eerste ontwerp van de richtsnoeren in december 2018, waarover meer dan 500 opmerkingen zijn ontvangen via een openbare raadpleging.

Volgens de richtsnoeren moet betrouwbare KI:

(1) rechtmatig — met inachtneming van alle toepasselijke wet- en regelgeving

(2) ethisch — eerbiediging van ethische beginselen en waarden

(3) robuust — beide vanuit technisch oogpunt, rekening houdend met de sociale omgeving

Download de richtsnoeren in uw onderstaande taal:

BG | CS | DE | DA | EL | EN | ES | EN | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

De richtsnoeren bevatten een reeks van 7 essentiële vereisten waaraan AI-systemen moeten voldoen om als betrouwbaar te worden beschouwd. Met behulp van een specifieke evaluatielijst wordt gecontroleerd of aan elk van de essentiële vereisten is voldaan:

  • Invloed en toezicht door mensen: AI-systemen moeten mensen mondiger maken, hen in staat stellen geïnformeerde beslissingen te nemen en hun grondrechten te bevorderen. Tegelijkertijd moet worden gezorgd voor passende toezichtmechanismen, die kunnen worden verwezenlijkt door middel van human-in-the-loop, human-on-the-loop en human-in-command benaderingen.
  • Technische weerstand en veiligheid: AI-systemen moeten veerkrachtig en veilig zijn. Ze moeten veilig zijn, zorgen voor een terugvalplan als er iets misgaat, en moeten nauwkeurig, betrouwbaar en reproduceerbaar zijn. Dit is de enige manier om ervoor te zorgen dat ook onopzettelijke schade tot een minimum kan worden beperkt en voorkomen.
  • Privacy en gegevensbeheer: naast het waarborgen van de volledige eerbiediging van privacy en gegevensbescherming moeten ook adequate mechanismen voor gegevensbeheer worden gewaarborgd, waarbij rekening wordt gehouden met de kwaliteit en integriteit van de gegevens en wordt gezorgd voor gelegitimeerde toegang tot gegevens.
  • Transparantie: de bedrijfsmodellen voor gegevens, systemen en AI moeten transparant zijn. Traceerbaarheidsmechanismen kunnen hiertoe bijdragen. Bovendien moeten AI-systemen en hun besluiten worden uitgelegd op een manier die is aangepast aan de betrokken belanghebbenden. Mensen moeten zich ervan bewust zijn dat zij interageren met een AI-systeem en moeten worden geïnformeerd over de mogelijkheden en beperkingen van het systeem.
  • Diversiteit, non-discriminatie en billijkheid: Oneerlijke vooroordelen moeten worden vermeden, aangezien dit meerdere negatieve gevolgen kan hebben, gaande van de marginalisering van kwetsbare groepen tot de verergering van vooroordelen en discriminatie. Ter bevordering van diversiteit moeten AI-systemen voor iedereen toegankelijk zijn, ongeacht een handicap, en relevante belanghebbenden gedurende hun hele levensloop betrekken.
  • Maatschappelijk en ecologisch welzijn: AI-systemen moeten ten goede komen aan alle mensen, met inbegrip van toekomstige generaties. Daarom moet ervoor worden gezorgd dat zij duurzaam en milieuvriendelijk zijn. Bovendien moeten zij rekening houden met het milieu, met inbegrip van andere levende wezens, en moeten de sociale en maatschappelijke gevolgen ervan zorgvuldig in overweging worden genomen. 
  • Verantwoording: Er moeten mechanismen worden ingevoerd om de verantwoordelijkheid en verantwoordingsplicht voor KI-systemen en de resultaten daarvan te waarborgen. Controleerbaarheid, die de beoordeling van algoritmen, gegevens en ontwerpprocessen mogelijk maakt, speelt daarbij een belangrijke rol, met name in kritieke toepassingen. Bovendien moet worden gezorgd voor adequate en toegankelijke rechtsmiddelen.

De AI HLEG heeft ook een document opgesteld waarin nader wordt ingegaan op een definitie van kunstmatige intelligentie die wordt gebruikt voor de toepassing van de richtsnoeren.

Download de definitie van AI in uw onderstaande taal:

BG | CS | DE | DA | EL | EN | ES | EN | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

 

Proefproces

Het document bevat ook een beoordelingslijst waarin de belangrijkste vereisten in werking worden gesteld en richtsnoeren worden gegeven om deze in de praktijk toe te passen. Vanaf 26 juni heeft deze beoordelingslijst een proefproject ondergaan, waarbij alle belanghebbenden werden uitgenodigd om de beoordelingslijst te testen en praktische feedback te geven over hoe deze kan worden verbeterd.

De feedback werd via verschillende sporen ontvangen:

  • Een open enquête of „kwantitatieve analyse” verzonden naar alle personen die zich bij de piloot hebben aangemeld
  • Diepgaande interviews met een aantal representatieve organisaties om meer gedetailleerde feedback voor verschillende sectoren te verzamelen 
  • Permanente mogelijkheid om feedback en beste praktijken te uploaden via de Europese AI-alliantie

De proeffase is op 1 december 2019 afgesloten.

Op basis van de ontvangen feedback presenteerde de deskundigengroep AI HLEG in juli 2020 de definitieve beoordelingslijst voor betrouwbare AI (ALTAI). Altai is een praktisch instrument dat de ethische richtsnoeren vertaalt in een toegankelijke en dynamische checklist (zelfbeoordeling). De checklist kan worden gebruikt door ontwikkelaars en exploitanten van AI die de essentiële vereisten in de praktijk willen toepassen. Deze nieuwe lijst is beschikbaar als prototype van een webgebaseerd hulpmiddel en in pdf-formaat.