Skip to main content
Gestaltung der digitalen Zukunft Europas
Report / Study | Veröffentlichung

Ethikleitlinien für vertrauenswürdige KI

Am 8. April 2019 legte die hochrangige Expertengruppe für KI Ethikleitlinien für eine vertrauenswürdige künstliche Intelligenz vor. Im Anschluss an die Veröffentlichung des ersten Entwurfs der Leitlinien im Dezember 2018, zu dem im Rahmen einer offenen Konsultation mehr als 500 Stellungnahmen eingingen.

Gemäß den Leitlinien sollte eine vertrauenswürdige KI:

(1) rechtmäßig – Einhaltung aller geltenden Rechts- und Verwaltungsvorschriften

2) Ethik – Achtung ethischer Grundsätze und Werte

(3) robust – sowohl aus technischer Sicht als auch unter Berücksichtigung des sozialen Umfelds

Die Leitlinien in Ihrer Sprache herunterladen:

BG [NOTRANSLATE]== DELETE==|[ /NOTRANSLATE] CS [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] DE [NOTRANSLATE]==DELETE==|[/NOTRANSLATE] DA EL К EN К ESET К FI: FR |0|1|2[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]3 [ NOTRANSLATE]==DELETE==| [ /NOTRANSLATE]4[NOTRANSLATE]== DELETE ==|[/NOTRANSLATE]5[NOTRANSLATE] ==DELETE==|[/NOTRANSLATE] 6[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE] 9 | [ /NOTRANSLATE]0[NOTRANSLATE]== DELETE ==|1[ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

Die Leitlinien enthalten eine Reihe von sieben Kernanforderungen, die KI-Systeme erfüllen sollten, um als vertrauenswürdig zu gelten. Eine spezifische Bewertungsliste soll dazu beitragen, die Anwendung der einzelnen Kernanforderungen zu überprüfen:

  • Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollten Menschen in die Lage versetzen, fundierte Entscheidungen zu treffen und ihre Grundrechte zu fördern. Gleichzeitig müssen für angemessene Aufsichtsmechanismen gesorgt werden, die durch menschliche Ansätze in den Kreisläufen, Menschen in den Kreisläufen und „Human-in-the-Loop“-Konzepte sowie durch menschen-in-command-Konzepte erreicht werden können.
  • Technische Robustheit und Sicherheit: KI-Systeme müssen widerstandsfähig und sicher sein. Sie müssen sicher sein, einen Rückfallplan für den Fall gewährleisten, dass etwas schiefgeht, sowie präzise, zuverlässig und reproduzierbar sein. Nur so kann sichergestellt werden, dass auch unbeabsichtigte Schäden minimiert und verhindert werden können.
  • Privatsphäre und Datenqualitätsmanagement: neben der Gewährleistung der uneingeschränkten Achtung der Privatsphäre und des Datenschutzes müssen auch angemessene Daten-Governance-Mechanismen sichergestellt werden, die der Qualität und Integrität der Daten Rechnung tragen und einen legitimierten Zugang zu den Daten gewährleisten.
  • Transparenz: die Geschäftsmodelle für Daten, Systeme und KI sollten transparent sein. Rückverfolgbarkeitsmechanismen können dazu beitragen. Darüber hinaus sollten KI-Systeme und ihre Entscheidungen in einer Weise erläutert werden, die an die betroffenen Interessenträger angepasst ist. Die Menschen müssen sich dessen bewusst sein, dass sie mit einem KI-System interagieren, und sie müssen über die Fähigkeiten und Grenzen des Systems informiert werden.
  • Vielfalt, Nichtdiskriminierung und Fairness: Unfaire Verzerrungen müssen vermieden werden, da sie vielfältige negative Auswirkungen haben könnten, von der Marginalisierung schutzbedürftiger Gruppen bis hin zur Verschärfung von Vorurteilen und Diskriminierungen. Um Vielfalt zu fördern, sollten KI-Systeme für alle zugänglich sein, unabhängig von einer Behinderung, und die einschlägigen Interessenträger während ihres gesamten Lebenszyklus einbeziehen.
  • Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten allen Menschen, auch künftigen Generationen, zugutekommen. Daher muss sichergestellt werden, dass sie nachhaltig und umweltfreundlich sind. Darüber hinaus sollten sie der Umwelt, einschließlich anderer Lebewesen, Rechnung tragen, und ihre sozialen und gesellschaftlichen Auswirkungen sollten sorgfältig geprüft werden. 
  • Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten. Die Überprüfbarkeit, die die Bewertung von Algorithmen, Daten und Entwurfsprozessen ermöglicht, spielt dabei eine Schlüsselrolle, insbesondere bei kritischen Anwendungen. Darüber hinaus sollte sichergestellt werden, dass angemessene Rechtsbehelfe zur Verfügung stehen.

Die KI-HLEG hat auch ein Dokument erstellt, in dem eine Definition der künstlichen Intelligenz, die für die Zwecke der Leitlinien verwendet wird, erläutert wird.

Die Definition von KI in Ihrer Sprache herunterladen:

BG [NOTRANSLATE]== DELETE==|[ /NOTRANSLATE] CS [NOTRANSLATE]==DELETE ==|[/NOTRANSLATE] DE [NOTRANSLATE]==DELETE==|[/NOTRANSLATE] DA EL К EN К ESET К FI: FR |0|1|2[NOTRANSLATE]= = DELETE==|[/NOTRANSLATE]3 [ NOTRANSLATE]==DELETE==| [ /NOTRANSLATE]4[NOTRANSLATE]== DELETE ==|[/NOTRANSLATE]5[NOTRANSLATE] ==DELETE==|[/NOTRANSLATE] 6[NOTRANSLATE]==DELETE= = |[/NOTRANSLATE]7[NOTRANSLATE] = =DELETE==|[/NOTRANSLATE] 9 | [ /NOTRANSLATE]0[NOTRANSLATE]== DELETE ==|1[ NOTRANSLATE]==DELETE==|[ /NOTRANSLATE]2

 

Pilotverfahren

Das Dokument enthält auch eine Bewertungsliste, in der die Kernanforderungen operationalisiert werden, und Leitlinien für ihre praktische Umsetzung. Ab dem 26. Juni wurde diese Bewertungsliste einem Pilotprojekt unterzogen, zu dem alle Interessenträger aufgefordert wurden, die Bewertungsliste zu testen und praktische Rückmeldungen dazu zu geben, wie sie verbessert werden kann.

Rückmeldungen gingen auf verschiedenen Wegen ein:

  • Eine offene Erhebung oder „quantitative Analyse“ an all diejenigen, die sich bei der Pilotphase registrierthaben
  • Eingehende Interviews mit einer Reihe repräsentativer Organisationen, um ausführlichere Rückmeldungen zu verschiedenen Sektoren einzuholen 
  • Kontinuierliche Möglichkeit, Rückmeldungen und bewährte Verfahren über die Europäische KI-Allianzhochzuladen

Die Pilotphase endete am 1. Dezember 2019

Auf der Grundlage der eingegangenen Rückmeldungen legte die KI-HLEG im Juli 2020 die endgültige Bewertungsliste für vertrauenswürdige KI (ALTAI) vor. Altai ist ein praktisches Instrument, mit dem die Ethik-Leitlinien in eine leicht zugängliche und dynamische Checkliste (Selbstbewertung) übersetzt werden. Die Checkliste kann von KI- Entwicklern und -Betreibern verwendet werden, die die Kernanforderungen in der Praxis umsetzen wollen. Diese neue Liste ist als Prototyp eines webbasierten Tools im PDF-Format verfügbar.