Skip to main content
Gestaltung der digitalen Zukunft Europas

KI-Gesetz

Das KI-Gesetz ist der erste Rechtsrahmen für KI, der sich mit den Risiken der KI befasst und Europa in die Lage versetzt, weltweit eine führende Rolle zu spielen.

Das KI-Gesetz zielt darauf ab, KI-Entwicklern und -Bereitstellern klare Anforderungen und Verpflichtungen in Bezug auf bestimmte Anwendungen von KI zu bieten. Gleichzeitig zielt die Verordnung darauf ab, den administrativen und finanziellen Aufwand für Unternehmen, insbesondere kleine und mittlere Unternehmen (KMU), zu verringern.

Das KI-Gesetz ist Teil eines umfassenderen Pakets politischer Maßnahmen zur Unterstützung der Entwicklung einer vertrauenswürdigen KI, das auch dasKI-Innovationspaket und den koordiniertenKI-Planumfasst. Zusammen werden diese Maßnahmen die Sicherheit und die Grundrechte von Menschen und Unternehmen in Bezug auf KI gewährleisten. Sie werden auch die Akzeptanz, die Investitionen und die Innovation im Bereich KI in der gesamten EU stärken.

Das KI-Gesetz ist der weltweit erste umfassende Rechtsrahmen für KI. Ziel der neuen Vorschriften ist es, eine vertrauenswürdige KI in Europa und darüber hinaus zu fördern, indem sichergestellt wird, dass KI-Systeme die Grundrechte, die Sicherheit und die ethischen Grundsätze achten, und indem die Risiken sehr leistungsfähiger und wirkungsvoller KI-Modelle angegangen werden.

Warum brauchen wir Regeln für KI?

Das KI-Gesetz stellt sicher, dass die Europäer darauf vertrauen können, was KI zu bieten hat. Während die meisten KI-Systeme auf kein Risiko beschränkt sind und zur Lösung vieler gesellschaftlicher Herausforderungen beitragen können, schaffen bestimmte KI-Systeme Risiken, die wir angehen müssen, um unerwünschte Ergebnisse zu vermeiden.

Zum Beispiel ist es oft nicht möglich herauszufinden, warum ein KI-System eine Entscheidung oder Vorhersage getroffen und eine bestimmte Maßnahme ergriffen hat. So kann es schwierig werden, zu beurteilen, ob jemand ungerechtfertigt benachteiligt wurde, beispielsweise in einer Einstellungsentscheidung oder in einem Antrag auf ein öffentliches Leistungssystem.

Obwohl die bestehenden Rechtsvorschriften einen gewissen Schutz bieten, reichen sie nicht aus, um die spezifischen Herausforderungen anzugehen, die KI-Systeme mit sich bringen können.

Die vorgeschlagenen Vorschriften werden

  • Umgang mit Risiken, die speziell durch KI-Anwendungen entstehen;
  • KI-Praktiken zu verbieten, die inakzeptable Risiken bergen;
  • eine Liste der Anwendungen mit hohem Risiko zu erstellen;
  • klare Anforderungen an KI-Systeme für Hochrisikoanwendungen festzulegen;
  • Festlegung spezifischer Verpflichtungen für Betreiber und Anbieter von Hochrisiko-KI-Anwendungen;
  • eine Konformitätsbewertung vorschreiben, bevor ein bestimmtes KI-System in Betrieb genommen oder in Verkehr gebracht wird;
  • Durchsetzung, nachdem ein bestimmtes KI-System in Verkehr gebracht wurde;
  • Schaffung einer Governance-Struktur auf europäischer und nationaler Ebene.

Ein risikobasierter Ansatz

Der Rechtsrahmen definiert vier Risikostufen für KI-Systeme:

Pyramide mit den vier Risikostufen: inakzeptables Risiko; Hochrisiko; begrenztes Risiko, minimales oder kein Risiko

 

Alle KI-Systeme, die als eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte der Menschen angesehen werden, werden von der sozialen Bewertung durch die Regierungen bis hin zu Spielzeug mit Sprachunterstützung, die gefährliches Verhalten fördert, verboten.

Hohes Risiko

Als hochriskant eingestufte KI-Systeme umfassen KI-Technologien, die in folgenden Bereichen eingesetzt werden:

  • kritische Infrastrukturen (z. B. Verkehr), die das Leben und die Gesundheit der Bürger gefährden könnten;
  • eine allgemeine oder berufliche Bildung, die den Zugang zu Bildung und den beruflichen Werdegang einer Person bestimmen kann (z. B. Bewertung von Prüfungen);
  • Sicherheitskomponenten von Produkten (z. B. KI-Anwendung in der robotergestützten Chirurgie);
  • Beschäftigung, Management von Arbeitnehmern und Zugang zur Selbstständigkeit (z. B. CV-Sortierungssoftware für Einstellungsverfahren);
  • wesentliche private und öffentliche Dienstleistungen (z. B. Kreditbewertung, die den Bürgern die Möglichkeit verwehrt, einen Kredit zu erhalten);
  • Strafverfolgung, die in die Grundrechte der Menschen eingreifen kann (z. B. Bewertung der Zuverlässigkeit von Beweismitteln);
  • Migrations-, Asyl- und Grenzkontrollmanagement (z. B. automatisierte Prüfung von Visumanträgen);
  • Justizverwaltung und demokratische Prozesse (z. B. KI-Lösungen zur Suche nach Gerichtsurteilen).

Hochrisiko-KI-Systeme unterliegen strengen Verpflichtungen, bevor sie in Verkehr gebracht werden können:

  • angemessene Risikobewertungs- und Risikominderungssysteme;
  • hohe Qualität der Datensätze, die das System speisen, um Risiken und diskriminierende Ergebnisse zu minimieren;
  • Protokollierung der Tätigkeit, um die Rückverfolgbarkeit der Ergebnisse zu gewährleisten;
  • ausführliche Unterlagen mit allen erforderlichen Informationen über das System und seinen Zweck, damit die Behörden seine Konformität bewerten können;
  • klare und angemessene Informationen für den Betreiber;
  • angemessene menschliche Aufsichtsmaßnahmen zur Minimierung des Risikos;
  • Hohe Robustheit, Sicherheit und Genauigkeit.

Alle biometrischen Fernidentifizierungssysteme gelten als hochriskant und unterliegen strengen Anforderungen. Die Verwendung biometrischer Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken ist grundsätzlich verboten.

Enge Ausnahmen sind streng definiert und geregelt, z. B. wenn dies erforderlich ist, um nach einem vermissten Kind zu suchen, eine bestimmte und unmittelbar bevorstehende terroristische Bedrohung zu verhindern oder einen Täter oder Verdächtigen einer schweren Straftat aufzudecken, ausfindig zu machen, zu identifizieren oder strafrechtlich zu verfolgen.

Diese Nutzungen unterliegen der Genehmigung durch ein Gericht oder eine andere unabhängige Stelle und angemessenen Beschränkungen in Bezug auf Zeit, geografische Reichweite und die durchsuchten Datenbanken.

Begrenztes Risiko

BegrenztesRisiko r bezieht sich auf die Risiken, die mit mangelnder Transparenz bei der KI-Nutzung verbunden sind. Mit dem KI-Gesetz werden spezifische Transparenzpflichten eingeführt, um sicherzustellen, dass Menschen bei Bedarf informiert werden, wodurch das Vertrauen gefördert wird. Beispielsweise sollten Menschen bei der Verwendung von KI-Systemen wie Chatbots darauf aufmerksam gemacht werden, dass sie mit einer Maschine interagieren, damit sie eine fundierte Entscheidung treffen können, weiterzumachen oder einen Schritt zurückzutreten. Die Anbieter müssen auch sicherstellen, dass KI-generierte Inhalte identifizierbar sind. Außerdem müssen KI-generierte Texte, die mit dem Ziel veröffentlicht werden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, als künstlich erzeugt gekennzeichnet werden. Dies gilt auch für Audio- und Videoinhalte, die Deep Fakes darstellen.

Minimales oder kein Risiko

Das KI-Gesetz erlaubt die freie Nutzung von KI mit minimalem Risiko. Dazu gehören Anwendungen wie KI-fähige Videospiele oder Spamfilter. Die überwiegende Mehrheit der derzeit in der EU eingesetzten KI-Systeme fällt in diese Kategorie.

Wie funktioniert das alles in der Praxis für Anbieter von Hochrisiko-KI-Systemen?

Schritt-für-Schritt-Verfahren zur Konformitätserklärung
How does it all work in practice for providers of high risk AI systems?

Sobald ein KI-System auf dem Markt ist, sind die Behörden für die Marktüberwachung zuständig, die Betreiber gewährleisten die menschliche Aufsicht und Überwachung, und die Anbieter verfügen über ein System zur Überwachung nach dem Inverkehrbringen. Anbieter und Betreiber werden auch schwerwiegende Vorfälle und Fehlfunktionen melden.

Eine Lösung für den vertrauenswürdigen Einsatz großer KI-Modelle

Mehr und mehr werden universelle KI-Modelle zu Bestandteilen von KI-Systemen. Diese Modelle können unzählige verschiedene Aufgaben ausführen und anpassen.

Während universelle KI-Modelle bessere und leistungsfähigere KI-Lösungen ermöglichen können, ist es schwierig, alle Funktionen zu überwachen.

Dort führt das KI-Gesetz Transparenzpflichten für alle universellen KI-Modelle ein, um ein besseres Verständnis dieser Modelle zu ermöglichen, und zusätzliche Risikomanagementpflichten für sehr leistungsfähige und wirkungsvolle Modelle. Diese zusätzlichen Verpflichtungen umfassen die Selbstbewertung und Minderung systemischer Risiken, die Meldung schwerwiegender Vorfälle, die Durchführung von Test- und Modellbewertungen sowie Cybersicherheitsanforderungen.

Zukunftssichere Rechtsvorschriften

Da KI eine sich schnell entwickelnde Technologie ist, verfolgt der Vorschlag einen zukunftssicheren Ansatz, der es den Vorschriften ermöglicht, sich an den technologischen Wandel anzupassen. KI-Anwendungen sollten auch nach dem Inverkehrbringen vertrauenswürdig bleiben. Dies erfordert ein kontinuierliches Qualitäts- und Risikomanagement durch die Anbieter.

Durchsetzung und Umsetzung

Das im Februar 2024 bei der Kommission eingerichtete Europäische Amt für KI überwacht die Durchsetzung und Umsetzung des KI-Gesetzes in den Mitgliedstaaten. Ziel ist es, ein Umfeld zu schaffen, in dem KI-Technologien die Menschenwürde, die Rechte und das Vertrauen respektieren. Es fördert auch die Zusammenarbeit, Innovation und Forschung im Bereich KI zwischen verschiedenen Interessengruppen. Darüber hinaus engagiert sie sich im internationalen Dialog und in der internationalen Zusammenarbeit in KI-Fragen und erkennt die Notwendigkeit einer globalen Angleichung der KI-Governance an. Durch diese Bemühungen ist das Europäische Amt für KI bestrebt, Europa als führend bei der ethischen und nachhaltigen Entwicklung von KI-Technologien zu positionieren.

Nächste Schritte

Im Dezember 2023 erzielten das Europäische Parlament und der Rat der EU eine politische Einigung über das KI-Gesetz. Der Text wird derzeit förmlich angenommen und übersetzt. Das KI-Gesetz tritt 20 Tage nach seiner Veröffentlichung im Amtsblatt in Kraft und gilt zwei Jahre später in vollem Umfang, mit einigen Ausnahmen: Verbote treten nach sechs Monaten in Kraft, die Governance-Regeln und die Verpflichtungen für KI-Modelle für allgemeine Zwecke treten nach zwölf Monaten in Kraft, und die Vorschriften für KI-Systeme, die in regulierte Produkte eingebettet sind, gelten nach 36 Monaten. Um den Übergang zum neuen Rechtsrahmen zu erleichtern, hat die Kommission den KI-Paktins Leben gerufen,eine freiwillige Initiative, die darauf abzielt, die künftige Umsetzung zu unterstützen, und KI-Entwickler aus Europa und darüber hinaus einlädt, die wichtigsten Verpflichtungen des KI-Gesetzes vorzeitig zu erfüllen.

Neueste Nachrichten

Einrichtung von KI-Fabriken nach Änderung der EuroHPC-Verordnung jetzt möglich

Die Änderung der EuroHPC-Verordnung zur Errichtung von KI-Fabriken ist in Kraft getreten und ermöglicht die Schaffung einer neuen Säule von Tätigkeiten für das Gemeinsame Unternehmen für europäisches Hochleistungsrechnen (Gemeinsames Unternehmen EuroHPC).

Zugehöriger Inhalt

Gesamtbild

Europäischer Ansatz für künstliche Intelligenz

Der Ansatz der EU für künstliche Intelligenz beruht auf Exzellenz und Vertrauen und zielt darauf ab, die Forschungs- und Industriekapazitäten zu stärken und gleichzeitig Sicherheit und Grundrechte zu gewährleisten.

Vertiefen

KI-Pakt

Der KI-Pakt ermutigt und unterstützt Organisationen, die Umsetzung der Maßnahmen des KI-Gesetzes vorauszuplanen.

Siehe auch

Koordinierter Plan für künstliche Intelligenz

Der koordinierte Plan für künstliche Intelligenz zielt darauf ab, Investitionen in KI zu beschleunigen, KI-Strategien und -Programme umzusetzen und die KI-Politik aufeinander abzustimmen, um eine Fragmentierung innerhalb Europas zu verhindern.

Die Europäische KI-Allianz

Die Europäische KI-Allianz ist eine Initiative der Europäischen Kommission zur Einrichtung eines offenen politischen Dialogs über künstliche Intelligenz. Seit ihrer Gründung im Jahr 2018 hat die KI-Allianz rund 6000 Interessenträger durch regelmäßige Veranstaltungen, öffentliche...