Skip to main content
Gestaltung der digitalen Zukunft Europas

KI-Gesetz

Das KI-Gesetz ist der allererste Rechtsrahmen für KI, der die Risiken von KI anspricht und Europa in die Lage versetzt, weltweit eine führende Rolle zu spielen.

    ein Mann und eine Frau, die auf einem High-Tech-Bildschirm arbeiten

© gorodenkoff - iStock Getty Images Plus

Das KI-Gesetz zielt darauf ab, KI-Entwicklern und -Deployern klare Anforderungen und Pflichten in Bezug auf die spezifische Nutzung von KI zu bieten. Gleichzeitig zielt die Verordnung darauf ab, die administrativen und finanziellen Belastungen für Unternehmen, insbesondere für kleine und mittlere Unternehmen (KMU), zu verringern.

Das KI-Gesetz ist Teil eines umfassenderen Pakets politischer Maßnahmen zur Unterstützung der Entwicklung vertrauenswürdiger KI, zu dem auch das KI-Innovationspaket und der koordinierte KI-Plan gehören. Zusammen werden diese Maßnahmen die Sicherheit und die Grundrechte von Menschen und Unternehmen in Bezug auf KI gewährleisten. Sie werden auch die Akzeptanz, Investitionen und Innovationen in KI in der gesamten EU stärken.

Das AI Act ist der weltweit erste umfassende Rechtsrahmen für KI. Ziel der neuen Vorschriften ist es, vertrauenswürdige KI in Europa und darüber hinaus zu fördern, indem sichergestellt wird, dass KI-Systeme die Grundrechte, die Sicherheit und die ethischen Grundsätze achten und die Risiken sehr leistungsfähiger und wirkungsvoller KI-Modelle angehen.

Warum brauchen wir Regeln für KI?

Das KI-Gesetz stellt sicher, dass die Europäer darauf vertrauen können, was KI zu bieten hat. Während die meisten KI-Systeme auf kein Risiko beschränkt sind und zur Lösung vieler gesellschaftlicher Herausforderungen beitragen können, schaffen bestimmte KI-Systeme Risiken, die wir angehen müssen, um unerwünschte Ergebnisse zu vermeiden.

Zum Beispiel ist es oft nicht möglich, herauszufinden, warum ein KI-System eine Entscheidung oder Vorhersage getroffen und eine bestimmte Maßnahme getroffen hat. So kann es schwierig werden, zu beurteilen, ob jemand ungerechtfertigt benachteiligt wurde, etwa in einer Einstellungsentscheidung oder in einem Antrag auf ein öffentliches Leistungssystem.

Obwohl die bestehenden Rechtsvorschriften einen gewissen Schutz bieten, reichen sie nicht aus, um die spezifischen Herausforderungen anzugehen, die KI-Systeme mit sich bringen könnten.

Die vorgeschlagenen Vorschriften werden

  • gezielt durch KI-Anwendungen geschaffene Risiken anzugehen;
  • Verbot von KI-Praktiken, die unannehmbare Risiken darstellen;
  • Festlegung einer Liste der Anwendungen mit hohem Risiko;
  • klare Anforderungen an KI-Systeme für Anwendungen mit hohem Risiko festzulegen;
  • Festlegung spezifischer Verpflichtungen, die Einsatzkräfte und Anbieter von Hochrisiko-KI-Anwendungen bereitstellen;
  • eine Konformitätsbewertung zu verlangen, bevor ein bestimmtes KI-System in Betrieb genommen oder in Verkehr gebracht wird;
  • Durchsetzung durchzusetzen, nachdem ein bestimmtes KI-System in Verkehr gebracht wurde;
  • Aufbau einer Governance-Struktur auf europäischer und nationaler Ebene.

Ein risikobasierter Ansatz

Der Rechtsrahmen definiert vier Risikostufen für KI-Systeme:

Pyramide, die die vier Risikostufen zeigt: Inakzeptables Risiko; Hohes Risiko; begrenztes Risiko, minimales oder kein Risiko

 

Alle KI-Systeme, die als eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte von Menschen angesehen werden, werden verboten, von der sozialen Bewertung durch Regierungen bis hin zu Spielzeugen, die Sprachhilfe verwenden, die gefährliches Verhalten fördert.

Hohes Risiko

KI-Systeme, die als Hochrisiko identifiziert wurden, umfassen KI-Technologie, die in folgenden Bereichen eingesetzt wird:

  • kritische Infrastrukturen (z. B. Verkehr), die das Leben und die Gesundheit der Bürger gefährden könnten;
  • allgemeine oder berufliche Bildung, die den Zugang zu Bildung und beruflichem Verlauf des Lebens einer Person bestimmen kann (z. B. Bewertung von Prüfungen);
  • Sicherheitskomponenten von Produkten (z. B. KI-Anwendung in robotergestützten Chirurgie);
  • Beschäftigung, Management von Arbeitnehmern und Zugang zu Selbstständigkeit (z. B. CV-Sortierungssoftware für Einstellungsverfahren);
  • wesentliche private und öffentliche Dienstleistungen (z. B. Kreditwürdigkeit, bei der den Bürgern die Möglichkeit verweigert wird, ein Darlehen zu erhalten);
  • Strafverfolgung, die in die Grundrechte der Menschen eingreifen kann (z. B. Bewertung der Zuverlässigkeit von Beweisen);
  • Migrations-, Asyl- und Grenzkontrollmanagement (z. B. automatisierte Prüfung von Visumanträgen);
  • Verwaltung von Justiz und demokratischen Prozessen (z. B. KI-Lösungen zur Suche nach Gerichtsurteilen).

Hochrisiko-KI-Systeme unterliegen strengen Verpflichtungen, bevor sie auf den Markt gebracht werden können:

  • angemessene Risikobewertungs- und Minderungssysteme;
  • hohe Qualität der Datensätze, die das System versorgen, um Risiken und diskriminierende Ergebnisse zu minimieren;
  • Protokollierung der Tätigkeiten zur Gewährleistung der Rückverfolgbarkeit der Ergebnisse;
  • ausführliche Unterlagen, die alle erforderlichen Informationen über das System und seinen Zweck enthalten, damit die Behörden ihre Einhaltung bewerten können;
  • klare und angemessene Informationen für den Entsetzer;
  • angemessene menschliche Aufsichtsmaßnahmen zur Minimierung des Risikos;
  • hohe Robustheit, Sicherheit und Genauigkeit.

Alle biometrischen Fernidentifizierungssysteme gelten als risikobehaftet und unterliegen strengen Anforderungen. Die Verwendung biometrischer Fernidentifikationen in öffentlich zugänglichen Räumen für Strafverfolgungszwecke ist grundsätzlich verboten.

Enge Ausnahmen sind streng definiert und geregelt, z. B. wenn dies für die Suche nach einem vermissten Kind erforderlich ist, um eine spezifische und unmittelbar bevorstehende terroristische Bedrohung zu verhindern oder einen Täter oder Verdächtigen einer schweren Straftat aufzudecken, aufzuspüren, zu identifizieren oder strafrechtlich zu verfolgen.

Diese Nutzungen unterliegen der Genehmigung durch eine gerichtliche oder andere unabhängige Stelle und an angemessene zeitliche, geografische Reichweite und die durchsuchten Datenbanken.

Begrenztes Risiko

Ein begrenztes Risikobezieht sich auf die Risiken, die mit mangelnder Transparenz bei der KI-Nutzung verbunden sind. Das KI-Gesetz führt spezifische Transparenzverpflichtungen ein , um sicherzustellen, dass Menschen bei Bedarf informiert werden und Vertrauen fördern. Zum Beispiel sollten Menschen bei der Verwendung von KI-Systemen wie Chatbots darauf aufmerksam gemacht werden, dass sie mit einer Maschine interagieren, damit sie eine informierte Entscheidung treffen können, fortzufahren oder zurückzutreten. Die Anbieter müssen auch sicherstellen, dass KI-generierte Inhalte identifizierbar sind. Außerdem muss KI-generierter Text, der mit dem Ziel veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, als künstlich erzeugt gekennzeichnet werden. Dies gilt auch für Audio- und Videoinhalte, die tiefe Fälschungen darstellen.

Minimales oder kein Risiko

Das KI-Gesetz erlaubt die freie Nutzung von KI mit minimalem Risiko. Dazu gehören Anwendungen wie KI-fähige Videospiele oder Spamfilter. Die überwiegende Mehrheit der derzeit in der EU eingesetzten KI-Systeme fällt in diese Kategorie.

Wie funktioniert das in der Praxis für Anbieter von Hochrisiko-KI-Systemen?

Schritt-für-Schritt-Prozess für Konformitätserklärung
How does it all work in practice for providers of high risk AI systems?

Sobald ein KI-System auf dem Markt ist, sind die Behörden für die Marktüberwachung zuständig, die Einsatzkräfte gewährleisten die menschliche Aufsicht und Überwachung und die Anbieter verfügen über ein Überwachungssystem nach dem Inverkehrbringen. Anbieter und Deployer werden auch schwerwiegende Vorfälle und Fehlfunktionen melden.

Eine Lösung für den vertrauenswürdigen Einsatz großer KI-Modelle

Immer mehr Allzweck-KI-Modelle werden zu Komponenten von KI-Systemen. Diese Modelle können unzählige verschiedene Aufgaben ausführen und anpassen.

Während Allzweck-KI-Modelle bessere und leistungsfähigere KI-Lösungen ermöglichen können, ist es schwierig, alle Funktionen zu überwachen.

Dort sieht das KI-Gesetz Transparenzpflichten für alle allgemeinen KI-Modelle vor, um ein besseres Verständnis dieser Modelle und zusätzliche Risikomanagementverpflichtungen für sehr leistungsfähige und wirkungsvolle Modelle zu ermöglichen. Diese zusätzlichen Verpflichtungen umfassen die Selbsteinschätzung und Minderung systemischer Risiken, die Meldung schwerwiegender Vorfälle, die Durchführung von Test- und Modellbewertungen sowie die Cybersicherheitsanforderungen.

Zukunftssichere Rechtsvorschriften

Da KI eine sich schnell entwickelnde Technologie ist, verfolgt der Vorschlag einen zukunftssicheren Ansatz, der es den Regeln ermöglicht, sich an den technologischen Wandel anzupassen. KI-Anwendungen sollten auch nach dem Inverkehrbringen vertrauenswürdig bleiben. Dies erfordert ein kontinuierliches Qualitäts- und Risikomanagement durch die Anbieter.

Durchsetzung und Umsetzung

Das Europäische AI-Büro, das im Februar 2024 in der Kommission eingerichtet wurde, überwacht die Durchsetzung und Umsetzung des KI-Gesetzes mit den Mitgliedstaaten. Es zielt darauf ab, ein Umfeld zu schaffen, in dem KI-Technologien die Menschenwürde, die Rechte und das Vertrauen respektieren. Es fördert auch die Zusammenarbeit, Innovation und Forschung im Bereich KI zwischen verschiedenen Akteuren. Darüber hinaus führt sie den internationalen Dialog und die Zusammenarbeit in KI-Fragen durch, wobei sie die Notwendigkeit einer globalen Angleichung an die KI-Governance anerkennt. Durch diese Bemühungen ist das Europäische KI-Büro bestrebt, Europa als führend in der ethischen und nachhaltigen Entwicklung von KI-Technologien zu positionieren.

Die nächsten Schritte

Im Dezember 2023 erzielten das Europäische Parlament und der Rat der EU eine politische Einigung über das KI-Gesetz. Der Text wird derzeit förmlich angenommen und übersetzt. Das KI-Gesetz tritt 20 Tage nach seiner Veröffentlichung im Amtsblatt in Kraft und wird zwei Jahre später uneingeschränkt anwendbar sein, mit einigen Ausnahmen: Verbote treten nach sechs Monaten in Kraft, die Governance-Regeln und die Verpflichtungen für allgemeine KI-Modelle gelten nach 12 Monaten und die Regeln für KI-Systeme – eingebettet in regulierte Produkte – gelten nach 36 Monaten. Um den Übergang zum neuen Rechtsrahmen zu erleichtern, hat die Kommission den KI-Pakt ins Leben gerufen, eine freiwillige Initiative, die die künftige Umsetzung unterstützen soll, und fordert KI-Entwickler aus Europa und darüber hinaus auf, die wichtigsten Verpflichtungen des KI-Gesetzes vorzeitig einzuhalten.

Neueste Nachrichten

EU und USA setzen starke Handels- und Technologiekooperation in Zeiten globaler Herausforderungen fort

Heute haben die EU und die Vereinigten Staaten die sechste Tagung des Handels- und Technologierates EU-USA (TTC) in Leuven, Belgien, abgehalten. Das Treffen ermöglichte es den Ministern, auf den laufenden Arbeiten aufzubauen und neue Ergebnisse des TTC nach zweieinhalb Jahren der Zusammenarbeit vorzulegen.

PRESSEMITTEILUNG |
Kommission veröffentlicht Aufforderungen zur Einreichung von Vorschlägen für Investitionen in Höhe von mehr als 176 Mio. EUR in digitale Kapazitäten und Technologien

Die Europäische Kommission hat im Rahmen der Arbeitsprogramme 2023-2024 des Programms „Digitales Europa“ neue Aufforderungen zur Einreichung von Vorschlägen veröffentlicht, um die digitalen Kapazitäten in der gesamten EU zu stärken. Diese Aufforderungen stehen Unternehmen, öffentlichen Verwaltungen und anderen Einrichtungen aus den EU-Mitgliedstaaten, EFTA-/EWR-Ländern und assoziierten Ländern offen. Die Mittel für diese Aufforderung zur Einreichung von Vorschlägen belaufen sich auf mehr als 176 Mio. EUR.

Zugehöriger Inhalt

Gesamtbild

Europäischer Ansatz für künstliche Intelligenz

Der Ansatz der EU für künstliche Intelligenz konzentriert sich auf Exzellenz und Vertrauen, um Forschung und industrielle Kapazitäten zu stärken und gleichzeitig Sicherheit und Grundrechte zu gewährleisten.

Vertiefen

KI-Pakt

Der KI-Pakt wird Unternehmen bei der Planung der im KI-Gesetz vorgesehenen Maßnahmen ermutigen und unterstützen.

Siehe auch

Koordinierter Plan für Künstliche Intelligenz

Der koordinierte Plan für künstliche Intelligenz zielt darauf ab, Investitionen in KI zu beschleunigen, KI-Strategien und -Programme umzusetzen und die KI-Politik auszurichten, um eine Fragmentierung innerhalb Europas zu verhindern.

Die Europäische KI-Allianz

Die Europäische KI-Allianz ist eine Initiative der Europäischen Kommission zur Einrichtung eines offenen politischen Dialogs über künstliche Intelligenz. Seit ihrer Gründung im Jahr 2018 hat die KI-Allianz rund 6000 Interessenträger durch regelmäßige Veranstaltungen, öffentliche...