Dieses Dokument befindet sich in aktiver Entwicklung und ist noch nicht finalisiert.
Skip to content

Risikoklassifizierung – Übersicht

Vier Risikostufen des AI Act

Der AI Act verfolgt einen risikobasierten Ansatz. Die Pflichten skalieren mit dem Risiko:

StufeBeschreibungPflichtenBAUER GROUP Relevanz
Unannehmbares RisikoKI-Praktiken die Grundrechte, Sicherheit oder demokratische Werte bedrohenVerboten (Art. 5)Prüfung aller Produkte gegen Verbotskatalog
Hohes RisikoKI-Systeme in kritischen Bereichen (Annex I/III)Vollständiges Compliance-Paket (Art. 8–49)Go/No-Go-Entscheidung pro Produkt
Begrenztes RisikoKI-Systeme mit Interaktion mit natürlichen PersonenTransparenzpflichten (Art. 50)Chatbots, KI-generierte Inhalte kennzeichnen
Minimales RisikoAlle übrigen KI-SystemeKeine spezifischen PflichtenSpam-Filter, KI-gestützte Spiele, etc.

Hochrisiko-Klassifizierung (Art. 6)

Ein KI-System ist hochriskant, wenn:

Weg 1 – Art. 6 Abs. 1 (Produktsicherheit): Das System ist eine Sicherheitskomponente eines Produkts, das unter EU-Harmonisierungsrecht (Annex I Sektion A) fällt UND einer Drittstellenbewertung bedarf.

Weg 2 – Art. 6 Abs. 2 (Annex III): Das System fällt unter eine der acht Hochrisiko-Kategorien des Annex III.

Ausnahme (Art. 6 Abs. 3)

Ein Annex-III-System ist nicht hochriskant, wenn es:

  • Keine profilbildende Funktion für natürliche Personen hat, UND
  • Einen engen prozeduralen Aufgabenbereich hat (Vorbereitung, nicht Entscheidung), UND
  • Die menschliche Entscheidung nicht wesentlich beeinflusst oder ersetzt

WARNING

Führt das KI-System Profiling natürlicher Personen durch, ist es immer hochriskant — die Ausnahme greift nicht.

Klassifizierungspflicht

Provider die ein Annex-III-System als nicht-hochriskant einstufen, müssen diese Bewertung vor Markteinführung dokumentieren (Art. 6 Abs. 4) und in der EU-Datenbank registrieren (Art. 49 Abs. 2).

Siehe: Nicht-Hochrisiko-Assessment Template

Dokumentation lizenziert unter CC BY-NC 4.0 · Code lizenziert unter MIT