Risikoklassifizierung – Übersicht
Vier Risikostufen des AI Act
Der AI Act verfolgt einen risikobasierten Ansatz. Die Pflichten skalieren mit dem Risiko:
| Stufe | Beschreibung | Pflichten | BAUER GROUP Relevanz |
|---|---|---|---|
| Unannehmbares Risiko | KI-Praktiken die Grundrechte, Sicherheit oder demokratische Werte bedrohen | Verboten (Art. 5) | Prüfung aller Produkte gegen Verbotskatalog |
| Hohes Risiko | KI-Systeme in kritischen Bereichen (Annex I/III) | Vollständiges Compliance-Paket (Art. 8–49) | Go/No-Go-Entscheidung pro Produkt |
| Begrenztes Risiko | KI-Systeme mit Interaktion mit natürlichen Personen | Transparenzpflichten (Art. 50) | Chatbots, KI-generierte Inhalte kennzeichnen |
| Minimales Risiko | Alle übrigen KI-Systeme | Keine spezifischen Pflichten | Spam-Filter, KI-gestützte Spiele, etc. |
Hochrisiko-Klassifizierung (Art. 6)
Ein KI-System ist hochriskant, wenn:
Weg 1 – Art. 6 Abs. 1 (Produktsicherheit): Das System ist eine Sicherheitskomponente eines Produkts, das unter EU-Harmonisierungsrecht (Annex I Sektion A) fällt UND einer Drittstellenbewertung bedarf.
Weg 2 – Art. 6 Abs. 2 (Annex III): Das System fällt unter eine der acht Hochrisiko-Kategorien des Annex III.
Ausnahme (Art. 6 Abs. 3)
Ein Annex-III-System ist nicht hochriskant, wenn es:
- Keine profilbildende Funktion für natürliche Personen hat, UND
- Einen engen prozeduralen Aufgabenbereich hat (Vorbereitung, nicht Entscheidung), UND
- Die menschliche Entscheidung nicht wesentlich beeinflusst oder ersetzt
WARNING
Führt das KI-System Profiling natürlicher Personen durch, ist es immer hochriskant — die Ausnahme greift nicht.
Klassifizierungspflicht
Provider die ein Annex-III-System als nicht-hochriskant einstufen, müssen diese Bewertung vor Markteinführung dokumentieren (Art. 6 Abs. 4) und in der EU-Datenbank registrieren (Art. 49 Abs. 2).