风险分类 – 概述
AI Act 的四个风险等级
AI Act 采用基于风险的方法。义务随风险等级递增:
| 等级 | 描述 | 义务 | BAUER GROUP 相关性 |
|---|---|---|---|
| 不可接受风险 | 威胁基本权利、安全或民主价值的AI实践 | 禁止(第5条) | 对照禁止清单审查所有产品 |
| 高风险 | 关键领域中的AI系统(Annex I/III) | 完整合规方案(第8–49条) | 逐产品作出Go/No-Go决策 |
| 有限风险 | 与自然人交互的AI系统 | 透明度义务(第50条) | 标注聊天机器人和AI生成内容 |
| 最低风险 | 所有其他AI系统 | 无特定义务 | 垃圾邮件过滤器、AI辅助游戏等 |
高风险分类(第6条)
AI系统在以下情况下属于高风险:
路径1 – 第6条第1款(产品安全): 该系统是受欧盟协调立法(Annex I A部分)管辖的产品的安全组件,且需要第三方合格评定。
路径2 – 第6条第2款(Annex III): 该系统属于Annex III中八个高风险类别之一。
例外情况(第6条第3款)
Annex III系统在以下情况下不属于高风险:
- 不对自然人进行画像分析,且
- 具有狭窄的程序性任务范围(准备性工作,而非决策),且
- 不实质性地影响或替代人类决策
WARNING
如果AI系统对自然人进行画像分析,则始终属于高风险——例外情况不适用。
分类义务
将Annex III系统归类为非高风险的提供者,必须在投放市场前记录该评估(第6条第4款),并在欧盟数据库中注册(第49条第2款)。
参见:非高风险评估模板