本文档正在积极开发中,尚未最终定稿。
Skip to content

风险分类 – 概述

AI Act 的四个风险等级

AI Act 采用基于风险的方法。义务随风险等级递增:

等级描述义务BAUER GROUP 相关性
不可接受风险威胁基本权利、安全或民主价值的AI实践禁止(第5条)对照禁止清单审查所有产品
高风险关键领域中的AI系统(Annex I/III)完整合规方案(第8–49条)逐产品作出Go/No-Go决策
有限风险与自然人交互的AI系统透明度义务(第50条)标注聊天机器人和AI生成内容
最低风险所有其他AI系统无特定义务垃圾邮件过滤器、AI辅助游戏等

高风险分类(第6条)

AI系统在以下情况下属于高风险

路径1 – 第6条第1款(产品安全): 该系统是受欧盟协调立法(Annex I A部分)管辖的产品的安全组件,且需要第三方合格评定。

路径2 – 第6条第2款(Annex III): 该系统属于Annex III中八个高风险类别之一。

例外情况(第6条第3款)

Annex III系统在以下情况下不属于高风险:

  • 不对自然人进行画像分析,且
  • 具有狭窄的程序性任务范围(准备性工作,而非决策),且
  • 实质性地影响或替代人类决策

WARNING

如果AI系统对自然人进行画像分析,则始终属于高风险——例外情况不适用。

分类义务

将Annex III系统归类为非高风险的提供者,必须在投放市场前记录该评估(第6条第4款),并在欧盟数据库中注册(第49条第2款)。

参见:非高风险评估模板

文档基于 CC BY-NC 4.0 许可 · 代码基于 MIT 许可