高风险AI——第8–15条要求
概述
高风险AI系统须遵守AI Act的全部义务目录。第8条规定,此类系统必须满足第9–15条的要求,同时考虑其预期用途和公认的技术水平。
BAUER GROUP 立场
高风险AI系统仅在Go/No-Go评估结果为正面时方可进入欧盟市场。以下页面记录了作出Go决策时的全部要求。
要求目录
| 条款 | 要求 | 工作量 |
|---|---|---|
| 第9条 | 风险管理系统 | 中等——贯穿生命周期的迭代流程 |
| 第10条 | 数据与数据治理 | 高——训练数据文档化 |
| 第11条 | 技术文档 | 高——Annex IV 完整格式 |
| 第12条 | 记录保存(日志) | 低——自动化日志 |
| 第13条 | 面向部署者的透明度与信息 | 中等——使用说明 |
| 第14条 | 人类监督 | 中等——监督机制 |
| 第15条 | 准确性、鲁棒性、网络安全 | 中等——测试 + CRA协同 |
与CRA合规的整合
第8条第2款明确允许整合到现有合规流程中:
"为确保一致性、避免重复并尽量减少额外负担,提供者可将必要的测试、报告和文档整合到已有的程序中"
BAUER GROUP利用这一可能性,尽可能将AI Act文档纳入现有的CRA QMS和CRA技术文档中。