本文档正在积极开发中,尚未最终定稿。
Skip to content

高风险AI——第8–15条要求

概述

高风险AI系统须遵守AI Act的全部义务目录。第8条规定,此类系统必须满足第9–15条的要求,同时考虑其预期用途和公认的技术水平。

BAUER GROUP 立场

高风险AI系统仅在Go/No-Go评估结果为正面时方可进入欧盟市场。以下页面记录了作出Go决策时的全部要求。

要求目录

条款要求工作量
第9条风险管理系统中等——贯穿生命周期的迭代流程
第10条数据与数据治理高——训练数据文档化
第11条技术文档高——Annex IV 完整格式
第12条记录保存(日志)低——自动化日志
第13条面向部署者的透明度与信息中等——使用说明
第14条人类监督中等——监督机制
第15条准确性、鲁棒性、网络安全中等——测试 + CRA协同

与CRA合规的整合

第8条第2款明确允许整合到现有合规流程中

"为确保一致性、避免重复并尽量减少额外负担,提供者可将必要的测试、报告和文档整合到已有的程序中"

BAUER GROUP利用这一可能性,尽可能将AI Act文档纳入现有的CRA QMSCRA技术文档中。

文档基于 CC BY-NC 4.0 许可 · 代码基于 MIT 许可