本文档正在积极开发中,尚未最终定稿。
Skip to content

人类监督——第14条

要求

高风险AI系统的设计必须使自然人能够对其进行有效监督

监督要求

被指派执行人类监督的人员必须能够:

  1. 理解系统的相关能力和局限性,并对其运行进行适当监控
  2. 保持对自动依赖系统输出这一可能倾向的认识(自动化偏差,Automation Bias
  3. 正确解读系统的输出
  4. 决定不使用系统,或忽略、覆盖或撤销系统输出
  5. 使用停止机制安全地中断系统

BAUER GROUP 实施方案

措施实施方式
停止机制Kill Switch / 停用AI组件
自动化偏差预防UI中的警告提示:"AI生成结果——需要人工审核"
输出透明度显示置信度分数,在技术可行时提供可解释性
培训将部署者培训纳入产品文档

文档基于 CC BY-NC 4.0 许可 · 代码基于 MIT 许可