本文档正在积极开发中,尚未最终定稿。
×
Skip to content
AI Act Compliance
搜索
K
Main Navigation
概述
风险分类
高风险AI
GPAI
合规矩阵
简体中文
Deutsch
English
简体中文
Deutsch
English
外观
菜单
返回顶部
本页目录
人类监督——第14条
要求
高风险AI系统的设计必须使自然人能够对其进行
有效监督
。
监督要求
被指派执行人类监督的人员必须能够:
理解系统的相关能力和局限性
,并对其运行进行适当监控
保持对自动依赖系统输出这一可能倾向的认识(
自动化偏差,Automation Bias
)
正确解读系统的输出
决定
不使用
系统,或
忽略、覆盖或撤销
系统输出
使用
停止机制
安全地中断系统
BAUER GROUP 实施方案
措施
实施方式
停止机制
Kill Switch / 停用AI组件
自动化偏差预防
UI中的警告提示:"AI生成结果——需要人工审核"
输出透明度
显示置信度分数,在技术可行时提供可解释性
培训
将部署者培训纳入产品文档