BAUER GROUP作为GPAI部署者
GPAI模型的使用
BAUER GROUP在多种场景中使用GPAI模型(LLMs):
| 用途 | 模型 | 场景 | AI Act义务 |
|---|---|---|---|
| 内部生产力 | Claude、GPT | 代码审查、文档编写、研究 | 第4条(AI素养) — 员工必须具备相应使用能力 |
| 客户产品集成 | 可变 | B2B软件中的AI功能 | 取决于所形成系统的风险等级 |
| 聊天机器人(客户服务) | 基于LLM | 与自然人的交互 | 第50条(透明度) — 标识为AI系统 |
部署者义务
作为AI系统的专业用户,BAUER GROUP承担以下部署者义务:
通用义务(所有AI系统)
- AI素养(第4条) — 接触AI的人员必须接受充分培训
高风险AI(如有使用)
- 按照提供者说明进行合规使用
- 确保人工监督
- 控制输入数据质量
- 日志保存至少6个月
- 向提供者和监管机构报告风险和严重事件
- 在工作场所使用时:告知劳动者
透明度义务(第50条)
- AI生成内容的标识
- AI交互的公开(聊天机器人)
供应商尽职调查
在选择GPAI提供者时,BAUER GROUP会核查:
- GPAI提供者是否已在欧盟数据库中注册?
- 提供者是否提供了所需文档(附件XII)?
- 是否指定了欧盟授权代表(针对第三国提供者)?
- 提供者是否履行了其版权义务?