本文档正在积极开发中,尚未最终定稿。
Skip to content

BAUER GROUP作为GPAI部署者

GPAI模型的使用

BAUER GROUP在多种场景中使用GPAI模型(LLMs):

用途模型场景AI Act义务
内部生产力Claude、GPT代码审查、文档编写、研究第4条(AI素养) — 员工必须具备相应使用能力
客户产品集成可变B2B软件中的AI功能取决于所形成系统的风险等级
聊天机器人(客户服务)基于LLM与自然人的交互第50条(透明度) — 标识为AI系统

部署者义务

作为AI系统的专业用户,BAUER GROUP承担以下部署者义务:

通用义务(所有AI系统)

  • AI素养(第4条) — 接触AI的人员必须接受充分培训

高风险AI(如有使用)

  • 按照提供者说明进行合规使用
  • 确保人工监督
  • 控制输入数据质量
  • 日志保存至少6个月
  • 向提供者和监管机构报告风险和严重事件
  • 在工作场所使用时:告知劳动者

透明度义务(第50条)

  • AI生成内容的标识
  • AI交互的公开(聊天机器人)

供应商尽职调查

在选择GPAI提供者时,BAUER GROUP会核查:

  • GPAI提供者是否已在欧盟数据库中注册?
  • 提供者是否提供了所需文档(附件XII)?
  • 是否指定了欧盟授权代表(针对第三国提供者)?
  • 提供者是否履行了其版权义务?

文档基于 CC BY-NC 4.0 许可 · 代码基于 MIT 许可