内容治理是生成式AI监管的关注重点。一方面,基于客观维度,生成式AI可能会生成不真实或无意义的内容,即具有“幻觉”倾向;另一方面,结合价值判断,生成式AI还存在生成有害内容的问题。如本系列首篇《生成式AI(一):尝试参透监管的底层逻辑》所分析,生成式AI监管的底层逻辑在于引导对人类的良性影响。为了实现这一目标,监管规则对企业提出了一系列合规要求,旨在弥补生成式AI的固有缺陷,降低其应用风险。本文拟对我国生成式AI的监管规则进行体系化梳理,以期为企业的合规实践提供指引。
一、模型训练:确保来源合法、提升数据质量
(一)保障训练数据来源的合法性
此外,根据《生成式人工智能服务办法》的要求,为了加强数据质量管理,提供者如果采用了人工标注的方式训练生成式AI,应当制定清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。实践中建议企业留存相应的培训和抽样核验记录,以证明履行了合规义务。
二、运营管理:内容治理为核心,以人为本是基调
(一)内容治理
当前,国内已出现多起利用生成式AI发布虚假新闻的违法案例。例如,2023年4月,甘肃公安发现有不法分子散播题为“今晨甘肃一火车撞上修路工人致9人死亡”的虚假文章,而后查明该文为洪某利用ChatGPT所编辑的内容。洪某散布虚假信息的行为已涉嫌寻衅滋事罪,目前已被警方采取刑事强制措施,该案仍在进展之中。[9]
三、监管工具:算法备案与安全评估并驾齐驱
具有舆论属性或社会动员能力的互联网信息服务和相关新技术新应用是监管部门的重点关注对象。《生成式人工智能服务办法》规定,利用生成式AI产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估(即“安全评估”、“双新评估”),并按照《算法推荐管理规定》履行算法备案和变更、注销备案手续(即“算法备案”)。
除此之外,提供者负有配合监督检查的义务。特别地,《生成式人工智能服务办法》对算法透明度作出要求,提供者应当根据监管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。实践中建议企业留存前述相关内容的产品文档、评估报告、日志记录等,做好响应配合监督检查的准备。
[1] https://arstechnica.com/tech-policy/2023/04/stable-diffusion-copyright-lawsuits-could-be-a-legal-earthquake-for-ai/
[2] https://mp.weixin.qq.com/s/aRYJbh1UO9RYEJdhL-nivQ
[3] https://openai.com/blog/our-approach-to-ai-safety
[4] https://mp.weixin.qq.com/s/DXgyb-8I2YLoXWN8j0QzAg
[5] https://www.douyin.com/rule/billboard?id=1242800000050
[6] 《生成式人工智能服务办法》第十条:“提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。”
[7] 《算法推荐管理规定》第十八条:“算法推荐服务提供者向未成年人提供服务的,应当依法履行未成年人网络保护义务,并通过开发适合未成年人使用的模式、提供适合未成年人特点的服务等方式,便利未成年人获取有益身心健康的信息。
算法推荐服务提供者不得向未成年人推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息,不得利用算法推荐服务诱导未成年人沉迷网络。”
[8] https://www.silicon.co.uk/e-innovation/artificial-intelligence/replika-italy-ban-497135
[9] https://mp.weixin.qq.com/s/_Wfe-EV13O6uBM65jZDzdg
*感谢赵雅泽对本文的突出贡献
京ICP备05019364号-1 京公网安备110105011258