随着ChatGPT等生成式人工智能(“生成式AI”)应用的迅速走红,人工智能的治理议题由此被提升至前所未有的关注高度。在学习、实践、折返、进阶的往复中,与既往一样,我们始终在探索最为简单质朴的合规最优解,并愿意将此过程与各位共享。让我们随着生成式AI的发展一起迭代。
(一)深度合成技术包含生成式AI技术
最后,从监管内容角度来看,深度合成与生成式AI技术都存在输出不当内容、技术滥用等问题,导致监管手段具有一定的相似性,生成式AI的监管可以建立在深度合成监管的基础之上。
(二)深度合成与生成式AI监管各有使命
我们理解,以ChatGPT为代表的生成式AI虽可以适用《深度合成管理规定》,但其规制重点与以Deepfake为代表的深度合成技术存在较大差异。
《深度合成管理规定》假定的监管对象为Deepfake(“深度伪造”)
2017年,美国社交网站Reddit出现一个名为“deepfakes”的用户,其利用技术将色情女演员的面部替换为知名女明星,并发布了相关图像视频。自此,深度伪造技术逐渐步入大众视野。2019年,我国大众文娱领域先后出现多起“明星换脸”事件,涉嫌肖像权侵权。随后将关注度推向高潮的为“ZAO”事件。2019年8月,换脸软件“ZAO”上线并迅速走红,在该款应用中,用户可以上传照片并将影视片段中明星的人脸替换为照片中的人脸。“ZAO”的用户协议作出了如下规定:“确保肖像权利人同意授予‘ZAO’及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利,包括但不限于:人脸照片、图片、视频资料等肖像资料中所含的您或肖像权利人的肖像权,以及利用技术对您或肖像权利人的肖像进行形式改动”,引发了大众对于个人信息保护的担忧,后被网信办约谈整改。
深度伪造的一系列滥用事件引起了中国官方的高度重视。2020年12月,中共中央印发《法治社会建设实施纲要(2020-2025年)》,明确提出要完善网络法律制度,制定完善对算法推荐、深度伪造等新技术应用的规范管理办法。[3]2022年1月,国家网信办就《深度合成管理规定(征求意见稿)》公开征求意见,并就规则制定的必要性进行了说明,明确提及要贯彻《法治社会建设实施纲要(2020-2025年)》中的决策部署,以及应对不法分子利用技术制作、复制、发布、传播违法信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等违法行为。[4]由此可以看出,《深度合成管理规定》的重点规制对象在于深度伪造技术。
立法并未采用深度伪造的概念,原因或有其二:一是深度伪造的概念较为负面,立法旨在规制该项技术的滥用,并不意欲阻碍技术的发展或正当利用,而采用深度伪造的概念容易给人造成先入为主的负面印象;二是将深度伪造定义为监管对象,会导致监管范围过窄。面对技术的迅猛发展,未来很可能会出现其他类似技术(例如当前的生成式AI),为了克服立法的滞后性问题,避免监管机构在执法时无法可依,《深度合成管理规定》有意规定了更宽的监管范围。
《生成式人工智能服务办法》假定的监管对象为ChatGPT代表的大模型应用
2022年11月,美国人工智能研究公司OpenAI开发的ChatGPT聊天机器人上线,在上线不到2个月的时间内,其月活用户突破1亿,成为史上用户增长最快的消费者应用。在其爆火的同时,其隐含的信息滥用、虚假信息、用户依赖、系统失控、歧视问题、网络安全等风险引发了学界和业界的担忧。2023年3月22日,图灵奖得主Yoshua Bengio、特斯拉CEO(Open AI联合创始人)Elon Musk、苹果联合创始人Steve Wozniak等上千名专家联名签署公开信,强调人工智能系统可能给人类社会带来的巨大风险,呼吁暂停开发比GPT-4更强大的人工智能系统。[5]2023年4月10日,中国支付清算协会发布公告,倡导支付行业从业人员谨慎使用ChatGPT等工具。[6]然而,大模型的浪潮已然掀起,百度、阿里巴巴、字节跳动、华为等国内互联网巨头纷纷推出大模型产品,在这样的背景之下,国家网信办就《生成式人工智能服务办法》公开征求意见,意为急用先行,监管以ChatGPT为代表的大模型应用。
(三)引导对人类的良性影响是生成式AI监管的底层逻辑
在明确《深度合成管理规定》与《生成式人工智能服务办法》立法背景与重点监管对象的不同之后,分别以Deepfake和ChatGPT为例对比其典型应用场景,更有助于理解两部规范侧重点之不同。
(1)系统的自主性
在Deepfake的应用场景下,用户通常需要向系统输入事先准备好的素材,经由系统的加工,最终形成内容输出。在这个过程中,用户本身对于输出结果具有一定的预期,系统实际上是在用户的控制之下完成工作,自主性较低。因此,从监管的角度来看,规制的本质在于穿透技术,约束用户滥用技术的行为。纵观《深度合成管理规定》第二章,第六条率先从正面明确了任何组织和个人不得滥用深度合成服务的义务,其余条款则主要是对深度合成服务提供者施以管理义务,核心即在于阻止用户的滥用行为:
相较而言,在ChatGPT的应用场景下,用户通常无需输入事先准备的素材,只需输入相应指令,系统就能够自行分析并生成输出。在这个过程中,用户对于输出结果并不存在具体的预期,对系统的控制力也较弱。正如欧盟《人工智能法案》草案对生成式AI的定义一般,“生成式AI是使用基础模型,专门用于以不同程度的自主性生成复杂的文本、图像、音频或视频等内容的人工智能系统”,系统的自主性是生成式AI的重要特征,这也会导致用户更容易依赖系统或受到系统的影响。根据OpenAI的报告,GPT-4具有产生“幻觉“的倾向,即“产生与特定来源有关的无意义或不真实的内容”,随着模型变得愈加有说服力和可信度,这种倾向的危害会被放大,导致用户过度依赖的问题。因此,从监管的角度来看,其需解决的重点问题在于保护用户免受系统的不良影响。《生成式人工智能服务办法》对提供者施加的防依赖沉迷及指导用户正当使用义务即可印证这一观点。
(2)系统的输出对象
[1] https://mp.weixin.qq.com/s/wN3Jg4NPBzb7ev-ZaIAZBw
[2] https://mp.weixin.qq.com/s/0Hmwknq6bNFDFyAwRJbJHg?search_click_id=13503168500786901975-1684977031338-1595689541
[3] http://www.gov.cn/zhengce/2020-12/07/content_5567791.htm
[4] http://www.cac.gov.cn/2022-01/28/c_1644970458520968.htm
[5] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[6] http://www.pcac.org.cn/eportal/ui?pageId=598261&articleKey=617041&columnId=595085
[7] §1041 (a) (2) the term ‘deep fake’ means an audiovisual record created or altered in a manner that the record would falsely appear to a reasonable observer to be an authentic record of the actual speech or conduct of an individual;
[8] Article 3 (44d)‘deep fake’ means manipulated or synthetic audio, image or video content that would falsely appear to be authentic or truthful, and which features depictions of persons appearing to say or do things they did not say or do, produced using AI techniques, including machine learning and deep learning;
*感谢赵雅泽对本文的突出贡献
京ICP备05019364号-1 京公网安备110105011258