前言
ChatGPT热潮席卷全球,“文心一言”“通义千问”“商量”等中国类ChatGPT产品陆续发布,国家网信办亦紧跟变化,于4月11日发布了《生成式人工智能管理办法(征求意见稿)》。
一、生成式人工智能服务提供者规范
(一)采取制度和技术措施
在制度和技术措施方面,《生成式人工智能管理办法(征求意见稿)》(下称《征求意见稿》)对利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(下称“提供者”)主要设置了如下义务:
(二)配合监管
不同于《互联网信息服务深度合成管理规定》,《征求意见稿》认为所有生成式人工智能产品均具有舆论属性或社会动员能力,要求提供者在利用生成式人工智能产品向公众提供服务前,应按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
此外,当国家网信部门和有关主管部门要求时,提供者还应提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。
(三)责任承担
《征求意见稿》将保障生成式人工智能生成信息内容合法性的主要责任主体设置为提供者,这引发了业界认为提供者责任过于严格,可能影响创新的担忧。该稿还将提供可编程接口等技术支持的主体纳入提供者的范畴,如某可编程接口服务提供商同时向B端和C端提供服务,用户通过B端客户提供的生成式人工智能产品所生成的内容违反《征求意见稿》的要求,该可编程接口服务提供商和B端客户的责任划分尚不明晰。
根据《征求意见稿》,提供者违反《征求意见稿》规定将可能承担如下法律责任:
二、生成式人工智能使用合规
(一)生成内容合规
《征求意见稿》第四条对利用生成式人工智能生成的内容提出要求:
此外,《征求意见稿》要求提供者按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。具体而言,提供者需满足如下要求:
(1)提供者对使用其服务生成或者编辑的信息内容,应采取技术措施添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息。
(2)当提供者提供的服务可能导致公众混淆或者误认的,应在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示生成式人工智能使用情况。
(3)提供者在提供可能导致公众混淆或者误认的服务时,应提供显著标识功能,并提示使用者可以进行显著标识。
(二)预训练、优化训练数据合规
《征求意见稿》不仅要求生成式人工智能所生成的信息具备合法性,亦要求提供者应对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:
此外,当生成式人工智能产品研制中采用人工标注时,提供者应根据《征求意见稿》要求,制定清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。
(三)提供者对用户的指导、管理和保护
《征求意见稿》要求提供者指导用户科学认识和理性使用生成式人工智能生成的内容。当提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
同时,提供者应建立用户投诉接收处理机制以保护个人合法权益。当其发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合《征求意见稿》要求时,应采取措施,停止生成,防止危害持续。
提供者需对利用其生成式人工智能所产生的内容采取过滤等措施,对在运行中发现和用户举报的不符合《征求意见稿》要求的生成内容,其还应在3个月内通过模型优化训练等方式防止再次生成。
结语
纵览《征求意见稿》,部分规定较为笼统、模糊,仍有待后续的进一步厘清,还有部分观点认为此稿存在着“自相矛盾”之处。生成式人工智能尚处于上升探索阶段,该技术背后的逻辑、可应用场景和发展前景尚未明晰,因此,一些观点认为此时出台监管办法似乎为时过早。但技术在蓬勃发展,法律也在“跑步”跟上,在技术发展的前期即进行法律的思考和探索,并在接收公众意见和业界反馈中调整,技术与法律并肩而行,方能在规范之路上走得更远。