《暂行办法》明确了坚持发展和安全并重、促进创新和依法治理相结合的原则。
本文字数4413,阅读时长约14分钟
文|财经E法 樊朔 杨柳
编辑|郭丽琴
全球首部AIGC(生成式人工智能)领域的监管法规落地中国,并将于一个月后正式实施。
7月13日,国家网信办、国家发改委、教育部等七部门发布了《生成式人工智能服务管理暂行办法》(下称《暂行办法》),并将于2023年8月15日起施行。《暂行办法》规定,对生成式人工智能服务实行包容审慎和分类分级监管。
相较4月11日发布的《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》),《暂行办法》直接删除了“不得进行用户画像”“用户实名制”等争议性规定,并修改了“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”“保证数据的真实性、准确性”“对于运行中发现、用户举报的不符合本办法要求的生成内容,应在3个月内通过模型优化训练等方式防止再次生成”等争议性表述。
一位了解立法过程的不愿具名人士对财经E法透露,《征求意见稿》经历了两次比较大的改动。形成终稿的过程中,充分听取了企业、学者、监管机构的意见建议,并经历多轮讨论和研究。
对外经贸大学数字经济与法律创新研究中心主任许可表示,生成式人工智能不只是一个网络空间的问题,网信部门需要和其他经济性规制部门一起去完成生成式人工智能的治理,形成具有经济性和社会性规制的全方位架构,充分回应生成式人工智能所带来的革新。
在许可看来,《暂行办法》第三条明确了发展与安全并重、创新和依法治理相结合,用词排序上,将“发展”“创新”置于“安全”“治理”之前。同时,相比于《征求意见稿》,《暂行办法》使用了“管理暂行办法”名称,也意味该办法是动态可调整的,反映出中国对生成式人工智能的监管理念:根据技术和经济的发展,制度做出及时、动态的回应。
01
多个争议条款被删改
与《征求意见稿》相比,《暂行办法》删去或修改了多个争议较大的条款。
《征求意见稿》第四条要求,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。《暂行办法》将其表述修改为“提高生成内容的准确性和可靠性”;《征求意见稿》第七条所要求的“能够保证数据的真实性、准确性、客观性、多样性”,也被《暂行办法》替换为“增强训练数据的真实性、准确性、客观性、多样性”。另外,《征求意见稿》第九条关于要求用户提供真实身份信息的实名制规定,则直接被删除。
许可表示,按照《网络安全法》的规定,只有入网,以及信息内容发布和即时通讯才会涉到实名制,但生成式人工智能不一定会涉及实名制规制的场景。而从技术角度,训练的数据不可能永远保证是真实的,这和大模型自身的技术特征是不符的。
“对于这个问题,监管机构秉承着科学立法、开门立法的精神,及时地予以修改完善。”许可说。
《征求意见稿》第十五条规定,对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在三个月内通过模型优化训练等方式防止再次生成。但《暂行办法》将其改为“提供者应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改”。
金杜律师事务所合伙人吴涵也对财经E法表示,基于当前神经网络等技术对于因果关系推导可回溯性及解释的难度,现有的技术水平无法确保在三个月防止违规内容再次生成。
对此,许可分析,除了模型优化外,还有别的方式进行完善。模型优化是一个大工程,可能需要三个月之久,且并非所有补救完善措施,都必须采取模型优化的做法。一旦增加更多修改完善的方式,就不能限定时间了:有的很快,不需要三个月,可能调整一下参数,一天之内就能完成。“当补救完善方法多样化后,没有必要再设置一个很具体、很明确的时间限制。”许可说。
《暂行办法》还删除了《征求意见稿》第十一条中“不得根据用户输入信息和使用情况进行画像”的规定。对此,许可认为,未来生成式人工智能可能会成为每个人定制化的助手,比如把一名学者所有的论文、书籍等都放到人工智能服务中,生成式人工智能随即会变成一个学术助手。“这类场景必然是和个人信息相关联的。如果禁止用户画像,将导致在应用层限制了生成式人工智能个性化服务的场景。”许可说。
许可强调,经过用户授权就可以进行画像,也更加尊重个人对于自身个人信息的决定权。
此外,《暂行办法》限缩了需要安全评估和算法评估与备案的生成式人工智能,《征求意见稿》要求需进行安全评估和算法评估的对象是 “利用生成式人工智能产品”,现在则聚焦为“提供具有舆论属性或者社会动员能力的生成式人工智能服务”。
许可指出,中国的算法监管采取分类分级监管原则,并不是所有的算法都要备案,仅限于具有舆论属性或者社会动员能力的。《暂行办法》也是坚持了分级分类的管理思路,对需要安全评估和算法评估与备案的生成式人工智能服务进行了限缩。
吴涵则补充说,关于分级分类监管,《暂行办法》目前只在第16条写入“制定相应的分类分级监管规则或者指引”,仍待后续出台详细的规定,划分高中低不同风险等级。
分级分类也是欧盟在人工智能领域监管的核心思路。6月中旬获得欧洲议会通过的欧盟《人工智能法案》,将人工智能应用按风险等级分为不可接受风险、高风险、有限风险和极小风险四类,其整体监管架构类似于一个“风险金字塔”,分别建立相应的风险防范机制。(详见:中欧AI立法同期突破:为ChatGPT设置“红绿灯”?
02
企业需要关注的合规重点
受访专家认为,《暂行办法》整体对企业是利好的。
吴涵表示,新规不会令企业绑住手脚。《暂行办法》第二条第三款明确,只要企业、科研机构等,不是向公众公开提供生成式人工智能服务,则不适用本法,豁免了企业或机构内部使用情形,这也是一大利好。此外还有一些促进性的措施,包括:推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源;促进算力资源协同共享,提升算力资源利用效能。
对外经贸大学数字经济与法律创新研究中心执行主任张欣也认为,《暂行办法》释放了积极的政策信号,进一步提升了大模型行业开发者和应用者的信心。
张欣表示,大模型训练对于训练数据的数量、质量、结构都有着非常高的要求,而目前产业界模型训练时面临高质量训练数据资源稀缺的问题。《暂行办法》推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源都是营造良好的技术研发生态的积极举措。
南开大学法学院副院长陈兵也表示,公共数据数量非常大,且维度丰富,关乎人们的吃、穿、住、行、用、教育等等,因此可以加大生成式人工智能训练的效果。但未来公共数据是否包括商业数据中跟公共职能相关的数据等问题还需细化。
上海华诚律师事务所高级合伙人吴月琴认为, AI企业应重点关注办法中有关内容审核义务、训练数据合规处理义务、对用户的保护及监督义务、备案义务。
吴月琴分析,关于内容审核义务应重点关注第四条、第九条和第十二条。其中要求:提供者提供生成式人工智能服务时应遵守的法律法规要求和道德准则,应对内容进行政治审查、合法性审核、防止歧视性内容、防止侵犯知识产权和不正当竞争的要求、防止虚假信息、尊重他人合法利益等,有效地提升服务的准确性;提供者还应当承担内容生产者责任、内容不合格处理、内容标识等审核义务。
训练数据合规处理角度,应重点关注第七条、第八条,即提供者对预训练数据和优化训练数据来源的合法性负责;训练数据处理活动应不侵害他人知识产权、保护个人信息、提高训练数据的质量等监管要求;制定符合办法要求的清晰、具体、可操作的标注规则。
对用户的保护及监督义务而言,应重点关注第十条、第十一条和第十四条。其中要求:提供者应当防止未成年人用户过度沉迷,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。同时建立用户投诉接收处理机制,以及及时处理用户关于更正、删除、屏蔽个人信息的请求。对于违法内容和违法活动,应及时采取整改措施或处置措施,并保留处理记录,向主管部门报告。
备案义务而言,应重点关注第十七条。其中要求:针对提供具有舆论属性或者社会动员能力的生成式人工智能服务的提供者,应当履行安全评估、算法备案和变更、注销备案的义务。
值得注意的是,《暂行办法》第二十三条规定,法律、行政法规规定提供服务应当取得相关行政许可的,提供者应当依法取得许可。
许可认为,这一条款并不意味着以后法律和行政法规设置普遍性的行政许可,而有可能针对特定领域,比如新闻信息、金融等,基于行业管理的需求,设定行政许可。
在吴月琴看来,《暂行办法》在附则中区分了“提供者”和“使用者”。“提供者”是指利用生成式人工智能技术提供AIGC服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。“使用者”是指使用AI服务生成内容的组织、个人。
吴月琴在梳理《暂行办法》里的合规义务条款后发现,服务规范中主要义务压实在提供者侧,如:“依法承担网络信息内容生产者责任,履行网络信息安全义务;依法承担个人信息处理者责任,履行个人信息保护义务;对生成内容进行标识义务;发现违法内容的,及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改并报告义务;对使用者利用其服务从事违法活动的,采取警示、限制功能、暂停或者终止服务等处置措施,保存记录并报告义务。建立健全投诉、举报机制义务。”。而对于“使用者”,在商业经营中如使用的服务产品,涉嫌违法违规,则可能影响其业务合规性、产生业务中断风险,也有声誉影响。
因此,吴月琴表示,在考虑合规要求时,企业应首先明确自己的主体身份定位,是提供者身份还是使用者身份,以便重点落实自身的合规义务,同时与合作方在协议中进行有效安排。
吴月琴强调,如果企业不能满足上述要求,可能承担行政、民事、乃至刑事责任。例如:如果不配合有关主管部门接受监督检查的,可能承担警告、通报批评,责令限期改正以及责令暂停提供相关服务等行政责任;如果生成内容中存在他人享有的知识产权的,可能承担停止侵害、赔偿损失等民事责任;如果违反国家有关向他人出售或者提供公民个人信息,情节严重的,可能承担罚金、拘役、有期徒刑等刑事责任。
观韬中茂(上海)律师事务所合伙人吴丹君则补充说,《暂行办法》第七条强调了训练数据来源合法性和不侵犯他人知识产权,但本条在现行的《著作权法》规定下是存在一定困境的,因为《著作权法》规定的合理使用的情形难以适用于AIGC,因为生成式人工智能技术的开发通常基于商业目的,较难被认定为“个人学习、研究或者欣赏”,且内容生成过程中也不会遵循“适当引用”的具体标准。因此,AIGC服务提供者需在训练数据采集挖掘过程中注意受《著作权法》保护的作品数据。“也期待《著作权法》对于“合理使用”的范畴界定进行相应扩大。”吴丹君说。
此外,吴丹君提示,《暂行办法》第八条对数据标注及数据标注质量评估提出了一定的要求,建议企业注意标注及质量评估工作的留痕,也需关注监管方是否会进一步发布相关标准。

 近期话题,点击阅读
继续阅读
阅读原文