作者:袁立志 蒋月珍
自ChatGPT问世以来,有关人工智能(AI)大模型安全问题备受关注。大模型开发者必须在开发之初就将安全理念融入设计中,否则将面临安全、合规和社会舆论等多方面的压力。走在行业前列的Open AI的安全实践有很高的参考价值,但想要全面深入了解Open AI的安全实践目前还比较困难。5月16日Open AI的CEO Samuel Altman在美国国会的口头及书面证词披露了很多有价值的信息,结合Open AI此前发布的《Our Approach to AI safety》及其《隐私政策》《使用政策》等文件(以下合称“披露文件”),可以一窥Open AI安全实践的最新情况,而为中国企业借鉴。
一、大模型的两层安全风险
当前关于AI大模型安全风险的讨论大体可以分为两个层面。第一层是潜在的、根本性的风险,即AI脱离人类控制,进而对人类生存等根本利益造成威胁;第二层安全风险是当前的、一般性的风险,如训练数据的合法性、生成内容的有害性和准确性、滥用模型生成虚假信息等。
全球科技和商业领袖对于第一层安全风险在多大程度上存在、何时会转变为现实风险、应采取何种应对措施等问题看法分歧,有些观点甚至截然相反。比如,今年3月底,特斯拉CEO马斯克等企业高管及AI专家联名签署公开信,呼吁所有AI实验室立即暂停至少6个月比GPT-4更强大的AI模型的训练[1] 。随即有专家对该公开信提出反对意见[2] 。5月底,旧金山非营利组织“Center for AI Safety”发布公开信称,“减轻AI带来的灭绝风险应该与流行病和核战争等其他社会规模的风险一同成为全球性的优先事项[3] ”。对此,联合国做出回应,提议建立一个类似国际原子能机构的国际AI监管机构[4] 
针对第一层安全风险,Open AI提出四点建议。第一,成立新机构对功能达到一定规模的AI发放许可,并通过撤销许可的方式确保其遵守安全标准。欧盟在其最新的《人工智能法》草案中增加的基础模型注册要求与此类似[5] ,而中国的算法备案制度正被用来实现类似的监管效果,尽管算法备案制度并非为监管人工智能而设计的;第二,制定安全标准,在模型上线前对其危险能力进行评估,特别是查看模型是否能够自我复制并自行渗透至外部。欧盟的《人工智能法》草案中也对基础模型提出了风险评估要求,而中国主管部门主导的“双新”评估制度正在被用来对大模型进行安全评估;第三,对模型进行独立审计以审核其是否达到声明的安全阈值,并听取外部专家的意见;第四,加强AI安全方面的国际合作以形成国际性的控制标准[6] 。这些都需要主权国家政府和相关国际组织协调采取行动,非企业所能决定,而当前的国际局势对于推动这些措施并不有利。
第二层安全风险是大模型开发企业面临的现实风险。比如,今年初,三名艺术家对Stability AI、Midjourney及DeviantArt提起诉讼,称这些组织在“未经原作者同意的情况下”使用从网络上抓取的50亿张图像来训练其AI,侵犯了数百万艺术家的权利[7] 。今年3月,ChatGPT出现错误,部分用户能够查看到活跃用户的姓名、电子邮件地址、付款地址、信用卡号码最后四位数字和信用卡到期日期[8] 
针对第二层安全风险,Open AI进行了实践探索,既有整体方法论,也有具体风险点的应对措施。中国的大模型开发者可结合中国的监管要求,学习借鉴Open AI的安全实践。
二、Open AI应对安全风险的总体策略
在应对安全风险的总体策略上,Open AI强调新版本模型发布上线前需进行严格的测试,邀请外部专家提供反馈意见,通过人工反馈强化学习(下称“RLHF”)等技术改进模型,并构建广泛的安全和监测系统[9] 
根据披露文件,在GPT-4模型上线前,Open AI对其进行了为期六个多月的评估、测试及改进,并邀请AI领域专家参与红队测试(Red Teaming),以识别安全风险,如生成内容不准确、生成内容有害、滥用模型生成虚假内容等。在识别各领域的安全风险后,Open AI采取了相应的缓解措施,包括预训练阶段剔除有毒数据,预训练后通过人工反馈改进模型使其以更安全更有效做出回复,Open AI还训练模型尽量拒绝有害问题请求,审慎回答敏感问题请求[10] 
三、Open AI应对各项安全风险的具体措施及对中国企业的启示
1
训练数据合法性问题
在大模型开发阶段,需要大量数据进行预训练和优化训练。根据披露文件,ChatGPT模型是在广泛的文本语料库上进行训练的,其中包含公开可用的内容、许可内容及人工审阅者生成内容,Open AI 保存与这些训练活动相关的记录,绝大多数公开可用的内容来自于Common Crawl和Wikipedia等公共资源[11] 。训练数据的合法性主要涉及版权保护和个人信息保护。
关于训练数据中的音乐、美术、图片等作品的版权保护问题,美国国会关注两点:其一,如何实现创作者对其作品的控制权;其二,如何保障作品的创作者及所有者从生成式AI中获取经济利益。上文提到的三名艺术家对Stability AI、Midjourney及DeviantArt提起诉讼一案,就是版权保护问题的适例。Open AI承认作品创作者及所有者有权控制作品的使用方式,并有权从中获益[12] 。实现控制权的方式之一是向创作者及所有者提供选择不使用其作品来帮助训练AI模型的路径,但具体控制路径仍有待研究。目前,Open AI正在配合版权办公室的工作,后续Open AI将继续与创作者及所有者讨论如何以互惠互利、双方同意的方式使用其作品开展有效合作[13] 。可见在这一问题上,Open AI尚未拿出较好的解决方案。
关于训练数据中的个人信息,主要涉及个人的知情权和决定权,披露文件对此着墨不多,只提到Open AI努力在可行情况下从训练数据集中删除个人信息,微调模型以拒绝涉及私人个人信息的请求。近期Open AI已经因为涉嫌窃取数据(包括未经同意获得的个人信息、未经许可的受版权保护作品)用以训练模型而遭遇集体诉讼[14] 。考虑到训练数据的巨大体量,估计Open AI并未完全落实用户的知情权和决定权,今后可能面临更多的法律诉讼。当然,由于模型训练在企业内部完成,生成内容一般不会直接输出个人信息,故原告要举证证明存在侵权行为也存在困难。
对于后发的中国大模型开发者而言,由于《数据安全法》《个人信息保护法》《著作权法》等法律的限制,训练数据来源的合法性问题可能构成大模型开发的实质性障碍。在实践中,大模型训练数据主要有三大来源,任一来源的数据都有合规问题需要解决:
(1)自身互联网业务等积累的数据:对于其中的个人信息,鉴于利用个人信息训练开发大模型通常已超出原有使用目的,因而需重新告知个人并获得其同意,一般无法依赖同意以外的其他合法事由。如果不能实现告知同意,则需对个人信息进行匿名化后再行使用。对于其中版权归属于用户的内容,如原来的用户授权没有涵盖训练用途,则可能需要重新获取用户授权;
(2)从第三方采购的数据:需要核查数据来源的合法性,如为个人信息,仍然面临上述告知同意问题,除非匿名化;如为受版权等保护的内容,需要权利人(可能并非直接出售数据者)的许可;
(3)互联网公开数据:对于其中的个人信息,根据《个人信息保护法》中对已公开信息合理使用的规定,若只是将公开个人信息用来训练大模型,一般理解对个人权益影响较小,似乎可以认为在合理范围内使用而无需获取个人同意,但个人仍然有权拒绝,企业需要提供拒绝渠道。对于其中受版权等保护的内容,似乎不构成版权的合理使用,仍需要权利人许可。
考虑到大模型训练所需数据来源多元、数量庞大,要解决上述合规问题殊非易事。如何平衡数据训练和权益保护,目前实践中尚未形成成熟的解决方案。
2
部署环节的安全问题

鉴于AI大模型的风险状况、潜在应用及其对社会更广泛的影响仍然难以准确衡量,Open AI采取持续迭代部署的策略,谨慎并逐步扩大开放范围,从实际使用中吸取经验教训以改进保障措施,平衡安全性及实用性[15] 。具体如下[16] 
· 模型部署前,通过安全评估及红队测试开展风险分析。(例如,通过评估检查InstructGPT是否存在任何安全降级风险)
· 从小用户群开始测试(例如,GPT-3及InstructGPT系列均从私人测试开始)
· 研究新型用例的试点结果(例如,与少量客户合作,研究何种条件下可以安全启用长篇内容生成功能)
· 实施有助于监控使用情况的流程(例如,审查用例,Token配额和流量限制)
· 进行详细的追溯性审查(例如,针对安全事故和重大部署的审查)
图1:Open AI开发与部署生命周期
此外,Open AI向开发人员及研究人员提供了SaaS服务及API访问权限,将模型建立在自有服务器上,对外提供服务或输出能力,而非以私有化部署在客户服务器或终端。这种部署方式能够监控滥用行为并采取行动,不断构建缓解措施以响应滥用风险[17] ,也有助于保护大模型自身的知识产权。
3
网络安全问题

大模型是一套信息系统,通常以SaaS或API等方式向个人或企业提供服务。与其他信息系统和网络服务一样,大模型也面临常规的网络安全问题。
针对网络安全风险,Open AI采取了以下措施:(1)采取严格的内部安全控制,防止内部安全威胁;(2)定制开展内部及第三方渗透测试,审核安全控制的适用性及有效性;(3)针对核心模型知识产权创建新型安全控制;(4)安全审计;(5)安全部署方式:模型本地部署,对外提供SaaS服务,通过API提供第三方访问;(6)与云服务商合作,确保基础安全;(7)漏洞赏金计划:邀请安全研究人员等报告安全问题;(8)提供报告模型安全问题的专门渠道[18] 
在中国法下,网络安全问题主要通过网络安全等级保护制度和关键信息基础设施保护制度进行监管。大模型运营者应当根据《网络安全法》等法律及相关标准,采取适当的技术措施和管理措施,以保障系统免受干扰、破坏或者未经授权的访问,并依法办理网络安全等级保护备案和测评。规模或能力达到一定门槛的大模型,一旦遭到破坏可能危及国家安全、国计民生或公共利益,因而构成关键信息基础设施,需要按照《网络安全法》等规定,采取更加严格的保护措施。
除了大模型本身面临的网络安全问题外,大模型还可能被滥用,以攻击或破坏其他信息系统。比如,最近媒体报道的被称为“邪恶版ChatGPT”的WormGPT,可以被用来创建恶意软件,进行网络攻击[19] 。对此,Open AI也采取了相应的行动,如针对模型的网络安全影响进行评估、建立网络安全资助计划、成立网络安全工作组、邀请第三方安全研究人员提前访问模型以测试安全能力[20] 
4
用户隐私保护问题

在大模型部署并运行后,要持续使用用户信息对模型进行改进训练,故涉及用户隐私保护问题。Open AI针对2C业务和2B业务采取了不同的做法。
针对2C业务,首先,当用户在使用其服务时,Open AI可能会使用ChatGPT对话数据用以改进模型。对此,Open AI为用户提供了选择退出(opt-out)的权利,用户可以拒绝将对话数据用于训练模型[21] ,也可注销账户或删除特定对话数据。其次,Open AI承诺不会将数据用于营销、广告、向第三方出售或建立用户画像[22] 。最后,Open AI努力在可行情况下从训练数据集中删除个人信息,微调模型以拒绝涉及私人个人信息的请求[23] 
针对2B业务(通过API接入),首先,Open AI表示除非客户明确同意为训练目的向其共享数据,否则不会使用客户通过API上传的数据来训练模型或改进产品服务[24] ;其次,客户提交的微调数据也仅用于相应客户使用的模型,不同客户之间不会打通使用;最后,基于监控滥用及误用目的,Open AI将保留通过API上传的数据30天。仅有限的授权员工及负有保密和安全义务的第三方承包商能够基于调查和核实可疑的滥用行为目的访问此类数据。除法律另有要求,到期将删除此类数据[25] 
Open AI的上述实践是以美国的隐私法为基础的,中国法律的规定与之有所不同。针对2C用户数据,中国法采取的是更为严格的择入机制(opt-in)。根据《个人信息保护法》,将用户个人信息用于大模型改进训练需要事先告知用户,并取得个人同意或者符合法律、行政法规规定的其他情形。在实践中,将用户个人信息用于模型训练主要依赖个人同意,其他合法事由的适用空间有限。与欧盟的《通用数据保护条例》相比,中国法未将“合法利益”列入合法事由,限制了个人信息的利用空间。中国法的这两点细微差异,可能对中国企业的大模型训练造成影响。
针对2B业务中的个人信息,根据《个人信息保护法》,提供个人信息的客户是处理者,而AI大模型运营者构成受托处理者,后者对个人信息的处理受到C端个人及B端客户的双重授权限制,如缺乏任一授权,则大模型运营者都不能将B端客户提供的个人信息用于模型训练,也不能将不同B端客户提供的个人信息打通使用。对于B端客户提供的非个人信息,大模型运营者仍然是受托处理者,其对数据的处理原则上受B端客户授权的限制,否则可能面临违约或不正当竞争质疑。
5
生成内容有害性问题

针对AI大模型生成仇恨、骚扰、暴力等有害内容的问题,Open AI在不同阶段采取了多项措施。
在预训练阶段,Open AI对模型预训练数据集合进行过滤,剔除其中的有害文本。例如,在针对GPT-4预训练阶段,开发者通过内部训练的分类器及基于词典的方法,识别不适当的色情文本内容,并将其剔除于预训练数据集。预训练阶段后,开发者塑造模型的主要方法是RLHF[26] ,该方法要求人类专家评估模型输出结果的适当性,并根据人类专家提供的反馈意见优化模型,以降低生成有害性内容的概率。
在上线运行阶段,Open AI通过《使用政策》对用户行为进行约束。Open AI禁止用户将大模型用于生成仇恨、骚扰或暴力内容,或生成恶意软件。Open AI通过系统自动检测和人工审查相结合的方式来检测潜在的违规行为。若发现用户违反《使用政策》,Open AI可能会要求用户进行必要的更改,若多次违反或严重违反,可能会被暂停或终止账户[27] 
在生态建设方面,Open AI会向外部开发人员提供免费的审核及安全组件,以帮助他们识别有害内容。
中国一向非常重视信息内容治理,已经形成了内容安全和网络生态治理的成熟体系。尽管如此,由于其生成内容的属性,大模型仍然对内容治理带来新的挑战。Open AI所采取的上述治理措施对中国的大模型开发和运营企业具有借鉴意义。
6
生成内容准确性问题

大模型生成内容的准确性、可靠性问题,也被称为“幻觉”(Hallucination)或“事实编造” (Confabulation)问题。Open AI认为,大模型主要是通过文字相互联系的概率来预测答案,而非通过连接互联网或数据库实时核查,其基本特征决定了大模型无法保证输出内容的真实性和准确性[28] 
然而,这并不意味着大模型开发者在生成内容准确性问题上完全无能为力,而且从监管者和社会公众的期待来说,也不允许大模型开发者在这种问题上无所作为。针对该问题,Open AI的做法是,通过用户反馈纠正事实错误改进模型,提高模型输出结果的准确性;并在使用条款中也充分提示用户输出结果存在不准确情况,用户应根据使用情况对输出结果的准确性进行评估[29] 。Open AI承认,在这一问题上仍需进一步研究。
根据新近发布的《生成式人工智能服务管理暂行办法》(下称“《管理办法》”),中国在此问题上的要求是“基于服务类型特点,采取有效措施……提高生成内容的准确性和可靠性”,即对行为提出要求,不要求保证结果,与Open AI的实践基本一致。
7
虚假信息问题
虚假信息问题与内容准确性问题不同。内容准确性问题是由于大模型的技术特征决定的,客观上无法做到完全准确,主要是生成环节的问题;虚假信息问题则是使用者滥用大模型,故意生成虚假信息并传播,以误导舆论或干预选举,涉及生成、传播等多个环节。
通过虚假信息干扰大选是美国监管者非常重视的问题。美国国会议员认为,此前美国对社交媒体的监管是一个重大失败,因此不想在AI监管上重蹈覆辙。针对国会的质询,Open AI认为,大模型不是社交媒体,不应按照社交媒体的框架来监管;内容生成只是虚假信息生命周期的一部分,虚假信息还需要通过传播才能造成重大损害[30] 。其潜台词是大模型只负责内容生成而无法控制内容的传播,利用虚假信息进行政治操纵不是大模型本身的问题,而是大模型被滥用的问题。因此,打击虚假信息不只是大模型开发者一家之事,而需要企业、监管者及公众合作。
目前,Open AI在虚假信息问题上的实践包括几方面。第一,规则约束,Open AI的《使用政策》规定了模型的禁用用途,其中就包括用于生成虚假信息;第二,内容出处要求,Open AI 与斯坦福大学及乔治城大学的研究人员共同发布报告,强调滥用大型语言模型形成虚假信息可能产生的风险以及缓解措施,如内容出处标准;第三[31] ,监测机制,当发现用户生成内容数量到达一定阈值时会采取行动[32] 
中国将虚假信息问题统一纳入信息内容安全和网络生态治理体系中进行管理,近年来持续开展的网络谣言整治行动就是这方面的努力。中国强调平台为主、各方参与、群防群治,在打击网络虚假信息方面已经积累了相当的经验。
8
儿童保护问题

儿童保护问题包括防止生成有害内容和个人信息保护。例如,当用户试图将儿童性虐待材料上传至模型时,Open AI会阻止其上传并将向国家失踪与虐待儿童中心报告此类行为[33] 。Open AI采用中立的年龄筛选机制,禁止13岁以下用户使用其产品或服务,《使用条款》要求13至18岁用户需要获得家长同意。发现13岁以下儿童直接向Open AI提供其个人信息,Open AI会删除该数据并且不会将此类数据用于任何目的。当确认某账户为13岁以下儿童创建的,Open AI则会关闭该账户[34] 
中国法律对于防止对儿童有害的内容以及儿童个人信息保护也有详细要求。除此以外,根据《管理办法》,大模型开发者还应采取有效措施,防范未成年人过度依赖或沉迷于生成式人工智能服务,这主要来源于网络游戏和算法方面的治理经验。
9
平台责任问题

《美国通讯法》(Telecommunications Act of 1996)第五章第230条[35] 有所谓的平台“安全港”规则,“安全港”包含正反两方面:一方面是豁免平台对用户生产内容的责任,即使平台没有主动移除(也就是免除平台主动审查或过滤内容的义务);另一方面鼓励或允许平台基于善意主动处理平台上的有害内容,平台不因此类善意行为而承担责任[36] 。该条款被认为在过去二十多年间充当着互联网平台面对法律责任的挡箭牌,从正反两方面呼吁改革的声音同时存在。
关于大模型开发者能否适用230条款豁免其产品和服务造成的责任,此前有学者表示ChatGPT与其他大型语言模型可能会被排除适用230条,因为他们是信息内容提供者而非交互式计算机服务提供商[37] 。对此,Open AI的表态是,大模型开发者需要对其推出的产品负责任,但产品用户也同样需要承担责任,针对AI大模型这类新技术需要构建全新的责任框架,230条并非是正确的监管框架。Open AI没有完全否定安全港规则的适用。总体来看,在这个问题上各方还没有达成共识。
反观中国,在内容安全方面,中国监管者一向强调平台的主体责任,没有建立明确的“安全港”规则。新近出台的《管理办法》更是直接将生成式AI服务提供者界定为内容生产者,要求其承担内容生产者责任。《管理办法》同时要求使用者承担一定责任,包括不得输入违法违规指令,不得引导AI生成违法违规内容,不得发布侵犯他人权益的内容,否则会面临警示、封号、暂停服务等处置措施。但使用者承担责任与服务提供者不免责似乎是并存的。在此法律框架下,大模型运营者想就违法内容主张免责是比较困难的。
四、结语
就在本文即将完稿之时,美国白宫发布消息称,微软、谷歌、Open AI等七家科技公司与拜登政府达成AI安全协议,自愿承诺负责任的创新,并在未来产品发布、使用等过程中遵守安全、保障、信任的基本原则[38] 。这是美国在AI安全实践方面的最新进展,这种政府主导下企业做出承诺的方式体现了治理方式的灵活性。
中国的大模型开发者,应在遵守中国法律和监管要求的前提下,积极借鉴Open AI等先行者的最佳安全实践,探索大模型安全与合规之道。
注释
[1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/,最后访问时间:2023年7月13日。
[2] https://www.reuters.com/technology/ai-experts-disown-musk-backed-campaign-citing-their-research-2023-03-31/,最后访问时间:2023年7月22日。
[3] https://www.safe.ai/statement-on-ai-risk#open-letter,最后访问时间:2023年7月13日。
[4] https://www.reuters.com/technology/un-chief-backs-idea-global-ai-watchdog-like-nuclear-agency-2023-06-12/,最后访问时间:2023年7月13日。
[5] https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf,最后访问时间:2023年7月16日。
[6] https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-rules-for-artificial-intelligence,最后访问时间:2023年7月22日。
[7] https://www.theverge.com/2023/1/16/23557098/generative-ai-art-copyright-legal-lawsuit-stable-diffusion-midjourney-deviantart,最后访问时间:2023年7月13日。
[8] https://www.livemint.com/technology/apps/chatgpt-bug-leaked-payment-data-conversation-titles-of-users-confirms-openai-11680005948924.html,最后访问时间:2023年7月13日。
[9] https://openai.com/blog/our-approach-to-ai-safety,最后访问时间:2023年7月13日。
[10] https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf,最后访问时间:2023年7月22日。
[11] https://www.judiciary.senate.gov/imo/media/doc/2023-05-16_-_qfr_responses_-_altman.pdf,最后访问时间:2023年7月15日。
[12] https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-rules-for-artificial-intelligence,最后访问时间:2023年7月15日。
[13] https://www.judiciary.senate.gov/imo/media/doc/2023-05-16_-_qfr_responses_-_altman.pdf,最后访问时间:2023年7月15日。
[14] https://indianexpress.com/article/technology/artificial-intelligence/class-action-lawsuit-against-openai-explained-8693950/,最后访问时间:2023年7月13日。
[15] https://openai.com/research/language-model-safety-and-misuse,最后访问时间:2023年7月13日。
[16] https://openai.com/research/language-model-safety-and-misuse,最后访问时间:2023年7月13日。
[17] https://openai.com/blog/our-approach-to-ai-safety,最后访问时间:2023年7月13日。
[18] https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf,最后访问时间:2023年7月15日。
[19] https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/,最后访问时间:2023年7月22日。
[20] https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf,最后访问时间:2023年7月15日。
[21] https://openai.com/policies/privacy-policy,最后访问时间:2023年7月13日。
[22] https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance,最后访问时间:2023年7月13日。
[23] https://openai.com/blog/our-approach-to-ai-safety,最后访问时间:2023年7月13日。
[24] https://openai.com/policies/api-data-usage-policies,最后访问时间:2023年7月13日。
[25] https://openai.com/policies/api-data-usage-policies,最后访问时间:2023年7月13日。
[26] RLHF,即开发者从人类专家处收集演示数据(给定一个输入,演示模型应当如何响应)和模型输出的排名数据(给定一个输入和几个输出,将输出结果从高到低进行排名),利用演示数据通过监督学习(SFT)对模型进行微调以模仿演示中的行为,利用排名数据训练奖励模型(RM),RM模型可以预测平均标注者对给定输出的偏好并使用信号作为奖励,通过强化学习(特别是PPO算法)对GPT-4 SFT模型进行微调。
[27] https://openai.com/policies/usage-policies,最后访问时间:2023年7月13日。
[28] https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-rules-for-artificial-intelligence,最后访问时间:2023年7月22日。
[29] https://openai.com/policies/terms-of-use,最后访问时间:2023年7月14日。
[30] https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-rules-for-artificial-intelligence,最后访问时间:2023年7月22日。
[31] https://openai.com/research/forecasting-misuse,最后访问时间:2023年7月15日。
[32] https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-rules-for-artificial-intelligence,最后访问时间:2023年7月22日。
[33] https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf,最后访问时间:2023年7月15日。
[34] https://www.judiciary.senate.gov/imo/media/doc/2023-05-16_-_qfr_responses_-_altman.pdf,最后访问时间:2023年7月15日。
[35] https://uscode.house.gov/view.xhtml?req=(title:47%20section:230%20edition:prelim),最后访问时间:2023年7月16日。
[36] https://mp.weixin.qq.com/s/HmKYQHzvATYSOndPX6tWfg,最后访问时间:2023年7月16日。
[37] https://www.zdnet.com/article/chatgpt-wont-enjoy-same-protection-under-section-230-as-social-media-analysis/,最后访问时间:2023年7月16日。
[38] https://www.whitehouse.gov/briefing-room/speeches-remarks/2023/07/21/remarks-by-president-biden-on-artificial-intelligence/,最后访问时间:2023年7月22日。
前沿科技法律观察专栏往期文章 
作者介绍
袁立志律师是注册信息隐私专业人员(CIPP/E)、注册信息隐私管理人员(CIPM)、注册信息安全专业人员(CISP),参与多项信息安全技术标准的编制,并兼任华东政法大学数字法治研究院特聘研究员,华东师范大学法学院校外实务导师,“数据安全推进计划”智库专家,WeLegal法商学院特聘导师。
袁律师的执业领域为网络与数据法、前沿科技法律事务,曾为众多国内外知名企业提供法律服务,承办了一系列前沿的、富有挑战性的项目,积累了丰富的实践经验,是该领域的知名专家。
袁律师连续多年名列The Legal 500数据保护和TMT领域“特别推荐律师”以及LEGALBAND中国顶级律师排行榜“网络安全与数据”第一梯队,先后荣获中国律师特别推荐榜15强:网络安全与数据合规,中国律师特别推荐榜15强:高科技与人工智能;中国法律商务(China Law & Practice)年度网络安全杰出律师提名,DHR公会“数字化人力资源管理数据合规专家”,Ace Legaltech Award年度大奖“Top 20 Data Privacy Lawyers”等奖项。
袁立志律师历史文章 
继续阅读
阅读原文