引言 
2022年底ChatGPT以及2023年初GPT-4的横空出世引燃了公众对于生成式人工智能的关注,AI大模型展示出之前AI所不具备的通识、逻辑能力及创造力,令世界对于该等技术未来在不同领域的应用充满了无限期待。与机遇相伴随的,是新的生成式人工智能技术(“AIGC技术”)在伦理、社会及法律等方面带来的严峻挑战。
2023年8月15日,国家互联网信息办公室会同国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部及国家广播电视总局共同制定的我国人工智能服务领域的首部部门规章《生成式人工智能服务管理暂行办法》正式施行(“《AIGC管理暂行办法》”),明确了生成式人工智能服务领域的监管范围及原则。
2023年10月8日,科学技术部、教育部、工业和信息化部等多部门联合发布《科技伦理审查办法(试行)》(“《科技伦理审查办法》”),旨在规范科学研究、技术开发等科技活动的科技伦理审查工作,强化科技伦理风险防控,促进负责任创新。
本文将结合《中华人民共和国科学技术进步法》(“《科学技术进步法》”)《科技伦理审查办法》《AIGC管理暂行办法》《互联网信息服务深度合成管理规定》(“《深度合成管理规定》”)等法律法规及规范性文件,对于AIGC技术的伦理安全风险及AIGC研发者、服务提供者及使用者所需要遵守的主要科技伦理合规要求进行梳理。
一、 主要伦理安全风险
2021年1月,全国信息安全标准化技术委员会(“信安标委”)秘书处发布《网络安全标准实践指南——人工智能伦理安全风险防范指引》(《AI伦理安全风险防范指引》),其中总结了人工智能伦理安全风险,主要包括:
1.失控性风险 
人工智能的行为与影响超出研究开发者、设计制造者、部署应用者所预设、理解、可控的范围,对社会价值等方面产生负面影响的风险。人工智能的行为与影响超出研究开发者、设计制造者、部署应用者所预设、理解、可控的范围,对社会价值等方面产生负面影响的风险。
2.社会性风险 
人工智能使用不合理,包括滥用、误用等,对社会价值等方面产生负面影响的风险。
3.侵权性风险 
人工智能对人的基本权利,包括人身、隐私、财产等造成侵害或产生负面影响的风险。
4.歧视性风险 
人工智能对人类特定群体的主观或客观偏见影响公平公正,造成权利侵害或负面影响的风险。
5.责任性风险 
人工智能相关各方行为失当、责任界定不清,对社会信任、社会价值等方面产生负面影响的风险。
为应对及防控前述伦理安全风险,法律法规及政策性文件加强了AIGC技术研发者、服务提供者及使用者的科技伦理合规要求,主要包括科技伦理审查要求以及伦理规范要求。
二、科技伦理审查 
除上位法《科学技术进步法》中关于科学技术研究开发机构、高等学校、企业事业单位等对科学技术活动开展科技伦理审查的要求外,《互联网信息服务算法推荐管理规定》及《深度合成管理规定》均要求算法推荐服务提供者或深度合成服务提供者建立健全并落实科技伦理审查等管理制度和技术措施。
《科技伦理审查办法》对于科技伦理审查的适用范围、审查主体、审查程序、监督管理等方面进行了明确,具体要求如下:
1.审查主体
从事人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,科技伦理(审查)委员会的职责范围及人员构成如下:
(1)职责范围:包括但不限于制定完善科技伦理(审查)委员会的管理制度和工作规范;提供科技伦理咨询;开展科技伦理审查;对于科技活动是否属于需要专家复核的范围作出判断;组织开展对委员的科技伦理审查业务培训和科技人员的科技伦理知识培训;受理并协助调查相关科技活动中涉及科技伦理问题的投诉举报;处理国家科技伦理管理信息登记平台的登记、报告等。
(2)人员构成及任职要求:科技伦理(审查)委员会人数应不少于7人,设主任委员1人,副主任委员若干。委员会由具备相关科学技术背景的同行专家,伦理、法律等相应专业背景的专家组成,并应当有不同性别和非本单位的委员,民族自治地方应有熟悉当地情况的委员。委员任期不超过5年,可以连任。
2.科技伦理(审查)委员会的登记及报告
(1)科技伦理(审查)委员会设立登记:单位应在设立科技伦理(审查)委员会后30日内,通过国家科技伦理管理信息登记平台进行登记。登记内容包括科技伦理(审查)委员会组成、章程、工作制度等。
(2)纳入清单管理的科技活动的登记:单位应在纳入清单管理的科技活动获得伦理审查批准后30日内,通过国家科技伦理管理信息登记平台进行登记。登记内容包括科技活动实施方案、伦理审查与复核情况等,相关内容发生变化时应及时更新。
(3)年度工作报告:单位应于每年3月31日前,向国家科技伦理管理信息登记平台提交上一年度科技伦理(审查)委员会工作报告、纳入清单管理的科技活动实施情况报告等。
3.科技伦理审查重点
根据《科技伦理审查办法》第十五条,科技伦理审查的重点内容包括是否符合《科技伦理审查办法》规定的科技伦理原则、参与科技活动人员资质、研究基础和设施条件、科技活动的科学价值及社会价值、参与者的权利保护、实验动物福利、数据合规、利益冲突申明及管理方案等,其中与AIGC技术关系较为密切的核查要点包括:
(1)研究目标的实现对增进人类福祉、实现社会可持续发展等具有积极作用。科技活动的风险受益合理,伦理风险控制方案及应急预案科学恰当、具有可操作性;
(2)数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当;及
(3)生物样本的收集、储存、使用及处置合法合规,个人隐私数据、生物特征信息等信息处理符合个人信息保护的有关规定。
4.一般审查流程 
点击可参看
5.专家复核 
根据《科技伦理审查办法》,开展纳入清单管理的科技活动的,通过科技伦理(审查)委员会的初步审查后,由本单位报请所在地方或相关行业主管部门组织开展专家复核。
根据《科技伦理审查办法》附件,“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”、“对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发”及“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”均属于需要开展伦理审查复核的科技活动,因此AIGC技术的大模型研发除涉及科技伦理(审查)委员会的科技伦理审查外,还可能需要履行专家复核流程。
6.违规处罚 
AIGC科研机构、企业及相关科研人员应当重视科技伦理审查。根据《科技伦理审查办法》,如科技活动承担单位、科技人员存在未按照规定通过科技伦理审查和专家复核擅自开展纳入清单管理的科技活动,未按照规定获得科技伦理审查批准擅自开展科技活动或存在其他违反《科技伦理审查办法》的情形,可能面临主管部门的调查和处罚,如构成犯罪还可能被追究刑事责任。
 三、 人工智能主要伦理规范 
2021年9月25日,国家新一代人工智能治理专业委员会公布《新一代人工智能伦理规范》,对于AIGC服务研发、供应、应用等各个环节提出伦理规范要求。我们结合《AI伦理安全风险防范指引》及《新一代人工智能伦理规范》,对于伦理规范要求总结如下:
 四、结语 
综上所述,AIGC作为划时代的技术,既是机遇也是挑战。在AIGC创业创新的热潮中,我们必须时刻关注科技伦理合规的重要性。随着该领域新的法律法规、规章制度及政策的不断出台,我们强烈建议AIGC创业者建立完善的科技伦理合规制度并采取最佳实践,确保企业的可持续发展。这不仅是对法律的遵守,更是对社会责任和人类价值观的坚守。
前沿科技法律观察专栏往期文章 
作者介绍
竞天公诚王勇先生拥有在国内外多家顶级律所20多年的从业经验,为数百家基金客户和资管机构组建了一千多支境内外基金和资管产品,亦代表众多客户从事私募投融资和资本市场交易。
王勇先生任中国保险资产管理业协会入库专家、上海市金融办QFLP/QDLP试点项目专家评委、厦门市政府产业基金专家评委、大中华地区美元基金GP路演专家评委、业内知名IR培训计划导师等职,亦经常受托为中国证监会、基金业协会等就各种法律法规和行业规则的制定提供咨询意见,连续多年被Chambers、IFLR1000、Who’s Who Legal、The Legal 500、asialaw Leading Lawyers、asialaw Profiles、《银行、金融、交易法律全球顶级律师指南》《亚洲律师》《商法》《中国法律与实务》、LEGALBAND等国际与国内知名律师评级机构和媒体评为中国“投资基金”“私募股权/创业投资”第一级别律师。
王勇先生毕业于北京大学(法学士/文学士)和哥伦比亚大学(法学博士),亦曾在美国纽约大学攻读税法高等研究学位,并为特许金融分析师(CFA)和特许另类资产分析师(CAIA)。 
继续阅读
阅读原文