引 言
人工智能(AI)逐渐成为当今国际竞争的关键因素。作为AI发展前列国家,中国AI产业竞争力持续增强,企业数量不断增多。截至2024年3月,中国AI企业数量超过4500家,约占全球企业总数的1/7。2024年8月,中国已备案上线可提供服务的生成式AI大模型超过190个,注册用户数超过6亿。 1
在AI产业迅速发展的同时,AI的法律监管问题也逐渐成为各国立法的关注重点。中国国务院于2017年发布的《新一代人工智能发展规划》提出了AI立法的"三步走"计划:到2025年,中国将初步建立AI法律法规、伦理规范和政策体系,到2030年,中国将建成更加完善的AI法律法规、伦理规范和政策体系。
为了应对快速发展的人工智能新技术,中央网络安全和信息化委员会办公室("国家网信办")在《个人信息保护法》《网络安全法》和《数据安全法》等法律规定外,陆续制定了《算法推荐管理规定》(以下简称"《算法推荐规定》")、《深度合成管理规定》(以下简称"《深度合成规定》")和《生成式人工智能》(以下简称"《AIGC管理办法》")三部部门规章,分别规制算法推荐技术、深度合成技术和生成式人工智能技术。
中国目前在AI领域的立法方式保障了监管制度的灵活性,能够及时应对新技术产生的风险,满足人工智能行业从业者对于规则的急切需求,但是在实践中部分问题仍有待于后续的执行细则和国家标准进行理清并提供详尽的指引。
与此同时,为规范AI行业发展,细化AI发展要求,全国网络安全标准化技术委员会等部门逐步制定了AI领域的国家标准与行业标准,涉及AI预训练与优化训练、数据标注、机器学习、内容标识等多方面内容。其中,2024年3月1日发布的《生成式人工智能服务安全基本要求》对AIGC的安全评估义务提出了具体规范和要求,是中国第一部有关AIGC服务安全性方面的技术性指导文件。
除此之外,中国也专门针对部分行业进行特别立法,如在医疗行业颁布了《互联网诊疗监管细则(试行)》《人工智能医用软件产品分类界定指导原则》和《人工智能医疗器械注册审查指导原则》等文件,在智能网联汽车领域也颁布了《智能网联汽车道路测试与示范应用管理规范(试行)》等规范。
本文将围绕中国AI立法,梳理在中国提供AI服务前和提供服务过程中企业应当遵守的合规义务,解读中国AI司法与执法实践中的关注热点,并前瞻中国AI立法的未来发展。
一、中国AI法律制度下的合规义务
(一)提供AI服务前的主要合规义务
前述提及的三部AI法规规定了AI服务提供者在服务提供前开展算法预训练、数据标注、备案和安全评估等方面的义务。
1、备案与安全评估义务
这一义务是目前中国实践中关注的重点。《算法推荐管理规定》《深度合成规定》和《AIGC管理办法》都对于"具有舆论属性或者社会动员能力"的服务提供者提出了更严格的监管要求。但是上述规章均未对何为"舆论属性"和"社会动员能力"给出明确的定义。根据《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》第2条的定义," 具有舆论属性或社会动员能力的互联网信息服务包括(一)开办论坛、博客、微博客、聊天室、通讯群组、公众账号、短视频、网络直播、信息分享、小程序等信息服务或者附设相应功能;(二)开办提供公众舆论表达渠道或者具有发动社会公众从事特定活动能力的其他互联网信息服务。"而在实践中,这一概念的范围存在扩大的趋势,相关服务或产品只要是具有公开属性且面对不特定用户,例如允许公众注册、使用或者向用户发布、推送信息,都有可能属于"具有舆论属性或者社会动员能力"。
此类人工智能服务提供者需要进行算法备案并开展算法安全自评估。备案义务分为算法备案与大模型备案两种。
(1)算法备案
算法推荐服务提供者和深度合成服务提供者应自提供服务之日起十个工作日内通过互联网信息服务算法备案系统 2填报算法服务提供者信息、算法数据与模型的信息、算法拟公示的内容,提交算法安全自评估报告等材料,向国家互联网信息办公室履行算法备案义务。在实践中,服务提供者需要具体从算法本身的风险(例如算法滥用风险、算法被恶意利用风险、算法漏洞风险)、违法和不良信息生成与扩散的风险、数据和用户信息安全保护的风险、人工智能服务的合法性、落实法律、行政法规、部门规章和标准规定的安全措施的有效性,以及防控安全风险的有效性等情况进行全面的自评估,并将评估结果提交给网信办等有关部门。
依据《算法推荐规定》,备案材料齐全的,网信部门将在三十个工作日内予以备案,发放备案编号并进行公示。在完成备案手续后,算法服务提供者还应当在其对外提供服务的网站、应用程序等的显著位置标明其备案编号并提供公示信息链接。
2022年8月至2024年12月,国家互联网信息办公室陆续发布了十批《境内互联网信息服务算法备案清单》和九批《境内深度合成服务算法备案清单》,累计共有520项算法完成互联网信息服务算法备案,2,841项算法完成深度合成服务算法备案。其中也包含一些外资企业。例如,惠普于2024年8月完成深度合成算法备案,米思米和屈臣氏分别于2023年4月和2024年4月完成算法推荐备案。
(2)大模型备案
除算法备案之外,针对生成式AI服务(大语言模型)上线,AI服务提供者还需要通过省级网信办履行大模型备案义务,并依据《AIGC管理办法》第十七条履行安全评估义务。
2024年3月1日,全国网络安全标准化技术委员会发布《AIGC安全要求》,更具体地列举了生成式人工智能的语料安全、模型安全、安全措施、词库/题库要求、安全评估等方面的内容:
- 对语料来源安全采取双重评估机制,语料采集前后,违法信息不得超过5%;
- 如需基于第三方基础模型提供服务,应使用已经主管部门备案的基础模型。
- 采取必要的安全措施,例如,使用者连续三次或一天内累计五次输入违法不良信息或明显诱导生成违法不良信息的,应依法依约采取暂停提供服务等处置措施;
- 对语料安全、生成内容、问题拒答等方面进行安全评估,应当满足相应的合格率。
需要说明的是,在实践中,网信办除审核材料以外,还会要求提供模型的API接口进行接口测试,并且也会直接体验使用产品以及进行裸模型测试。目前已经陆续有不少国产大模型通过了生成式人工智能的安全评估及备案。截止2024年11月,根据互联网公开信息,已有至少252个大模型产品陆续通过大模型备案,并正式向公众提供服务,其中既包括通用模型,也包括诸多垂类模型。
另外,根据我们对于目前监管实践的观察,如果境外主体提供的生成式AI服务希望在中国境内完成算法备案及大模型备案,则需要将拟备案的大模型及算法对应的服务器部署在中国境内,并由境内主体申请备案。
在执法实践中,重庆网信办曾在2024年处罚未办理备案的AIGC企业。 3例如"灵象智问AI"因未经安全测评备案、违规提供AIGC服务问题,被责令立即停止相关服务,目前该网站已无法访问。
2、开展算法预训练的义务
根据《AIGC管理办法》第七条的规定,生成式AI服务提供者有依法开展预训练、优化训练等训练数据处理活动的义务。开展此类活动时,AI服务提供者应当使用具有合法来源的数据和基础模型,并采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。《深度合成规定》第十四条要求深度合成服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全,训练数据包含个人信息的,应当遵守个人信息保护的有关规定。
2024年3月28日,国家市场监督管理总局、国家标准化管理委员会发布《信息安全技术 生成式人工智能预训练和优化训练数据安全规范(征求意见稿)》(简称"《预训练和优化训练安全规范》"),对开展训练数据处理活动作出了进一步的规范,该文件目前仍未正式定稿实施。
3、数据标注义务
生成式AI数据标注(generative artificial data annotation)主要是指"通过人工操作或使用自动化技术机制,基于对提示信息的响应信息内容,将特定信息如标签、类别或属性添加到文本、图片、音频、视频或者其他数据样本的过程"。简而言之,通过对上述数据样本进行加工处理,可以使它们转变为机器可识别的信息。而通过使用经过标注数据进行训练,AI模型能逐渐学会如何分析和处理信息,进而实现各种智能化应用。
《AIGC管理办法》第八条规定,在AIGC技术研发过程中进行数据标注的,提供者应当制定符合该规定要求的清晰、具体、可操作的标注规则,开展数据标注质量评估,抽样核验标注内容的准确性,对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。
2024年4月3日,全国信息安全标准化技术委员会发布了《信息安全技术 生成式人工智能数据标注安全规范(征求意见稿)》,对数据标注的基础安全、数据标注规则、标注人员、数据标注核验四方面作了要求。 4目前,该标准仍未正式定稿实施。
4、制定平台规则和真实身份信息认证义务
《深度合成规定》要求服务提供者在提供服务前还应当制定和公开管理规则、平台公约,完善服务协议,并以显著方式提示深度合成服务技术支持者和使用者承担信息安全义务。另外,服务提供者应当基于移动电话号码、身份证件号码、统一社会信用代码或者国家网络身份认证公共服务等方式,依法对深度合成服务使用者进行真实身份信息认证,不得向未进行真实身份信息认证的深度合成服务使用者提供信息发布服务。
(二)提供AI服务过程中的合规义务
在提供AI服务过程中,服务提供者有义务对AI生成的内容进行标识与审核,同时需要履行个人信息保护、网络安全保护等义务。针对未成年人特殊群体,应根据相关规定履行特定义务。另外,服务提供者也应当监督AI服务使用者的行为,及时对违法行为进行整改。
1、内容标识义务
目前内容标识是中国监管部门最为重视的话题之一。AIGC及深度合成服务提供者需要对其生成的图片、视频等信息内容添加不影响用户使用的标识,以向公众提示信息内容的合成情况。在可能造成公众混淆或误认的特定情况下,服务提供者、使用者应当在生成或编辑的信息内容的合理位置、区域进行显著标识,避免公众混淆或者误认。《深度合成规定》列举了需要显著标识的情形,例如智能对话、智能写作、合成人声、仿声、人脸生成、人脸替换、人脸操控等生成或编辑服务。
2023年8月25日,全国网络安全标准化技术委员会(TC260)制订了《网络安全标准实践指南—生成式人工智能服务内容标识方法》(简称"《内容标识指南》"),对标识义务的具体要求提供了指引。2024年9月14日,国家网信办发布了《人工智能生成合成内容标识办法(征求意见稿)》,将《内容标识指南》中的部分要求正式确定为了法律规定。TC260也随即发布了《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》作为该办法的配套性文件。
根据能否被用户明显感知,内容标识可被分为显式标识和隐式标识两类。服务提供者需要在AIGC生成内容的文件元数据中添加隐式标识,包含生成合成内容属性信息、服务提供者名称或编码、内容编号等制作要素信息。与此同时,提示文字或水印标识应至少包含"由人工智能生成"或"AI生成"等显式标识,不同形式的AIGC生成内容还需要遵循不同的显式标识要求,例如:图片显式标识文字高度应不低于画面最短边长度的5%;视频显式标识应添加在视频起始画面和视频播放周边的适当位置,由自然人转为人工智能提供服务时,应至少通过"人工智能为您提供服务"或"AI为您提供服务"等文字或语音进行提示,以避免使用者混淆。
2、内容审核义务
《深度合成规定》第六条对任何组织和个人设置了深度合成内容的红线,即"不得制作、复制、发布、传播法律、行政法规禁止的信息,不得从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动"。
深度合成服务提供者有义务加强深度合成内容管理,采取技术或者人工方式对服务使用者的输入数据和合成结果进行审核。同时,服务提供者应建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序,记录并留存相关网络日志。在发现违法和不良信息时,应当依法采取处置措施,保存有关记录,及时向网信部门和有关主管部门报告;对相关深度合成服务使用者依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施。
在实践中曾出现过因违反《深度合成规定》第六条而遭到处罚的案例。例如重庆初唱科技有限公司运营的"开山猴AI写作大师"网站存在违规生成法律法规禁止信息的情况,重庆网信办认为其未尽到内容审核义务,违反了《网络安全法》和《AIGC管理办法》等相关法律法规,对其进行了处罚。 5
3、个人信息保护和网络安全保护义务
与其他服务一样,在提供AI服务时也需要遵循中国《个人信息保护法》和《网络安全法》规定的义务。除此之外,《算法推荐规定》《深度合成规定》和《AIGC管理办法》三部法规也对个人信息保护和网络安全保护提出了特别要求:
- AIGC服务提供者不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。
- 深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。此种"单独同意"有别于"一揽子同意"或"概括性同意",在实践中,可以采用"知情同意界面"交互设计的方式取得同意,例如设置独立的弹窗、下滑查看详情的嵌套网页、跳转到另一页面给出增强告知等。
- 算法推荐服务提供者应向用户提供不针对其个人特征的选项或者便捷的关闭算法推荐服务的选项,并提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能。
- 算法推荐服务提供者应当落实算法安全主体责任,建立健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络诈骗、安全评估监测、安全事件应急处置等管理制度和技术措施。
4、针对特殊群体的合规义务
针对未成年人、老年人、劳动者、消费者等特殊群体,《算法推荐规定》《深度合成规定》和《AIGC管理办法》三部法规对服务提供提出了特别要求。这一点在《算法推荐规定》中体现得最为明显:
5、针对违法行为的整改义务
AI服务提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。提供者发现使用者利用AIGC从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。
(三)伦理审查义务
除上述提及的义务外,AI服务提供者还应当遵守《科技伦理审查规范(试行)》等规范中规定的伦理审查义务。2023年10月08日颁布的《科技伦理审查规范(试行)》要求从事人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。委员会成员人数不少于7人,委员会应按照该规范要求制定本单位科技伦理风险评估办法,指导科技人员开展科技伦理风险评估。该规范第十五条要求,数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当。
此外,全国信息安全标准化技术委员会于2021年4月18日发布的《网络安全标准实践指南——人工智能伦理安全风险防范指引》和国家新一代人工智能治理专业委员会于2021年9月25日发布的《新一代人工智能伦理规范》适用于从事AI管理、研发、供应、使用等相关活动,针对AI可能产生的伦理安全风险问题提供了指引。
二、执法与司法实践的关注热点
除上述三部法规及标准规定的合规义务外,在中国目前的执法与司法实践中,知识产权和个性化推荐问题也在AI领域引发了较为强烈的关注。
(一)AI与知识产权
近年来,在知识产权领域出现了多起与AI相关的法律纠纷,涉及AIGC平台著作权侵权、AIGC生成图片的著作权认定、"虚拟数字人"的著作权保护等问题,这也提醒了人工智能企业需要重视知识产权方面的合规。
例如,在广州互联网法院审理的"AIGC平台侵权"第一案中,原告为"奥特曼"系列美术作品的著作权人,被告为某AIGC网站经营者,提供具有AI对话及AI生成绘画功能的服务。在被告网站输入"生成奥特曼"或"奥特曼拼接长发"等指令,能够生成与原告奥特曼形象构成实质性相似的图片,且该功能需要付费充值。
法院认为,被告AIGC平台未经许可生成奥特曼图片,部分或完全复制和改编了"奥特曼"这一美术形象的独创性表达,侵犯了原告对案涉奥特曼作品的复制权与改编权。对于民事责任的承担问题,法院认为被告"应采取技术性措施来停止生成与案涉奥特曼作品实质性相似的图片"。并且,基于被告平台存在欠缺投诉举报机制、潜在风险提示和显著标识的情况,法院认定被告未尽到注意义务,存在主观过错,应对侵权行为承担相应的赔偿责任。 6
与此相关的另一起北京互联网法院审理"AI生成图片"著作权案也引发了学界与实务界的热议。该案原告使用AI模型生成涉案图片后发布于社交平台,被告未经许可使用了该图片。法院认为,该图片的生成不是通过搜索引擎调用已有的现成图片,也不是将软件设计者预设的各种要素进行排列组合,而是通过"设计人物的呈现方式、选择提示词、安排提示词的顺序、设置相关的参数、选定哪个图片符合预期"等方式获得,该图片与在先作品存在可识别的差异性,能够体现原告的个性化表达。因此,该图片满足了"智力成果"和"独创性"的要求,符合"美术作品"的定义,原告享有该美术作品的著作权。
法院最终判令被告应当向原告承担赔礼道歉、赔偿损失的民事责任。 7然而,并非所有通过AI生成的内容都能被视为作品,法院认为,AI使用者"提出的需求与他人越具有差异性,对画面元素、布局构图描述越明确具体,越能体现出人的个性化表达"。
除此之外,北京互联网法院首例"AI声音人格权"侵权案中认定,被告未经许可AI化使用了原告的声音,侵犯了原告的人格权; 8
杭州市中级人民法院在首例"虚拟数字人"案中认定,"虚拟数字人"无法享有著作权及邻接权,不享有作者身份,但其形象及相关视频属于著作权法保护的客体。 9
(二)个性化推荐
现今社会,以个性化推荐为代表的决策类算法逐渐深入人们的生活。越来越多的经营者开始利用人工智能技术提供个性化的"服务"。经营者会在交易过程中搜集消费者的个人信息,建立用户画像,通过算法精准地捕捉消费者需求,继而实现"千人千面"的效果。但与此同时,个性化推荐也引发了不少的争议。例如,一些经营者在对用户进行标签分类和分析预测的基础上,对特定用户进行歧视性定价,损害了消费者的福利。此外,个性化推荐还会限制用户接受到的信息,从而构建起"信息茧房"。
对于上述问题,在对《反不正当竞争法》修订过程中,曾在2022年11月公布的《反不正当竞争法(修订草案征求意见稿)》提及"经营者不得利用算法,通过分析用户偏好、交易习惯等特征,在交易条件上对交易相对方实施不合理的差别待遇或者进行不合理限制,损害消费者、其他经营者的合法权益和社会公共利益,扰乱市场公平竞争秩序"。虽然最终生效实施的《反不正当竞争法》并未纳入上述条款,但在正式定稿的第十二条中,对一些典型的网络不正当竞争行为作出了禁止性规定。2024年5月发布的《网络反不正当竞争暂行规定》也进一步明确了"经营者不得利用技术手段,对条件相同的交易相对方不合理地提供不同的交易条件,侵害交易相对方的选择权、公平交易权等,妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行,扰乱市场公平交易秩序"。
除了反不正当竞争角度的监管外,《算法推荐规定》第十七条以及《个人信息保护法》《App推荐算法用户权益保护技术要求及测评规范》《关于开展纵深推进APP侵害用户权益专项整治行动的通知》等文件也对各类软件开展个性化推荐服务做出了事前的限制。总体来说,个性化推荐需要符合以下要求:
应以个人信息处理规则弹窗等形式向用户明示,将收集的用户个人信息用于定向推送、精准营销。
应当为消费者提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。
不得对个人在交易价格等交易条件上实行不合理的差别待遇。
实践中,监管部门在日常监督活动中会重点检查企业的APP或者小程序是否存在违反个性化推送法律规定的行为。例如,2024年工业和信息化部(MIIT)在例行执法检查中发现"早鸟学生机票"、 10 "甄会选"11 和"三国志之九州战" 12 等APP存在"强制用户使用定向推送功能"的违法行为,并要求其整改。未按要求进行整改的APP可能面临下架风险。
三、中国人工智能立法发展的未来展望
在立法方面,许多学者专家曾建议中国应制订一部综合性的人工智能法。为此,2024年3月19日,来自七所高校专家发布了《中华人民共和国人工智能法(学者建议稿)》;2024年4月16日,中国社会科学院法学研究所等机构也起草并发布了《人工智能示范法2.0(专家建议稿)》。两份建议稿都聚焦了社会关心的人工智能治理焦点问题,并提出了各自的治理方案。 13
国务院也在2023年和2024年的《立法工作计划》中提及"预备提请全国人大常委会审议人工智能法草案",但全国人大常委会在相应的立法工作规划中仅使用"推进人工智能健康发展"等表述,尚未出现法律形式的立法规划。因此,未来中国AI立法是采取与欧盟《人工智能法》类似的综合性立法还是采用分散性立法的问题,仍有待进一步研究与观望。 14
而在国家标准方面,2024年6月5日,工业和信息化部等部门发布的《国家人工智能产业综合标准化体系建设指南(2024版)》明确,到2026年,计划新制定国家标准和行业标准50项以上,开展标准宣贯和实施推广的企业超过1000家,参与制定国际标准20项以上,促进AI产业全球化发展。目前,《人工智能 深度学习框架功能要求》《人工智能 风险管理能力评估》等标准正在起草过程中,《网络安全技术 人工智能生成合成内容标识方法》《预训练和优化训练安全规范》等标准已处于征求意见阶段。
随着新技术的发展,新问题涌现,相应的监管也将继续加强,我们建议企业在依据现行法律法规建立合规框架的基础上,持续关注未来几年中国AI的立法动向,并依据最新出台的国家和行业标准不断更新自身合规体系,以确保AI服务提供的合规性。
脚注
1 参见https://www.cace.org.cn/NEWS/COUNT?a=5663.
2 参见 https://beian.cac.gov.cn/#/notice.
3 参见 https://mp.weixin.qq.com/s/X_crk8C-T8-9btp59GJzCg.
4 See https://view.officeapps.live.com/op/view.aspx?src=https%3A%2F%2Fwww.tc260.org.cn%2Ffile%2F2024-04-01%2F74934f4a-4ba1-4bfc-856f-8e526ba6927b.docx&wdOrigin=BROWSELINK.
5 参见 https://mp.weixin.qq.com/s/ZnS_AlJmDzMkkt28Blt8JA.
6 参见(2024)粤0192民初113号民事判决书。
7 参见(2023)京0491民初11279号民事判决书。
8 参见(2023)京0491民初12142号民事判决书。
9 参见(2022)浙0192民初9983号民事判决书和(2023)浙01民终4722号民事判决书。
10 参见
https://wap.miit.gov.cn/xwdt/gxdt/sjdt/art/2024/art_f9c4134ea5a6444db3f023ac0bf0aaff.html
11 参见
https://wap.miit.gov.cn/xwdt/gxdt/sjdt/art/2024/art_c3866f938a0f4bf997c30a8bdafb992c.html
12 参见
https://wap.miit.gov.cn/xwdt/gxdt/sjdt/art/2024/art_b3afc9806f2648b9b6954af57f80b4a4.html.
13 参见 http://www.fxcxw.org.cn/dyna/content.php?id=26910.
14 参见 https://static.nfapp.southcn.com/content/202308/16/c8002535.html.
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.