ARTICLE
15 April 2025

浅析中美人工智能监管的差异

AB
AnJie Broad Law Firm

Contributor

AnJie Broad Law Firm is a full-service law firm with a wide range of practice areas. We are committed to delivering high-quality bespoke legal solutions to clients. AnJie Broad has extensive experience serving clients in practice areas such as Capital Market & Securities, Antitrust & Competition, Private Equity & Venture Capital, Intellectual Property, Dispute Resolution, Labor & Employment, Cross-border Investment & Acquisition, Insurance & Reinsurance, Maritime & Shipping, Banking & Finance, Energy, International Trade, Technology Media & Telecommunications, Life Sciences & Healthcare, Private Wealth Management, Real Estate & Construction, Hotels Resorts & Tourism and Media, Game and Entertainment & Sports.
如今,人工智能已成为中国跻身先进经济体的核心支柱。 在中国,人工智能的发展得到了政府的大力支持,亦得益于中国庞大的人口数量和通
China Technology

如今,人工智能已成为中国跻身先进经济体的核心支柱。 在中国,人工智能的发展得到了政府的大力支持,亦得益于中国庞大的人口数量和通过各类数字平台收集的数据。 因此,中国在通过国家立法管理人工智能方面一直走在前列,为企业提供指导,并为人工智能的应用创造安全的环境。除了对人工智能的开发和使用施加限制外,这些法规 旨在表明政府对人工智能发展的支持态度 ,并明确各利益相关方在人工智能治理中的角色和责任 。

美国则更多地依靠政府机构扩大其现有职权范围,以涵盖对人工智能的使用和开发的监管,总体上鼓励充满活力的私营经济通过创业发展人工智能。

在本文中,我们试图探讨和比较两国监管和执法活动的不同路径。

算法的透明度和公平竞争

中国在研究算法的设计和部署方面一直具有前瞻性 ,其重点尤其放在算法驱动的推荐技术的应用上,包括人工智能生成内容( AIGC)、个性化推送、自动决策和其他相关在线服务。

其中一项重要法规是 2021 年颁布的《互联网信息服务算法推荐管理规定》(《算法管理规定》)。据此,中国国家互联网信息办公室有权(CAC)要求平台对其使用的推荐系统保持公开透明,并公布所使用算法的基本原则、目的和主要机制。此外,该规定还允许用户可以选择不使用算法,以避免成为分析和算法应用的对象。如果算法可能对用户的权益产生重大影响,服务提供商必须做出合理解释,并对任何滥用行为负责。如果服务能够影响公众舆论,则必须将算法的详细信息提交给 CAC,以便对潜在的偏见和滥用行为进行审查。

在保护公众利益方面,《算法管理规定》特别强调了保护弱势群体的重要性。特别是,企业应根据未成年人和老年人的特定需求、其心理和身体状况为其定制算法推荐服务,避免利用算法使未成年人沉迷于网络服务(如网络游戏或短视频)或使老年人遭受电信诈骗。在使用算法 进行人力管理调度时,必须保护工人获得报酬和休息的权利。

在促进互联网服务企业的正当竞争方面,《算法管理规定》禁止企业利用算法干扰、破坏或不合理地限制其他企业的在线服务。

美国尚没有一部专门规制算法技术的法律。 但相关政府机构会利用现有的职权保护公众利益。 例如,美国联邦贸易委员会(FTC)有权对 "不公平或欺骗行为 "进行监管,涉及对人工智能的误导性宣传或者使用人工智可能导致的歧视性结果。

在美国,也有人试图直接对人工智能进行立法。 例如,一项名为《算法问责法》的法案已经被提交至国会,要求开发者对人工智能系统的歧视和隐私风险进行审计。 但迄今为止这项立法尚未获得通过。此外,相关行业组织也推出了自愿遵守的行动指引,如美国国家标准与技术研究院(NIST)提议的人工智能风险管理系统就要求开发者采用最佳实践来管理风险并提高算法的透明度。

数据保护和隐私

人工智能与个人数据相辅相成。 中国已经制定了一套全面的数据保护法规,这对于应对人工智能时代的数据监管需求亦大有裨益。数据监管法律框架包括《网络安全法》(要求网络运营商必须在中国境内存储某些数据)、《数据安全法》(规定应如何保护与国家安全相关的数据)以及《个人信息保护法》(与欧洲的 GDPR 相似,规定了获得用户同意和对使用个人数据的各类限制)。在使用数据开发或应用人工智能技术时,企业必须遵守所有适用的数据保护法规。特别是,提供人工智能工具用于编辑个人生物特征信息(如人脸或人声)的企业必须提醒用户通知相关个人并征得其单独的同意。

相比之下,美国并没有一套全面的数据保护法规。只有一些法律涉及特定行业应如何处理不同类型的数据。 例如,某些医疗数据受《健康保险便携性和责任法案》(HIPAA)的监管, 某些财务记录数据受《格拉姆-里奇-比利雷法案》(GLBA)管辖。

除此之外,各州也纷纷介入这一空白领域——《加州消费者隐私法》(CCPA)就人工智能系统如何收集和管理个人数据为加州居民提供了保护,而弗吉尼亚州和科罗拉多州也有自己独特的数据隐私法要求。

版权

中国和美国的一个分歧点在于,使用人工智能生成的作品是否可以获得版权保护。 美国的一贯立场是版权是针对原创作品的。 法院和美国版权局对 "作者 "的解释是指人类创作者。 这可以追溯到 Naruto 诉 Slater 案,该案认定非人类(猴子)创作的作品不能获得版权保护。 法院和美国版权局据此认为,没有人类创作者的作品(如人工智能生成的内容)不能受到版权保护。

最近颁布的一个决定是 2023 年的 "黎明的扎里亚"案。美国版权局在该决定中最终认定,在一部包含使用人工智能图像生成器生成图片的图文小说中,应区分与图片一起的文字编排(可受版权保护)和图片本身(不可受版权保护)。值得注意的是,对人工智能最初生成的内容进行实质性的编辑也可能使内容变成可以获得版权保护的作品。

在美国,关于人工智能生成内容的可版权性已基本达成共识。但在中国,对于法院是否可以对人工智能生成的内容给予版权保护仍然存在很大争议 ,尤其是当原告声称自己曾为诉争的人工智能生成内容付出了巨大努力时更是如此。一方面,中国没有像美国版权局那样的权威机构有权责就某些作品的可版权性发表权威意见;另一方面,中国法院在裁定人工智能生成的具体作品是否具有可版权性时,似乎 在个案中采取不同的观点。少数法院的判决认为,当人工智能生成的图片符合中国《著作权法》关于作品的法定标准,其有权获得版权保护,即输入相当复杂的提示词并使用人工智能工具生成、修改和润色图片的过程可被视为人类的智力活动,而人工智能软件相当于协助人类作者创作作品的工具(如照相机)。然而,这些案例对未来审判的影响可能非常有限,因为中国并不是判例法国家;此外,一些判决未经上级法院审查即成为有约束力的判决,而法院有争议的说理也引发大量的批评。

执法和处罚

有些人认为,美国采取的较为宽松立法态度对于促进人工智能创新发展非常重要,但也有人可能会说在国家层面制定一套全面的人工智能管理条例,将为从事人工智能开发和使用的企业提供所需的清晰方向。

实际上,在美国和中国,均有多个政府机构参与监管,特别是在执法领域。 就中国而言,执法机构包括CAC和公安部等。《个人信息保护法》规定违法行为最高可被处 5000 万人民币(约合 700 万美元)或企业上一年收入的 5%的罚款。《数据安全法》也规定了处罚措施,违法行为可能导致企业暂时或永久停业。

如预期,在美国执法工作由州和联邦两级共同实施。 FTC可以对从事不公平或欺骗性行为的公司处以罚款;此外,还可以执行同意令,对企业使用数据的方式进行长期限制。此外,美国食品和药物管理局(FDA)对人工智能驱动的医疗设备执行特殊规定,开发者必须通过上市前提交或 De Novo 分类等途径证明其有效性和安全性。 美国证券交易委员会(SEC)和美国商品期货交易委员会(CFTC)也对机器人咨询和人工智能在交易中的应用进行监管。

各州通常都有自己的执法方式,例如伊利诺伊州的《生物识别信息隐私法》(BIPA)允许通过私人诉讼来监督人工智能数据政策。

展望未来

中国和美国的人工智能立法都在不断发展。例如,在中国和美国包括中国各省市和美国各州都致力于通过生物识别隐私法(如人脸识别)来解决与人工智能相关的数据收集问题。

预计还会有更多关于算法公平及消费者保护的规定即将出台。中国监管机构在这方面一直走在前面,美国FTC也对涉嫌歧视的人工智能提出了明确警告。 预计公平性审计和透明报告最终将成为常态。

显然,尽管中国和美国有各自不同的法律框架,但都认识到人工智能要求对个人数据以及算法的使用进行强有力的监督。 随着时间的推移,如果两种立法路径开始出现趋同,亦不足为奇。

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More