背 景
在过去的一年里,全球的目光都被以ChatGPT为代表的大语言模型的问世所吸引,人工智能技术再一次走到了社会的聚光灯下。流畅的自然语言对话交互、高质量的语义理解和智能问答以及强大的AIGC功能掀起一阵人工智能研究和商业开发的热潮。截止2023年5月,全球范围内累计推出的10亿以上参数大语言模型总数已经高达202个,其中中美两国占其中的90%。 1
企业也逐步形成了以B2C、B2B以及B2B2C的三种主要服务模式,市场参与主体包括基础大模型技术服务者、基于基础大模型提供应用的服务提供者、企业用户及个人用户。这些主体共同构成了日益繁荣的人工智能市场生态。
面对人工智能技术的飞速发展以及不断涌现的新商业模式,各国政府也意识到了人工智能在算法歧视、算法黑箱、虚假内容等问题上的负面影响和对人类社会的挑战,并加强对人工智能技术的监管。据不完全统计,截止2024年3月,全球已经发布了超过1,800项人工智能治理相关的政策 2。例如,欧盟率先启动了综合性的人工智能立法工作,欧洲议会已于近日正式投票通过并批准了欧盟《人工智能法案》;2023年,美国白宫政府要求多家人工智能头部企业签署自愿性标准,承诺采取自愿监管措施管理人工智能技术的开发风险。
近年来,我国也陆续发布了《关于进一步压实网站平台信息内容管理主体责任的意见》《关于加强互联网信息服务算法综合治理的指导意见》和《互联网信息服务算法推荐管理规定》("《算法推荐管理规定》")等重要文件,拉开了算法治理的序幕。为了应对以生成式人工智能为代表的深度合成技术发展产生的新风险,国家互联网信息办公室(以下简称"国家网信办")又陆续制定了《互联网信息服务深度合成管理规定》("《深度合成管理规定》")和《生成式人工智能服务管理暂行办法》("《生成式人工智能办法》")。这些规定共同构成中国目前人工智能监管的主要依据。虽然目前我国还未颁布一部统一的人工智能法律,但已逐步形成了涵盖算法安全风险监测、算法安全评估、科技伦理审查、算法备案管理和涉算法违法违规行为处置等重要内容的监管体系。
一、人工智能企业治理框架探索
无论是欧盟颁布的《人工智能法案》、中国政府的一系列立法,以及美国政府对人工智能企业的要求,均含有人工智能企业需建立人工智能内部治理框架方面的内容,涵盖科技伦理审查、内部治理架构、知识产权保护、隐私保护、数据安全等诸多方面。
出于法律合规要求、企业自身的社会责任感以及消除用户顾虑等方面的考量,国内外知名人工智能企业,例如微软、谷歌、OpenAI、亚马逊、Meta、阿里、百度、腾讯,也逐步加强内部治理框架的建设。这些企业的人工智能治理实践,虽有共性的部分,但也因企业基因、文化背景、市场环境、产品侧重、产业链位置等因素的不同而各有特点。由于人工智能时代的迅速来临,各家企业的人工智能治理框架仍显得较为"年轻",但我们相信,观察分析这些人工智能头部企业的人工智能治理实践和探索,对于深刻理解人工智能时代全人类面临的机遇和调整、预判全世界监管部门的立法趋势、为其他企业提供宝贵借鉴均大有裨益。
本文将以微软为例,结合相关法律和监管要求来分析人工智能企业的人工治理框架模式。作为最早布局人工智能服务的国际企业之一,微软自2016年起即开始关注人工智能会给人类社会带来的风险 3,并且不断地在企业内部进行试验和摸索,逐渐构建起了一套较为完整的人工智能治理方案;微软的人工智能服务场景也较为全面,不仅包括面向C端消费者的M365 Copilot产品,还包括面向B端企业用户进行深度开发的Azure OpenAI("AOAI")平台;结合其强大的ToC和ToB系列产品,微软人工智能产品的运营模式也较为成熟。考虑到这些因素,微软为我们的人工智能治理框架研究提供了一个很好的样本。
二、案例分析:微软人工智能治理框架
- 人工智能治理核心理念和原则
各国监管要求
对于人工智能风险管理框架,许多国家和组织都提出了自己的标准。例如美国国家标准技术研究院(NIST)在2023年发布了第一版的《人工智能风险管理框架》(AI RMF 1.0),ISO也在近期推出了ISO/IEC 42001人工智能管理体系标准。虽然业界对于具体的人工智能治理方案争论激烈,但是治理目标上,各国逐渐达成了共识。2023年11月1日,28国及欧盟代表共同签署了全球第一份关于人工智能的国际性声明《布莱切利宣言》。在该宣言中,各国代表一致同意,"为了所有人的利益,人工智能应该以安全、以人为中心、值得信赖和负责任的方式设计、开发、部署和使用。" 4
中国政府也适时公布了人工智能的治理理念。2019年,中国国家新一代人工智能治理专业委员会 5发布了中国治理框架要求:《新一代人工智能治理原则——发展负责任的人工智能》。该文件将发展负责任的人工智能作为治理目标,并确立了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。2021年,该委员会在《新一代人工智能伦理规范》中进一步提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理,以及在人工智能管理、研发、供应、使用等特定活动中的18项具体伦理要求。
在这些原则的指引下,中国监管部门要求各类人工智能服务企业(如算法推荐服务、深度合成服务商)落实算法安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,并采取安全可控的技术保障措施。 6在相关企业提供"具有舆论属性或者社会动员能力"的人工智能服务时,企业还需要开展安全评估确保人工智能产品的风险安全可控。 7
微软人工智能治理的核心原则和标准
微软将发展负责任人工智能(Responsible AI)作为其治理框架的基本原则和核心目标。为了实现该目标,微软在公司内部建构了一套涵盖原则、政策标准以及实施工具的完整的人工智能治理框架。
首先,微软在2018年就确立了六项基本原则,包括:问责制、包容性、可靠性和安全性、公平性、透明度,以及隐私和安全性。其中,微软将"问责制"作为一切原则的基石,因为微软认为必须始终确保人工智能受到人们的有效监督和控制,并由人工智能的设计者与控制者承担责任。 8
在此基础上,微软进一步将这六项原则细化为《负责任人工智能标准》(Microsoft's Responsible AI standard),为每项原则都制定了具体的落实方法,将抽象的理念变成可供执行的实用指南,协助工程师团队提前识别、评估和减轻可能的危害。例如微软将"问责制"原则拆解为明确的实践要求和操作流程,包括要求团队对人工智能系统开展影响评估、审查是否会对外部相关方产生重大不利影响、明确人工智能系统的使用目的、采取合适的数据治理措施、确保人类对人工智能系统的监督和控制能力。 9
微软人工智能治理标准的具体实施
微软通过企业内部的员工培训、测试系统以及监控、审计和合规的治理流程共同配合,推进《负责任的人工智能标准》的实施。此外,微软还设计了一系列治理工具供团队员工参考,例如人工智能影响评估模版、人工智能影响评估指南、透明度说明以及有关通过设计实施负责任的人工智能的详细指引手册。
微软也深刻意识到上述标准化流程和工具并不足以应付现实情况的复杂性。随着技术的不断迭代发展以及人工智能在各个行业领域中的普及,现实应用中产生的问题将超出《负责任人工智能标准》预先设定的规则。对此,微软创建了一个持续审查和监管用于敏感领域项目的程序,为这些高风险人工智能使用场景提供了额外的监管保护。该程序可以分为"报告-审查-指导"三步。如果微软的研发人员在开发或者部署人工智能系统时发现该系统存在侵害利益相关方的风险时会报告给人工智能治理办公室,随后人工智能治理办公室会的主席会和研发项目成员以及其他利益相关方一起使用上述工具进行审核。对于影响特别重大或者新颖的案例,微软还会召集技术、法律、工程、人权等多方背景的专家一起审查。审查结束后,审核团队会提出解决措施与建议,有时会比《负责任人工智能标准》中的一般性要求更加严格。对于不符合公司标准与原则的项目机会,微软会拒绝开展商业合作。 10
根据《治理AI:面向未来的蓝图》原图翻译制作
- 内部治理架构
各国监管要求
良好的人工智能治理需要一个有效运转的内部治理组织架构。高效合理的组织架构不仅能够确保决策层制定的指导方针、安全措施能够得到有效执行,还为企业人工智能治理各项实践提供必要的资源支持。
各国监管者都认识到企业内部组织架构的重要性。欧盟委员会早在2019年就将"人类监控"作为可信赖人工智能的七项基础原则之一,鼓励企业采取有效的措施将人类的监督嵌入到人工智能全生命周期的活动中。 11新加坡个人信息保护委员会(PDPC)在最新版的《模范人工智能治理框架》(Model AI Governance Framework)报告中也将内部治理架构作为通向负责任使用人工智能技术的必要一环。 12
中国也有相似的要求。《算法推荐管理规定》要求算法推荐服务提供者配备与算法推荐服务规模相适应的专业人员和技术支撑。国家标准《信息安全技术 机器学习算法安全评估规范》则提出了两项更具体的要求:
- 设立专门的组织机构,负责承担算法安全工作,一般包括制度措施以及应急预案的制定和执行;
- 根据算法服务规模、算法复杂度、算法迭代更新速度等,配备与之在人员规模、技术能力等方面相适应的专业人员,进行技术支撑。同时,在履行算法备案程序的过程中,企业还会被要求填写"算法安全专职机构"和"算法安全负责人"信息。
微软的内部治理架构
根据微软《治理AI:面向未来的蓝图》(Governing AI: A Blueprint for the Future)报告13的介绍,目前有大约350名员工负责人工智能的治理工作,贯穿了企业上下各层级。
根据该报告,在管理层,微软董事长兼首席执行官Satya Nadella和整个高管团队推动治理架构的建立,并将建设负责任人工智能(Responsible AI)作为全公司上下的任务。微软董事会中的环境、社会和公共政策委员会负责监督微软的"负责任人工智能计划",确保企业风险管理框架得到严格地执行。
在董事会之下,微软设立了负责任人工智能委员会,负责实施微软的"负责任人工智能计划",协调领导层并履行问责制。该委员会由微软副主席兼总裁Brad Smith和首席技术官Kevin Scott担任主席。其中Kevin Scott负责制定公司的技术愿景并监督微软的研发部门。负责任的人工智能委员会定期召开会议,会议参与者包括人工智能、伦理与工程研究委员会(Aether committee),人工智能治理办公室,工程管理者以及高级业务合作伙伴等致力于人工智能治理的核心研究、政策和工程团队的代表。
在执行层,微软认识到由单一团队或部门负责人工智能治理是远远不够的。长期的实践经验让微软意识到人工智能的治理工作不仅需要得到公司管理层的支持,还需要在公司各个层面进行宣传和倡导。为此,微软的人工智能治理办公室设计了一个治理系统,由公司上下众多不同的团队和职能部门(包括研发团队、政策团队和工程团队)共同参与。管理层会在产品、工程和销售团队中任命"负责任人工智能代表"(Responsible AI Champions)。这些员工代表需要在各自的团队中带头开展负责任的人工智能实践,包括但不限于采用《负责任人工智能标准》、发现问题并向团队提出解决措施、宣传人工智能治理文化。人工智能治理办公室会协调企业上下的各个团队,利用各团队深厚的专业知识与产品运营经验,制定出能适用于全公司的治理方法。
根据《治理AI:面向未来的蓝图》原图翻译制作
- 知识产权治理
快速发展的人工智能技术对现有的知识产权法律体系带来巨大冲击。与人工智能技术相伴产生诸多新型法律问题,仍未有清晰答案,迫切需要各方积极探索和解决。例如:出于训练人工智能模型目的而使用他人数据,是否为合理使用,或是构成侵犯他人知识产权?人工智能生成内容(AI Generated Content, "AIGC")是否具有可版权性?AIGC的权属应归于服务使用者还是服务提供者?
知识产权侵权顾虑也是阻碍企业大规模使用生成式人工智能的因素之一。一家德国人工智能内容治理公司于2023年8月对86家财富500强公司的调查显示,近三分之一的受访者将知识产权问题视为公司使用生成式人工智能的首要担忧 14。
各国监管要求
以上种种问题在现有知识产权法律体系下并没有清晰的答案,目前各国都在加紧研究、积极探索。在中国,《生成式人工智能办法》第四条及第七条在原则上规定,"应当尊重知识产权"、"不得侵害他人依法享有的知识产权",但未对具体情况进一步规定;在司法实践中,北京互联网法院于2023年底对一起人工智能生成图片的著作权侵权纠纷作出一审判决,对人工智能生成图片是否构成作品、著作权侵权归属以及侵权责任承担等问题做出裁判 15,引起国内和国外的关注。美国政府采取了一系列措施,通过举办听证会、听取人工智能知识产权立法建议等方式来广泛吸取各方意见来为进一步立法进行准备;
在司法领域,针对OpenAI、谷歌、Midjourney等美国大模型公司的多起诉讼正在审理过程中,相关争议焦点覆盖训练数据侵权问题、AIGC著作权问题等等。日本立法机关在2018年修改了《著作权法》,将"合理使用"的范围扩大至覆盖人工智能训练数据对于著作权人作品的利用,以鼓励人工智能技术发展,但同时也规定以侵犯原有著作权为目的的数据训练属于侵权行为。欧盟则通过2019年《单一数字市场著作权指令》明确了开发者进行数据挖掘时的合理使用原则,并通过《人工智能法案》《数字市场法》《数字服务法》为企业的人工智能监管和治理提供了制度保障。
人工智能企业知识产权保护实践的发展
在生成式人工智能市场发展的初期,人工智能行业较为普遍的做法是"生成内容侵权后果自负"。具体表现为人工智能服务提供者通过服务条款约定所有因用户使用AIGC而引起的责任一律由用户承担,而服务提供者不对AIGC负责;或通过免责声明条款约定AIGC产品和服务按"如现状"(as is)提供,拒绝对其作出关于质量、适销性、无侵权等保证,从而排除相关责任 16。一些服务提供者甚至反向约定用户需要对服务提供者面临的侵权索赔进行赔偿。例如,一款漫画分镜类AIGC产品Storyboard That在其服务条款中规定:"用户应对因用户使用本服务或因用户违反本协议任何条款而产生的任何及所有索赔、诉讼、程序、责任、损失、损害、成本、费用和律师费进行抗辩、赔偿并使Clever Prototypes免受损害。"17人工智能服务商的这种做法,使处于用户端的企业承担了自行甄别AIGC工具是否存在侵权可能的繁重责任,以及因侵权而产生索赔的巨大风险。
微软对人工智能知识产权的立场
在微软的推动下,上述市场普遍做法正在逐渐发生变化。
2022年6月,微软子公司GitHub 率先承诺将为使用其生成式人工智能编码工具Copilot的用户面临的侵权索赔进行赔偿,前提是用户对人工智能输出代码使用"查重"过滤器。Adobe和Shutterstock随后分别开始在受限的范围内为使用其人工智能图像生成工具的商业用户提供知识产权侵权赔偿措施。上述侵权赔偿措施仅限于特定代码和图像生成工具,应用范围较窄。
2023年,微软通过其Copilot版权承诺(即CCC的前身)进一步挑战了市场普遍做法,极大扩展了其知识产权保护范围。微软的Copilot版权承诺保证付费用户可以"使用微软的Copilot服务及其产生的输出内容而不必担心版权索赔"。与前述GitHub为输出代码提供的保护不同,Copilot版权承诺涵盖广泛的微软Copilot服务,包括集成到M365系列办公软件中的Copilot人工智能应用。IBM、谷歌、OpenAI紧随其后,陆续承诺为客户面临的知识产权索赔提供赔偿。2023年9月28日,IBM表示将赔偿客户因使用watsonx人工智能和数据平台而产生的知识产权索赔 18。2023年10月,谷歌宣布为生成式人工智能工具提供赔偿 19。2023年11月,OpenAI首席执行官Sam Altman在OpenAI"开发者日(DevDay)"会议上向与会者宣布,ChatGPT企业版和API的客户若面临版权侵权法律诉讼,OpenAI将提供保护并支付所产生的费用 20。
2023年11月15日,微软将Copilot版权承诺正式更名为"客户版权承诺"(Customer Copyright Commitment,简称"CCC"),并将其保护范围进一步延伸,将使用AOAI平台进行深度开发的B端企业用户也囊括在内。一般而言,在B端企业用户自行利用大模型输入数据进行模型训练、应用开发的商业模式中,企业用户自由度较高,而大模型提供者难以控制客户生成内容,因此更难保证输出内容不涉及侵权。在这一背景下,微软作为大模型提供者仍然能主动承诺对客户生成内容承担侵权责任,这一抉择殊为不易,也显示了微软对其AI产品的强大信心。
微软"客户版权保护承诺"策略
下面列出微软客户版权承诺(CCC)中的一些主要内容:
"客户版权保护承诺( CCC)21
在满足以下所有附加条件的前提下,微软依据客户批量许可协议承担的在客户遇到第三方知识产权索赔时为其提供抗辩的义务,将适用于客户使用或分发涵盖产品的输出内容的情况:
- 客户在使用涵盖产品生成导致索赔的输出内容时,不曾禁用、逃避、破坏或干扰内容筛选器、元提示中的限制或属于涵盖产品的其他安全系统。
- 客户未以其知道或应该知道可能侵犯或盗用第三方任何专有权利的方式修改、使用或分发输出内容。
- 客户有足够的权利使用与涵盖产品有关的输入,包括但不限于客户用于自定义生成导致索赔的输出内容的模型的任何客户数据。
- 相关索赔未主张输出内容被用于商业或贸易过程,并侵犯了第三方的商标或相关权利。
- 对于 Azure OpenAI 服务和任何具有可配置元提示或其他安全系统的任何其他涵盖产品,客户还必须实施提供导致索赔的输出内容的产品的 Azure OpenAI 服务文档(发布于 https://learn.microsoft.com/legal/cognitive-services/openai/customer-copyright-commitment )中要求的所有风险缓解措施。 "
简言之,微软"客户版权保护承诺"机制需要满足若干附加条件。首先,客户不得"绕开"相关产品内置的内容过滤器,并且必须实施微软要求的所有"风险缓解措施"。其次,客户不得故意或放任侵权,包括客户知道可能导致侵权而使用输出内容,以及用户输入内容本身侵权。最后,CCC承诺并不涵盖商业或贸易过程中的商标权。
在满足上述附加条件的前提下,微软承诺,针对第三方知识产权索赔,微软将为客户提供抗辩,并支付索赔金额,包括诉讼导致的任何不利判决或和解金额,且赔偿金额不设上限。
CCC承诺是微软对人工智能知识产权问题的积极回应。一方面,微软主动承担责任,降低了人工智能服务使用者对生成内容承担的风险;另一方面,微软要求客户共同参与知识产权治理,为客户提供了严谨的安全系统和风险缓释措施,引导客户合理使用微软的服务。与此同时,微软的赔偿承诺也保障了著作权人在诉讼中获得索赔的合法权利。
作为生成式人工智能服务提供者,微软改变了人工智能行业"生成内容侵权后果自负"这一普遍性做法,积极主动承担责任,开创性地设置了"客户版权保护承诺"的特殊机制以转移客户面临的知识产权侵权风险,对消除企业使用生成式人工智能的顾虑发挥了巨大作用。
- 数据保护
人工智能技术背后隐藏的另一巨大风险是可能出现的数据泄露。2023年4月,韩国科技巨头三星电子在引入人工智能语言模型ChatGPT后遭遇了严重的机密资料泄漏事故,引发了关于人工智能技术数据安全性和隐私保护的广泛关注。据报道,事故系该企业员工将公司的机密代码、机密信息输入ChatGPT引起 22。2023年6月,一家数据分析公司统计了来自各个行业的160万名公司员工使用ChatGPT的情况,发现10.8%的员工曾试图在工作中使用ChatGPT,且4.7%的员工向ChatGPT中输入了公司的机密数据 23。
各国监管要求
确保数据安全是各国监管部门的普遍要求和重点关切。欧盟从《通用数据保护条例》出发,密切关注人工智能在数据隐私和个人信息保护、算法方面的合规性,开展了一系列针对性的调查行动。意大利个人数据保护局以侵犯数据隐私为由宣布禁用ChatGPT并对其展开调查,在OpenAI更新相关隐私政策后,意大利才恢复了该国对ChatGPT的访问。德国和爱尔兰等国政府也紧随其后表示,将会重点关注大模型应用带来的数据安全问题。
我国于2023年7月颁布的《生成式人工智能办法》明确要求人工智能服务提供者承担相应的数据安全保护义务。根据《生成式人工智能办法》第七条第(五)项,服务提供者所需要履行《数据安全法》《网络安全法》《个人信息保护法》等法律法规下的数据安全保护义务。然而,这些法律法规对于数据安全保护义务的规定较为抽象,如何具体适用在生成式人工智能服务提供的过程,还需要企业的合规探索,并需要密切观察监管部门的具体执法行为及相关指引。
微软的数据保护治理
微软采取了一系列措施,确保人工智能服务的数据和隐私安全,并重点关注以下方面 24:
- 第一,提高安全性。微软承诺其产品在设计和实现的各个阶段都具有安全性和隐私性。例如,为了回应客户对于训练数据泄露担忧,在微软向客户提供的M365 Copilot服务中,微软承诺严格遵守其现有的隐私政策,不使用用户数据进行模型训练。 25在微软向企业客户提供的AOAI服务中,企业客户可基于微软现有模型进行应用开发,并使用客户自己的数据进行模型训练,微软承诺,对于客户自行输入的训练数据及生成内容完全属于客户,微软不会提供给任何其他客户、不会提供给OpenAI或用于训练OpenAI的模型、也不会用于改进微软的各种服务;客户开发的模型也仅供客户使用。 26
- 第二,提升透明度。微软在用户使用人工智能产品时承诺实时提供信息对用户进行充分告知,使个人和组织用户都能够清晰了解其人工智能系统的能力和局限性。例如,当用户使用Copilot服务时,微软会让用户清楚地知悉其正在与人工智能进行交互,并向用户展示关于其如何收集、使用数据的信息;同时以对话的方式为用户提供易于理解的选项,帮助用户更好地理解如何利用人工智能并降低潜在数据和隐私泄露的风险。
- 第三,提供用户行权方式。微软承诺为数据主体提供了较为便捷的行使其数据主体权利的方式。微软账户持有人可通过微软隐私仪表板访问、管理和删除其个人数据和存储的对话历史记录,以便其控制自己的数据。
- 第四,持续合规,支持全球数据保护法规的进步。微软承诺将确保其在所有运营的司法辖区均遵循所在地的数据保护法律。微软也承诺积极承担社会责任,与世界各地的数据保护当局和隐私监管机构密切合作,积极参与和推进数据保护法律的发展。
四、微软模式带来的启示
人工智能技术正以前所未有的速度推动人类社会的智力创新、经济高质量发展和生产生活方式的效率提升。在为全球产业发展注入新动能的同时,人工智能也催生了一系列新的问题和挑战,需要监管部门和行业共同探索与时俱进的人工智能治理方案。
微软"负责任的人工智能(Responsible AI)"治理框架,固然与微软的AI产品线紧密相关,但对其他人工智能企业以及用户企业而言都有许多值得借鉴之处,例如:
基本原则
树立"负责任的人工智能(Responsible AI)"的基本原则和核心目标,贯穿企业所有相关部门及所有相关产品设计;
内部治理框架
建立高效的内部治理机构,从管理层到执行层逐级明确人工智能治理负责人、负责部门;
标准实施
建构一套完整的人工智能治理框架,涵盖原则、政策标准以及实施工具,并为应对变化留足空间;
知识产权治理
在引导用户合理使用人工智能服务的前提下,提供侵权风险转移方案;
数据保护
采取措施提高安全性、提升透明度、提供用户行权方式、确保持续合规,支持全球数据保护法规的进步。
由于人工智能技术的快速发展,相关企业在人工智能治理方案方面的探索仍处于比较早期的阶段。在关注人工智能技术发展的同时,企业的治理实践发展和监管部门的政策法规变化也值得特别关注。我们将继续观察并分析这个领域的热点和重点问题以飧读者。
注释:
1 参见中国科学技术信息研究所,《中国人工智能大模型地图研究报告》。
2 该数据来源于经济合作与发展组织(经合组织,OECD)发布的人工智能政策观察站数据库,见https://oecd.ai/en/dashboards/overview ,最后访问时间:2024年3月18日。
3 微软官方表示其人工智能治理实践源于Satya Nadella在2016年关于人与人工智能关系的发言。参见"The Partnership of the Future", https://slate.com/technology/2016/06/microsoft-ceo-satya-nadella-humans-and-a-i-can-work-together-to-solve-societys-challenges.html。
4 参见ICO,"The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023", https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023。
5 国家新一代人工智能治理专业委员会由中国科技部在2019年3月推动成立,主要负责制定中国人工智能治理框架和行动指南。
6 参见《算法推荐管理规定》第七条和《深度合成管理规定》第七条。
7 参见《算法推荐管理规定》第二十七条、《深度合成管理规定》第二十条和《生成式人工智能办法》第十七条。
8 参见微软,"How do we best govern AI?",https://blogs.microsoft.com/on-the-issues/2023/05/25/how-do-we-best-govern-ai/。
9 参见微软,"《负责任人工智能标准 v2.0》(Microsoft's Responsible AI standard v2, general requirements)",https://blogs.microsoft.com/wp-content/uploads/prod/sites/5/2022/06/Microsoft-Responsible-AI-Standard-v2-General-Requirements-3.pdf。
10 参见微软,"《治理AI:面向未来的蓝图》(Governing AI: A Blueprint for the Future)",https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RW14Gtw,第33-34页。
11 参见"Ethics guidelines for trustworthy AI", https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1。
12 参见"Model AI Governance Framework, Second Edition",https://iapp.org/media/pdf/resource_center/pdpc_model_framework_ai_governance_second_edition.pdf。
13 参见微软,"《治理AI:面向未来的蓝图》(Governing AI: A Blueprint for the Future)",https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RW14Gtw,第36页。
14 见Acrolinx公司发布的报告"Building the Future Real-world insights into generative AI adoption and risks in the enterprise",https://www.acrolinx.com/wp-content/uploads/2023/08/Acrolinx_Generative-AI_Report_FNL.pdf。
15 参见中国法院网报道"破冰:首例人工智能文生图案生效 北京互联网法院探索为AI文生图著作权划定边界",https://www.chinacourt.org/article/detail/2024/02/id/7796864.shtml。
16 参见OpenAI的使用条款(https://openai.com/policies/terms-of-use)、Midjourney的服务条款(https://docs.midjourney.com/docs/terms-of-service)、Canva可画的使用条款(https://www.canva.cn/policies/terms-of-use/)。最后访问日期2024年2月20日。
17 参见Storyboard That的服务条款(https://www.storyboardthat.com/about/terms-of-use)。最后访问日期2024年3月19日。
18 参见IBM 2023年9月28日发布的新闻"IBM Announces Availability of watsonx Granite Model Series, Client Protections for IBM watsonx Models",https://newsroom.ibm.com/2023-09-28-IBM-Announces-Availability-of-watsonx-Granite-Model-Series,-Client-Protections-for-IBM-watsonx-Models 。
19 参见谷歌2023年10月13日发布的博客"Shared fate: Protecting customers with generative AI indemnification",https://cloud.google.com/blog/products/ai-machine-learning/protecting-customers-with-generative-ai-indemnification 。
20 参见OpenAI 2023年11月6日发布的博客"New models and developer products announced at DevDay",https://openai.com/blog/new-models-and-developer-products-announced-at-devday。
21 摘自微软产品条款,详见 https://www.microsoft.com/licensing/terms/product/ForOnlineServices。
22 参见金融时报2024年1月30日报道"小心 !ChatGPT可能正在偷走你的数据!",https://t.cj.sina.com.cn/articles/view/2699543161/a0e7c2790010134i3。
23 参见数据分析公司Cyberhaven发布的博客"11% of data employees paste into ChatGPT is confidential",https://www.cyberhaven.com/blog/4-2-of-workers-have-pasted-company-data-into-chatgpt。
24 参考微软公司副总裁和首席隐私官Julie Brill发布的博客,见 https://blogs.microsoft.com/on-the-issues/2023/12/19/trust-privacy-bing-copilot-responsible-ai/。
25 见Azure OpenAI data, privacy, and security guide。
26 见Data, Privacy, and Security for Microsoft Copilot for Microsoft 365。
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.