AI法律实务问题(二):人工智能的法律“拼图”,全球视野下的规则与实践

发布时间:2025-02-24

文 | 张释文 汇业律师事务所 合伙人

近日,全球人工智能领域发生了两件备受瞩目的事件。其一,2025年2月10日至11日,人工智能行动峰会在法国巴黎召开,来自100多个国家的政府领导人、国际组织代表、企业界及学术界人士齐聚一堂,共同探讨人工智能的全球治理问题,并发布了《关于包容和可持续人工智能的声明》。此次峰会强调了人工智能技术的普惠性、安全性、透明度和伦理性,倡导国际合作以缩小数字鸿沟,推动可持续发展。中国积极参与峰会,并签署该声明,展现了在全球人工智能治理中推动国际合作的坚定立场。当然,会议也面临一些分歧,美国和英国未签署该声明,美国副总统万斯更是在峰会演讲中警告欧洲不要对人工智能进行“过度监管”,认为这可能会扼杀蓬勃发展的行业,这引发了舆论的广泛关注。其二,美国特拉华州联邦地区法院于2025年2月12日对 Thomson Reuters Enterprise Centre GmbH v. Ross Intelligence Inc. 案作出判决,认定人工智能公司Ross Intelligence未经授权使用Westlaw的材料用于人工智能训练构成侵权,且不构成合理使用。这一判决明确了未经授权使用版权作品进行训练可能构成侵权,为目前知识产权领域中最具争议的人工智能训练数据的著作权问题给出了具有一定示范价值的判断。需要注意的是,Ross Intelligence的技术并非生成式人工智能,而是通过分析和处理法律数据来提供法律检索服务,法院主要针对的是Ross Intelligence使用Westlaw的“案件摘要”(headnotes)和“钥匙码系统”(Key Number System)的行为,并未涉及生成式人工智能(generative AI)的训练过程。另外,这一判决目前仍处于初审阶段,并非最终裁决。本案中,法官认为,Ross Intelligence通过人工智能生成的法律分析内容与Westlaw原本的市场存在直接竞争关系,因此不构成“合理使用”。尽管如此,法院并未支持原告要求删除所有相关数据和物料的主张,为人工智能企业合规要求的探讨留出了一定空间。

在全球范围内,人工智能技术的快速发展正在深刻改变社会和经济格局,推动创新进程的同时形塑着全新的社会秩序,也引发了诸多潜在风险。现有法律体系在应对人工智能所带来的新问题时显得捉襟见肘。然而,整体来看,当前全球人工智能立法仍处于探索阶段,各国在立法模式、规制重点和实施机制上存在显著差异,国际协同迫在眉睫,包括AIPPI在内的多个知识产权组织已在人工智能立法的国际协调中积极发挥作用,试图推动各国在新兴技术领域的合作与共识。对于新兴领域如人工智能、数字营销等,中国律师的积极参与与表态能够为相关国际规则的制定增加话语权,这不仅是提升我国在全球科技治理中影响力的重要途径,也是涉外法治建设的题中之义。

从国内角度来讲,面对人工智能所带来的种种法律挑战,在比较法视角下通过深入分析各国的人工智能立法实践,可以更好地理解各国人工智能立法的共性与差异,有助于借鉴国际经验,探索出适合中国国情的人工智能立法模式。中国的人工智能发展已成为国家战略的核心组成部分,当我们有机会站在新的时代档口,法律技术的跟进将切实影响着整个行业的发展方向之时更是责无旁贷。

从行业角度看,人工智能系统的运行通常可以简化为两个核心环节:数据输入与模型训练(Input),以及内容生成与输出(Output),因此,在数据输入与模型训练阶段,人工智能系统通过大量的数据进行学习,而在内容生成与输出阶段,人工智能系统根据训练阶段所学习到的知识和模式生成新的内容。

从法律角度看,训练阶段和生成阶段所面临的法律挑战存在显著差异。在探讨人工智能立法尤其是著作权法问题时,亦宜按生成阶段(Output)和训练阶段(Input)两个阶段进行分析。在训练阶段,人工智能进行学习训练的数据可能包含受版权保护的内容,法律需要重点关注数据的合法获取和使用,制定明确的数据使用规则和版权使用/侵权豁免机制,以平衡技术创新与版权保护的关系。而在生成阶段,法律需要重点关注生成内容的版权归属,生成内容的合法性和责任划分。本文亦将通过国际比较研究,以两个阶段的逻辑拆分为纲,系统梳理各国就人工智能的著作权应对与实践。

一、人工智能生成阶段(Output)的共识与分歧

在人工智能生成内容的版权保护问题上,国际间普遍达成共识。目前共识主要集中在两个方面:一是著作权法保护的对象仍然是人类智力成果,即只有体现人类创造性贡献的内容才可能获得版权保护;二是输出作品的可版权性取决于人类的智力投入程度,而非单纯由人工智能系统生成的内容。这意味着,尽管人工智能技术在内容创作中扮演了重要角色,但只有当人类创作者对生成内容进行了实质性的创造性贡献时,该内容才被视为具有可版权性。这一共识强调了人类智力在创作过程中的核心地位,同时也为人工智能生成内容的版权归属和保护提供了现阶段的法律边界。

第一点共识,即著作权法保护的对象仍然是人类智力成果。包括1886年《伯尔尼保护文学和艺术作品公约》虽未明确定义“作者”,而是将此问题交由各缔约方自行决定,但其文本内容及历史背景均有力地表明,该公约所指的“作者”应为创作作品的自然人。这一解读意味着,版权保护的初始归属应当归属于人类创作者。这一共识除了反映在各国既有的著作权法中,也在一些新法中明确出现,如:欧盟的《人工智能法案》第3条明确规定,人工智能生成内容必须具备“人类智力创作”;美国的《版权登记指南》第322.3节指出,纯人工智能生成的内容不具备版权保护资格;英国的《1988年版权、外观设计与专利法》第9条和第11条规定,当没有实际作者时,版权应归属于“为创作提供必要条件的人”;日本的文化厅《人工智能与著作权意见报告》第3章强调,缺乏人类创造性贡献的人工智能生成内容不应享有版权;韩国的《著作权法》第2条和第6条要求作品必须体现人类的思想或情感,具有创造性。

第二点共识,则是输出作品的可版权性取决于在该人工智能生成的作品中,自然人/人类的智力投入程度。尽管有此共识,但各国在“人类智力投入程度”的把握上仍存显著差异,即:人类对人工智能生成内容的贡献程度达到何种标准可以获得版权保护。当然,这是根源于著作权固有特性的“历史问题”,因为“原创性”往往是著作权作品保护的核心要求,但“原创性”不可避免的具有一定的主观性,无论是各国国内立法还是国际公约,很难对“原创”作出量化程度性的定义,也很难设定统一标准的义务。

1、美国

美国版权法的核心概念是“智力贡献”和“原创性”。根据美国版权局的解释,作品必须由人类作者创作,且体现独立劳动和创意,才能获得版权保护。如果人工智能系统仅仅是根据用户输入的指令自动生成作品,而人类并未对该过程提供实质性的创意贡献,那么该作品就无法获得版权保护。美国版权局明确表示,仅凭机器生成的内容无法享有版权,因为没有“人类作者”参与。在Thaler v. U.S. Copyright Office案件中,人工智能系统DABUS被用来生成图像和音频文件,但美国版权局拒绝了将DABUS列为作者的版权申请,理由是版权法要求作品的创作者必须是人类。

2、欧盟

欧盟版权法强调作品必须体现人类的智力活动和独创性。根据《欧盟指令2001/29/EC》第二条,作品要获得版权保护,必须由“自然人”创作,且需要体现人类的创造性活动。欧盟《人工智能法》第53条第1款(c)项规定,通用人工智能模型的提供者应制定遵守欧盟版权法的方案。如果人工智能仅作为工具,而人类创作者提供了足够的创造性输入,则该作品可能被视为“人工智能辅助作品”,并享有版权保护。在这种情况下,版权归属于提供创造性输入的人类创作者。

3、中国

中国在人工智能著作权保护方面逐步展开了相关立法和司法实践。虽然目前在版权登记和归属上尚无明确的全国统一标准,但通过一系列备受关注的案例,国内的法院亦在逐渐形成对人工智能生成作品的著作权裁判观点,目前这些裁判观点并不完全一致。例如,北京互联网法院在2023年“人工智能文生图”著作权案[1]中明确,人工智能生成内容构成“作品”,可受著作权保护,进一步的,由使用用户对输出内容享有著作权。广州互联网法院在2024年“人工智能生成奥特曼图片侵权案”[2]中沿用著作权“接触+实质性相似”的侵权判定标准,基于被告人工智能平台能够生成奥特曼图片,就构成“部分或完全复制了‘奥特曼’的独创性表达。”若训练数据包含奥特曼版权内容,可能被推定为生成侵权结果的“工具性帮助”。进一步的,被告添加了新的奥特曼特征,则构成侵犯改编权。该判决的事实上认为只要人工智能平台能够生成与可版权的(奥特曼)图片实质相似的图片,则平台即构成侵权,而反观杭州的“奥特曼”侵权案件,判决实质上持不同观点,同样的情况并不认为平台直接构成侵权,对于人工智能平台的侵权责任认定上事实上是通过进一步讨论平台“避风港”免责的适用来进一步探讨和厘清人工智能平台治理责任的边界。

国际上来看,各国呈现的案例也非常不同。美国版权局(USCO)在1月29日发布了一份关于版权和人工智能相关法律和政策问题的报告,报告中明确指出,仅通过输入指令生成的人工智能作品不受版权保护。这一观点亦呼应了我们本系列的第一篇文章AI法律实务问题(一):举一反三的“三”侵权了吗?人工智能时代,著作权保护的适用困境与立法前瞻的观点。而中国对于输入指令生成的AI作品的版权问题,司法实践尚未形成统一的结论。2023年11月,北京互联网法院在首例AI文生图案中对AI生成图像的版权问题进行了初步认定,法院认定人工智能生成内容构成作品,权利归属于使用者,体现了对人工智能辅助创作的认可,但该判决仍存在诸多争议,有待进一步审视。

可见,全球范围内对于“人类对人工智能生成内容的贡献程度达到何种标准可以认为投入了智力贡献”这一问题仍存在继续探讨的空间。不同国家在人工智能生成内容的版权保护上采取了不同的立场,既有对人类创造性贡献的强调,也有对人工智能技术特性的考量。这种分歧反映了不同国家在技术发展水平、法律传统以及政策目标上的差异,也凸显了在人工智能时代重新定义“创造性贡献”的复杂性和紧迫性。

二、人工智能训练阶段(Input)

在人工智能的训练阶段,各国对于数据使用的合法性存在既有共性也有差异。以下是各国的具体规定和实践:

1、美国

美国的《著作权法》第107条是“合理使用”(Fair Use)条款的核心规定,允许在一定条件下未经版权持有者授权而使用受版权保护的作品。第107条明确列出了几个判断“合理使用”的因素,包括使用的目的和性质、作品的性质、使用的数量和质量以及对市场潜力的影响等。美国法院对合理使用的判定还涉及该行为是否会对原作品的市场造成影响。法院可能认为人工智能训练不应当被视为对版权市场的威胁,尤其是当人工智能开发的结果并不会与原作品产生直接的经济竞争时。例如,在《Google 图书搜索案》中,法院认为Google的行为属于转换性使用,并且不直接与图书的市场销售产生竞争,反而可能促进更多图书的销售。因此,该行为被认定为合理使用。

在前文提到的最新这起汤森路透诉Ross Intelligence一案,法官在论证不适用“合理使用”时进一步重申与明确:首先应当取决于市场影响,即:是否与原作品形成竞争关系,是否实质性损害原作品市场价值;其次应当关注其使用目的,是否商业性高于技术研发等公共知识创新型的公共利益属性还是反之;对于美国《著作权法》第107条明确列出的作品使用数量和质量亦有说理,如:法官认为Westlaw编辑的法律数据库具有“事实汇编”特性,版权保护强度低于文字作品、音乐作品等原创内容。但并未影响到判决对于侵权的认定。美国的合理使用条款对教育、评论、新闻报道、研究和非商业性用途给予了一定的宽松。人工智能训练过程中的许多数据集包含大量的文本、图像和其他形式的创作内容,这些数据通常用于研究和技术开发的目的。因此,人工智能开发者若能够证明其训练行为符合“教育”或“研究”目的,就可能符合合理使用的条件。合理使用的另一个重要判定标准是转换性使用,即对原作品的使用是为了不同的目的或创建新的内容。例如,人工智能模型并不直接复制原始作品,而是对这些作品进行分析、提取数据和生成新的输出。因此,人工智能训练可以被视为“转换性使用”,即使用原作品的数据来创造新的、不同形式的作品,如生成文本或预测分析等。

2、中国

中国《著作权法》规定了“合理使用”条款,允许在特定情况下未经版权持有者许可使用受版权保护的作品。根据《著作权法》第22条,合理使用的情况包括个人学习、研究、评论、新闻报道等。然而,现有的合理使用条款并没有明确涵盖人工智能训练这一特定领域,特别是在数据挖掘和机器学习过程中,因此目前仍然存在许多争议。但整体来讲,根据“合理使用”的定义,使用者必须满足非商业目的的条件,且使用作品的方式不能过度侵犯版权人的合法权益。然而,人工智能训练大多数情况下属于商业性质的活动,无论是大型科技公司、初创企业,还是学术研究机构,人工智能训练的最终目的通常都与商业化应用紧密相关。这与《著作权法》中的“非商业目的”要求存在较大的冲突,因此,现行法律框架下,若非另行专门立法明确的,很难通过自然解释将人工智能训练纳入合理使用的范畴。

此外,在人工智能训练中,数据集的收集、编排和整理也是一种创造性工作。根据《著作权法》第3条,作品的“编排”和“选取”本身可能被视为一种受版权保护的行为。由于人工智能训练数据集往往涉及对大量版权作品的集合、筛选和组合,这些数据集可能被认定为“汇编作品”,并受到著作权保护。因此,单纯依赖合理使用条款,人工智能开发者可能无法合法使用这些作品进行训练。而在美国的 Thomson Reuters v. Ross Intelligence 案中,Westlaw的数据库被认定为“事实汇编”具有一定的版权保护。通过对比可以看出,中国在人工智能训练数据集的版权保护上尚未有明确的司法实践支持其作为“汇编作品”的认定,而美国则通过案例明确了即使是事实汇编性质的数据库,只要具备最低限度的创造性,也可以获得版权保护。这种差异反映了两国在人工智能训练数据版权保护方面的不同态度和实践路径。

《著作权法》第23条的“法定许可”条款允许在某些特定情况下可以在支付报酬的前提下使用版权作品,例如广播和网络传播。然而,这一条款也并未特别考虑到人工智能训练中使用作品的特殊性,且“法定许可”仅适用于一些特定的作品使用方式,如广播、电视节目等,而不涉及人工智能模型训练的需求。《著作权法》第24条的“合理使用”条款允许在某些条件下对已公开的作品进行合理引用,但这主要适用于新闻报道和学术评论等,且限制了引用的比例和范围。而人工智能训练通常涉及对大量作品的使用,与合理引用豁免侵权的立法目的并不相符。

从中国现有存在的几个判例来看北京互联网法院“人工智能文生图”著作权案、广州互联网法院“人工智能生成奥特曼图片侵权案”等都实际上回避了数据训练阶段的著作权认定,转而通过对人工智能输出内容的可版权性认定与平台对用户生成内容管理责任的角度进行责任分配与认定。

总体来看,目前人工智能在进行大规模数据训练时,面临着法律上的不确定性。在缺乏明确法律规定的情况下,人工智能开发者可能难以确定是否能合法使用受版权保护的作品进行训练。这不仅影响了人工智能行业的发展,也可能导致部分开发者在没有法律保障的情况下冒险使用未经授权的作品,从而可能面临侵权风险。

3、欧盟

在欧盟,文本和数据挖掘(Text and Data Mining, TDM)是人工智能训练和创新的重要组成部分。欧盟的《数字单一市场版权指令》(EU 2019/790)的第3条和第4条对文本和数据挖掘提供了具体的版权例外条款。

第3条明确规定,使用受版权保护的作品进行文本和数据挖掘的行为,在特定条件下是被允许的,尤其是在科学研究领域。[3]这一条款适用于研究机构和文化遗产机构(如博物馆、档案馆等)。具体来说,如果某一研究机构拥有对某一版权作品的合法访问权,那么该机构可以在不获取版权持有人的额外授权的情况下,对这些作品进行数据挖掘,进而用于人工智能模型的训练、数据分析或其他学术研究工作。

相比第3条针对科研机构的规定,第4条则提供了一个更加广泛但有条件的TDM例外。这一条款适用于其他主体,不仅限于科研和文化遗产机构,而是包括了私人公司、技术公司等其他各类组织。[4]第4条的主要条件是,只有在权利人没有明确保留其版权使用权的情况下,TDM才被允许进行。这意味着,如果版权持有人已经通过合同或其他方式明确限制了其作品的使用,那么任何进行数据挖掘的行为就必须获得其授权。

欧盟在2024年通过了《人工智能法案》(AI Act),该法案的第106条与《版权指令》第4条紧密相关,规定了人工智能公司在进行人工智能训练时,必须遵循《数字单一市场版权指令》第4条的版权例外条款。[5]即通用人工智能公司在训练其人工智能模型时,必须确保其数据来源符合版权法中的TDM例外条件,并且遵守相关的报告义务,避免使用未经授权的版权作品进行训练。此外,人工智能公司还需对使用的数据进行透明报告,以确保其训练过程符合欧盟的法律要求。

总体来看,欧盟通过《数字单一市场版权指令》和《人工智能法案》为人工智能训练提供了明确的版权法律框架,既保护了创新和技术发展,又尊重了版权持有人的权益。

4、日本

日本《著作权法》第47条第7项明确规定,若作品的使用目的不涉及欣赏作品本身的艺术价值或文学价值,而是为了其他非欣赏性目的进行筛选、比较和分析,则可以免于著作权侵权的责任。这意味着,如果人工智能开发者将作品作为训练数据的一部分,且其目的是通过数据挖掘进行算法训练或模型学习,而不是直接享受作品内容,那么这样的使用可以被认为是“非欣赏性使用”,符合《著作权法》规定的例外。

具体来说,在人工智能训练的场景中,开发者常常使用大量的文本、图像、音频等内容,通过机器学习算法提取特征和模式。这些数据往往来自各种各样的版权作品,而人工智能的使用方式并非是对作品进行欣赏、表演或直接传播,而是将这些作品作为“数据源”进行处理和分析。根据日本的这一规定,人工智能公司或研究机构在进行数据挖掘时,只要其行为符合“非欣赏性使用”的标准,就可以在不侵犯版权的情况下使用这些作品。

尽管这一规定为人工智能技术的快速发展提供了有利的条件,但也引发了创作者和版权持有人的担忧。对于创作者来说,人工智能开发者在未得到授权的情况下使用其作品进行数据挖掘,可能会造成作品的经济利益和版权价值的流失。此外,创作者担心“非欣赏性使用”的定义过于宽泛,可能会被滥用。但日本立法机关和司法机构也逐渐认识到,随着人工智能技术的进步,传统版权法的适用性可能需要进行调整,未来可能需要对“非欣赏性使用”进行进一步的界定和限制,确保版权持有人能够在合理范围内控制其作品的使用。

5、英国

英国政府于2024年12月17日启动了一项为期十周的公众咨询,旨在对现有版权法进行改革,以支持人工智能模型的训练与创意产业的进一步发展,其提出的征求建议包括采纳“允许权利人保留权利的TDM例外”,这意味着搭配透明度提升措施,人工智能开发者可以使用合法取得的资料进行训练,但权利人有权控制其作品的使用。可见,英国的版权法为人工智能训练提供了一定的灵活性,尤其是在文本和数据挖掘(Text and Data Mining, TDM)方面。根据英国《1988年版权、外观设计和专利法》第28A条,临时、短暂的复制行为,如果是为了网络传输技术过程且具有合法使用目的,并不具有独立经济意义,则不构成版权侵权。此外,第29A条允许为非商业性研究而进行文本和数据挖掘的复制。这意味着,人工智能开发者在进行非商业性研究时,可以合法地使用受版权保护的作品进行数据挖掘,而无需事先获得版权所有者的许可。

然而,这种豁免并非无限制。英国的“版权例外”(Exceptions to copyright)指导明确指出,出版商和内容提供商采取维护网络安全或稳定的措施不应阻止或不合理地限制研究人员进行复制文本和数据挖掘,但规避版权所有者为防止盗版而采取的技术保护措施(TPM)仍然是非法的。此外,英国政府在《英国人工智能产业的发展》报告中提到,商业公司使用人工智能进行文本和数据挖掘有利于研究界和社会公共利益,但也强调了在版权例外中需要平衡版权所有者的利益。

与日本的“非欣赏性使用”类似,英国的版权法也试图在保护版权和促进技术创新之间找到平衡。尽管英国的法律为人工智能训练提供了一定的豁免,但开发者仍需注意数据来源的合法性,避免侵犯版权所有者的权益。这种平衡机制为人工智能企业提供了相对宽松的法律环境,同时也为未来可能的版权纠纷提供了明确的指导。

eda456cfd9725c2ef99d986170ca42c.png

制图人:张释文及其团队

国际层面,人工智能法律框架的构建工作正在进行,既有多项立法倡议正在推进,也有多起备受瞩目和期待的判例即将陆续面世。而人工智能的部署和使用本质上具有全球性,国际协调至关重要。中国可以参考前述经验,探索在特定条件下对人工智能训练数据使用的豁免机制,以及细化“合理使用”原则在人工智能训练中的适用范围和判断标准等等。立法的越明确与可量化、判断标准越清晰,人工智能行业企业的合规越有章可循、所形成的预期越稳定,则越能促进人工智能行业企业放心大胆的技术创新。而对于立足于人工智能发展的企业来说,则应从实际操作出发,在目前阶段则应将版权管理和数据合规纳入成本预算,配合企业发展的逐步构建合规体系,在技术创新与法律风险防控之间找到平衡。

脚注:

[1] 参见北京互联网法院(2023)京0491民初11279号判决书。

[2] 参见广州互联网法院(2024)粤0192民初113号判决书。

[3] 参见《数字单一市场版权指令》第3条第1款:Member States shall provide that the acts of reproduction and extraction of works or other subject-matter carried out by research institutions and cultural heritage institutions for the purposes of text and data mining for scientific research purposes shall be an exception to the rights provided for in Article 5(a) and Article 7(1) of Directive 96/9/EC, Article 2 of Directive 2001/29/EC and Article 15(1) of this Directive.

[4] 参见《数字单一市场版权指令》第4条第1款:Member States shall provide that the acts of reproduction and extraction of works or other subject-matter carried out for the purposes of text and data mining of legally acquired works or other subject-matter shall be an exception to the rights provided for in Article 5(a) and Article 7(1) of Directive 96/9/EC, Article 2 of Directive 2001/29/EC, Article 4(1)(a) and (b) of Directive 2009/24/EC and Article 15(1) of this Directive.

[5] 参见《人工智能法案》第106条:In Article 5 of Directive (EU) 2016/797, the following paragraph is added: ‘12. When adopting delegated acts pursuant to paragraph 1 and implementing acts pursuant to paragraph 11 concerning artificial intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council, the requirements set out in Chapter III, Section 2, of that regulation shall be taken into account.’

*褚轶芸对本文亦有重要贡献


返回列表