AIGC著作权合规的司法认定、全球比较与体系构建

作者:管冰

观点

摘要

人工智能生成内容(AIGC)的爆发式发展,正在深刻影响内容生产方式及著作权法的适用结构。人工智能已从早期基于规则的简单生成到如今大语言模型与多模态模型的复杂推理。这种技术能力的跃迁,使其迅速渗透至办公、设计、营销等几乎所有商业领域。然而,这也让原本清晰的著作权规则面临前所未有的挑战:使用他人作品训练AI是否侵权、AI生成内容可版权性及权利归属、生成内容侵权责任认定等问题,已成为全球法律实务界关注的核心议题。

关键词:

人工智能生成内容;著作权归属;实质性相似;合理使用;平台责任

一、中国AIGC著作权归属的法律框架与司法认定路径

(一)立法现状

目前,中国尚未在《著作权法》层面制定专门针对AIGC问题的成文规则。2020年修正的《著作权法》未直接回应“AI生成内容是否构成作品”及“权利归属”等根本性问题。2023年,国家网信办等部门联合出台《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),其中第七条明确规定服务提供者需“使用具有合法来源的数据”,不得侵害他人知识产权。但《暂行办法》的核心侧重在于算法安全、内容生态治理与平台责任,并未深入触及著作权归属与侵权认定的实体法理问题。

面对立法空白,中国法院在处理相关纠纷时,无法直接援引现成法条,而是回归著作权法的基本原理,通过解释和适用“作品”定义、“独创性”等核心概念来回应技术挑战。这种“司法先行”的路径,在一系列标志性案件中得到了充分体现,并逐步形成了一套相对稳定的裁判逻辑。

(二)司法路径演进

中国法院对AIGC著作权问题的探索,并非立场摇摆,而是在“人类独创性智力投入”这一统一标准下,针对不同技术场景的持续深化与具体化。这一演进过程清晰地体现在几个标志性案件的裁判逻辑中。

1. “菲林诉百度案”[1](2018-2019)

该案是国内较早触及“机器自动生成内容”可版权性问题的案件。法院在审理中确认了重要的原则。法院认为,根据现行法律规定,文字作品应由自然人创作完成。对于利用统计软件自动生成的图表,其变化仅源于数据本身,未体现人类创作选择,故不具独创性;而对于文章的文字分析部分,法院通过比对发现,原告在使用软件输出基础上加入了独立分析、判断与解读,体现了智力投入,最终认定该部分构成文字作品。此案的重要意义在于确立了审查路径:AIGC的可版权性,关键在于剥离技术外壳后,能否寻得“人”的创造性印记。

2. “腾讯Dreamwriter案”[2](2019)

此案中,被告抗辩称文章由AI“自动撰写”故不构成作品。法院没有停留于表面标签,而是深入剖析了生成过程。法院查明,腾讯团队在数据输入筛选、触发条件设定、模板语料选择等多个环节进行了“个性化的安排和选择”,付出了“实质性智力投入”。最终生成的文章,其内容、结构、表达充分体现了创作团队的意图。法院明确指出,AI在此仅扮演“工具”角色,如同电脑、打印机,真正的创作主体是人(法人)。此案进一步强化了“过程审查”的重要性,为认定具有相当自动化程度的生成内容之权利归属提供了清晰范例。

3. “春风送来了温柔”AI文生图案[3](2023)

此案作为国内“AI文生图”著作权侵权第一案,将裁判逻辑延伸至更复杂的视觉创作领域。原告李某通过反复撰写修改提示词、调整参数、多次迭代筛选,最终生成特定美学风格的图片。法院裁判逻辑可归纳为两点:首先,重申AI模型本身不是作者,作者必须是人;其次,细化判断标准——若AI生成内容体现了人的独创性智力投入,即可构成作品。法院详细审查了原告的创作过程,强调其提示词撰写并非简单堆砌,而是对画面呈现的精准把控;参数调整体现了个性化选择;多次迭代筛选是对表达的进一步优化。这些投入使最终图片具备了可识别的独创性表达。法院最终认定该AI生成图片构成美术作品,原告享有著作权。此案标志着司法审查从文字内容向视觉内容的成功跨越,并建立了更为细致的“智力投入”审查框架。

4. 2024-2026年案例趋势

近年来的司法实践持续深化上述原则。例如,2024年江苏常熟法院审理的“伴心案”[4],法院认定AI生成图片因具备独创性而构成美术作品,进一步确认了“春风案”确立的标准。同时,平台责任与用户责任的边界也在具体案例中得以明晰。上海人工智能大模型著作权侵权案“美杜莎案”[5](2025年)法院结合用户使用特定IP形象进行模型训练并投入商业使用的具体行为,认定构成著作权侵权。而2026年3月,上海黄浦区法院在一起AI提示词著作权侵权案[6]中,法院的裁判进一步细化了创作性贡献的认定。这些案例共同表明,司法路径在持续演进中保持了内在一致性,且正朝着更精细化、场景化的方向发展。

(三)核心裁判标准

综合前述案例,可以提炼出中国法院在判断AIGC是否构成作品及权利归属时,系统审查的五个关键维度,形成一个从意图到结果的完整判断链条。

1. 创作意图的发起:一切始于“人”的构思。法院会考察创作主题、风格、情感表达等核心创意是否由人发起和主导。若过程仅为机器随机启动或缺乏人类预设的创意框架,则难以认定存在受保护的作品。

2. 提示词与参数的设计:这是体现“智力投入”最核心的环节。法院将对比指令的复杂程度。是简单、随意的描述,还是经过深思熟虑、反复调试的精准指令?参数调整是否具有目的性和选择性?越复杂、具体、体现创作判断的指令,越能证明人类的智力贡献。

3. 生成过程的控制与选择:法院关注人类对生成结果是否进行了主动控制与筛选。用户是否对AI生成的多轮结果进行比对、评判、取舍?是否基于不满意的结果反向调整指令?这种“调试-生成-筛选”的互动过程,是人类发挥主观能动性、对最终表达施加控制的关键体现。

4. 生成后的加工与修改:“一键生成”往往不是终点。法院会审查用户是否在AI输出基础上进行了实质性的二次加工,如图像精修、文本重写、结构重组等。这种后期编辑若带来了实质性改变,将进一步烙上创作者的个人印记。

5. 最终成果的个性表达:最后,法院会审视结果本身。生成物是否呈现出独特的、可辨识的风格或情感内核?能否让人感受到这是特定个体通过智能工具实现的个性化表达?这是对前序投入在结果层面的综合检验。

总而言之,法院通过审视这条完整的“创作链条”,来判断AI强大生成能力背后所呈现的,究竟是“人类智慧的印记”还是仅仅为“机器的运算结果”。

(四)权利归属认定

当AIGC内容被认定为作品后,其权利归属遵循“谁贡献,谁拥有”的基本原则。即谁投入了足以构成“创作”的独创性智力,谁就享有著作权。如“春风案”中,因用户在提示词设计、参数调整、迭代筛选过程中付出了持续具体的智力投入,法院将著作权判给用户。

然而,这一原则受到“合同约定”的约束。实践中,几乎所有的AI平台服务协议都会对生成内容的权利归属作出预先安排,且其效力通常会被司法尊重。主流平台的约定模式主要有四类:一是用户完全拥有(如OpenAI商业条款);二是用户拥有著作权但平台获得广泛许可(最常见模式);三是平台拥有或双方共有;四是开放共享型(基于开源模型)。因此,用户权利既来源于其实质性智力付出,也受制于其点击同意的服务协议。在AI世界中,创作之前阅读合同条款至关重要。

(五)举证责任与证据固定

在诉讼中,主张权利的一方负有举证责任,需证明其在生成过程中投入了受著作权法保护的独创性智力劳动。有效的证据主要包括四类:

创作过程的全程记录:包括完整的提示词迭代史、参数设置记录、多轮生成结果对比文件、最终选定理由说明,甚至创作前的构思草图等,构成一条完整的思维轨迹链。

平台协议与后台日志:用户协议明确权利基础,平台后台数据日志可与本地记录相互印证,构建电子证据链。

后期编辑的原始文件:若进行二次加工,保存能体现编辑过程的原始文件(如PSD、修订记录)是证明智力贡献达到新高度的直接证据。

第三方技术存证:利用可信时间戳、区块链等技术对关键步骤进行固定,增强证据的客观性与公信力。

一个反面案例((2024)苏0582民初9015号)颇具警示意义:原告仅能提交“一张蝴蝶形状的椅子”等极为简单的提示词证据,法院据此认定其生成内容缺乏独创性智力投入,不构成作品。此案表明,过于简单的指令输入不仅难以形成受保护的作品,更会在诉讼举证中陷入根本困境。

二、AIGC著作权侵权风险全景与实务认定

(一)研发运营方的侵权风险

研发运营方面临的侵权风险贯穿于从模型训练到内容分发的全过程。

1. 训练数据阶段的侵权风险

此阶段风险根植于模型对海量数据的摄取与训练过程,是当前全球法律争议的暴风眼。《暂行办法》第七条明确要求使用“具有合法来源的数据”且“不得侵害他人知识产权” 。然而,何为“合法来源”尚缺乏明确的实施细则,实践中存在巨大争议。

在“接触+实质性相似”的侵权判定原则下,若AI模型“反刍”输出与原作品高度相似的内容,研发方极易面临侵权指控。目前,全球范围内已形成大量集中诉讼,如《纽约时报》诉OpenAI案,其核心争议点即在于未经许可使用作品训练AI是否构成合理使用。

2. 内容生成与提供阶段的侵权风险

当模型投入使用,生成内容若与他人作品构成“实质性相似”,平台可能面临侵权指控。司法实践通过典型案例勾勒出平台责任的清晰边界。

“奥特曼案”[7](广州互联网法院,2024)

案情核心是用户输入“生成奥特曼”等提示词,平台直接生成了高度近似的图片。法院三大关键认定极具标杆意义:其一,在侵权定性上,认定生成图片侵害复制权和改编权,审视焦点直接落在“输出结果”与“原作”的比对。其二,在责任认定上,驳回平台“技术中立”和“第三方提供”的抗辩,认定其直接提供侵权生成结果构成直接侵权。法院指出,对“奥特曼”这类知名IP,平台对其被侵权生成具有“可预见性”,未采取合理过滤措施即存在过错。其三,在赔偿考量上,判决赔偿1万元,远低于原告索赔,体现了保护权利与为技术创新留空间的平衡。此案明确警示:平台若深度参与、控制并直接提供生成内容,必须事先建立关键词过滤库和审核机制,“技术中立”抗辩在该情形下难以成立。

“美杜莎案”[8](上海金山法院,2024)

此案案情类似,但判决结果不同。用户利用平台LoRA训练功能,使用“美杜莎”形象训练模型并商用。法院判决用户侵权,但平台免责。关键在于法院对平台是否履行“合理注意义务”的认定。法院指出平台已做到“事前告知(用户协议禁止侵权)、事中可管(设置投诉审核机制)、事后能处(及时下架模型并更新过滤库)”,履行了与其技术能力相匹配的注意义务。此案与“奥特曼案”形成鲜明对比,核心分野在于平台是否主动、直接地参与了侵权内容的生成与提供。

上述两案共同确立了司法裁判的核心逻辑——问题焦点不是“AI是否侵权”,而是“平台是否尽到了与其技术能力、运营模式相匹配的‘合理注意义务’”。这一判断标准在后续司法实践中得到持续发展和细化。

(二)使用者的侵权风险

AIGC使用者作为内容生成行为的发起者和受益者,面临两类主要风险。

直接侵权责任:若用户生成内容被司法认定侵犯他人著作权,用户通常需承担直接侵权责任。若用于商业目的,责任和赔偿更重。

权利落空风险:若生成过程智力投入过低(如仅输入简单指令),内容可能因缺乏独创性而不被认定为作品,无法获得著作权保护,使用者面临权利落空的尴尬境地。

法院认定侵权遵循“接触+实质性相似”原则。关于“接触”要件,司法实践可能倾向于通过高度相似性推定存在接触,但该规则在AIGC场景中的适用仍有待进一步明确。 “实质性相似”要件的认定则需精细化比对独创性表达。

为规避风险,建议使用者应采取以下策略:

选择合规平台,仔细阅读用户协议,明确权利归属与商用权限。在输入提示词时,坚决避免使用知名作品名称、角色名、艺术家标志性风格等高风险指令。

从“直接采用”转向“深度二次创作”。将AI输出视为“高级草稿”或“灵感素材”,必须进行实质性的二次加工,如画面精修、文本重写、结构重组,以增加个人独创性贡献。

系统性保留“人类创作贡献”证据链,包括所有版本的提示词、参数截图、中间生成结果、筛选理由、后期修改记录等。这既是确权基础,也是遭遇侵权指控时的抗辩利器。

三、全球视野下AIGC著作权规制的多元模式与比较

AIGC挑战具有全球性,各主要法域基于不同的法律传统与产业政策,形成了差异显著的规制模式。

(一)美国模式

美国版权局(USCO)和法院体系对AI生成内容的立场最为坚定:版权保护仅限于人类作者的原创作品。在 Thaler v. Perlmutter案中,法院支持USCO拒绝为完全由AI生成的作品登记版权的决定。在 Zarya of the Dawn 漫画案中,USCO在发现插图由Midjourney生成后,撤销了对AI生成图像的版权,仅保留人类创作部分的保护。美国模式核心是严格的“人类贡献中心主义”:纯AI生成内容无保护;若人类对AI生成内容进行了充分、独创性的后续加工,则人类贡献部分可作为新创作受保护。AI在此被视为工具或原始材料。

(二)欧盟模式

欧盟通过专项立法——《人工智能法案》——对通用人工智能模型(GPAI)施加强制性义务。该法案要求GPAI模型提供者必须起草并公开发布关于训练数据内容的详细摘要,确保版权权利人能核查其作品是否被未经许可使用。相关透明度义务将于2025年8月2日生效。这是一种典型的风险预防和过程监管思路,试图通过“阳光法案”式的透明度要求,重建研发者与权利人之间的信息对称。

(三)英国模式

英国是极少数在成文法(《版权、外观设计和专利法》CDPA)中直接回应“非人类创作”问题的国家。CDPA创造了“计算机生成作品”概念,定义为“在不存在人类作者的情况下,由计算机独立生成的作品”。采用“法律拟制”技术,规定“为该作品的创作进行了必要安排的人”视为作者。但“必要安排的人”是开发者、用户还是数据提供方?法律未明确,导致此规则在AIGC时代充满不确定性。

(四)全球共识与趋势

尽管模式各异,但全球已凝聚三点关键共识:

普遍不承认AI为作者:无论美国、中国还是日本,均明确拒绝将AI视为著作权主体。AI是工具,而非作者。

强化人类创作核心地位:所有法律讨论最终回归“人”的贡献。无论是美国的“人类作者”原则、中国的“独创性智力投入”标准,还是英国模糊的“必要安排人”,本质都将人类创造性贡献作为版权保护的基石。

重点应对训练数据风险:以欧盟《人工智能法案》为代表的“透明度革命”正成为新标杆,要求AI开发者对“数据食谱”负责,通过强制披露回应版权关切。这迫使企业合规策略必须具备双重思维:在产品设计上凸显人类创造性环节;在研发训练上以最高标准审视数据合法来源并准备迎接透明度披露。

四、AIGC著作权合规体系的构建

面对复杂的法律环境,企业与个人必须从被动应对转向主动构建系统化的合规体系。

(一)引入国际标准--ISO/IEC 42001

ISO/IEC 42001作为首个AI管理体系国际标准,为研发运营方和大型企业用户提供了系统性框架。其核心控制域包括 数据治理、 AI系统生命周期管理及透明度沟通。引入并落实该标准,能系统提升治理水平,并在面对监管或诉讼时,能证明已尽到勤勉合规义务。

(二)合同条款设计与谈判策略

合同是划分权利、分配风险的基础工具。 对于研发运营方,在制定用户协议时,应当对权利归属条款、用户行为的禁止性规定、违约责任、免责与责任限制条款等在公平性前提下进行精心设计。对于上游数据协议,应当进行知识产权尽职调查,要求数据提供方保证合法授权并约定侵权赔偿条款。对于使用者,确认平台协议授予的商业使用权限、仔细审查知识产权赔偿承诺条款的细节与范围则非常必要。此外,应当清晰认知,即使自身合规,上游训练数据瑕疵仍可能波及使用者,因此选择合规记录良好的平台至关重要。

(三)技术赋能合规

真正意义上的合规,并非单纯依赖法律规则的外部约束,而是需要在制度设计层面实现法律规范与技术手段的深度融合,从而形成“可执行、可验证、可追溯”的治理体系。在具体路径上,首先体现为版权过滤技术的嵌入式应用。一方面,通过构建敏感内容库,对具有高度识别性的知名IP进行特征提取与结构化入库,在用户输入阶段及内容生成阶段即进行前置拦截或风险提示;另一方面,借助图像与文本相似度检测技术,对生成结果实施自动化比对与风险扫描,从源头降低侵权内容输出的可能性。其次,在内容标识与溯源层面,逐步形成以数字水印与内容凭证为核心的技术体系。数字水印作为响应强制标识监管要求的基础工具,通过在生成内容中嵌入隐性标识,实现对来源的初步识别;而更进一步的内容凭证机制,则通过嵌入不可篡改的元数据指纹,对训练数据的版权状态、用户提示词贡献以及模型参数调整路径进行全过程记录,从而实现对内容生成过程的精细化追踪与责任定位。与此同时,辅以实时相似度分析机制,可在内容生成阶段即触发侵权风险预警。最后,在制度落地层面,还需构建覆盖全生命周期的证据管理体系:平台应建立贯穿数据采集、清洗、模型训练直至部署应用的全流程合规档案,确保各环节均具备可审计性;用户则需系统性留存提示词、参数设置及迭代版本等关键“创作日志”,以在权利归属或侵权争议中提供可验证的证据支持。

AIGC著作权合规本质是在技术创新爆发力与法律秩序确定性间寻求动态平衡。对企业与研发者而言,竞争维度正从单纯的技术和数据规模,扩展到系统的合规治理能力。需完成从“数据获取”到“数据治理”的转变,建立全生命周期风险控制。对使用者而言,则需从“即兴生成”转向“审慎创作”,提升权利意识与过程管理能力。AIGC产业必将走向更深度的规范化。最终目标是迈向一个“人类主导、过程可视、责任清晰”的数字创作新阶段。

注释

[1] (2018)京0491民初239号、(2019)京73民终2030号

[2] (2019)粤0305民初14010号

[3] (2023)京0491民初11279号

[4] (2024)苏0581民初6697号

[5] https://mp.weixin.qq.com/s/Plae0snaOEsqqmodLU9j4g

[6] (2025)沪0101民初14775号

[7] (2024)粤0192民初113号

[8] https://mp.weixin.qq.com/s/Plae0snaOEsqqmodLU9j4g


作者

作者动态

作者其他文章

相关领域

Copyright © 1998-2018 天达共和律师事务所 京ICP备11012394号
联系我们 关注公众号
联系我们