本文刊于《人民法院报》2025年4月24日第07版:民商审判
吴何奇
生成式人工智能技术的快速发展,正在重塑内容创作与传播的边界。然而,技术革新与法律规制之间的张力也日益凸显。生成式人工智能服务具备区别于传统网络服务的双重属性,既作为知识生产工具输出内容,又承担技术服务功能。这种融合特征要求司法裁判需建立多维评估体系,综合考量技术发展阶段、侵权信息可识别性、损害后果预期性及平台管控措施有效性等要素,实现平台义务与技术能力的动态匹配。
2025年2月,杭州互联网法院对全国首例生成式人工智能平台侵害信息网络传播权案作出判决(以下简称“奥特曼案”),首次明确了平台在用户利用人工智能生成侵权内容时的责任边界,成为该领域司法实践的里程碑。在该案中,原告是奥特曼系列形象的知识产权权利人,被告运营的人工智能平台提供Checkpoint基础模型和LoRA模型,支持用户上传图片进行训练并生成与奥特曼形象实质性相似的图片。原告认为被告的行为侵犯了其信息网络传播权,并构成不正当竞争。被告则辩称其平台属于“避风港规则”下的免责范围。杭州互联网法院认定,被告杭州某智能科技公司构成帮助侵权,判决其停止侵权并赔偿经济损失及合理费用3万元。宣判后,原告不服,提起上诉。浙江省杭州市中级人民法院二审判决驳回上诉,维持原判。笔者以该案为核心,结合其他相关案件,探讨生成式人工智能侵犯信息网络传播权的法律适用问题。
一、生成式人工智能侵权行为的法律定性
1.直接侵权与帮助侵权的区分标准。根据著作权法及司法解释,生成式人工智能服务提供者的侵权责任需根据其行为性质分类界定。在“奥特曼案”中,法院明确指出,若平台直接实施受著作权专有权控制的行为(如复制、传播),则构成直接侵权;若平台仅提供技术服务且对用户侵权行为存在过错,则可能构成帮助侵权。在该案中,被告平台虽提供LoRA模型训练功能,但侵权图片的生成由用户主导完成,无证据表明平台与用户存在共同侵权意图,故不构成直接侵权。然而,平台通过鼓励用户发布模型、设置营利机制(如会员充值)等方式,客观上为侵权行为提供了技术支持和扩散渠道,结合奥特曼系列作品的高知名度及平台展示侵权内容的明显性,法院认定其未尽合理注意义务,构成帮助侵权。
2.技术中立性原则的有限适用。技术中立性原则常被平台援引以主张免责(如“避风港规则”),但司法实践强调其适用需结合具体场景。在“奥特曼案”中,平台在开源模型基础上进行场景化改造并从中营利,已超越单纯的技术中立角色,应承担与商业利益相匹配的注意义务。这与广州互联网法院在“新创华诉某人工智能公司案”(以下简称“AI文生图案”)中的裁判思路形成呼应,即当平台通过技术手段显著增强侵权结果的可控性,中立性抗辩将受到严格限制。
二、生成式人工智能侵权的特殊性及其挑战
1.输入端与输出端的责任分离。传统网络侵权多聚焦于直接传播行为,而生成式人工智能的侵权链条涉及模型训练(输入端)与内容生成(输出端)两个阶段。在“奥特曼案”中,法院将责任集中于输出端的传播行为,未对模型训练是否构成合理使用作出明确评价,但通过禁止平台提供侵权模型间接规制输入端。相比之下,广州互联网法院在“AI文生图案”中直接认定输出内容构成对原作的复制与改编,更强调生成端的行为定性。
2.“合理使用”边界的模糊性。训练人工智能模型是否属于著作权法第二十四条规定的“合理使用”仍存争议。杭州互联网法院虽未直接回应此问题,但通过要求平台删除能体现作品独创性特征的模型,隐含了对“转换性使用”标准的严格解释,即生成内容与原作构成实质性相似,则难以主张合理使用。
3.损害赔偿的量化困境。在“奥特曼案”中,原告主张30万元赔偿,法院最终仅支持3万元,反映出对人工智能侵权赔偿的审慎态度。法院未采纳“实际损失”或“侵权获利”标准,而是综合考量平台过错程度、技术贡献等因素酌定赔偿额,体现了防止过度遏制技术创新的政策考量。
三、平台注意义务的司法认定框架
在生成式人工智能环境中,侵权认定变得更加复杂。生成式人工智能平台的性质和商业模式与传统网络服务有显著区别。平台兼具内容生产者和平台管理者的双重身份,属于一种新型网络服务。因此,在判断生成式人工智能平台是否构成侵权时,需要结合具体应用场景综合考虑多种因素。
“奥特曼案”“AI文生图案”为生成式人工智能平台侵权问题的司法认定提供了思路。上述案例明确了平台在未获得授权的前提下运营生成内容时,可能构成信息网络传播权的帮助侵权,为平台注意义务的综合性判断标准提供了参考:
一是营利模式与技术可控性。平台的技术架构和商业模式会影响侵权责任的认定。平台通过会员付费、积分奖励等机制直接获益,且LoRA模型能稳定输出侵权内容,表明其具备技术干预能力。二是权利作品的知名度。具有广泛认知度的权利作品使侵权行为更易被识别,平台需对高知名度作品采取更高审查标准。在“奥特曼”案中,法院指出,奥特曼形象具有较高的知名度,平台应能够识别并阻止侵权内容的生成和传播。三是侵权扩散的预见性。人工智能生成内容的便捷传播性显著放大了侵权风险,平台需预见到用户反复使用侵权模型的可能。平台在用户输入侵权图片等训练语料并决定是否生成及发布时,并不当然负有事先审查的义务,但对于明显侵权内容应当采取必要措施。四是平台是否存在主观过错的判断。在“AI文生图案”中,因通过人工智能文生图服务生成相同或相似图片,被告Tab平台被原告控告侵犯了其在国内奥特曼美术作品方面的复制权、改编权及信息网络传播权。法院最终判定,被告作为人工智能服务提供者,虽非模型训练者,无需删除训练数据,但需采取“关键词过滤”等措施防止侵权内容再生。平台虽在诉讼后采取屏蔽措施,但事前未建立关键词过滤、版权审核等主动防控机制,构成过错。
司法实践中,法院注意避免对平台施加过重审查负担,转而强调“与信息管理能力相适应”的动态义务。例如,杭州互联网法院未支持原告要求删除全部相关数据的诉请,仅要求平台删除已发布的侵权内容,并允许用户基于合理使用目的继续存储非传播性内容。这一裁判体现了对技术创新与权利保护的平衡,符合“促进人机良性互动”的政策导向。此外,在无证据证明生成式人工智能是以使用权利作品的独创性表达为目的,且未影响权利作品的正常使用或不合理地损害权利人合法利益的情况下,可以认定属于合理使用。
作为驱动新一轮科技革命的核心技术,人工智能依托算法、算力与数据要素构建新型生产力形态,已成为全球产业变革的战略制高点。在技术迭代加速的背景下,构建适配新型业态的治理框架既是保障公共利益的必然选择,也是推动行业规范发展的现实需求。“奥特曼案”的判决依据技术架构差异划分应用场景,从输入端数据训练与输出端内容生成两个维度构建侵权认定标准,并针对基础模型层与应用层的功能区分,确立差异化的注意义务体系,为同类案件提供了可复制的裁判框架。未来,随着技术迭代与立法完善,平台需要更加注重版权保护,以实现技术创新与依法运营的平衡,而司法裁判将继续扮演划定技术伦理与法律红线的重要角色。
(本文系上海市哲学社会科学规划“研究阐释党的二十届三中全会精神”专项课题“完善生成式人工智能治理的规制路径研究”的阶段性成果)
(作者单位:上海政法学院)