免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

治理之智 | 从零和博弈走向长期合作:人工智能版权问题分析与思考

发布日期:2025-12-15 19:01:08 浏览次数: 1522
作者:阿里研究院

微信搜一搜,关注“阿里研究院”

推荐语

OpenAI与迪士尼的合作标志着AI版权争议正从对抗走向共赢,为内容产业与AI技术的协同发展提供了新范式。

核心内容:
1. AI版权争议的现状与产业合作新趋势
2. 版权保护与AI发展的本质一致性分析
3. 构建"宽进严出"的版权制度创新路径

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

导语:

在与好莱坞达成和解后,近期OpenAI又与业内著名的“版权维权斗士”迪士尼达成商业合意,从授权许可、股权投资以及AI功能开发等维度探索多样化的合作方式。从《纽约时报》诉讼案的剑拔弩张,到“以打促和”逐渐成为产业界解决AI版权争议的范式,OpenAI“化干戈为玉帛”的方案对内容创意产业如何在AI时代拓展商业化路径具有重要示范意义,体现出版权方正在逐渐与新的技术形态达成共识。


从制度的角度而言,版权保护与人工智能发展长期存在张力。但版权保护的制度目标是激励创作、丰富公共知识、推动文明演进,而大模型训练使用海量文本、图像、音视频等语料,是对人类知识体系的系统性汇聚,通过模型生产内容则显著降低了创作门槛,使内容生产从“少数专业者”扩展为“全民参与”。二者在本质上高度契合,长期看也必然一致当前产生争议的核心,不在于技术本身是否应被限制,而在于,当模型生成内容对原版权作品形成经济替代时,如何建立公平、可操作的利益分配机制? 


在大模型发展初期,版权争议就被诉诸法院,各地版权第一案频发,但受限于技术理解和事实依据,这些案件并未形成统一裁判标准,却倒逼各国加速探索制度和技术的适配路径。随着技术深化与产业成熟,全球共识正逐步形成:AI时代的版权制度设计需要从“防御性保护”转向“激励性协同”。尤其在中美科技竞争加剧的背景下,版权制度已不单纯是法律问题,对此:一是需要坚持“宽进”,以促进人工智能技术发展为目标清除政策和规则堵点,扩大对人工智能可利用数据的“可及”与“可试”;二是需要探索“严出”,结合具体应用场景和行为分别界定注意义务与侵权责任,避免对版权权利人本身的实质损害;三是深化“合作”,鼓励更多商业合作范式探索,帮助版权方抓住新技术发展带来的商业机遇,吸引全球开发者与资本,并壮大创作与内容生态、实现利益共赢




一、当前版权保护与AI发展的问题解析














总体来看,人工智能技术发展与版权保护目标总体一致,长期发展的利益可以有效协同,不会构成根本冲突。


从制度目标来看,版权保护的本意在于通过赋予创作者有限的专有权利,激励文学艺术创作和科学创新,从而实现人类知识公地的广泛扩充,促进技术发展本身就是版权保护的目标之一。而生成式人工智能作为颠覆性技术,其发展目标同样指向知识的重组、效率的提升、以及人类创造力的边界拓展和门槛降低,因此促进AI技术发展与激励创作的版权目标并不构成直接矛盾。


从商业利益来看,双方也存在共同利益和共赢基础。模型技术的发展需要更好的数据,特别是通用大模型,其通识能力、推理能力、多模态能力和在特定行业领域的应用深化,对高质量长下文数据(如书籍、教材)、音像影视类作品以及各学科与专业领域知识等数据有着巨大的需求,而上述数据往往落在版权保护的客体范围内。同时版权权利人的利益收入高度依赖作品授权,与技术方的合作可以实现其创作内容被进一步利用。通过向技术方授权,版权方可以将难以通过传统渠道变现的海量作品转化为授权收入,实现存量价值的变现,又可以通过参与到AI生成、检索服务的收入共享,开辟新的收入来源。


但现行的具体法律规则要求事前获取完整的版权授权并支付合理的费用,此类要求并不完全适配人工智能时代的版权利用模式。


一方面,版权数据的权利主体多元、权利状态高度复杂、授权链路难以追溯,事前难以实现充分授权首先,版权数据权利主体多元,职务作品包含自然人作者的署名权和单位作者的财产权,二次创作等衍生作品的权利由多个主体同时享有,影视作品还涉及演员的表演者权,获得每一位权利人的授权难度很大。其次,版权获取在作品完成之际即由作者原始取得,版权确权无需登记,而作品后继的权利转移和获取方式多样,包括许可授权、转让、继承等,这导致作品的权利状态难以清晰明确,事前以集中授权的方式一次性获得许可的方式从而面临阻碍。综上,在模型对版权数据有广泛需求的背景下,现行法律要求模型合法利用版权数据需事前获得广泛的完整授权并支付相应费用,在实践中难度较大。


另一方面,版权数据价值难以事前预估,买卖双方无法达成合意,且一次性事前定价的方式不一定符合版权人的利益。数据用于模型训练是否能产生提高模型能力的效果只能事后验证,事前交易的定价依据并不能衡量其对模型最终性能提升的边际贡献,技术的快速变动也导致市场上没有可以比较的交易作为参考,双方很难就模型训练授权的定价达成合意。此外,对版权人而言,一次性买断可能使其错失模型成功后带来的巨大利益,相较于低效、充满不确定性的事前定价,事后合作、收益分成等模式或许能够更好地将数据贡献与最终收益挂钩,对版权人而言是可能带来更多潜在收益的策略。


















二、解决AI版权问题的国际方案比较














AI版权规则所带来的障碍在其他国家同样存在。欧盟采取了对版权人现有利益的强保护方案,在《人工智能方案》(AIA)下将版权保护作为安全风险之一,对技术方施加了事前强管控的责任义务,包括采取技术手段严格遵循版权权利人的选择退出、建立权利人投诉和处理机制等,这种方案没有考虑产业实际执行难度,或将进一步加重技术方和版权方之间的矛盾沟壑。日本立法较为宽松,较早确立了版权内容用于机器学习属于“合理使用”,但要求人工智能生成内容不得侵犯版权人的利益。美国利用判例法“促发展、找平衡”,通过司法上的审慎克制、产业上的“以打促和”,在司法判例中不断探索完善多方合作机制,其方法和成果都值得我国借鉴。


在司法落地上,美国法院普遍采取审慎克制的裁判思路。在近两年,美国全国AI版权侵权诉讼数量超60起。尽管涉及AI版权侵权的诉讼数量较大,但美国法院格外强调一案一审的特殊性,司法对于技术发展保持谦抑克制。在今年有实质进展的案件中,部分地方法院也在裁决中认可模型训练属于高度变革的新型技术[1],避免过早地用现有侵权认定规则体系进行定性,防止对产业创新与合作机遇产生限制。


在产业应对上,美国产业逐渐趋向于“以打促和”而非零和博弈。版权方虽然仍在发起诉讼,但法律行动和公开抗议逐渐被视为达成商业谈判的筹码,最终目标并非赢得诉讼,而是达成版权授权与商业合意。这种策略推动了技术方与版权方之间达成大量商业合作,合作形式多样,包括版权授权、技术与产品合作、收益分成等。例如,OpenAI在Sora版权政策争议后,通过修改版权机制(从“主动退出”的opt-out机制改为“使用需提前授权”的opt-in机制)和共享收入的尝试,树立了将潜在的法律对抗转化为商业合作的行业范式,成功实现了向共赢合作的转变[2]。近期OpenAI也在11月与业内著名的“版权维权斗士”迪士尼达成合作,此前迪士尼曾公开表示Sora未经其许可允许用户生成包含旗下IP角色的AI视频,此次合作下迪士尼不仅授权OpenAI在Sora、ChatGPT Images等产品中使用其IP进行AIGC创作,还对OpenAI进行了10亿美元的股权投资[3]。此外也有越来越多的版权方主动寻求与模型方的合作,例如著名音乐厂牌华纳集团近期密集地与Suno、Klay Vision、Stability AI等多个音频模型与AI应用开发商谈成合作,强调坚定保护旗下艺人和词曲作者的权利的同时,支持利用AI技术提升其创作力、拓展艺术可能性并打造更好的粉丝交互体验。

图一 从对抗走向合作:美国AI版权诉讼概览与近期达成合作的案例示意


在政策调整上,美国趋向于实践检验。技术创新本身具有高度的复杂性与不确定性,需要较大的试错空间。美国的AI政策制定过程强调多方问询和采纳技术、产业和版权方提出的建议,避免政策事前独立判断。这种实践导向旨在提升数据的可及性,包括以政府推动增强科学数据供给、进一步开放政府数据以及消除版权规则堵点等。这类政策调整不对技术发展提前预设目标,或是简单套用传统制度框架来评价新的技术,从而避免了过早收敛技术路线,最大程度地赋予了市场和技术创新主体在发展中的自主性和灵活性。

















三、对于构建顺应AI发展的版权制度的初步思考

版权争议是人工智能发展中的阶段性问题,对此我国从两方面进行了回应。一是司法实践中展现出了平衡技术与保护的审慎态度,浙江、上海等地法院在裁判中强调坚持发展和安全并重、促进创新和依法治理相结合的原则[4],对技术提供方需承担的注意义务进行了合理分配。二是对人工智能相关的版权政策进行顺应性调整,在“人工智能+”行动中明确提出完善适配人工智能发展的数据产权和版权制度、推动公共财政资助项目形成的版权内容依法合规开放,各地也尝试对科研机构、事业单位所有的版权语料进行合作性开放。


面向未来,虽然业界对“合作而非对立”的共识逐步清晰,但技术方仍面临获取高质量数据的困境,版权方对利益分配的顾虑也依然存在。因此,对于AI版权问题的治理需要坚持“积跬步,以至千里”,不急于修法立规,不寻求一步到位的全局最优解,而是在技术发展应用过程中寻找自发秩序、吸纳事实规则,通过司法和个案化的事实裁判寻找合理性边界,通过完善版权商业变现机制来消解双方的利益矛盾。总体而言,建议以“宽进、严出、促合作”的整体方案,逐步引领规则在实践中达成共识,引导双方在发展中实现共赢。


第一,坚持“宽进”,以促进人工智能技术发展为目标清除政策和规则堵点,在输入端形成事实上的“合理使用”标准。大模型的训练能够构建具有通用能力的智能基础设施,其从海量数据中学习、提取世界知识、通用规则和逻辑规律,属于高度变革的“转化性”使用,构成对人类知识的再次使用和贡献,因而其在拓展人类知识边界性方面具有一定公共性。基于公共性的认定在训练端引入合理使用,可以消除训练环节的版权侵权顾虑,促进知识传播与技术创新。海外目前已有司法实践,例如日本著作权法304条修改新增“不以欣赏作品原有价值为目的的利用”豁免条款,美国Anthropic案、Meta案所涉的AI版权侵权案件近期判决承认了模型训练符合合理使用;我国也在部分案例中认可了人工智能在数据训练阶段聚合大量作品是为了提高模型创作能力,并非以再现作品的独创性表达为目的,因此可以被认为是合理使用[5]。但训练端的合理使用不是无限使用,合理性的边界就在于训练方遵守“严出”义务,保障版权人权益。


第二,探索“严出”,结合具体应用场景和行为分别界定注意义务与侵权责任,避免对版权权利人本身的实质损害。“严出”要求技术提供方和使用方尽到合理的注意义务,确保输出内容不侵犯版权人的现有合法利益。一是在技术研发阶段采取必要的管控技术或流程措施,目的在于防范与在先作品构成实质性相似;二是在利用人工智能生成涉在先作品的内容时,强调寻求版权人的授权,防止侵权使用;三是平台需要建立通知删除机制,及时管控平台上利用人工智能进行版权侵权的行为。


在责任认定方面,需要以“谁使用、谁负责”为原则,建立合理的责任分担机制。对于技术方的过错认定规则,需综合考量提供的服务性质、当前技术的发展水平、避免损害的替代设计的可行性与成本、可以采取的必要措施及其效果、侵权责任的承担对行业的影响等多重因素,通过动态调整过错的认定标准,将技术方的注意义务控制在合理的程度,以保证不故意损害版权权利人的正当权益的同时,不对技术方过度苛责、影响其创新发展。


在救济机制方面,以补偿实际损害为目标,避免采取抑制技术创新的措施。如须以诉讼来补偿受损的版权方,法律裁判不应以最后限制模型发展为结果,而是需要减少对禁令、删除模型或销毁训练数据等惩罚性机制的适用,而更多采用经济补偿性机制,从而实现对版权方损失的有效弥补,同时维持技术的持续发展。


第三,深化“合作”,鼓励商业合作范式,实现利益共赢。对于在技术发展过程中存在的在先权利与创新发展存在的阶段性矛盾,鼓励和引导商业合作是更高效的解决方案。应推动建立多样化的商业许可模式,将法律对抗转化为商业契机,实现创意产业和AI技术的共同增长和携手并进。例如,鼓励技术方通过授权等,增加成本合理的正版获取渠道;促进版权方与技术方探索基于模型产出或最终商业价值的收益分成模式;针对获取成本极高或存在垄断的领域,考虑完善集体许可机制。


总体而言,建议以“宽进、严出、促合作”的整体方案,逐步引领规则在实践中达成共识,引导新技术相关的多方主体在发展中实现共赢。值得思考的是,这种通过放开输入、保障“数据可及可试”,严控输出、以合作达成“利益保护平衡”的制度探索,其经验具有普适性,可为我国在其他领域对高价值的商业数据(如工业数据、医疗数据等)的保护与利用提供借鉴。


















参考文献


[1] 如2025年6月“Anthropic”案(Bartz v. Anthropic PBC)和“Meta”案(Kadrey v. Meta)两案中,美国加州北区联邦地区法院均就“合理使用”纠纷作出明确裁定,认定未经作者授权、复制从合法来源获取的作品用于训练大模型的行为构成版权法上的合理使用。

[2] 参考OpenAI Sora版权政策更新:https://blog.samaltman.com/sora-update-number-1

[3] 参考OpenAI 官方发布:"The Walt Disney Company and OpenAI reach landmark agreement to bring beloved characters from across Disney’s brands to Sora",https://openai.com/index/disney-sora-agreement/

[4] 参考2024年12月“杭州奥特曼案”二审判决,2025年11月“上海美杜莎案”一审判决

[5] 参考2024年12月“杭州奥特曼案”二审判决:“在无证据证明生成式人工智能是为使用权利作品的独创性表达为目的、已影响到权利作品正常使用或者不合理地损害相关著作权人的合法利益等情形下,可以被认为是合理使用”。



作者


彭靖芷 傅宏宇 袁媛


-END-

 版块介绍 — 治理之智 


在全球化背景下,科技的快速发展也带来了前所未有的治理挑战。本板块内容依托阿里巴巴集团先进的AI科技能力、丰富的应用场景与负责任的技术生态,聚焦于AI风险、AI大模型安全、AI大模型开闭源生态、AI大模型出海等AI治理政策研究,基于技术理性的风险观,为大模型发展与安全平衡与取舍提供独到见解。同时,我们致力于收集和分享海内外AI治理先进理论与经验,为构建合理的科技治理体系提供智慧与灵感。


推荐阅读

Reading

1、静水流深:美国人工智能治理的特征、趋势与启示

2、《中华人民共和国人工智能法(学者建议稿)》:产业期待中的中国方案

3、“不用旧瓶装新酒”:模型开源生态的认知——基于美国NTIA公共咨询意见的分析

4、寻找高质量数据:对“确定性”的实践探寻和思考

5、薛澜:人工智能面临治理挑战

6、合成数据:治理之智

7、合成数据:大模型训练和应用的新方案

8、合成数据:前世今生

9、“全球AIGC版权侵权首判”留下的三个问题

10、2024年中国数据治理前瞻:再平衡与新常态

11、走向AGI时代——关于AI发展与治理的十段观察

12、段伟文|如何应对前沿科技的核心伦理风险?

13、大模型数据之二|中美大模型的竞争之路:从训练数据讲起

14、大模型训练数据之一|大模型训练的“阿喀琉斯之踵”:数据这么近那么远?

15、ChatGPT这么牛,我们应该如何兼顾发展和治理?

16、治理之智 | 合成数据:模型能力跃迁的必经之路

17、治理之智 | 对“数据入表”的若干思考:重视数据意识能力,回归要素价值本源

18、治理之智 | 算法影响评估的三个基本问题:制度定位、机制模式与改革启示(上篇)

19、治理之智 | 算法影响评估的三个基本问题:制度定位、机制模式与改革启示(下篇)

20、治理之智 | 检索增强:解决企业“上云用模”的数据安全隐忧

21、治理之智|用户-模型数据交互安全:挑战、应对及思考

22、DeepSeek为例" data-itemshowtype="0" linktype="text" data-linktype="2">治理之智 | 开源大模型风险治理机制的改革与创新——以DeepSeek为例

23、治理之智|模型蒸馏无需受法律限制,技术创新不宜过早下结论

24、Agent治理的起点:MCP提供了兼容性和安全性的技术方案" data-itemshowtype="0" linktype="text" data-linktype="2">治理之智 | Agent治理的起点:MCP提供了兼容性和安全性的技术方案

25治理之智 | 幻觉是模型创造能力的伴生品

26、治理之智|开源人工智能治理的全球实践及路径选择

27、治理之智|人工智能开源的价值、风险与生态治理研究

28、治理之智 | 《开源人工智能:合作的价值与未来》报告发布

29、治理之智 | 阿里巴巴人工智能开源治理合作研究成果在国际顶尖学术期刊《科学》(Science)上发表

30、治理之智 | 应对中企出海数字治理挑战,推动技术全球化有序发展

31、治理之智 | 以智能促安全:多模态技术演进与价值对齐

图片

如需转载,请在文章下留言 -

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询