OpenAI的GPT-4o因其精准生成吉卜力动画风格的图像能力引发热议,用户通过输入简单指令即可复现标志性的柔和色调与奇幻场景。创作者们将《指环王》等经典IP转化为吉卜力画风的二创作品在社交平台病毒式传播,虽然展示了AI的技术潜力,也掀起关于“风格模仿是否构成侵权”的法律争议。
过去一年,AI领域出现了多起引人关注的法律案例:
某智科公司AI平台因未屏蔽用户上传的奥特曼训练图片及生成的侵权内容,被判构成帮助侵权,赔偿3万元;某公司复制抖音变身漫画特效模型结构与参数,因构成不正当竞争被判赔160万元;在"幻之翼透明艺术椅"案例中,丰某某仅通过简单提示词生成图片后起诉朱某某抄袭设计,但法院裁定AI生成内容因缺乏"独创性智力投入"不构成受保护作品,驳回了丰某某的侵权主张。
这些案例的判决基本原则是什么?我们在日常工作生活中如何应对AI侵权带来的影响?
当AI能力不断增强,模仿与侵权、借鉴与复制的界限已变得极其模糊。这场争议不仅挑战了我们对"创造力"本质的理解,也考验着现有版权法律体系在AI时代的适应性。
为深入探讨这一议题,腾讯科技《AGI之路》特别邀请了职业艺术家泰祥洲、清华大学法学院助理研究员刘云、天元律师事务所合伙人李昀锴及腾讯ARC Lab高级研究员赵旺,从艺术创作、法律规范和技术实现多个维度,共同解析AI艺术创作引发的复杂挑战。
核心观点:
法律保护所谓的“艺术风格”吗?
著作权法保护的是具体的“表达”,而不是抽象的'思想'或'风格'。风格更多地被认为是个人审美的偏好或倾向,属于思想层面。单纯模仿或学习吉卜力画风,通常并不违反著作权法的规定。
AI开发者用未经授权的数据进行训练,侵权吗?
AI训练需要海量数据,传统的“先授权后使用”原则已不合时宜。国内缺乏相关立法和豁免机制,而类似小红书画师维权案已有先例。虽然AI企业普遍采取“先用后论”策略,但这种做法还是存在法律风险。
发生AI侵权,谁该担责?
以“吉卜力风格的《指环王》”为例,模仿画风风险较小,但使用其故事情节和角色可能构成侵权。侵权诉讼的潜在被告包括用户、AI平台和传播平台。
实践中,权利人多起诉AI平台,但若平台建立完善的管理机制且未主动鼓励侵权,可适用“避风港原则”获得豁免。
用AI创作,能被称为真正的艺术家吗?
创作者的核心竞争力在于思想深度和时代洞察。只要能创作出独特视角的作品,AI就只是表达工具,而非替代者。
AI创作是自底向上,从像素到语义;人类创作是自顶向下,从意境到细节。AI视所有像素同等重要,而人类会区分细节的轻重缓急。
以下为本次直播精华内容总结(有删减):
法律保护"风格"吗?
腾讯科技:一位艺术家通常需要多久才能形成自己的艺术风格?这种风格中又包含了哪些难以量化但至关重要的特质呢?
泰祥洲:我认为,艺术风格的背后其实是一种观念,它体现了艺术家对整个时代的把握。在把握时代线索时,艺术家需要找到一种超前的形式,具备预知性,这样才能引发大家的共鸣和感知。
就好比之前流行的科幻小说《三体》,它之所以能成为潮流,是因为它契合了我们这个时代人们对于未知世界的探索和追求。至于宫崎骏的动画风格,其实已经流行了很多年,按理说可能已经逐渐淡出主流视野了。
但这次 GPT 的出现,反而把吉卜力的风格重新唤醒了。我认为这对宫崎骏这一派系来说,可以说是一种重生。从艺术家的角度看,我觉得这是非常幸运的事情。
腾讯科技:从法律的角度来看,法律能够保护某种“风格”吗?
李昀锴:从法律的角度来说,目前我国的著作权法其实并没有对“风格”给出明确的定义。不过,根据实践经验,可以理解为,风格是某一个艺术家在创作其作品时体现出来的一些固定特征,比如说,他倾向描绘的事物、传达的观点、习惯的配色以及表现手法等与个人审美偏好相关的内容。
同样,目前的著作权法也没有特别明确地对风格本身进行保护,因为著作权法主要保护的是具体的“表达”,比如一幅画、一段文字,而不是抽象的“思想”或“风格”。风格更多地被认为是个人审美的偏好或倾向,属于思想层面。因此,只要没有固定在具体的作品表达上,只是单纯模仿或学习吉卜力画风,通常并不违反著作权法的规定。
腾讯科技:从法学的角度来看,对于风格的保护有哪些通行的观点?
刘云:在国际上,确实有一套比较成熟的分析框架来处理这类问题,我们称之为“思想与表达二分法”。简单来说,就是著作权保护的是作者思想的具体表达形式,而不保护思想本身。设立著作权制度,一方面是给予创作者一定期限内的专有权利,以激励创造;但另一方面,这些知识最终是要回归公有领域,供后人学习和借鉴,促进文化传播的。
在实践中,就像美国著名大法官汉德所说的那样,“思想”与“表达”之间的界限往往是比较模糊的,很难划出一条清晰的界线。比如,假设某个游戏涉及到“三国杀”(虚拟假设)的规则,单一的基础规则或设定可能不受保护,但当这些规则、人物特征、技能效果等元素组合在一起,形成一个整体的游戏呈现时,这个具体的“表达”就能受到著作权法的保护。
腾讯科技:AI生成图像常带有可辨识的"工具风格",比如一眼能看出是Midjourney还是GPT-4o生成的。这种AI的风格是如何在技术层面形成的?与人类创作风格相比,有哪些本质区别?
赵旺:从2014年深度学习开始之后,AI生成风格的范式都是一样的,就是从大数据中挖掘计算数学的模式,一方面是数据,另一方面是模型拟合函数的的能力。那时如果生成特定的风格,就需要收集特定数据、训练特定模型。现在GPT-4o这样的大一统模型出现,能够整合不同风格,而不需要对某一种任务或风格做特定设计。
至于跟人类艺术家的具体风格有什么区别,这是很有意思的问题。
第一点,AI创造的范式是自底向上的,而人类艺术是自顶向下的。AI是从像素开始,逐渐学习局部、直到全局的语义信息;而人类是从最高层的意境逐步解构具体的表达的。对人类来说,细节是有重要程度区分的,而对AI来说,每个像素的重要性都相同。
第二点,AI创造的内容没有上下文,或者说它的不确定性相较人类而言太少了。这里不确定性指的是它作为社会和时代的行为主体,缺乏情感和自己的思考。
第三点,人类现在学习创作是高效的,但也是受限的;而AI的学习创作虽然是低效的,却是可扩展的。人类学生不可能大量完全复制老师的作品,但AI可以稳定生成某种风格。
泰祥洲:艺术作品本质上是和时间紧密相关的,每个时代都有自己普遍通行的艺术范式。例如文艺复兴和启蒙运动时期,光变成了时间的尺度,产生了写实主义绘画,这背后是科学和文明。1900年以来,光的认识被二次解构,分割成光子,这时有了点彩画派、印象派。
所以不论梵高还是莫奈,都是在一个大的科学逻辑下产生的个体分化。艺术家是在自身思想性的基础上,踩上这种脉搏的。技法本身不太重要,经过长期的训练都会形成自身娴熟的风格,这背后的思想更重要。
吉卜力风格究竟是什么呢?其实宫崎骏做动画时,一开始真的是拍电影,后来他把电影平面化了,更像像素的方法,把人做的东西换算成计算机语言,因此机器很容易学习,随着互联网发展就变成了时代潮流。吉卜力就是在这种平面化、碎片化的基础上形成的风格。
所以,关键在于理解和掌握这个“底层逻辑”。如果我们能真正把握住它,我相信未来的AI工程师,也能在此基础上创作出更伟大的作品。
腾讯科技:刚刚提到宫崎骏的画风与机器学习有契合之处,那么AI是不是更容易习得某些艺术风格呢?
赵旺:宫崎骏的这种吉卜力风格,相当于对真实世界的图像做了简化,它的颜色和线条简单连续、细节也较少,从最基础的角度来说,这种风格肯定是更容易被AI习得的。
我们真实世界图像的细节太多、维度太大,生图就较为困难,比如说Midjourney v5之前,大家可能就会觉得生成的真人图片手部细节很少、头发眼睛很差。
对最新的GPT-4o或者Midjourney v8来说,无论是什么流派或风格,都不难。难的是超前一步创造新的东西。AI可能可以靠自己的一些涌现能力“创造”,但最终还是跳脱不了原来的数据分布。
腾讯科技:如果不是AI,而是一个人模仿特定艺术风格(如吉卜力风格)进行商业创作,这是否构成侵权?
刘云:可能构成侵权。判断的关键在于,其创作的具体作品是否与权利人(如吉卜力工作室)受版权保护的具体作品构成了实质性相似。如果仅仅是风格相似,但内容、构图、具体形象等是独创的或未达到实质性相似,则不构成侵权。
李昀锴:我补充一个核心概念:著作权法是不禁止模仿的,甚至在某种程度上是鼓励模仿的;著作权法禁止的是直接复制他人的作品,也就是没有经过自己创作和理解就照搬别人的具体表达。所以,无论是人还是 AI,在学习和模仿风格的过程中,本身是有法律空间的。
图片来源:Studio Ghibli
AI开发者头顶的“达摩克利斯之剑”
腾讯科技:在吉卜力画风流行的时候,有一则传言说吉卜力工作室发布了一则声明,虽然最终证明这个声明不存在。如果吉卜力工作室真的发起这样的侵权诉讼,胜诉的可能性有多大?
李昀锴:作为法律人,我关注的核心是:AI 生成的内容和原作的相似点到底在哪里?就像刚刚讨论的,著作权法保护的是具体表达,比如龙猫、哈尔等是宫崎骏独创的形象;但如果只是构图、圆润的线条相似,则并不构成侵权。
另一个要考虑的问题是AI的训练过程。即使最终生成的图片没有直接侵权,但如果 AI 在训练时未经许可就使用了吉卜力的动画作品作为学习资料,这个“学习”或“输入”行为本身,是否构成未经授权的复制?这其实是另一个维度的法律问题,需要根据各国的具体法律来判断。
所以,这个问题我们要从输出端(生成内容)和输入端(训练数据)两个角度来看。
腾讯科技:训练一个非常强大的模型的时候,哪些数据能够被拿来训练?是否已经有相关规定出台?
李昀锴:我国其实比较早就开始关注AIGC的管理了。比如 2023 年出台的人工智能暂行管理规定里,就提出了一个原则性的要求,如果我们的训练语料涉及到知识产权,原则上应该获得权利人的授权或者同意。
这是一个基本的法律原则,但在实践中还是存在巨大问题的。
首先,AI 训练需要的数据量极其庞大,像GPT-4的效果,其实已经基本上把网络上所有可用的数据都爬取、训练过了,甚至有机构预测到2028年时,所有人类的互联网数据都会用尽。
我们实际上不可能获得网络上爬取的每一张图片、每一段评论、每一首诗的许可。可以说,传统的著作权授权体系在这种数据规模下已经显得不太适用了,如果我们真的严格遵守“先授权后使用”的原则,可能很多AI工具就无法发展了。
目前国内没有特别的人工智能立法,但也没有法律上的特殊豁免。而且,相关的诉讼,比如小红书画师起诉平台已经出现,说明法律风险是真实存在的。
就我所了解的行业实践而言,现在很多AI开发者和公司,还是处在一个利用制度红利期的状态,先将数据拿来用。但风险依然存在,就像一把“达摩克利斯之剑”悬在我们每个AI开发者的头上。
刘云:目前欧盟人工智能法、国内人工智能管理办法有提到应当备案说明使用的数据,但目前备案也只是内部备案,没有明确要求公开。这其实是一个保护期。
但如果未来个人工智能立法落地,把训练数据的透明度加进去,可能会引发权利人维权。
根据传统法律,如果用户协议中规定用户上传的内容有授权,无论有偿无偿都没有问题;但若是其它平台上没有授权的内容,则可能存在问题,需要评估风险。
我的建议是要严控输出,在大模型输出内容时不要直接侵权。
AI侵权,谁该担责?
腾讯科技:您会介意把自己的作品交给AI训练吗?
泰祥洲:我当然不介意了,我是求之不得的,这就像歌手写了歌希望被全世界唱一样。
我觉得吉卜力为什么能成功?就是因为这些作品很集中,在某一个特定时期产生了大量作品,形成了大量的数据,在这个背景下,就容易被机器学习和传播。这里的流量也代表了一种趋势。
腾讯科技:若将您的作品应用于AI工具,您最不可接受的是什么?
泰祥洲:最不能接受的是,AI生成作品与我的原作达到极高相似度(例如90%以上),最终却署了他人的名字。作为个体艺术家,我的创作量是有限的。但反之,如果仅仅是引用我的图像,并明确注明作者,我完全可以接受。
腾讯科技:有网友创作“吉卜力风格《指环王》”视频,在社交网络也有很高的观看量,是否构成侵权?可能会如何追责?法院审理逻辑会是怎样?
李昀锴:此案例涉及多方权利人(《指环王》小说及电影著作权人、吉卜力工作室)。但如前所述,仅使用吉卜力画风本身,通常不构成对其著作权的侵犯,这方面风险较小。
主要法律风险在于对《指环王》IP的使用,包括故事情节、人物角色等,这可能侵犯原著或电影的改编权。具体侵犯对象需看使用的是小说原创内容还是电影新增内容。
若权利人起诉,潜在被告通常包括:
1、用户:直接发出指令,主导内容生成。
2、AI工具提供方(平台):提供生成能力,且可能在训练阶段使用了相关IP元素。若平台对用户侵权行为明知或应知,仍提供帮助,可能承担连带责任。
3、发布平台(社交媒体等):若导致侵权内容传播扩大,也可能担责。
但是在实践中,因用户分散、赔偿能力有限,权利人往往主要追究AI平台责任。法院审理此类案件通常适用"避风港原则",重点审查平台是否尽到合理的管理义务,包括:是否明确用户责任、禁止侵权;有无设置有效过滤机制;是否建立便捷投诉渠道并及时处理;有无主动鼓励侵权等。若AI平台尽责则可能免责。
至于法律责任的具体形式,主要包括:停止侵权,比如要求平台过滤相关关键词,阻止类似内容的生成;赔礼道歉、消除影响,以及经济赔偿。
这里还有一个比较复杂的问题:既然平台在训练时可能未经许可使用了《指环王》的数据,那平台是否有义务删除模型中相关的训练数据(向量)?从技术角度看,完全删除或屏蔽模型已经学到的东西是非常困难且成本极高的,法律上目前可能不会强制要求平台这样做,更多的是要求平台在 输出端尽到合理的管理义务,阻止侵权内容的生成。
腾讯科技:那么平台应当如何在用户协议层面去避免责任风险呢?
李昀锴:关键在于协议条款的合规颗粒度。具体来说,可以从以下几个方面在用户协议及相关管理措施中进行设计:
第一,明确规定用户使用要求;第二,设置过滤措施,过滤引导性、恶意性的内容;第三,合理监控用户行为,例如对超出规则的账号进行查封冻结;第四,保留追责权利,面对类似利用"破线词"突破平台管辖的恶劣行为,可起诉用户;第五,正向引导,明确错误行为类型。
AI创作:挑战艺术定义的新维度?
腾讯科技:人类未来的艺术在 AI 的影响下,到底会如何发展呢?AI是否真的在进行艺术创作?
泰祥洲:我觉得人工智能的发展有很多不同的方向,不止是大模型。目前来看,AI 的能力有时还像个小孩子。更重要的是,我其实觉得 AI 仍然是你我这些参与者在其背后引导的结果。
打个比方,如果我们把整个宇宙看作一个巨大的模型,那我们每个人,每个个体,可能都只是其中的一段代码。我们基于自己这段独特的“代码”来进行创作。
所以,我们人类的创作,它既有作为人类的共性,但同时也带有非常强的局限性,比如受到我们所处的国家、民族、文化等特定“范畴”的影响。正是这些不同的文化特点,孕育了丰富多样的艺术形式和风格,无论是文学还是电影,都蕴含着独特的智慧和风格。AI 学习的正是这些基于特定文化背景产生的模式。
因此,从这个宏观的角度来看,如果把我们每个人都看作是独立的“代码段”,那么或许有一天,一个能够学习、整合甚至超越所有这些“代码段”的 AI,是有机会在创造力上超越我们单个人的。
腾讯科技:若AI能够批量生产内容,您会担心收入或作品商业价值受影响吗?
泰祥洲:我觉得我们需要从一个更未来的角度来看。在我看来,作品本身其实就是一种货币,人的智慧也是、代码也是。有多少人认同,就会产生多少流量,而这个流量最终就会转化为价值。
人与人、代码与代码、企业与企业可能都是通过这种流量来换算,形成一种新的生存状态。所以面对未来,我们要用一个更大尺度来看,不至于被时代所淘汰。
腾讯科技:面对AI可能取代插画师等职业的焦虑,以及AI学习速度远超人类的现实,我们应如何自处?又该如何进行艺术教育?
泰祥洲:针对插画师的焦虑和艺术教育问题,我们需要回归艺术的本质。当前的某些艺术教育(如应试体系)可能偏离了培养独立思想的初衷,更像在训练"绘画机器"。
我们应反思人为何创作。即使剥离现代科技,人类记录、认知、传播对世界观察的需求依然存在,这正是创作者工作的根本价值,这一原理亘古不变。
因此,对于创作者而言,核心竞争力不在于绘画速度,而在于思想深度、对时代的理解与前瞻性,以及能否创作出具有独特视角和思考的图像。若能做到这一点,创作者便具有永恒意义,AI将是辅助表达思想的工具,而非替代者。至于那些简单、重复、缺乏独特思考的"工业化"绘图工作,则可能确实适合由AI承担。
腾讯科技:现在出现了使用Prompt(提示词)驱动AI进行创作的"AI艺术家",您认为他们能被称为艺术家吗?
泰祥洲:在当下"人人都是艺术家"的自媒体时代,称号本身或许并非关键。真正的衡量标准在于其作品能否获得广泛且持久的认同(流量),并沉淀为具有长久生命力的价值。历史会进行筛选,最终被记住的总是少数。
用AI创作的人能否被称为艺术家,取决于他们最终能否创造出如同经典IP那样,能够超越时间、实现价值永恒的作品。
腾讯科技:法律上如何去平衡人类创意和 AI 的无限复制?
刘云:这确实是极难把握的平衡。
这确实是一个非常难以把握的平衡。从法律的整体框架来看,我认为这里遵循着一个基本的规律:任何划时代的技术,都不可避免地会对现有的利益格局产生冲击,引发博弈。如果一项技术出来没有人反对,那它很可能就不是真正划时代的。就像自动驾驶技术,L3级别以上能否获得完全的路权,至今仍有很大争议,甚至监管部门都持谨慎态度。
历史上,类似的博弈一直存在。比如早年数字图书馆兴起时,像韩寒等一些作家就曾联名起诉百度文库侵权。这种博弈的过程,最终会逐渐达到一个新的平衡点。
对于科技创新者而言,在进行这种可能带来“破坏式创新”的研发时,本身也需要有预判。创新过程可能会带来巨大的收益,但同时,也必须考虑到创新可能对某些群体造成的影响。
这些群体的利益,也是我们需要关注和保护的,有时法律甚至会倾向于保护那些相对少数或弱势的群体。
我们也看到了一些具体的例子,比如最近报道的郑渊洁先生,他试用AI生成自己风格的作品后,觉得AI写得比自己还好,甚至因此宣布停笔。这是一种应对方式。而另一些人,则可能会选择通过法律途径去起诉。
这些少数群体的敏感反应和行动,也能够推动社会形成一种共识:当技术创新带来巨大收益时,也需要考虑如何反哺那些可能受到冲击的传统创作者。只有这样,整个社会才能共同呼吁、共同进步。