版权红线与Sora之死
4 小时前 / 阅读约8分钟
来源:36kr
OpenAI宣布关停Sora,版权争议成死因。AI巨头普遍“先上车后补票”,引发创作者反击。人类与AI版权拉锯,Sora之死提醒需设定AI发展红线,保护创作者与技术开发者。

3月24日,OpenAI宣布将关停Sora。那个曾让我们惊叹“现实不存在了”的AI视频生成平台,在推出六个月之后,黯然退场。

有人说,这是商业战略调整,有人说,它败于算力成本。但还有一个决定性的死因,很少被人提及:版权。

Sora 在训练过程中采用黑盒式训练,其中可能使用了大量未明确授权的网络视频数据。因此推出以来,一直有版权方如迪士尼,对Sora提出强烈反对,甚至将OpenAI告上法庭。任天堂的社长也曾在股东大会上,提出过生成式AI存在知识产权问题。

任何行为,都是一种选择,而OpenA关停Sora的选择,或许给市面上所有AI视频生成工具都提了一个醒:在当前法律和产业环境下,没有妥善处理版权问题,这项技术失败几乎是注定的。

01 巨头的选择

Sora的版权争议,更像是一个最显眼的靶子,枪打出头鸟。实际上,Sora的黑箱式训练并不唯一,在业内是常态,所以其他视频生成模型也或多或少存在版权问题,只不过要么有限开放,主攻单一市场,比如只给B端商业客户提供服务,曝光度低,版权问题没有完全暴露;要么刻意规避了迪士尼角色这样的高风险IP,避免被“全球最强法务部”找上门。

一旦被版权方盯上,都和OpenAI一样面临诉讼风险。比如某国产AI视频工具也在北美加州被好莱坞三大巨头迪士尼、华纳、环球起诉了,理由是生成了未经授权的《星球大战》《小黄人》等作品里的角色。

可以说,AI巨头们应对版权问题的选择,普遍是“先上车后补票”。

先使用免费抓取的公开网络数据集进行训练,其中包含大量受版权保护的内容。直到产品上线之后,被《纽约时报》或个人创作者投诉,再谈合作、付费,来洗白数据来源。

OpenAI前CTO米拉·穆拉蒂就曾公开表示:对于Sora是否使用了受版权保护的视频进行训练,自己“不太有把握”。

还有一个形成对比的例子是,有着严格反爬虫机制、付费墙的内容平台,比如科学杂志期刊和付费数据库,能更好地控制被AI侵权的风险。即使 AI能联网搜索到一些发表的论文,也只能获取公开页面内容,无法绕过登录或付费验证。

对版权的严格保护,让科学内容变成了为数不多的、很少被侵权的一方净土,以至于很多通用AI在回答科学问题时,只能基于不完整信息推断。但这些版权保护方式,又很难被影视/动漫等文娱机构和创作者所借鉴。

原因之一,是付费墙挡不住。科研论文可以精确控制访问,只有订阅者能看全文,AI 也只能在封闭系统内运行。但视频属于大众文化消费品,YouTuber主要靠广告与社群盈利,视频内容大多是公开的,AI可以轻易获取。

其次是灰色地带的确权太难。科学内容有明确的数据、条文,侵权容易被认定。而视频的视觉风格、角色形象、叙事逻辑等都可以被AI学习后,进行抽象、重组、泛化,AI作品可以用“撞脑”、撞梗等理由搪塞过去,创作者维权的举证难度很大。

所以,先上车后补票,请求原谅而非请求许可,成了AI巨头在视频生成领域的普遍选择。既然版权机制已经无力保护创作者,那它还有必要存在吗?

02 版权的溃败

一方面,公开的文娱内容在AI训练中被大规模抓取,个体创作者几乎无力阻止;另一方面,严格限制的科学内容,又会拖慢AI在科研领域的进步。

于是,一些技术先锋、未来主义者、激进派认为,版权制度本就是工业时代的产物,早已沦为大资本的垄断工具,不仅没让普通创作者受益,反而阻碍了技术普惠,不如彻底废除,全面开放算了。

还有人认为,Sora这类AI工具让很多普通人圆了导演梦,带来切切实实的利好,让更多用户加入创作行列,也可以激发创新,应该保障这类多数人的福祉。

但问题真的如此简单吗?

这其实是一个典型的“电车困境”,需要大众在大企业和少数创作者、多数用户和少数创作者之间做出非此即彼的选择,却忽略了一个事实:今天被无偿学习的视频创作者,明天就可能是你我。

AI一开始学习的是插画师、作家、摄影师、音乐制作人等边缘创作者的作品,文艺界在抗议AI侵权,随后就扩展到了白领、艺术家、码农等更广阔的群体。一些高级打工人的技能被AI无偿学习、被蒸馏成skill,这何尝不是一种“风格学习”呢?

创作者,可以是每一个靠独特技能谋生的普通人。或许直到AI威胁到自己的饭碗,大家才理解了编导、up主、YouTuber等视频创作者的愤怒。

而版权制度的核心作用,并不是在人类中划分阵营,是保护大企业还是小个体,也不只关于怎么分钱。它的价值,在于承认创作者权利的合法性。

1710年,《安妮女王法》首次明确,作者是作品的版权所有者,彻底颠覆了以往以印刷商为中心的垄断体系。三百年来,正是这套制度激励了无数个体的创造。今天,我们或许需要改革版权,来适配AI的需求,但不能用“版权资本化”,来遮蔽掉版权制度对个体权利的肯认。

它就像劳动者权益保护法,虽然现实中难以严格执行八小时工作制,但它的存在本身,就确立了创作者权益的正当性。

03 人类的反击

面对 Sora 等AI视频生成工具对原创内容的无偿使用,创作者群体开始反击。总体来看,制度性力量、行业巨头的反击,比较有成效。而个体的、口头的抵抗,大多微弱而无力。

能对Sora这类工具产生约束力的,主要是立法部门和内容巨头的双重施压。

美国版权局此前的判例中,要求生成的内容必须有AI的标识,如果使用对应风格,要自动加上版权方logo。

针对AI融梗的“风格学习”,版权巨头们也采取了态度严肃的反对措施。好莱坞三大经纪公司,迪士尼、华纳、环球等影视巨头,都曾向OpenAI发出法律警告,要求停止默认使用艺人形象与作品训练 Sora。这倒逼OpenAI 推出Sora 2时所采用的“选择退出”机制,允许版权方申请从训练集中删除其作品。

一些创作者采用技术工具,在视频/图片中嵌入人眼不可见的扰动像素,或者水印,来干扰AI对风格的学习,也能起到一定的作用。

而彻底无效的反击,一个是利益谈不拢。比如行业企业试图推动的授权付费+分成制,随着Sora的下线,宣告破产。另一种反击是语言上的魔法攻击,一些导演、摄影师公开声明“不使用 Sora”,并呼吁同行抵制,但根本无法阻挡广大用户拿AI视频玩梗,现实中毫无约束力。

只有立法、巨头这样的组织力量,才能与技术资本抗衡,这就是人类创作在AI时代的残酷现实。如何呢?又能怎?

04 缺失的红线

人类与AI巨头的版权拉锯战,最终以Sora的主动关停而收尾,但这并非人类的胜利,不过是AI巨头在持续的版权诉讼、创作者集体抵制与伦理争议中,放弃在泥潭中继续挣扎,选择鸣金收兵。

Sora之死,仿佛是一则醒世寓言,提醒我们,AI的种种还缺乏一个明确的红线。

政治学家福山曾提出:面对技术进步,我们必须人为地,甚至武断地画出红线。即使81公里的时速并不比79公里更危险,但必须设定80公里这道明确的红线。

放到AI领域,这道红线,就是AI发展的前提尊重人类的劳动成果与创作主权。缺乏这道不可逾越的红线,就会出现模糊地带,滋生无序与反噬,无法真正获得社会的接纳与认同。提前设定明确的原则性禁令,禁止AI无偿使用和融梗人类作品,这一道红线所保护的,不只是人类创作者,也是AI技术工具的开发者与企业。来自创作者的抵抗,加速了Sora的下线,何尝不是OpenAI及其用户的损失呢?

福山提出,立法者必须采取行动,设立相关规则与机制,在迅速的科技变迁中有所作为。如果立法者不去正面承担这些责任,其他的社会机构与行为主体将会替代它们做出决定。

显然,这一次,是人类创作者做出了决定,就是抵制AI、抵抗Sora。Sora的下线,暂时回避了红线缺失的各种矛盾。但别忘了,市面上还有一个个AI视频生成工具,它们将一次又一次触碰那根人心中的隐形红线,直到它终于清晰、明确地出现在版权法中。

那时,人类创作者与AIGC技术,才能真正握手言和。希望这根红线,不会来得太晚。