OpenAI总裁被令交出个人日记:查AI底账
2 小时前 / 阅读约7分钟
来源:36kr
美国纽约南区联邦法院裁定OpenAI交出总裁日记摘录和8800万条匿名ChatGPT对话记录,将AI版权诉讼推进到新层面,关注企业内部痕迹、高管认知和系统历史输出,隐私不再能完全阻断取证。

3月10日,美国纽约南区联邦法院在OpenAI版权侵权合并诉讼中作出一项极具风向意义的裁定,一方面,要求OpenAI交出总裁Greg Brockman(在OpenAi公司里,大家熟知的Sam Altman 是外部叙事和商业化前台,Greg Brockman 则是内部工程与组织推进的关键执行者。)的个人日记摘录;另一方面,要求其再交出8800万条匿名ChatGPT对话记录,而且重点指向系统过滤机制上线前形成的历史输出。

这起诉讼表面上看是证据开示继续推进,实质上却把AI版权诉讼的攻防,推进到了一个更深的层面:法院不再只问模型训练时“吃了什么”,而是开始同时追问三个问题,公司高层当时知道什么,系统过去究竟吐出了什么,平台还能不能继续拿“用户隐私”来阻断取证。此前围绕2000万条ChatGPT记录的争议中,法院已经明确表示,即便部分记录并未直接复现原告作品,它们也仍然可能与合理使用抗辩中的“市场替代效应”判断有关。

这意味着,这场官司争的,已经不只是训练数据,而是AI公司的“证据底账”。

争点落到留痕

这次裁定最值得注意的一点,是法院正在把AI版权诉讼从“训练是否使用了受保护内容”,推进到“企业内部到底留下了什么痕迹”。

这背后的变化非常关键。AI版权案正在从“有没有复制”,转向“有没有替代”。而一旦进入“替代”判断,企业保存的输出日志、系统历史记录、内部讨论材料,都会从后台技术资料,变成正面法律证据。

说得更直接一点:法院现在不是只想知道模型学过什么,而是想知道模型曾经做过什么,公司又知道多少。

日记直指认知

这次最有冲击力的,不一定是8800万条对话记录,而是Greg Brockman的个人日记摘录。

因为这说明,法院愿意穿透公司正式文件体系,直接触及高管个人层面的记录,以探查OpenAI高层对版权问题的主观认知。Bloomberg Law的报道明确提到,法院支持了原告要求交出Brockman相关journal内容的请求。

这在AI版权诉讼里,信号很强。

它意味着,今后真正有风险的,不只是公司对外发布的政策和公关口径,也包括内部会议纪要、备忘、聊天记录、个人日志和高管留下的原始表达。只要原告能够把这些材料与“是否明知风险”“是否拖延整改”“是否预见到版权争议”连接起来,这些文件就很可能从边角材料,变成关键证据。

对于企业来说,这种变化会带来两个现实影响。

第一,高管留痕不再只是管理习惯问题,而是诉讼暴露问题。第二,企业内部关于AI训练、输出和版权边界的表达,不再只是“内部讨论”,而可能成为未来法庭上被逐句拆解的内容。

过去很多公司习惯把风险控制放在合同、制度和对外条款里;但这次裁定提醒大家,真正致命的,往往不是写给外界看的那一版,而是内部最真实的那一版。

版本击穿抗辩

这次新增要求交出的8800万条记录,最关键的限定条件,不是数量,而是时间点。

公开报道显示,这批记录形成于OpenAI部署过滤机制之前,也就是在系统尚未对受保护书籍和新闻内容的逐字输出进行限制之前。原告之所以特别要求这一批“过滤前”记录,显然不是为了扩大数字本身,而是为了追索系统最原始、最未修饰的输出状态。

这正是原告策略最锋利的地方。

因为今天很多AI公司的合规叙述,都是建立在“我们后来加了过滤”“现在已有安全机制”“目前不会直接输出受保护内容”之上。但诉讼不会只看今天,也会回头看系统最初是如何运行的。如果原告能从这批历史记录中证明,ChatGPT在过滤上线前曾经大量、稳定、可重复地输出受版权保护内容,那么OpenAI后续关于合理使用的抗辩压力就会显著增大。

对于AI产品来说,最危险的,常常不是现在版本,而是历史版本。

隐私不再挡枪

OpenAI此前曾以用户隐私为由,反对大规模交出ChatGPT对话记录。但从法院现阶段的判断逻辑来看,隐私虽然重要,却已很难构成全面阻断证据开示的理由。

公开法律分析指出,法院之所以没有接受OpenAI的隐私抗辩,一个关键原因在于:ChatGPT用户是自愿把信息提交给OpenAI,而不是像电话监听场景中那样,在不知情状态下被第三方捕获通信。在去识别化、保护令和限定使用范围等措施存在的前提下,法院认为隐私利益不足以完全压倒证据发现的需要。

这条逻辑非常值得企业法务重视。

它意味着,企业今后如果将AI深度嵌入业务流程,就不能再默认“因为涉及隐私,所以平台交互天然不可发现”。恰恰相反,AI交互日志正在越来越像标准电子证据:可以被保存、检索、抽样、移交,也可以被纳入legal hold和电子发现范围。OpenAI案之所以会走到今天,一个现实前提就是法院早前已要求其保留相关输出记录,而正因为这些记录被保留下来,后续大规模交付才变得可能。

所以,这次裁定真正传递出的,不是“隐私不重要”,而是“隐私不能替代取证规则”。

合规必须前置

站在企业角度看,这起案子最大的启发,并不只是OpenAI接下来会不会和解,也不只是合理使用抗辩会不会被削弱,而是一个更现实的管理问题:AI已经不只是工具,它正在成为证据生成器。

第一,企业需要把AI交互日志正式纳入电子数据治理体系。第二,企业需要把高管及核心团队关于AI风险的内部表达纳入文件管理边界。第三,企业需要重新审视历史版本、早期测试和过滤上线前的旧记录。第四,企业需要区分哪些AI使用场景可能触及特权、隐私、版权和商业秘密四类高风险问题。

这些工作过去可以放在IT管理、产品治理或法务辅助之下零散处理,但从这起案子的走向看,未来已经不够了。AI一旦进入业务主流程,它的日志、输出和痕迹,就会成为企业法律资产的一部分;管理得好,是合规基础;管理不好,就是诉讼入口。

知产力判断

OpenAI这次被要求交出的,不只是总裁Greg Brockman的日记和8800万条对话记录。法院真正要看的,是AI公司最真实的三样东西,它曾经怎么输出,内部如何认知,又留下了多少痕迹。

这意味着,AI版权战正在从“模型训练用了什么”,升级为“系统历史吐出了什么、企业高层知道什么、平台到底保存了什么”。

对AI公司来说,未来最先暴露在法庭上的,未必是模型参数,而更可能是公司的记忆系统。