2026年2月,美国纽约南区联邦法官作出了一项“全国首例”判决:刑事被告Bradley Heppner与AI助手Claude的对话记录,不受律师-客户特权或工作成果原则保护。
这一判决看似遥远,却在法律与科技界激起了热烈的讨论。当海量、动态、非结构化的个人数据被AI“消化”并转化为模型参数后,传统以“收集”为规制重点、以“个体控制”为核心的法律框架正面临系统性挑战。当个人与AI的对话日益频繁,我们与人工智能的私密交流,能否享有与传统人际沟通同等的法律保护?
Bradley Heppner因涉嫌证券欺诈被调查期间,在未获律师指导的情况下,自行使用Anthropic公司的AI助手Claude。他向Claude输入了从律师处获得的信息,生成了一系列“概述辩护策略、分析事实与法律”的报告,并随后分享给了他的辩护团队。FBI搜查其住所时,扣押了这些AI对话文档。Heppner的律师主张这些文档受律师-客户特权保护,但美国政府要求强制披露。Rakoff法官支持了政府的主张:
1、AI非律师:Claude不具备律师资格,因此Heppner与其沟通不构成律师-客户关系。
2、无合理保密预期:法官依据Anthropic的隐私政策——该政策允许公司收集用户输入和AI输出用于模型训练,并保留向包括政府机构在内的第三方披露数据的权利——认定Heppner“不可能对其与Claude的通信抱有合理的保密期待”。
3、非为获取法律建议:Heppner是自主使用Claude,而非在律师指导下,因此其目的并非从Claude处“获取法律建议”。
基于此,法官裁定这些AI文档既不受律师-客户特权保护,也因其非由律师或其指示准备,而不能受工作成果原则保护。
当刑事被告Bradley Heppner与AI助手Claude对话以准备辩护时,AI助手在法律上应被视为“工具”还是“第三方”?这个定性问题,直接决定了对话内容是否受律师-客户特权保护。法官的判决在这一点上展现出令人不安的逻辑分裂,而这种分裂恰恰反映了整个法律系统面对AI时的认知困惑。
Heppner案的法院似乎默认Claude更像是一个非律师“人士”,而非一个“工具”。
法官表示,“CLaude不是律师,仅此一点就足以驳回Heppner的特权主张。”如果所涉非律师主体是客户在与律师沟通时使用的工具,法院应该不会将该工具的非律师身份视为特权分析中的要素之一。因为在过去的案例中,如果用户使用Gmail发送电子邮件并使用iCloud 存储材料在与律师沟通时,法院并不询问使用这些中间工具是否会损害特权主张。但如果赫普纳向朋友倾诉了他的案情,那么这段谈话就不享有特权。
此处的逻辑链条是:AI平台=第三方接收者,因此向第三方披露秘密=丧失保密性。这完全沿用了传统法律中“向第三方披露即放弃特权”的规则。
Rakoff法官还表示,如果Heppner的律师指导他使用Claude,那么“Claude可能发挥律师训练有素的代理人的作用,根据Kovel原则受律师-客户特权保护”。Kovel原则允许特权延伸至律师聘请协助提供法律服务的第三方专业人士(如会计师、翻译)。值得注意的是,法官此处使用的比喻是“代理人”,而讨论的背景是“律师指导使用”。这暗示了另一种可能性:当AI在律师的控制与指导下工作时,它更像是一个第三方专业人士。
但是,在驳回工作成果保护主张时,Rakoff法官的立场又从“第三方”转向了对工具的分析。他指出该原则的核心是保护“律师(或其指导下)为诉讼准备的思维过程”。Heppner独立使用AI生成的文件,“缺乏律师的实质参与或监督……并未反映律师的法律分析与策略形成”。这里,保护的焦点是人类律师的专业判断,而AI的产出只是客户个人想法的记录,不具备受保护的地位。在这一分析中,法官似乎认为Claude更接近“工具”而非“第三方”。
就在Rakoff法官口头裁决的同一天,美国密歇根州东区地方法院,在一起涉及当事人自行诉讼时使用ChatGPT生成的材料的工作成果保护的民事案件中明确表示,“ChatGPT(以及其他生成式人工智能程序)是工具,而非人”,它们代表的是“诉讼当事人通过软件重新格式化的内在思维印象”。
从技术本质上来说,AI是算法、数据和算力的集合体。它没有意识、没有意图、不承担法律义务。其输出是概率计算的结果,而非基于理解的“建议”。然而,从交互体验来说,AI又营造出一种与智能实体交流的错觉。这种交互的流畅性和针对性,容易让用户产生它在“理解”和“思考”的认知,模糊了“使用工具”和“咨询他人”的界限。公众、甚至许多专业人士,对AI的认知仍处于“黑箱”阶段——既惊叹于其能力,又不甚了解其原理。这种认知滞后导致法律讨论常常建立在“比喻”和“感觉”之上,而非对技术机制的清晰理解。Heppner案法官的论述,正是这种认知滞后的体现。
尽管Heppner案判决结论可能符合现行法律的字面解释,但Rakoff法官的推理过程却暴露了法律面对颠覆性技术时的认知局限与逻辑上的仓促。
根据法官的说法,Cluade的用户同意Anthropic公司的隐私政策,该政策“规定Anthropic公司收集用户‘输入’和Cluade‘输出’的数据,使用这些数据来‘训练’Claude,并且Anthropic公司保留将这些数据披露给众多‘第三方’的权利”。因此,“Heppner不可能对其与Claude的沟通抱有‘合理的保密预期’”。
然而,Heppner案判决将“合理保密期待”这一实质性判断,简化为对AI公司单方拟定的、冗长晦涩的隐私政策的机械解读。这其实暴露了当前系统的缺陷,而不能作为应然的标准。以Heppner案法官为代表的观点,与AI产业的普遍实践,共同构建了一个“自我实现”的预言:因为AI公司普遍在隐私政策中声明会将用户数据用于训练,所以用户“理应”对其不抱保密期待。
几乎所有主流消费级AI的隐私政策,都以复杂法律语言,在冗长文本中声明会使用对话数据改进模型。这已成为行业“标配”。而且用户通常不阅读、更不理解隐私政策;用户的“沉默”更多是无奈,而非同意。法官将这种缺乏真实选择的状态,错误地等同于用户“主动放弃了保密期待”。这就像因为所有停车场都贴了“概不负责”的告示,就认定车主“理应”不期待车辆安全一样不合理、不公平。
将上述现状等同于“应然”,还可能造成一系列“律师特权”以外的诸多问题。
如果司法机构都采纳Heppner案的方法,即解读服务提供商的隐私政策,找出其中保留的最广泛的权利,并将这些权利视为否定任何合理的保密预期,那么,我们所有隐私权利都将不复存在。它可能将扼杀了数字时代最基本的信任,也扼杀了高价值AI服务的市场。
Heppner案的争议绝非美国独有。它触及了数字时代个人信息保护的结构性矛盾,对中国的消费者、企业也具有深刻的普遍启示。中国法律从业者与监管者也应避免重蹈覆辙,构建更务实的分析框架。
目前来说,中国的法律同样强调任何特权或豁免应该是基于人与人之间的信任关系。个人与AI的对话,原则上难以直接适用。但若律师系统性地指导、监督客户使用特定AI工具进行案件准备,相关材料可能被论证为律师工作成果的一部分。
在“合理保密期待”层面,中国法院可能不会仅依据隐私政策条款就武断下结论,而会综合考察相关的问题,例如,用户是否被清晰告知并理解了数据使用方式?服务提供者实际采取了哪些技术和管理措施来保障数据安全与隔离?用户是否有实际可行的选择来控制其数据(如有效的退出机制)?
因此对AI科技公司而言,未来的法律争议可能将巨大的责任压在对“隐私政策”这一纸文书的实质性分析上。企业应当谨慎保护与用户之间的“信任关系”,例如“通过设计保护隐私”,将数据最小化、匿名化、加密等隐私增强技术内嵌至产品开发全流程,而非事后补救;另一方面,在收到政府或司法机关的数据调取要求时,建立严格的合规审查流程,在合法前提下尽可能保护用户权益。
而未来的法律分析,也应超越“它像什么”的拟人化比喻,回归“它做了什么”和“风险何在”的功能性评估。在中国语境下,这要求我们结合《个人信息保护法》的“目的明确、最小必要”原则,以及技术发展的实际情况,构建一个既能防范风险,又不扼杀创新的理性框架。
