关于模型治理,中美欧的差异与共识
11 小时前 / 阅读约17分钟
来源:36kr
中美欧在模型治理上形成差异化路径:欧盟多层风险判断,义务复杂;美国加州收窄监管范围,设置轻量化义务;中国务实导向,基于应用服务治理。三方共性为柔性治理、产业先行,探索评估生态,透明度为核心手段。

从算法到模型,人工智能正跨越一个分水岭——从依靠既定规则的智能,走向自我学习进化的智能。同步,一个全新的治理命题浮现:如何在推动创新的同时,确保模型的安全与可控?近期,围绕模型治理——特别是通用、前沿大模型的治理,中美欧交出不同答卷。2025年7月,欧盟发布自愿性指导性文件《通用人工智能实践准则》(以 下简称《 实践准则》),旨在帮助模型提供者遵守 《人工智能法案》中有关通用人工智能模型的义务规范。 [1] 9月,美国加州州长签署《前沿人工智能透明法案》 (SB 53) ,聚焦于“前沿模型” (Frontier Models) 的透明度义务。 [2] 同月,中国发布《人工智能安全治理框架2.0》,尽管并非针对模型,但作为指导性政策文件,其明确了模型层面的风险,并提出了相应的风险应对指引。 [3]

如何治理模型:欧盟、美国加州与中国的探索

中美欧在模型治理上形成了三种差异化路径:欧盟构建层层叠叠的风险类别,配套高密度的义务;美国以加州为代表,选择小范围、轻监管模式,强调企业自律;中国则从应用场景出发,通过“自下而上”的方式延伸至模型本身。理解以上路径的共性与差异,有助于厘清模型治理在人工智能治理版图中的关键枢纽作用。

欧盟:多层风险判断,义务复杂繁多

《AI法案》起草过程中,欧盟原本构建了一套以AI系统 (AI system) 为核心的风险治理框架,即人们熟知的“禁止类、高风险、有限风险与最小风险”四级体系——风险越高,监管越严。随着ChatGPT 3.5“横空出世”打乱立法进程 [4] ,2023年,欧盟在最后阶段匆忙将通用模型条款写入法案 [5] 。由此,在既有以4类风险为核心的针对AI系统的治理框架之外,欧盟又平行构建起一套针对模型的治理机制,并将通用模型区分为有无“系统性风险”两类——所有通用模型提供者都要披露技术文档、训练摘要、制定版权政策等 (自由且无系统性风险的模型可豁免部分义务) ;若模型具有系统性风险,还需进行模型评估、采取缓解措施和重大事件报告等。对于如何界定“系统性风险”这一难题,欧盟结合《AI法案》与《实践准则》,同时依赖理念性标准 (“高影响能力”) 和技术性量化指标 ( 如训练所用计算量超过 10 25FLOPs) ,还将应用端的风险来源——分发策略、用户数量、模型误用等——纳入模型系统性风险的考量范畴,形成了多层、复杂的风险判断架构。

在模型义务方面,许多要求实际上超出了模型提供者对模型自身的控制范围。特别是,对于具有系统性风险的通用模型提供者,《实践准则》中“安全保障”义务已被实质扩展至应用场景,如“构建未来风险情景” (措施2.2) 和“收集最终用户反馈” (措 施3.5) 。此外,尽管模型提供者的角色偏向于“能力模块提供”,往往不决定实际用途,但其所需承担的风险管理、技术可靠性等义务,在类型上又与针对特定用途的高风险系统提供者十分接近。

整体来看,欧盟框架呈现出两个特征:一方面,模型与应用两套标准交叉重叠,治理框架呈现出高度的复杂性,理论上精密,却在实践中格外笨重;另一方面,模型风险与应用风险混同,“将对模型部署者提出的期望,写在了面向模型提供者的准则中”,模型提供者需承担其“无法预见、评估或减轻”的风险责任。徒增文书负担,对创新构成拖累。也因此,欧盟委员会正推动 “数字 Omnibus” 一揽子立法简化方案,对包括 《AI法案》在内的相关法规进行简化修订,旨在消减监管负担。 [7]

美国加州:收窄监管范围,设置轻量化义务

美国联邦层面的 AI 立法尚处在讨论阶段,但科技重镇加州在模型治理领域已迈出步伐。2024年,加州议会提出了《安全与创新前沿人工智能模型法案》 (SB1047) ,因监管范围过广且可能抑制创新,最终遭否决。随后,在对该法案进行了大量调整收敛之后,新版本《前沿人工智能透明度法案》 (SB 53) 最终签署通过。相较于SB 1047,SB 53以产业自律为核心,删去了强制安全协议等争议条款,大量简化了透明度报告所需的信息。 [9]

调整之后的 SB 53 有两个显著特点:一是监管对象起点更高、范围更窄。与欧盟针对所有通用模型提供者相比,SB 53 将起点限定于“前沿开发者 (frontier developers) ”——即训练或启动训练使用超过 10 26 FLOPs 的基础模型的主体;对于更高一层的“大型前沿开发者” (large frontier developers) ,范围更是狭窄,需额外满足在上一日历年总收入超过 5 亿美元的门槛,“当前仅覆盖寥寥几款全球最强大的模型” [10] 。二是义务极为限缩、轻量。透明度报告义务仅涉及网站、沟通机制、预期用途等基础信息;对比之下,欧盟的“技术文档”义务延伸至“模型和训练过程的设计规范”“用于训练、测试和验证的数据信息”等细节,对信息披露的全面度、颗粒度要求极高。而大型前沿开发者额外承担的发布“前沿AI框架” (Frontier AIFramework) ,开展灾难性风险评估,并向州应急服务办公室提交相关摘要报告等义务,实质上也并未超出目前头部大模型公司在安全治理领域的常规做法。

总之,SB 53针对模型治理的“小切口、轻义务”治理逻辑,与加州一贯的AI立法思路相符。尽管加州在过去三年间出台了多项 AI 法规 ,但多针对“具体而微”的细分场景和特定问题,如《伴侣聊天机器人法案》 (SB 243) 限定适用于伴侣聊天机器人,《关于人工智能在医疗专业用语中的误用法案》 (AB 489) 则聚焦禁止 AI 系统冒用医师资质进行医疗建议,其义务多为轻量化的透明度。可见,加州的立法主线依然是促进产业发展和增强竞争力,避免对产业造成过多制约。

中国:务实导向,基于应用服务的模型治理

中国的治理并非直接指向模型本身,而是以实际应用服务为切入点,通过对应用服务的深入规制,自下而上地实现了对模型的延伸治理。

立法层面,中国立足现实问题,以算法治理为起点,逐步形成了对模型的制度性约束。早在“通用模型”引起广泛关注之前,中国就已经以“算法治理”为抓手,为后续的模型治理奠定了坚实的基础。2021 年《互联网信息服务算法推荐管理规定》将生成合成类算法推荐服务提供者纳入规制范围,要求建立健全算法机制审核、算法备案与安全评估等制度,以应对算法推荐可能导致的信息内容治理问题。2022 年《互联网信息服务深度合成管理规定》将视角从“算法推荐”拓展至“深度合成技术”,回应深度伪造带来的真实风险,实质上提前切中了模型最核心的“生成合成”能力领域。2023年《生成式人工智能服务管理暂行办法》立足AI服务提供者,但治理要求从应用延伸至模型层,对模型训练阶段的数据治理、内容生成等均提出了规范,以安全评估、模型备案等具体抓手,通过应用服务,实现对模型层的间接规制。2025年《人工智能生成合成内容标识办法》针对AI生成内容的可识别性问题,同样以服务为切口,要求显式或隐式标识。

软法层面,治理深度更进一步,明确提出了模型层的风险识别与应对措施。从《网络安全技术 生成式人工智能服务安全基本要求 (TC260-003) 》到《人工智能安全治理框架1.0》及其《2.0》版本,中国在风险识别上提供了区别于欧美的务实路径:采用“内生风险—应用风险—衍生风险”的三层结构,较为清晰地勾勒了人工智能的安全风险轮廓。其中,“模型算法风险”被归入“内生风险”范畴,主要为可解释性不足、鲁棒性不强等。通过明确风险边界,《框架》避免将本属于应用环节的风险误归于模型本身,使风险归因更符合技术与应用的实际边界——对模型而言,其所能控制且最具危害传导性的正是模型自身的内生风险。

总体看,中国模型治理始终以现实问题为导向,从应用服务入手延伸至模型层,通过实用有效的抓手,形成系统完善的治理机制。

以共识为起点,探索更可行的模型治理方案

尽管中美欧在模型治理的背景、对象与义务设定等方面存在显著差异,但仍展现出重要的共性特征。

一是在总体思路层面,都展现出“柔性治理、产业先行”的制度倾向。欧盟《实践准则》属于自愿性承诺,其立法过程中也删去“关键绩效指标”等硬性义务,为企业保留了更大的自主合规空间。美国加州SB 53则更为宽松,仅以透明度为切口,以企业自律主导。中国同样以产业中的现实问题为导向,从应用端切入模型治理,更强调实践驱动与问题响应,依托指导性文件、技术标准和评估机制推进治理,并在产业发展过程中不断完善制度规则。

二是在风险评估层面,面对当前模型能力的不确定性和制度层面尚难形成统一基线的现实,各方将“构建评估生态”视为更可行的路径。欧盟《实践准则》建议建立社区驱动的模型评估榜单;美国SB 53要求在“前沿 AI 框架”中纳入委托第三方开展灾难性风险评估的安排;中国《人工智能安全治理框架2.0》也在内生风险的“综合治理措施”中提出“建立人工智能安全测评体系”的目标。可以说,三方均在探索通过开放、多元的社会评估机制,弥合制度能力与技术演进之间的差距。如开源社区所倡导的理念:“足够多的眼睛可以让所有问题浮现”。

三是在模型治理工具的选择上,透明度因其技术中立、操作性强的特征,已成为核心手段。在模型风险机理仍待认知与验证的阶段,透明度以最小约束实现最大可控性,同时为创新留出空间。欧盟依披露对象采取横向分级路径,分别面向 AI 办公室、国家主管机关与下游主体设置信息披露层级;加州则按开发者规模采纵向分级路径,区分前沿模型与大型前沿模型开发者,设置强度有别的义务,并统一向公众披露。中国在透明度建设方面走在前列。从算法推荐到深度合成,再到大模型备案,信息公示与算法备案机制逐步完善,模型功能、安全评估环节实现较高程度的可见性。

在上述三方共性之外,中美在模型治理路径上还呈现出一个共通特点:从具体应用场景出发。相较于欧盟自上而下的“预设式”治理,在风险识别上,这一路径有助于厘清模型风险与应用风险的边界,避免将应用风险误归于模型本身,从而令模型提供者聚焦其可控的内生风险,开展更具针对性的治理。 这种审慎务实的做法,其优势在于将治理建立在对风险的真实、具体认知之上——“只有通过技术扩散,才能真正识别其效用或缺陷;有了这些具体的经验,才能针对具体薄弱环节制定规则。” [11]

本期文章由腾讯研究院大模型小分队: 钟雨霏,谢舒赫,王融完成

参考文献来源:

[1] “The General-Purpose AI Code of Practice.” Shaping Europe’s Digital Future, European Commission, 10 July 2025, digital-strategy.ec.europa.eu/en/policies/contents-code-gpai. Accessed 10 Nov. 2025.

[2] “Governor Newsom Signs SB 53, Advancing California’s World-Leading Artificial Intelligence Industry.” Office of the Governor of California, 29 Sept. 2025,

www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/.

[3] 中央网络安全和信息化委员会办公室. 《人工智能安全治理框架》2.0版发布[EB/OL]. (2025-09-15).

[4] Helberger, Natali, and Nicholas Diakopoulos. “ChatGPT and the AI Act.” Internet Policy Review, vol. 12, no. 1, 2023, https://doi.org/10.14763/2023.1.1682.

[5] Ebers, Martin. Truly Risk-Based Regulation of Artificial Intelligence – How to Implement the EU’s AI Act. SSRN, 2024, https://ssrn.com/abstract=4870387.

[6] The Association for Computing Machinery (ACM) Europe Technology Policy Committee. Comments in response to European Commission Call for Evidence on “General Purpose AI Code of Practice for Providers of Models with Systemic Risks”. 27 Nov 2024. ACM Europe TPC.

[7] Besliu, Raluca. “What’s Driving the EU’s AI Act Shake-Up?” Tech Policy Press, 13 Nov. 2025, https://techpolicy.press/whats-driving-the-eus-ai-act-shakeup/.

[8] Associated Press. “California Governor Newsom Vetoes Bill to Create First‑in‑Nation AI Safety Measures.” AP News, 29 Sept. 2024,

https://apnews.com/article/california-ai-safety-measures-veto-newsom-92a715a5765d1738851bb26b247bf493.

[9] Gluck, Justine. “California’s SB 53: The First Frontier AI Law, Explained.” Future of Privacy Forum Blog, 3 Oct. 2025, https://fpf.org/blog/californias-sb-53-the-first-frontier-ai-law-explained/.

[10] Singer, Scott, and Alasdair Phillips-Robins. “California Just Passed the United States’ First Frontier AI Law. What Exactly Does It Do?” Carnegie Endowment for International Peace – Emissary, 16 Oct. 2025, https://carnegieendowment.org/emissary/2025/10/california-sb-53-frontier-ai-law-what-it-does.

[11] Ball, Dean W. "These Challenges Are Primarily Technical and Scientific, but They Imply Others, Too." National Affairs, 2025, www.nationalaffairs.com/publications/detail/these-challenges-are-primarily-technical-and-scientific-but-they-imply-others-too.