在 GTC 2026 上,黄仁勋请来了一组很少会同时出现在一张桌子上的嘉宾:LangChain 的 Harrison Chase、Cursor 的 Michael Truell、Reflection AI 的 Misha Laskin、Perplexity 的 Aravind Srinivas、Thinking Machines Lab 的 Mira Murati,以及 Mistral 的 Arthur Mensch、OpenEvidence 的 Daniel Nadler、AI2 的 Hanna Hajishirzi、Black Forest Labs 的 Robin Rombach、AMP 的 Anjney Midha。

这场圆桌的题目聚焦于Open Models(开放模型)。但整整 80 分钟听下来,他们讨论的远不只是“开源模型和闭源模型谁更强”。
黄仁勋上来先给这场讨论定了调。他说,外界花了很多时间讨论最前沿的闭源模型和闭源实验室,它们当然非常重要,“在很多方面,它们奠定了整个行业的基础”。但在这之外,AI 还有更丰富的多样性:模型应该如何被创造、如何被整合进应用、如何在不同行业里落地,答案都不只一种。
他给出了一个很醒目的判断:从总体规模看,open models 聚合起来已经是世界上第二大的模型群;而在不同的行业和应用里,它们很可能最终会成为世界上最大的模型群。
在黄仁勋看来,未来不是 A 或 B,不是一个模型打败另一个模型,而是“系统模型的组合”。这也是整场圆桌最稳定、最清晰的一条主线。
这场对话虽然打着 “Open Models” 的标题,但嘉宾们几乎很快就把话题推到了更深一层:模型已经不再是唯一主角,真正成形的是由模型、工具、连接器、agent、控制平面和企业治理构成的新系统。也正是在这个意义上,这场圆桌比起一场“开源模型讨论”,更像一次对下一阶段 AI 产业结构的集体定义。
黄仁勋的开场并不长,但信息量很大。
他先把熟悉的叙事放在前面:OpenAI、Anthropic、Gemini、xAI 这些前沿实验室当然重要,闭源 frontier model 当然重要,甚至可以说它们构成了整个产业的第一推动力。接着他马上把问题往外推了一步:如果把 AI 只理解成少数几家实验室制造的最强模型,那对整个产业的理解就太窄了。

他说,models are a technology, just as transistors are a technology, not a product。模型是一种技术,就像晶体管是一种技术,而不是最终产品;Open Model 是技术,ChatGPT 才是产品。这句话其实给整场圆桌划出了一条边界:嘉宾们讨论的不是聊天机器人市场,而是“模型作为技术底座”之后,产业究竟会怎么长出来。
今天的世界当然需要专卖的 AI 产品,也需要把模型直接作为产品售卖的公司;但与此同时,整个产业也需要一个更大的生态,让不同行业、不同公司把模型当作技术素材,进一步加工成自己的产品、系统和服务。
因此,当黄仁勋抛出第一个问题——“人们对于 OpenAI 这类大模型公司和生态中其他公司,到底有哪些误解”——这其实已经不是一个简单的开源 vs 闭源问题,而是在追问:除了“最强模型公司”和“应用公司”这两种熟悉角色之外,AI 软件栈里还会出现什么新的角色?
如果只摘出这一场圆桌里最反复出现的一个判断,那就是:AI 不再只是模型,AI 正在变成系统。
Cursor 联合创始人兼 CEO Michael Truell 说,过去大家总以为 AI 软件层只有两类公司:一类是做超大通用基础模型、通过 API 对外提供能力的公司;另一类是基于这些模型做应用产品的公司。
但在他看来,现在正在出现并迅速壮大的,其实是第三类公司:它们一方面使用市场上最好的模型 API,另一方面也在模型和 agent 层面做大量自己的工作。
Michael Truell 的意思很明确:未来的软件栈不会只是“底层模型 + 上层应用”这么简单。随着 agent 变得越来越复杂,能不能把不同模型、不同工具、不同执行流程组织起来,本身就会成为一类新的核心能力。
他提到,AI 最开始只是“调用一个模型”,后来开始加入工具调用,接下来的一两年里,会出现真正意义上的新型 agent——它们会像同事一样承担需要数小时甚至数天的复杂任务。到了这种复杂度,单一模型未必是最优解,不同模型有不同长处,于是系统会把一个复杂任务拆分给不同模型处理。
他说,未来会出现大量复合型 agent,它们未必依赖某一个最强模型,而是通过编排,让整个系统“比任何单一模型都更聪明”。

Perplexity CEO Aravind Srinivas 说得更直接:AI 不是模型,AI 是系统,是计算机。
他拿自家的 Perplexity Computer 举例,说他们想做的就是把 coding、写作、多模态生成等一切 AI 能做的事情组织成一个编排系统,把各种工具、模型、文件系统连接器、多云资源接到一起,让用户只需要把任务交出去,不需要再自己操心“哪个模型擅长什么”。
Aravind 用了一个很形象的比喻:sub-agents 像乐手,模型只是乐器,AI 真正替你完成的工作,才是那场交响乐。
在他的描述里,open 和 closed 也不是非此即彼的对立。开放模型往往在 token 效率和成本效率上表现更好,闭源模型则可能更擅长编排、推理和工具调用。最终模型会越来越像工具本身,就像文件系统、连接器一样,是整套系统里的一个部件。
这也是这场圆桌里一个非常有代表性的转变:没有人真的把 open 和 closed 简化成道德立场或路线之争。相反,越靠近实际产品和 agent 运行层的嘉宾,说得越具体:开放模型有开放模型的价值,闭源模型有闭源模型的价值,真正的系统往往会把两者都吸收进去。
LangChain CEO Harrison Chase 则把这套思路概括成一个新词:harness engineering(驾驭工程)。
这几天笔者在各个地方看下来,我感觉这个词将会是接下来一段时间的热词。

所谓 harness engineering,基本上就是模型周围的一切:它怎么连接工具,何时调用什么 prompt,用什么 sub-agent,给不同 sub-agent 配什么模型。哪怕是闭源实验室,也在做同样的事情。以 Claude Code 为例,大家当然会夸模型本身很强,但真正让它变得好用的,还有围绕模型构建出来的那层 harness。
Harisson 他们和开发者打交道时,越来越多讨论的不是“该用哪个模型”,而是“怎样为特定环境搭一个刚刚好的 harness”。
这其实也回应了过去一年 AI 领域非常常见的一句轻蔑判断——“某某产品不过是个 wrapper”。在这场圆桌里,几乎没有人再把 wrapper 看成一个低价值的词。相反,大家越来越承认,真正把模型变成生产力的,往往正是这些被过去低估的部分:上下文管理、工具接入、路由、记忆、工作流、权限和执行策略。
Reflection AI CEO Misha Laskin 也补了一层。他说,关于模型公司有两个很常见的误解。
第一个误解是,以为模型公司只是“做了一个模型”。实际上,当你买一个商业模型时,你买到的是从芯片、编排、软件、推理到产品的整套栈。开放的价值就在于,其他人也可以沿着整个链路,从头到尾去重新优化这套系统。
第二个误解是,以为开放模型天然落后于 frontier。Misha Laskin 认为,这只是当前阶段的现象,不是根本规律。在他看来,open 和 closed 在本质上没有不可逾越的分界;模型是“知识基础设施”,而“基础知识设施天然趋向开放”。
Thinking Machines Lab 创始人 Mira Murati ,也是我们熟悉的那位曾经的 OpenAI 前 CTO,她则把“开放”放进更大的创新过程里来看。

她说,现在进步非常快,一切都处在指数级曲线上,而且节奏高度压缩。要学习的东西太多,不可能都由少数大型实验室独自完成。大量聪明人缺的不是能力,而是获取知识和工具的机会,因此 openness 在这里会变得非常重要——不仅是模型本身,还有基础设施、数据和研究洞见。
她特别提到,很多人会把开放看成一种零和选择,仿佛越开放,就越不利于商业化。但她并不同意。她举了自家团队的一个早期决定:开放后训练的 API,让更多研究者可以在 open models 之上继续做后训练。
从这几位的回答看,所谓 open models 的意义,已经明显不只是“有没有开放权重”这么单一的问题,而是:谁能参与后训练,谁能参与架构演化,谁能把模型带进自己的系统,谁能在自己的 domain 里重新定义它。
黄仁勋把过去一段时间的 AI 演进总结成三个阶段:Generative AI、Reasoning、Agentic systems。
他还抛出了一个很值得注意的判断:过去大家总把注意力集中在预训练上,讨论“记忆”“泛化”“基础知识”这些能力。但在他看来,未来算力的主要消耗,很可能不会继续集中在预训练,而会更多转向后训练。因为基础知识只是起点,真正让模型获得技能、变成可以落地的系统,后训练会越来越关键。
这个判断,也正好对应了现场几位嘉宾的共同感受:过去一年最明显的变化,不是模型多知道了一些事实,而是它们开始真的“会做事”了。
在这个问题上,几位嘉宾各自给出了不同的拐点判断。
Misha Laskin 把时间线拉得更早。他说,真正让自己从理论物理转到 AI 的,不是语言模型,而是 AlphaGo。那是他第一次看到一个大规模的“超智能 agent”。在他眼里,AlphaGo 最重要的一点是:它不会停止学习,问题更多只是一个经济学问题——你愿意投入多少算力,让它再变强 10 倍。现在 RL 已经开始在语言模型上奏效,在他看来,未来解决基础科学问题也可能逐步变成一个算力和经济性的命题。
这个视角和很多今天只从 LLM 出发理解 agent 的看法不太一样。Misha Laskin 的意思是,agent 并不是语言模型时代凭空诞生的概念,而是一条更长的演进线索;只是语言模型和 RL 终于在这一轮开始汇合,把 agent 从少数特例推向了更广泛的知识工作。
Michael Truell 给出的答案则非常现实:去年整个经济层面 AI 最重要的故事,就是 coding 开始真正 work 了。
他认为,coding 市场无论在客户价值,还是技术上限上,都还有很大空间;而去年在 coding 上跑通的能力,今年会开始向其他领域迁移。他还特别提到,personal productivity agents(个人生产力智能体)正在非常快地增长。
Harrison Chase 也认同 coding 的关键地位。他说,很多今天我们看到的 agent,本质上都长得很像 coding agent。因为 coding agent 所具备的很多能力,其实天然就有通用性。你可以写代码,代码又可以进一步去帮助你完成发邮件、调用服务、操作工作流等一系列任务。
他提到,直到大约一年前,那种“LLM 在循环里不断调用工具”的简单 agent 算法,其实并不好用。后来开始变得可行,一方面是模型本身大幅变强了,另一方面也是大家逐渐摸清楚了应该给这套 harness 接上什么样的工具。
这句话其实很重要,因为它说明 agent 的拐点并不只是“模型突然变聪明了”,而是模型能力、工具接口和系统工程在同一时间段里完成了某种对齐。
Aravind Srinivas 则把这个转折点具体落在了工具能力上。他说,从 o1 到尤其是 o3,这些模型开始变得很擅长“导航工具”。与此同时,整个生态也在围绕工具、MCP、连接器去组织。到了去年底,模型已经明显变得更会用文件、更会用 CLI。
他的判断是,之所以 coding 的成功会向更广泛的世界转移,是因为一旦模型擅长操作控制台,它就突然获得了进入几乎所有知识工作的能力。
这里的关键词并不是 coding 本身,而是CLI、files、tools这些接口。对于人类来说,很多软件世界的工作本来就是通过这些抽象接口被组织起来的;而一旦模型学会使用同样的接口,它就相当于获得了进入这些工作的“通行证”。
Mira Murati 的总结最简洁:ChatGPT 把 AI 带进了公众视野,而 coding 让它的“有用性”一下子被放大了。
黄仁勋自己则补了一句极具代表性的话:几乎所有工作,都可以在某种程度上被表述成 code。在他的理解里,这就是 coding 为什么如此重要的原因。
从这段讨论可以看到,coding 在现场并没有被当成一个狭义行业,而更像一个原型场景:它具备明确的目标、标准化的接口、可验证的输出、可回滚的错误,以及持续迭代的反馈闭环。也正因如此,coding agent 一旦成立,它对其他知识工作具有天然的外溢性。
在这场圆桌里,agent 虽然被频繁提起,但几位嘉宾的描述并不完全一样。

Michael Truell 说的是会承担数小时、数天复杂任务的复合型智能体;Aravind 说的是编排系统和多智能体;Harrison 说的是 harness engineering;黄仁勋则不断把问题往“工业应用”和“企业平台”方向推。
把这些回答放在一起,大致能拼出他们对 agent 的共同定义:它不只是一个能回答问题的模型,也不只是一个带了几个工具的聊天框,而是一个能够持续处理任务、调用外部资源、拆分工作步骤、在不同模型之间路由,并在一定时间跨度内保持状态的执行系统。
这也是为什么 Michael Truell 会用 “co-workers” 来形容接下来的 agent。因为对他来说,agent 的关键不再是“像不像人”,而是“能不能稳定承担工作”。
而黄仁勋对此的兴趣显然也不只停留在 demo。他在整场对话中不断追问的问题,其实都是:
这也是为什么,圆桌进行到中段时,话题会自然集中到一个项目上:OpenClaw。
这场对话进入中段后,黄仁勋把话题明确转向了OpenClaw。
他给出的评价非常高:OpenClaw 是个“大事”,它把 agentic systems 带进了消费者的认知;它呈现出了现代计算机的一种新样子。黄仁勋直接追问:OpenClaw 到底是什么?它在计算机科学上、工业上为什么重要?一年之后它会变成什么?
这段追问很值得注意。因为黄仁勋并没有把 OpenClaw 当成一个“有趣的开源项目”来聊,而是明确把它视为一个理解agentic systems(智能体系统)的窗口。
几位嘉宾的回答,基本把他们对 agent 的理解都浓缩了进去。
Misha Laskin 的表述最有画面感。他说,单独的模型其实并不那么有用,它们更像“没有身体的大脑”。而 OpenClaw 做的,是为今天这种形态的模型找到了合适的“形态学结构”——它给大脑装上了四肢,让它进入电脑。
这句话几乎把整个 agent 讨论压缩成了一个比喻:模型代表的是认知能力,而真正让这种能力产生现实效用的,是它能不能进入一个身体、进入一个环境、进入一个可以执行动作的系统。
Mira Murati 则说,模型只是一般能力的来源。要把这种一般能力变成真正的用途,你还需要把许多与模型正交的能力补齐:上下文连接、进入你的数据、进入你的业务域。OpenClaw 的价值就在于,它让 agent 可以在特定领域里运作起来,把这些能力串在一起。
Michael Truell 认为,OpenClaw 之所以重要,是因为它把去年首先发生在专业软件工程师身上的变化,第一次以一种更广泛的形式展示给了更多人。它标志着 AI 正在从“回答你”转向“替你采取行动”。
这句话其实非常接近许多普通用户第一次接触 agent 时的感受。聊天机器人时代,AI 的核心体验是“我问,它答”;而一旦 agent 真正进入电脑、浏览器、文件系统、终端、消息渠道,交互结构就会发生变化:用户开始把任务委托出去,而不是只索取一个答案。
Harrison Chase 则点出了 OpenClaw 身上三个很值得注意的特征。
第一,它是always-on的,是主动的,会给你发消息。这对开放模型尤其重要,因为如果一个 agent 每隔 10 分钟就要运行一次,成本会立刻变成一个核心问题。
第二,agent 的“身份”开始出现了。它不再只是一次性会话,而像是一个可持续存在的角色。
第三,是“记忆”。你和它交互,它会记住;而且它甚至可以通过代码修改自己的指令。
如果说前面几位更强调 OpenClaw 让 agent 获得了身体,那 Harrison Chase 这里强调的,其实是另外两个层面:持续性和人格连续性。一个始终在线、主动行动、拥有记忆、还能调整自身行为策略的 agent,已经明显不同于我们熟悉的“每次打开一个新窗口重新聊天”的聊天机器人。
黄仁勋顺着这个问题继续问了 Harrison 一个很尖锐的问题:如果 OpenClaw 这样的开源 agent 已经这么强了,那为什么还需要 LangChain 这样的公司来帮助大家构建 agent?
Harrison Chase 的回答很直接:因为未来不会只有一个通用 agent。会有做法律工作的 agent、做销售的 agent、写代码的 agent。它们会由不同模型驱动,拥有不同 harness 和不同工具。LangChain 这类平台的价值,正在于帮助开发者和企业把这些 harness 针对垂直场景和生产环境做深度定制。
这其实也回答了开源通用 agent 和企业专用 agent之间的关系:OpenClaw 这样的项目可以把一种新范式暴露给大众,让大家第一次看到“会行动的 AI”到底长什么样;但一旦进入垂直行业和企业环境,通用 agent 很快就要被定制化、被约束、被接入特定系统。
黄仁勋最后给出的总结是:OpenClaw 作为通用 agent 已经很有能力,但大量专用 agent 仍然不可替代;而且这些专用 agent 必须放进企业内部的飞轮里,持续学习、持续改进。
Aravind Srinivas 则用一句非常像口号的话,为这一段作了收束:computers are cool again(计算机这玩意又开始变得很酷了)。
他说,OpenClaw、computers、co-workers,这些背后的核心概念是:一种新的计算机正在形成,而它的 runtime 是 GPU。token 变成了新的基本消耗单位,未来会出现大量本地算力与服务端算力混合的运行方式。
这句话听起来像金句,但它在这场圆桌里的上下文其实很明确:如果 agent 是未来的新应用形态,那么计算机本身也会因此被重新定义。它不再只是一个等待用户输入、然后被动执行命令的设备,而可能逐渐变成一个运行着多个 agent、持续处理任务、在本地与云之间混合调度的新系统。
请走上一批大神们,黄仁勋在现场直接又迎来另一批嘉宾上台。

第二轮 panel 开始前,他又一次把 OpenClaw 放到了一个更夸张的位置上。老黄说,OpenClaw 是历史上最受欢迎的开源项目,它向世界展示了 agentic systems 的能力和愿景,是现代计算机的一个完美代表。
接着他甚至用半开玩笑的方式讲到 OpenClaw 在中国引发的 “Claw mania”:人们在养“龙虾”,这些“龙虾”互相交流、组建公司、找工作。
玩笑的背后其实还是同一个问题:如果第一个真正有能力的开源 agentic system 已经出现,它在工业层面的意义是什么?
Arthur Mensch 给出的回答是,这件事在个体层面已经证明了“任务委托给 AI”是成立的;但一旦到了企业层面,情况就复杂得多。因为企业不是一个人,它是一个组织。组织里有不同岗位、不同权限、不同数据边界,因此“委托给 AI”这件事不再只是能力问题,而是治理问题。
也就是说,OpenClaw 的流行本身已经说明了一件事:人们开始愿意把 agent 当作一个持续存在的执行角色来看待。但它越往前走,越会逼出新的问题——这些问题不再是“模型会不会用电脑”,而是“谁授权、谁观察、谁负责、谁能关停”。
如果说第一轮 panel 更多在讨论“agent 为什么成立、系统为什么重要”,那么第二轮 panel 最核心的议题,就是:当 agent 真的开始进入企业,问题立刻从能力转向治理。
Mistral 联合创始人兼 CEO Arthur Mensch 说,OpenClaw 这类系统证明了一件事:在个体层面,人们确实已经可以把很多任务委托给 AI。但一旦到了组织层面,问题就变得复杂得多。因为企业不是单个用户,它有数据问题、治理问题,需要不同人把任务委托给 AI,还要知道 AI 在哪里拿数据、怎么行动、如何被观察、如何统一管理。
Arthur Mensch 说,真正的瓶颈在于,你需要一套基本原语,去提供正确的治理和可观测性,并把所有东西放在同一个控制平面之下。
这段话和第一轮 panel 的“AI 是系统”正好首尾相接:个人用户可以接受一个 agent 在自己的电脑上跑来跑去,但企业不行。企业不会只问“它够不够聪明”,而会马上追问:它能看到什么?它能做什么?它做了什么?它出错了怎么办?它能不能被审计?能不能被暂停?能不能被隔离?
黄仁勋在这里给出了一句全场最值得反复引用的话:
一个 agent 会做三件事:访问敏感信息、执行代码、对外通信。企业应该允许 AI 同时拥有其中两项能力,但通常不该让它三项全开,除非它就是 CEO。

这句话很快把“企业 agent”与“个人 agent”区分开了。个人用户可以容忍更高的不确定性,但企业不行。企业面对的是治理、安全、策略、合规,这些因素会把 agent 的部署难度迅速抬高。
而且这句话也把企业 agent 的风险结构说得非常清楚:
如果它能访问敏感信息,又能执行代码,就要限制它对外沟通;
如果它能访问敏感信息,又能对外沟通,就不能让它任意执行;
如果它能执行代码,又能对外沟通,就必须严格限制它的数据权限。
这不是一个抽象的“安全很重要”判断,而几乎像一条可操作的设计原则。
AI2 的 Hanna Hajishirzi 随后把问题进一步推进到“信任”层面。她说,既然大家都期待 agent 能接触我们的数据,那么问题就会变成:我到底有多放心让它进入我的私人邮箱、进入我的私人记录?在她看来,open models 的作用就非常重要,因为如果是开放模型,她会更愿意让它接触自己的私有数据。
这种表态其实代表了企业和科研界对开放模型的一种非常典型的期待:不是简单地因为便宜,而是因为可见、可检验,因此更容易建立信任。
对于很多企业来说,这种“可见性”甚至比性能差几个点更重要。因为一旦 agent 被放进公司内网、邮件系统、财务流程、客户数据和对外渠道里,模型本身已经不只是一个计算对象,而是一个具有执行后果的系统组件。
虽然 coding 和 agent 几乎主导了整场讨论,但 Black Forest Labs 联合创始人兼 CEO Robin Rombach 还是把话题往外拉了一步。
他说,现在很多进展确实来自模型在编程上变得越来越强,而编程的好处是“可验证”。但前沿远不止编程 一个方向。他们正在做的一个方向就是视觉智能。所有机器人和 agent 只要与现实世界发生交互,视觉内容就会变得非常关键。
Robin Rombach 提到,他们已经看到一个明显趋势:这些模型正被越来越多地部署进 physical AI 和机器人之中。
这段回答的意义,在于它提醒大家:coding 之所以现在最显眼,不代表整个 AI 前沿已经收敛成 “写代码” 这一件事。编程的确是最早被验证的一个高价值接口,因为它结构化、可验证、可迭代;但一旦 agent 要进入真实世界、工业流程、机器人和空间环境,视觉和物理交互就会重新成为核心。
AMP 创始人 Anjney Midha 则顺着这个方向补充说,大家必须提醒自己,AI 有很多条 frontier,而不只是 coding 一条。虽然今天行业都被 coding 的惊人进展吸住了目光,但“bitter lesson”(苦涩的教训,强化学习经典文章)仍然在起作用。
他回忆说,四年前 Dario 和 Tom 给他打电话,说他们刚发了一篇 GPT-3 相关论文,想成立一家新公司,名字叫 Anthropic。当时没有多少人真相信 bitter lesson 会继续成立。但今天,在他看来,行业已经有了一个明确结论:收入会随着计算资源规模化而变得可预测。
这个表述很值得注意。过去技术圈讨论 bitter lesson,更多是说“性能会随着数据和算力而扩展”;而在今天的创业和产业语境里,这句话已经被翻译成了更直接的商业语言:不仅能力会扩展,收入也会随着算力扩展。
Anjney Midha 说,前沿创新的最小单元,其实是一个“高度聚焦、人才密集、又能拿到巨大算力”的团队。他在这场圆桌上看到的,正是一批这样的创业公司。只要让合适的人拿到足够多的算力,agentic progress 还会继续往前推。
在这场圆桌里,这个说法也与黄仁勋后面提到的 AI foundry / AI factory 形成了呼应:如果未来真正限制前沿创新的,不再是“有没有想到一个好点子”,而是“有没有办法拿到足够计算资源”,那算力供给方式本身就会成为产业结构的一部分。
谈到行业场景时,OpenEvidence CEO Daniel Nadler 给出了一个非常清晰的判断。
他说,agent 特别擅长的,是那种多步骤、重复性强、而且每一步都相对可预测的工作流。这样的范式几乎存在于所有行业里,而医疗就是其中最典型的一个。
Daniel Nadler 特别举了医生工作的例子。他说,很多人以为医生的核心工作就是诊断和开药,但现实中,医生的大量时间花在写给保险公司的事先授权书上。那些任务本质上就是多步骤 agentic system 的完美用例,因为它们既重复、又流程化,同时还涉及大量私密且安全敏感的信息。
他举的场景很具体:当保险公司拒赔时,不必等医生醒来再去手动处理,agent 可以自动发起申诉,从患者病历里拉取信息,帮病人争取到关键治疗。Daniel Nadler 认为,这种场景的影响规模会非常大。
这段发言之所以有力量,是因为它把“agent 落地”从抽象的办公室生产力,拉回到了真实行业流程。它不是在讨论“AI 能不能替代医生”,而是在讨论那些真正耗费专业人士时间、但又并不需要最顶级创造力的重复劳动。
而且,这也是整场圆桌里一个很明显的共识:agent 最先大规模进入的,不一定是那些最光鲜、最复杂、最需要类人智慧的工作,而很可能是那些流程明确、边界清楚、重复度高、又高度依赖信息系统的工作。
它们都不是“最像人类创造力”的工作切片,但都足够标准化、足够可验证,也足够值得自动化。
在圆桌后半段,黄仁勋又把问题重新拉回题面:我们到底该知道些什么,才能不低估 open models 的发展能力?
这一次,几位嘉宾给出的答案都很具体,而且各自强调的点并不完全一样。
Arthur Mensch 先从 Mistral 的历史讲起。他说,Mistral 在 2023 年之所以迅速被认识,很大程度上就是因为 Mistral 7B。Mistral 从一开始就想在开放模型的基础上建立企业业务。
为什么他们相信 open models 应该成为 AI 软件的基础?Arthur 总结了两个最核心的原因:可控和定制化。
在他看来,AI agent 处在执行层,因此企业一定会想控制它到底部署在哪里,也一定会想确保自己拥有“总开关”。而另一方面,agent 在虚拟世界里很强,但现实世界中的企业往往有自己的物理资产、业务流程和专有知识,这些 IP 都需要被写进模型里,因此可定制性就变得非常关键。
Arthur 还提到,Mistral 发布 La Plateforme,就是为了把模型和各种数据源连接起来。与此同时,开放模型还可以分摊研发成本,这也是他们乐于参与 NeMo coalition 的原因。
Arthur Mensch 这段回答里的三个关键词其实很有代表性:
这三点把开放模型从一个“意识形态概念”拉回了非常实际的企业动机。
Daniel Nadler 从“专业化”角度解释了 open models 的价值。他说,闭源的千亿参数模型很像一个“800 岁的父母”:它们长期沿着某种固定方向被训练和强化,所以很擅长以自己的方式理解世界;但如果你想让它们换一种方式看世界,这就会变得非常困难。
这应该也是我最近看过最有意思的举例。
而现实社会恰恰是高度专业化的。一个公司里,CEO 的思考方式和总法律顾问的思考方式就完全不同。医疗领域更是如此,你需要世界级心脏科专家、神经科专家、肿瘤学专家。Daniel Nadler 认为,未来一定会出现这些专家的数字孪生,而 open models 正是这种专业模型的必要基础。
这段发言的重点在于,Daniel Nadler 把 open models 的价值解释成了塑形能力。超大的通用闭源模型当然很强,但恰恰因为它们太大、太成熟、太强,它们也更难被彻底塑造成某个行业、某种职业角色、某种风险偏好的数字专家。开放模型则提供了更大的改造空间。
Hanna Hajishirzi 则把“可定制性”推进得更深一层。她说,大家通常只看到模型训练完成后的最终快照,但实际上,模型的形成是一个很长的过程。如果能把这个过程的不同部分开放出来,就会释放出几乎无限的定制空间。
她提到,自己的团队构建 OLMo 时,并不只是开放了一个结果模型,而是把完整的开发周期都尽量展开——包括数据、模型权重和基础设施,让研究者可以在整个链路上继续做实验、继续搭建。她认为,对这些基础设施的访问,会开启下一代先进模型架构。
Hanna Hajishirzi 的这段回答很重要,因为它把“开放”从一个静态结果,重新定义成了一个动态过程。不是只有权重是否公开才叫开放,数据、训练、基础设施、架构探索这些环节是否可被接续,也同样重要。
Robin Rombach 的答案则是“创新扩散”。他认为,开放模型会带来创新、研究和竞争的扩散。这也是为什么,无论是做 frontier models,还是做更专用、可以上设备端的 open models,现在都是一个非常令人兴奋的时刻。在 Robin 看来,所有这些不同的 frontier,最好都拥有某种开放组件。
他的关注点更像一个研究者兼创业者视角:如果没有开放环节,创新就会过度集中在少数机构内部;而一旦有了开放组件,研究、应用和竞争就会在更大范围内扩散。
Anjney Midha 的说法最有保留。他明确表示,并不同意“开放模型在所有场景下都严格优于闭源模型”这种说法。某些场景里,闭源模型完全可以非常出色。但在 defense、healthcare 这类高风险、任务关键型应用里,你必须真正信任系统会在高压情况下正常表现;而能被你内省、能被你检查的开放系统,会更容易建立这种信任。
同时,他还提出了另一个常被忽略的前提:如果想让 frontier 级别的 open models 持续发展下去,行业不仅需要 open models,也需要open infrastructure。他说,大家需要一种可以安全共享的基础设施机制,既能承担基线负载,又能在高峰时灵活扩缩。这也是 AMP 正在做的事:建设一个 AI grid。
这实际上把“开放”又往下推了一层。开放不只是模型权重的开放,也不只是后训练接口的开放,而可能还意味着:算力和基础设施也需要某种共享机制,否则开放模型的发展最终还是会被巨额计算资本卡住。
如果把第二轮 panel 关于开放的回答放在一起,可以看到现场其实至少在讨论三种不同层面的 open:
第一层,是最常见的open weights(开放权重)。
也就是模型权重是否开放,用户能否自行部署、微调和控制。
第二层,是open post-training / open customization(开放后训练和开放自定义)。
Mira Murati 提到的后训练 API,Arthur Mensch 提到的控制与自定义,其实都落在这层:就算不是所有东西都全量开放,只要后训练和定制化能力开放出来,更多参与者就能在通用能力上继续往前推。
第三层,是open research / open infrastructure。
Hanna Hajishirzi 的 OLMo,Anjney Midha 的 AI grid,Robin Rombach 所说的 open component,讲的都是这件事:开放不该只停留在最终产物,而应该覆盖更长的创新链条。
也正是在这个意义上,黄仁勋这场圆桌 panel 虽然题目是开放模型,但它谈论的其实是一个更大的命题:AI 的开放生态究竟能不能成为一条独立、可持续、并且能够支撑产业级创新的路线。
虽然两轮 panel 的嘉宾构成不同、侧重点不同,但把整场 80 分钟连起来看,仍然能看到几个非常稳定的共识。
第一,模型是基础,但不再是终点。
无论是 Michael Truell 说的第三类公司,Aravind 说的编排系统,还是 Harrison Chase 说的 harness engineering,大家都在反复强调:最终交付价值的,不再只是模型本身,而是模型如何被放进系统。
第二,coding 不是偶然,而是 agent 的第一个大规模验证场。
几位嘉宾都承认,过去一年 coding 先跑通了。这不只是因为程序员更爱尝鲜,而是因为 coding 本身具备可验证、可迭代、工具接口标准化等一系列特征,因此成了 agent 的天然试验田。
第三,OpenClaw 之所以重要,不只是因为它火,而是因为它把 agent 具象化了。
在嘉宾们的描述里,OpenClaw 的价值不只是“开源社区很热闹”,而是它第一次把 agent 变成一种大众可以感知的计算体验:always-on、主动、可记忆、能行动。
第四,企业落地的难点不是“会不会”,而是“怎么管”。
Arthur Mensch、Hanna Hajishirzi 和黄仁勋都把话题拉到了治理、安全、信任和控制平面上。企业要的是一个可治理的 agent,而不是一个只在 demo 里聪明的 agent。
第五,开放模型的意义,不只是省钱,而是控制、定制和信任。
无论是 Arthur 说的可控和定制化,Daniel Nadler 说的专业模型,还是 Hanna 说的完整开发链条开放,现场都在不断强调:开放模型的价值,最终会体现在企业和行业能否把 AI 真正塑造成自己的系统。
在整场对话最后,黄仁勋把这些零散的讨论重新归拢到一个更大的框架里。
他说,AI factory 或 foundry这个概念会变得越来越重要。接下来这一年,人们会开始看到它真正成形——企业不必自己大到足以独占大量算力,也能获取所需的计算资源和部署能力。
在他的总结里,现在行业至少已经看到两个明显的拐点:
第一个拐点,是agentic systems 的时代已经开始。
第二个拐点,是足够强的模型开始与 agentic systems 融合,形成真正有商业价值的企业平台。
黄仁勋最后一句话说得很直白:今年会是“真实商业经济学”开始起飞的一年。
这句话前面其实铺了很长的逻辑链。
先是 frontier models 打开能力上限,接着是 reasoning 和 tool use 把模型推进到可执行阶段,再之后是 coding 和 OpenClaw 这类项目把 agentic systems 变成可见的产品形态,最后企业开始追问治理、控制、可定制和基础设施……
因此,“business economics take off” 在这里不是一句轻飘飘的行业口号,而是说:当这些条件开始同时成立时,AI 才真正开始从“惊艳演示”进入“可规模化经营”。
如果把整场圆桌连起来看,这句话并不只是对开源模型的乐观判断,也不是单纯在夸 agent。更准确地说,它是在描述这样一个趋势:
模型还会继续进步,闭源和开源会继续并存;
但真正的产业落点,越来越会出现在系统层、agent 层、企业控制层和基础设施层。
从 coding 到医疗,从个人 co-worker 到企业 agent,从 open weights 到 open infrastructure,越来越多问题开始往同一个方向收束:AI 不再只是一个模型接口,而是在长成一整套新的计算与生产系统。
把这些嘉宾的言论放在一起,会看到他们并没有给出一个整齐划一的结论。相反,他们共同勾勒出的,是一张正在展开的新地图:
这张地图最大的变化,也许就是:AI 的主战场,已经不再只是“谁训练出了最强模型”,而是“谁能把模型变成真正可运行、可治理、可扩展的系统”。
而这场 80 分钟圆桌的价值,也正在于它把这件事说得足够直接。
