黄仁勋:1000 亿美元、10GW,从卖卡到“卖 AI 产能”
5 小时前 / 阅读约15分钟
来源:36kr
英伟达与OpenAI合作建10GW AI工厂,英伟达角色从卖芯片转向卖AI产能,全球各国加速建AI工厂,未来竞争焦点是智能密度和产能调度能力。

2025 年 9 月 26 日,英伟达 CEO 黄仁勋(Jensen Huang) 接受 BG2 播客专访,参与节目《NVIDIA:OpenAI 与算力的未来》,进行了一场时长 110 分钟的深度对谈。

这场访谈的核心不是英伟达芯片性能,而是重新定义:英伟达,到底是一家什么样的公司。

更重要的是,就在这场访谈发布前 72 小时(9 月 22 日), 英伟达刚刚宣布与 OpenAI 达成合作,支持其自建 10GW AI 工厂(Stargate 项目)。 这笔合作预计将为英伟达带来最高 4000 亿美元收入, 是其历史上规模最大的一次 AI 基础设施项目。

这已经不是“卖卡”的生意, 而是全新的商业模式。

黄仁勋在访谈中明确提出三点:

OpenAI 很可能成为 下一个万亿美元公司;

AI 不再是模型,而是一个需要持续供能的“智能工厂”;

每个国家、每家企业,都要开始建自己的“AI 发电厂”。

英伟达的角色,也正从卖芯片的供应商,变成全球 AI 电力的调度平台。

他不是在解释未来, 他是在建设未来。

第一节|OpenAI 投资背后:AI 工厂,不是 AI 模型

这场对话真正的爆点,并不是某个技术细节,而是黄仁勋亲口确认的一笔合作:

我们将和 OpenAI 一起建 10GW 的 AI 工厂。 OpenAI 正在从租用算力,转向自建算力。

对外界来说,这是一项“交易”:

投资额预计高达 1000 亿美元,

如果全线使用英伟达设备,回报将接近 4000 亿美元。

但在黄仁勋眼中,这不仅是一笔生意,而是一次商业模式的转型:

过去,AI 模型是租来的,电力是用一点算一点; 现在,AI 企业开始自建电厂,拥有自己的发电系统。

他说:

“OpenAI 正在从使用 Azure,转向建设自己的算力基础。就像 X.ai 那样,像 Meta 那样,成为一个真正的超大规模公司。”

换句话说,OpenAI 不再只是训练出 GPT 的 AI 公司, 它要做的,是建立一个“能不断产出智能”的长期发电厂。

英伟达,在这其中扮演的,不再是提供芯片的供应商, 而是帮助客户启动整套“AI 发电厂”的合作伙伴。

更关键的是,这并不是孤立事件。 他说,英伟达已经同时在推进三个电厂项目:

  • 微软 Azure,与 OpenAI 联合使用
  • OCI(Oracle、Softbank 联合建设)
  • CoreWeave,自建云计算平台

而这次与 OpenAI 的新合作,是第四个,也是最全面的一个

这是第一次,英伟达直接参与芯片层、软件层、数据中心层,帮助 OpenAI 从 0 到 1 建立完整的 AI 发电厂。

不是用一次,生成一段;

而是每天思考,反复生成,持续提供智能服务。

当智能需求不再是偶尔使用,而是像水电一样常用时, 模型只是其中的一环,真正重要的是支撑它持续运行的算力基础设施。

竞争的焦点发生了根本转变:这不再是训练模型的竞赛,而是哪家公司拥有自己的 AI 发电厂。

第二节|AI 推理爆发,不是加速,而是转方向

黄仁勋这次谈得最多的,不是算得更快,而是算得更久。

他说,以前的 AI 更像是一台计算器, 你提问,它立刻给答案。 现在的 AI,开始像人一样,在回答前要先思考、查资料、组织逻辑。

“过去推理是一次性的,问一句,答一句。现在是链式推理:先想,再查,再想,再回答。”

这背后的底层变化,是一个新概念:AI 现在不是模型,而是一个推理流程。

它不再只做记忆题和填空题, 而是要自己分析、推导、综合信息,甚至临时学习新的方法。

而这带来了两个结果:

一是:推理过程越来越复杂

黄仁勋说,现在很多 AI 系统,在真正生成答案前,要先思考几十步,每一步都涉及数据调取和算法调用。

这就像一个人写作业,不再是背答案, 而是要自己做推理题、画草图、反复尝试。

现在你有三个阶段:预训练、后训练、推理。越是后面,算得越久、过程越复杂。

他甚至直接下了判断:

“推理的增长,不是 100 倍,不是 1000 倍,是 100 亿倍。”

二是:推理开始持续在线,不再是临时调用

这就是黄仁勋说的推理从一次性计算转向 AI 工厂连续运转的原因。

今天的软件是写一次、运行一次。明天的软件,是实时生成、持续运行。

过去一个模型处理一条指令,只运行几秒;

现在一个智能体要不断保持在线,时刻应对新任务。

模型需要更多时间想明白,也需要更多资源持续运行。

黄仁勋举了个简单的例子:

现在 OpenAI 的用户数增长是指数级的,每个用户的使用频率和推理时间,也在指数增长。

用户变多、用得更久、推理变复杂,三重增长叠加,需求规模直接跃升到全新量级。

这也就能解释:为什么现在要建 AI 工厂? 不是为了追风口,而是因为过去的计算模式根本承载不了新的推理方式。

接下来,英伟达面临关键抉择:

是继续当“芯片卖家”? 还是成为 AI 推理持续供能的“发电站”?

第三节|英伟达的转向:卖的不再是芯片,而是“AI 产能”

黄仁勋说,现在大家都在说 AI 短缺,GPU 不够。

但他明确了一点:

全球的计算短缺,并不是因为我们不想造,而是客户给的预测,全都低估了需求。

过去几年的模式很简单:客户说需要多少,英伟达就造多少。但每次预测出来的需求,都远远低于实际使用量。

所以,他们一直在追着需求跑。给的预测从没一次是够的。

这不是个别公司的问题,是整个行业进入“推理爆发期”的共性。

而在这种背景下,英伟达也开始重新定义自己要提供什么:

以前,是卖芯片;现在,是供产能。

现在已经不是一家公司小规模采购几块 GPU 的时代了,而是动辄几十万片、上百亿美金的超大规模部署。

黄仁勋在播客上提出英伟达在做的,是为 AI 工厂提前布局整个供应链:

  • 从晶圆开始,
  • 到 HBM 高速内存、封装、冷却、主板、网络、交换芯片……
  • 提前一年甚至两年,把一整条产线都准备好。

为什么?

因为一个 10GW 的 AI 工厂,要用几十万个 GPU,没有提前一年布局,根本不可能同时交付。

他进一步解释:

“你要想想,要启动数千亿美金的建设, 需要提前一年下晶圆单,下存储单,准备所有部件。 没有人能跟得上,除非你已经规划好整条产线。”

这意味着英伟达的角色正在变:不再是等着客户下订单的卖家, 而是变成帮客户建 AI 发电厂的合伙人。换句话说,他们现在卖的,已经不是 GPU,是让 AI 能动起来的算力产能。

这种模式像什么?

像能源行业。

你不只是买电线、电池,你要的是稳定供电。你不只是买芯片、电路板,你要的是“稳定智能”。

而英伟达现在在做的,就是这个 AI 时代的“电力公司”。

第四节|AI 工厂值不值:看组合效率,也看智能密度

AI 工厂不是比谁卡多、谁芯片大,谁能把所有部件组合成一套高效的智能生产解决方案。

黄仁勋说,现在的竞争,不是硬件跑分比拼, 而是看谁能把芯片、内存、网络、电力、软件全部组合好,让每一瓦电、每一块卡、每一个冷却通道都发挥最大价值。

他拿出了实际数据:

“英伟达的顶级芯片Blackwell 比上一代快 30 倍,不是因为晶体管变强了,是靠协同设计实现出来的。”

这背后的设计思路,就是他提出的:极限协同设计(Extreme Co-Design)

什么叫协同设计?

举个通俗的例子:传统方法像是造一辆很快的发动机,再配一个通用的底盘、轮胎。而英伟达的做法,是:发动机、底盘、方向盘、导航、冷却系统,全一起设计。

具体来看:

  • Blackwell 引入第五代 NVLink 高速互联,多个 GPU 能并行推理;
  • 网络用了专为 AI 设计的 Spectrum-X;
  • 存储是 HBM 高带宽内存,让模型运行更流畅;
  • 软件层也开源了 Dynamo,帮企业管理大规模模型运行调度。

所有这些组合,只为一个目标:让每一台机器、每一个瓦特,都能多产出一点智能。

现在英伟达每年要同时做六七款芯片,不是谁做得快、谁发布得早,而是要确保这些芯片能形成完整的产品体系,精准覆盖不同需求。

但仅仅“能组合”还不够。

黄仁勋提出另一个核心指标:单位功耗下,谁的 AI 工厂产出最多有效的AI计算。

为什么这个指标如此重要?主持人问他,客户怎么评估哪家 AI 工厂值得投钱?

黄仁勋的回答是:现在最稀缺的,不是芯片,而是电力。

一个客户的数据中心,功率上限可能就 2GW。你不可能无限扩容电力、土地和冷却设备。所以关键问题变成了:每瓦电,产出多少智能?

他说得很直白:

“就算别人把芯片免费送你,如果产出低、效率差,你用它就是在浪费预算。”

他说他亲耳听到一个客户的 CFO 这么算账:

  • 有 2GW 功率上限,
  • 要部署大模型,需要几万个 GPU,
  • 电费和空间已定,只能选“每瓦智能产出最高”的那套方案。

这也解释了另一个外界常问的问题: “为什么客户愿意给英伟下 500 亿美元大单?”

黄仁勋说,客户不是买卡的参数, 而是买你能不能如期交付整厂、能不能支撑大规模运算、能不能稳定运行 AI。

英伟达能提前一年准备好晶圆、封装、内存、交换芯片、主板、冷却,没有哪个对手能做到这点。

最终比的是三件事:

  1. 谁能把所有零件组合成一整套能运转的 AI 工厂;
  2. 谁的工厂单位产出更高,能用更少资源产出更多推理结果;
  3. 能稳定地、按时地把这套工厂交到客户手里,让客户放心投资、敢于扩容。

第五节|全球电厂战:国家不抢芯片,抢 AI 电力

黄仁勋说,现在全球都在关注 GPU 缺不缺、芯片够不够。

但他想提醒大家:真正的核心,不是卡有没有,而是你的国家有没有自己的 AI 发电厂。

每个国家,最终都会建自己的 AI 工厂,就像需要建设自己的电厂、网络、云计算中心一样。

过去是数据主权,现在是智能主权。

如果你没有自己的 AI 工厂,意味着三件事:

  • 你没法支撑本国的 AI 模型训练和部署;
  • 企业用 AI,要依赖别人提供的算力服务;
  • 数据留在本地,但智能的生成、分发、运行能力都依赖外部的 AI 基础设施。

黄仁勋在访谈中多次表示:

“AI 是新电力。就像没有电,你什么都干不了。没有 AI 产能,你未来很多事也干不了。”

✅ 不只是美国:各国都开始建自己的 AI 电厂

节目中主持人问他:是不是只有美国在冲这个方向?

黄仁勋的回答:不止美国。现在欧洲、中东、以色列、沙特、阿联酋,都在加速建自己的 AI 工厂。

这些国家不见得有自己的模型公司, 但它们已经意识到:要掌握未来智能能力,必须有自己的 AI 推理基础设施。

沙特就公开宣布,要建设全国级的 AI 基础设施,拉上英伟达合作;

阿联酋也成立了专门的国家级 AI 投资平台,押注底层模型和算力结构。

未来,你不可能靠租用别人 GPU 来支撑国家级 AI 能力,就像你不可能永远靠别人的电厂供电。

✅ 与中国相关吗?当然相关

在这场全球AI 竞赛中,中国是不能忽视的变量。

即使面对地缘政治的复杂性,黄仁勋依然表示:

中国是全球最大市场之一。它会建起自己的 AI 工厂,这点毫无疑问。

他说,中国不仅有华为,还有大量具备建设能力的企业:

  • 工程能力强、执行速度快
  • 对资源调配极有经验
  • 拥有自给自足的产业链结构

黄仁勋对此的判断很直接:这不是脱钩,是竞赛。

✅ 谁会赢?不是看政策,而是看谁先“通电”

全球每个国家都站在一条起跑线上:

  • 谁先建完 AI 工厂,谁的智能基础设施先投入使用;
  • 谁能在 10GW、20GW 电力下支撑全国智能服务;
  • 谁能做到电力、数据、推理资源本地统一。

黄仁勋说:

“AI工厂的基础设施建设,会成为下一个全球核心主权指标。”

换句话说,关键不是拥有多少 GPU,而是要有产能调度能力,能够运行自己的智能任务,让国内的企业、机构、医院、法院、学校,都能连上自己的 AI 发电厂。

这已经不再是技术之争,而是谁先把 AI 工厂通电投产。

结语|下一场 AI 战争,不打参数,而比“智能密度”

黄仁勋这场对话,说的不是模型有多强,而是 AI 工厂能产出多少智能。

能不能建出来?建完能产出多少价值?这才是核心竞争力。

英伟达的角色已经彻底改变:从卖芯片变成卖 AI 产能,从 GPU 公司变成“智能电厂”合作伙伴。

而接下来,所有国家、企业都要面临同一个现实:智能的上限,取决于你有多少电力资源,能支撑多少 AI 持续运行。

全球大模型的竞赛,正在从发布会,走向“工业建设”主战场。

OpenAI 建 10GW 工厂,各大公司自研芯片建厂,每个动向背后都是同一件事:比谁先把智能变成产能,比谁能让每度电产生更多有效智能。

黄仁勋已经开始在算这笔账。

下一步,你要不要也算一算?

原文链接:

https://www.youtube.com/watch?v=pE6sw_E9Gh0

https://timesofindia.indiatimes.com/technology/tech-news/nvidia-ceo-jensen-huang-elon-musks-xai-did-in-19-days-what-everyone-else-needs-/articleshow/124063499.cms

https://www.pcgamer.com/hardware/processors/jensen-huang-says-intel-and-nvidia-have-been-discussing-and-architecting-solutions-now-for-coming-up-to-a-year-and-kept-it-really-quiet

https://www.businessinsider.com/nvidia-investing-up-to-100-billion-openai-ai-deal-2025-9?utm

https://blogs.nvidia.com/blog/openai-nvidia/

来源:官方媒体/网络新闻