这是我们连续第三年发布AI行业的年度复盘与展望。
2023年,OpenAI在模型界几乎是一骑绝尘。2024年,OpenAI在大部分时间处于“被挑战”的状态。2025年,是中国大模型发展的“破局之年”,DeepSeek横空出世,撼动了全球大模型赛道的原有格局,也在全球范围内扛起了“开源”大旗。
回望2025年,全球AI行业步入了一个快速变化的周期。伴随着模型范式的重构、算力建设的加速,以及应用的分化,世界模型与物理AI的出现,让智能逐渐逼近“可行动”与“可预演”。
在这一年,AI产业的两条主线格外清晰:一是美国和中国成为驱动全球AI发展的“双核”,发展路径各有特色;二是端侧模型、智能体能力、世界模型等关键技术开始加速进入工程化阶段,从“能力演示”迈向“系统整合”。
可能有一点遗憾的是,和2023年、2024年一样,2025年依然是“模型能力提升”与“应用落地阻力”同时出现的年份。模型能力仍在进步,但当行业关键词从“大模型”转向“AI+”,也意味着人们对AI的期待已然从一种前沿技术,转向其在真实世界的落地价值。2025年,AI应用侧虽然不乏亮点,但是仍然面临多重挑战。
在这份报告里,我们试图从模型演进、产业链与基础设施、应用生态三个角度切入,试图提供一份来自投资人视角的2025 AI产业底稿。我们希望回答如下问题:
这不仅是对AI领域过去一年的发展回顾,更是对AI发展走向的思考。2025年接近尾声,我们也很好奇:

当前,全球大模型的发展呈“双核驱动”态势。这既体现在技术路径的选择上,即闭源与开源并行推进,也反映在地缘竞争的现实之中——美国与中国成为推动人工智能发展的两大核心力量。
一、双核驱动:技术路径与地缘格局的交汇
从技术角度看,“双核”首先指向闭源与开源这两种截然不同的发展范式。闭源大模型由科技巨头主导(以OpenAI为代表),强调性能领先、产品闭环与商业变现;开源大模型则先由具备资源实力的组织主导(以DeepSeek为代表),在开源基础上依托社区协作、生态共建和透明迭代,近年来展现出强大的生命力。

从全球竞争格局来看,美国凭借在算力、算法和人才方面的长期积累,在闭源领域占据主导地位;在中国,开源成为AI发展的重要方向。开源既有助于应对AI供应链的不确定性和外部制约,也帮助中国在AI竞争中实现了关键突破。欧洲等其他地区虽有布局,但整体仍处于追赶状态,尚未形成足以影响全局的模型体系。

由此可见,当前AI发展的主引擎已集中于中美两国,一方以闭源引领创新边界,另一方以开源构建生态纵深。
二、头部大模型:三足鼎立,战略分化
在大模型阵营中,OpenAI、Anthropic与Google形成“三驾马车”之势,各自采取差异化的战略路径。
OpenAI的GPT系列模型在综合能力方面具备优势。它不仅持续引领技术前沿(如率先引入长链推理范式、发布视频生成模型等),还通过ChatGPT等产品触达终端用户,展现出打造“一站式AI平台” 的远景。
与之相比,Anthropic更多地聚焦于专业场景与垂直应用,如代码生成、网络安全等,发布了Claude系列模型及Claude Code工具。近期Anthropic也在开发者工具方向与企业场景中加大投入,试图抢占应用层先机。
Google的Gemini路线之前似乎更倾向于“全面而均衡”,其模型能力体现在长上下文、多模态输入、科研/创意双重导向等。近半年,Google通过Nano Banana Pro等热门图像生成/编辑模型,试图在垂直创意与图像生成赛道打开局面,加快形成差异化标签。
三、开源的崛起:中国AI的战略突围与生态重构
如果说闭源模型代表了“精英式创新”,那么开源模型则更像一场由领先机构引领并激发“全民协同的工程创新”。中国正借助这一模式实现战略突围。
2025年堪称中国大模型发展的“破局之年”,其中极具标志性的事件是DeepSeek横空出世。此前业界普遍认为中国会“先做应用,后攻模型”,但DeepSeek不仅提前完成了高性能基座大模型的构建,更在全球范围内率先以开源方式复现了具备“长链推理”能力的大模型。
尤为关键的是,DeepSeek通过创新训练机制,将推理过程中的Token成本大幅压缩,实现了在保持高性能的同时,显著降低部署门槛。这种“低成本,长推理”的范式迅速引爆开发者社区。
除DeepSeek外,通义千问(Qwen)和Kimi等国产大模型也已陆续开源/开放权重,这些大模型正在共同探索一条兼具技术深度与生态广度的新型开源路径。
值得关注的是,开源对中国而言远不止是技术选择,或许还是一种系统性战略。
一方面,由于外部闭源模型难以大规模进入中国市场,本土开源模型天然获得了广阔的应用试验场。B端或许更愿意采用开源方案,其可微调、可审计、可定制,正契合对数据安全与技术自主的迫切需求。
另一方面,开源还激活了中国庞大的工程师红利。在算力受限的现实约束下,国家可以将有限的资源集中于少数优质开源模型(如DeepSeek、Qwen),实现算力、数据与人才的高效协同。
不同于闭源模型依赖少数顶尖团队,开源生态允许高校、中小企业乃至个体开发者在不同模型尺寸上贡献算法优化与应用场景创新。这种“众人拾柴火焰高”的协作机制,本质上是一种类似科研的开放创新范式——技术细节透明、成果快速传播、社区互相提升,从而形成强大的正向循环。
然而,开源大模型发展并非坦途,其商业模式天然面临挑战:变现周期长,中短期难以形成规模化收入,高度依赖大量资金支持与生态协同。
一种合理的方案或许是:开源大模型厂商不仅开放模型权重和代码,也在云端提供基于token的售卖服务——既开源又收费,实现“一鱼两吃”。当前,Qwen和DeepSeek均同时在提供云端服务。但这一模式也面临强劲的云服务商竞争、利润空间压缩、运营成本上升等压力。
四、端侧模型崛起:云之外的模型路径
2025年,“端侧推理”成为模型落地的重要战场。端侧推理不是“应用层”的新功能,而是模型形态分层的结果。在云端训练越来越昂贵,推理成本不降反升,电力与数据中心扩容受限的背景下,一部分推理能力正迁移到设备端执行。
苹果Apple Intelligence 、Google的Gemini Nano,以及国内一些小参数模型,使端侧模型初步具备了落地条件。
端侧模型通常以几亿到数十亿参数量级为主,可实现低延迟响应,其隐私保护能力较强,并且运行成本几乎可以忽略不计。对模型体系而言,这意味着从“大一统大模型”转变为“云-端协同”的多尺寸结构:云端负责复杂推理和跨任务协作,端侧处理即时任务和近场感知。
家庭与办公场景正在成为端侧模型的典型载体,安防摄像头、家用机器人、家电控制模组、桌面助手都开始依赖本地推理完成视觉理解、设备联动和任务执行;云端只在需要深度推理时介入。对模型厂商和应用开发者而言,端侧AI不只是部署方式的变化,还是一次新的入口竞争——推理正在从云中心回流到本地环境之中。
近年来,大模型的发展已从单一文本能力迈向更复杂、更智能的综合形态。当前,四大技术趋势正重塑行业格局:原生多模态融合、推理能力、长上下文窗口与记忆机制,以及智能体能力(Agentic AI)。这些进展不仅提升了模型的基础能力,而且正在重新定义人机交互的边界。
一、多模态:从“文本为中心”走向“原生融合”
过去,多模态系统通常依赖文本作为中介,例如通过CLIP等模型将图像、音频等映射到统一的文本语义空间,再进行处理。这种方式虽有效,但本质上仍是以文本为核心,其他模态处于“被翻译”的地位。
如今,前沿大模型正转向原生多模态架构。所谓“原生”,是指模型在底层设计上就将图像、语音、文本乃至视频等多种模态嵌入同一个共享的向量表示空间,从而使不同模态间能够自然对齐、无缝切换,无须经过文本中转,以实现更高效、更一致的理解与生成。
多模态生成模型也正在进入快速发展期,从实验探索阶段迈向以实际应用为导向。比如,Sora 2在视频与音频生成上实现物理逼真、镜头控制、音效同步等突破,Nano Banana Pro在图像生成与编辑方面向前走了一大步,支持多图融合、4K输出、逻辑一致性与多语言文本渲染。
二、推理能力:从“回答问题”到“思考过程”
如果说多模态拓展了模型的感知边界,那么推理能力则标志着其认知深度的跃升。2025年大模型的一大显著特征便是“推理能力”正式成为核心标配。
过去,大语言模型主要专注于根据上下文语境生成文字;如今,趋势正在改变。
一方面,在训练阶段,模型不再仅仅学习“下一个词是什么”,而是学习“如何一步步思考”——借助链式思维(Chain-of-Thought)、结构化推理数据、强化学习微调等,使模型能拆解复杂问题,逐步推演。
另一方面,在推理阶段,模型越来越多地采用“延长思考时间”或“动态调用额外计算资源”等机制(即测试时计算/推理时扩展)来提升判断能力。
因此,如今的先进模型不仅“给你答案”,也“展示它如何思考”,从而提升准确性,增强解释性,使其在处理复杂任务(如数学证明、代码生成、科学推理)时表现更佳。
三、上下文与记忆:让AI真正“认识你”
除了感知与推理,另一个“改变游戏规则”的进展是长上下文窗口与记忆机制(context + memory)被引入。
传统的AI对话是一次性的:用户提问,模型回答,会话结束即被遗忘。新一代模型通过支持超长上下文(如百万级Token)并结合外部记忆存储及检索机制,能够在多次交互中持续追踪用户身份、项目历史、目标演变与个人偏好。这意味着AI不再是“不长记性的工具”,而是逐渐成为具备长期认知能力的数字伙伴。
这种能力对生产力工具、个性化服务和复杂协作场景尤为重要。例如,在软件开发中,AI可记住整个项目的架构与编码风格;在健康管理中,它能跟踪用户长期的症状变化。
四、智能体能力:从“生成响应”到“自主执行”
除了多模态感知、高级推理与记忆机制,2025年大模型发展的又一关键方向是“智能体能力”。所谓“智能体能力”,是指模型不仅能够理解和生成内容,还能够主动规划、调用工具、执行多步任务,并在一定程度自主决策、与环境互动。
在这种范式下,AI的角色不再局限于“你问,我答”的问答助手,而是升级为“你定目标,我来完成”的执行伙伴。例如,面对一个复杂的任务,模型可自动拆解目标,选择合适的工具(如数据库查询或API调用)、协调多个子任务的执行顺序、监控中间结果,并根据反馈动态调整策略,甚至与其他智能体或人类协同工作。
智能体能力能够应用的场景比较广泛:生产力自动化,例如自动生成分析报告、跨平台调度任务;企业流程优化,支持跨部门协作流程的自动编排与执行;个性化智能助手,协助用户长期管理项目,制订学习计划等持续性目标。
如果把智能体能力与多模态感知、逻辑推理和长期记忆深度融合,大模型有望构建起“感知—理解—记忆—行动”的完整智能闭环。
然而,当前智能体能力仍处于早期发展阶段。不少应用还停留在试点或概念验证阶段,其大规模商业化落地仍面临多重挑战,包括工具调用的稳定性、任务流程的可靠编排,以及在治理、责任归属和系统可靠性等方面的制度与技术难题。
随着大模型技术进入深水区,行业正经历一系列结构性转变:从训练重心的迁移,到使用成本的复杂博弈,再到底层架构的多元尝试。这些变化不仅反映了技术本身的演进,也预示着未来AI发展路径的更多可能性。
一、训练-推理范式转移:从“预训练主导”到“后训练驱动”与“运行时计算”
当前,大语言模型正在经历一场范式转变:从过去以大规模预训练为核心的单一路径,逐步演进为融合后训练精调与运行时计算增强的多阶段协同体系。
正如英伟达CEO黄仁勋所指出的,先进 AI 模型的能力提升正遵循三条相互补充的“规模法则”:
1、预训练规模法则(Pre-training Scaling Law)
通过海量文本数据与超大参数模型,以超大规模计算资源,构建强大的基础语言理解与生成能力。这是模型泛化能力的“地基”,决定了其知识广度与初始性能上限。
2、后训练规模法则(Post-training Scaling Law)
在预训练基础上,借助监督微调(SFT)、人类反馈强化学习(RLHF)、推理对齐等技术,注入任务导向的行为模式与价值观对齐。这一阶段使模型从“能生成”迈向“会思考、懂协作、守规则”。
3、测试时规模法则(Test-time / Inference-time Scaling Law)
在推理或部署阶段,通过增加计算投入,如启用思维链、多步推理、内部搜索、自我验证或工具调用等机制,让模型“花更多时间思考”,从而提升模型的准确性与逻辑深度。

二、模型架构的多元探索:Transformer仍是主流,但边界正在拓展
在底层架构层面,尽管Transformer依然是绝对主流,最近一年,研究者们也在积极探索多种替代或混合方案,比如:
线性注意力模型(Linear Attention):通过简化注意力的计算复杂度,在保持性能的同时显著提升推理速度,已成为轻量化部署的重要方向。
混合注意力机制(Hybrids Attention):结合传统注意力机制与其他高效模块(如状态空间模型SSM、卷积等),试图在长序列建模与计算效率之间取得更好的平衡。
文本扩散模型(Text Diffusion Models):借鉴图像生成中扩散模型的思路,用于语言生成。与Transformer逐词预测不同,扩散模型可并行预测多个位置,理论上具备更高吞吐效率。2025年,苹果与俄亥俄州立大学的研究结果显示,在小参数规模下,其生成速度优势明显。不过,目前尚未被头部大模型广泛采用,仍处于探索阶段。
此外,一些前沿项目甚至尝试将世界模型理念融入架构设计,例如通过多模态感知与动态模拟来构建环境内部表征。
过去几年,人工智能的发展重心主要集中在语言模型与数字内容生成上。AI学会了“阅读”、“写作”,甚至能“看图生成图像或视频”。然而,随着智能驾驶、具身机器人等技术的快速演进,AI正面临一个更复杂的挑战:它不仅要处理文本和图像,还必须在现实物理世界中“看见”、“行动”并“理解”环境。这意味着AI需要真正进入并适应物理世界。
在此背景下,世界模型(World Model)、物理AI(Physical AI)这些新范式逐渐成为行业焦点。所谓物理AI,是指能够感知现实环境,理解物理规律,并据此采取有效行动的智能系统。杨立昆(Yann LeCun)、戴密斯·哈萨比斯(Demis Hassabis)等行业专家表示:“未来真正有价值的AI,将是那些能够理解并遵守物理规律的系统。”
一、什么是世界模型?为什么它是物理 AI 的核心?
世界模型是AI在“脑海中构建的一个微型世界”,它不仅记录当前通过传感器获取的信息(如图像、声音、位置等),还能模拟和预测未来状态:如果执行某个动作,环境将如何变化?
换言之,AI不再只是简单地从“输入”映射到“输出”,而是具备了“内部模拟—预演—规划”的能力。例如,AI可以先在虚拟环境中尝试:“如果我推这把椅子,会发生什么?”“如果车辆在此时转弯,是否会失控?”这种“脑内预演”机制将提升系统的泛化能力、安全性和长期规划水平。
这一机制人类早就有了。正如下图这幅漫画所描绘的,人类在骑自行车时并非仅依赖眼前的画面做决策,还要依靠大脑中持续更新的“内在世界模型”来预测转弯、碰撞等行为的结果,从而避免在真正摔倒后才意识到危险。
二、VLA与世界模型:技术与应用场景的差异
当前物理AI的核心技术路线主要围绕两大方向:一是以VLA(视觉语言动作模型)为代表的端到端感知-行动模型,二是以世界模型为核心的环境建模与预测体系。
VLA是物理AI的重要分支之一,代表了传统多模态大模型向行动能力的延伸。它将视觉、语言与动作指令融合,构建“多模态输入→动作输出”的端到端系统,适用于“看到+理解指令→立即执行”的任务场景。例如,机器人根据图文提示完成抓取或搬运操作。这类场景对语义理解能力和跨场景泛化提出了较高要求。
相比之下,世界模型更强调对环境的内部建模与动态预测能力。它不仅关注当前感知数据,还构建包含隐含状态、动力学规律和因果关系的表示体系,使智能体能在“脑中”模拟多种未来情境,并评估不同动作的潜在后果。
当环境复杂、情境不确定、需要规划或适应时,世界模型可能会具备更强的灵活性与鲁棒性。但当前世界模型的技术路线尚未成熟,还需要解决仿真与现实差异、物理一致性与长期规划稳定性等问题。
在应用层面,VLA更适合结构清晰、任务明确、响应迅速的短期操作(如仓储物流、辅助驾驶),世界模型则更适用于需要深度推理、动态适应和长期目标导向的复杂任务(如自主导航、多步骤机器人操作、人机协作等)。
简而言之,VLA更像“看到就做”,适合稳定、结构化的任务;世界模型更像“先想好再做”,适合复杂、多变、需预测与规划的场景。
当然,最近也有研究(如World VLA等)表明,VLA与世界模型并不是两条互斥的路径,而是可以融合为统一系统。使得 AI/智能体既可以通过视觉+语言直接生成动作 (VLA),也可以借助世界模型预测环境状态与未来变化,从而实现感知—规划—执行的一体化智能闭环。
三、2025 年:世界模型的研究进展与应用探索
2025年,世界模型领域迎来多项标志性进展。
8月,DeepMind发布Genie3,展示了通过文本生成可交互3D环境的能力,被视为“交互式世界生成”的关键实验。
9月,OpenAI推出Sora2,强化了“文本→视频/物理场景”的生成能力。尽管它并非完整的世界模型,但已初步具备对动作、场景与物理状态的联合建模能力,可视为迈向世界模型的重要一步。
11月,由李飞飞参与创立的World Labs发布Marble,支持从文本、图像、视频乃至粗略3D布局生成高保真、可编辑的3D世界,被业界称为“空间智能基础设施”的探索。
此外,NVIDIA Isaac Sim作为融合物理AI、高保真仿真与世界模型的关键平台,正日益获得业界的广泛关注。它提供逼真的物理引擎、传感器模拟与合成数据生成能力,为机器人训练、算法验证及现实部署前的测试提供了强大支撑。
这些进展或许能够表明,世界模型的研究与应用正从“视觉/3D 世界构建”起步,有望逐步迈向“仿真—物理环境—实际系统落地”的阶段。
四、物理 AI 与世界模型的应用前景
未来,世界模型将朝着三大方向演进:一是可交互性,支持用户或智能体与虚拟世界动态互动;二是可规划性,具备长期目标导向的推理与行动能力;三是物理一致性,在生成与预测中严格遵循物理规律。
物理AI有望成为机器人、自动驾驶、游戏引擎、数字孪生等领域的新型基础设施。随着多模态训练效率提升、轻量化推理技术成熟,世界模型或许将逐步走出实验室,实现规模化产业落地。
一、基础设施:从“单一赢家”向“多极共存”的转变较为缓慢
在算力基础设施层面,英伟达的领先地位依然稳固,其市值一度突破5万亿美元,成为AI时代最核心的硬件引擎。业界长期期待的从“单一赢家”向“多极共存”的格局转变,进展相对缓慢。
多家科技巨头与新兴厂商正积极布局替代方案包括Google的TPU、AMD的Instinct MI芯片、华为昇腾、以及创业公司推出的专用加速芯片。目前,Google的TPU已在Google Cloud与自家AI基础设施中实现规模化部署;AMD MI300系列也被部分数据中心和云服务商采用。
但目前,绝大多数AI服务仍依赖英伟达主导的GPU ,虽然市场上已经有可用的替代方案,但它们尚未在全球范围内形成完善的基础设施生态。换言之,多元化生态虽已萌芽,但远未成熟。
二、产业链的资金循环:多方“输血”,构建新型协同生态
在产业生态层面,一个值得关注的现象是:AI行业正从依赖少数云厂商支持,转向多方参与的“循环式资金支持”模式。
过去,整个生态主要由微软、谷歌、亚马逊等头部云服务商提供算力与资本支撑。但如今,越来越多的参与者开始反向“输血”,不仅接受资源,也主动为生态注入动力。例如,英伟达通过投资、合作与生态扶持,成为行业的重要资金与算力输出方。
这种相互支持、彼此背书的关系,形成了一个复杂的资金与资源的循环网络。

资料来源:高盛报告《Top of Mind: AI: in a bubble?》
引人注目的是,这一生态目前呈现出“双中心”结构:英伟达代表硬件端,OpenAI代表软件与模型端,这两家企业有些像AI时代的“Intel+Microsoft”,共同构成了驱动整个产业运转的“软硬双核”。围绕这两大核心,众多企业通过投资、合作、采购与共建等方式,持续为生态注入活力。
然而,如此大规模的投入也引发了业界关于“AI泡沫”的讨论。根据高盛发布的报告,截至2025年8月,全球AI应用的年度经常性收入(ARR)约300亿美元。而据红杉资本此前估算,若计入全链条成本(包括芯片、数据中心、人力与研发),行业需达到约6000亿美元的年收入才能实现合理回报。这意味着当前AI行业仍存在高达数千亿美元的亏损缺口。
随着大模型能力的持续跃升,一个无法回避的问题是:如果绝大部分能力来自模型,那么AI应用的“护城河”是什么?这不仅关乎创业方向的选择,也深刻影响着未来AI生态的权力分配。
一、大模型公司的战略定位:从“超级助手”到“入口掌控者”
以OpenAI为代表的大模型公司正通过双重定位构建护城河。一方面,它打造“超级助手”,覆盖日常任务,如日程管理、信息查询、内容生成等,强调通用性与易用性;另一方面,它塑造“T形人才”形象,在基础能力之上提供高阶技能,比如复杂编程、深度研究和知识整合,展现出专业级智能。
然而,OpenAI的野心远不止于此。为了将这种能力真正转化为用户黏性和商业价值,它不仅推出了ChatGPT作为核心交互中枢,还陆续布局开发者工具、知识获取产品(如DeepResearch)、AI搜索,甚至自建算力基础设施。
OpenAI这样做,不仅能直连用户、快速变现,还能反哺模型迭代所需的数据闭环。某种程度上,这类似于移动互联网时代的“安卓模式”:操作系统厂商通过内置核心服务,主导整个生态的走向。因此,大模型公司并非只想做“技术供应商”,而是希望成为下一代人机交互的入口掌控者。
二、AI应用创业者的生存空间:边界之外,纵深之中
面对如此强势的扩张,独立应用公司是否还有立足之地?答案是肯定的,但前提是必须找准位置。
大模型公司很难包揽所有应用。一方面,为每个垂直场景深度定制模型,将带来巨大的工程与维护成本;另一方面,许多行业(如医疗、金融、法律)对数据隐私、合规性和本地化部署有严格要求,通用大模型难以满足。此外,细分领域的快速迭代需求往往也超出通用平台的响应速度。
正因如此,真正的机会恰恰存在于大模型边界之外、具备业务纵深的垂直领域,也就是那些需要深度行业理解、复杂工作流整合或强用户关系沉淀的场景。在这些地方,应用公司不仅能避开正面竞争,还能凭借对场景的深刻洞察构建独特价值。
三、创业策略:抢跑、适配与轻架构
那么,创业者该如何在这一格局中突围?实践表明,成功的路径往往包含三个关键策略。
首先,“抢跑”模型能力至关重要。由于大模型的“代际更新”需要时间,创业者或许可以在某项能力尚未被模型较好地支持时,通过工程手段(如规则引擎+微调+工具链)在有限场景中率先做到“能用”。一旦模型能力成熟,已有用户基础和产品认知的企业有可能迅速放大优势,形成先发壁垒。
其次,搭建好足够灵活的脚手架。应用应尽量采用轻量化、模块化设计,避免过度依赖特定模型版本的内部结构。这样能在模型持续升级的过程中保持兼容性,避免因底层变动而被迫大规模重构。
最后,当大模型的核心能力日趋同质化,护城河将更有机会转向用户数据侧。谁能积累更丰富的交互历史、更精准的偏好画像、更稳定的使用习惯,或许谁就更有可能在竞争中胜出。换句话说,未来的胜负不仅取决于“用了多强的模型”,更取决于“是否真正懂用户”。
四、头部应用生态:中国企业出海亮眼,但商业化仍在早期
当前,AI应用生态已初具规模,涌现出多个代表性品类:大模型效率助手(如ChatGPT)、陪伴型应用(如Character.ai)、AI编程工具(如Cursor、Lovable),以及AI浏览器与搜索(如夸克、Perplexity)。

其中,中国团队的表现尤为亮眼。以夸克为例,根据美国风投机构a16z今年8月的统计,其全球网页端访问量已跻身第九,移动端(仅统计iOS手机客户端)则位列第47,若计入安卓手机客户端数据,排名有望进一步提升。类似地,DeepSeek、字节、阿里等大厂孵化的应用也在海外市场快速渗透。

不过,亮眼的用户数据并不等同于成熟的商业收入。根据高盛发布的报告,截至2025年8月,中国应用在全球市场中的年化收入大约为15亿美元,其中80%以上来自海外市场。
对中国的AI软件公司而言,这也反映出一个略显尴尬的现实:在国内市场变现仍然艰难。“出海”或许能暂时缓解这个困境,但真正的出路还是要打通ToB、ToC或ToP的商业路径,真正把应用落地,让用户愿意为价值买单。(欢迎阅读展望2025,AI行业有哪些创新机会? | 峰瑞报告)
AI应用正在逐渐往智能化进阶,从被动响应的对话工具,迈向具备目标感与自主性的智能体。
一、进化路径:从对话→Copilot→有限Agent→自主Agent
AI应用的发展轨迹,可以被分为四个阶段。
1、对话阶段(Chatbot):AI应用以问答形式存在,用户输入指令,模型做出回应。
2、Copilot阶段:AI成为辅助者,在人类主导下完成特定任务(如代码补全、文档润色),典型代表包括GitHub Copilot、Cursor等。
3、有限智能体阶段:AI开始具备初步自主性,可在预设规则和安全围栏内执行多步任务,但仍需人类监督。
4、自主智能体阶段:未来方向是完全自主运行的智能体,能感知环境,设定目标,规划行动,调用工具并自我优化——更像一个“有生命感”的数字实体。
如今,不少AI应用都在向智能体方向探索。或许当前智能体能力尚不成熟,但其核心特征已逐渐清晰:不再依赖人类一步步指导,而是能主动理解意图、拆解任务、调用外部工具(如Computer Use能力),并形成“规划—执行—反馈”的闭环。
二、开发范式的变革:“上下文工程”成为核心,得上下文者得天下
伴随应用形态的升级,软件开发方式也在发生根本性转变。
过去,软件1.0靠手写代码,2.0靠利用数据训练模型;今天,AI原生应用的核心工作已转向“上下文工程”,即动态编排提示词、记忆、状态与工具调用,构建一个能让大模型高效完成任务的信息环境。

正如研究者安德鲁·麦克洛斯基(Andrew McCloskey)所指出,编写AI应用的本质不再是传统意义上的编程,而是设计一个动态信息系统:在合适的时机,以合适的格式,向模型提供准确的上下文、长期/短期记忆、检索信息及可用工具。
在AI的加持下,开发者虽仍会写代码,但主要变为“与模型多轮对话”,不断调整提示策略和内容。换言之,未来的软件工程师,不仅是逻辑架构师,更是“AI协作导演”,其核心能力在于如何有效引导模型智能,而非仅仅实现功能逻辑。
一句话总结:“上下文工程”就是大模型时代软硬件应用的“隐形核心代码”!
三、落地困境:95%的企业未获回报,“生成式AI鸿沟”真实存在
尽管技术演进迅猛,AI应用的商业化落地却面临严峻挑战。
MIT Nanda项目团队的一项研究显示:尽管全球企业在生成式AI上已投入300亿至400亿美元,但高达95%的组织未能获得可衡量的商业回报,仅有5%的试点项目创造了实际价值。这一现象被称作“生成式AI鸿沟”。
为何出现如此巨大的落差?
一是应用场景错配。当前主流AI工具(如Copilot、客服助手)主要提升个人生产力,容错率高,见效快,因此被一些企业试用。但这类工具难以直接转化为企业级盈利,因为它们并未嵌入核心业务流程,缺乏对整体流程的支撑能力。一旦涉及多系统集成、数据打通或决策闭环,工具的“脆弱性”便显现出来。
二是难以捕捉隐性知识。在企业实际运营中,依赖大量未被文档化的经验、规则与“上下文”,当前模型无法有效学习这些“隐性知识”,导致AI输出与实际需求脱节。
四、AI应用的营收压力
当前,国内AI应用创业面临显著挑战,核心原因之一在于缺乏新的硬件终端。由于没有类似智能手机这样的新入口,AI应用只能在用户现有的手机或电脑生态中竞争。这样的结果是,AI应用可能要跟几乎所有App争夺用户的使用时间。
与此同时,中国市场的AI渗透率较高,竞争异常激烈,进一步加剧了生存压力。
AI应用公司面临的现实情况是,尽管单位Token的推理成本正在快速下降,但由于大部分情况需要做链式推理,Token的调用量大幅攀升,公司整体支出可能不降反升。这种“成本悖论”已对下游应用公司构成真实压力。例如,像Cursor这样的AI编程工具,就曾面临高推理负载带来的运营成本挑战。这也促使行业重新思考:如何在性能与成本之间取得平衡?
传统App所依赖的广告模式也遭遇瓶颈。
过去,互联网产品的发展很大程度上依靠“羊毛出在猪身上”的逻辑:通过免费服务吸引用户,再以广告变现。比如,阿里为商家提供广告展示位获得收入,腾讯虽有游戏和增值服务支撑,广告也占较大比例。
但如今,这一模式对AI应用产品来说挑战重重。一方面,App应用需不断拉新促活,但获取用户的成本越来越高;另一方面,广告单价普遍不高。在中国,除抖音、淘宝/天猫、微信等头部App外,大部分软件的千次广告展示收入(eCPM)仅10~20元,甚至更低。若用户高频使用AI功能,服务成本(也就是消耗的token)可能远超广告收益,这个账可能根本算不过来。
因此当前阶段,AI创业者可能需要优先思考广告模式之外的其他商业收入模式。除此之外,对中国的AI创业者来说,也需要积极探索其他路径,例如转向海外市场、结合硬件打造闭环体验等。
五、软硬结合:AI创业的新路径
当前,中国AI软件创业面临一些挑战,比如用户付费意愿较弱、纯软件模式变现困难;若转向海外市场,则需直面高昂获客成本与激烈竞争。与此同时,尽管国内硬件产业链成熟,但原创性不足,“内卷式竞争”较为普遍。
在这样的背景下,“软硬结合”或许成为一条值得探索的路径。
以峰瑞早期投资的BodyPark公司为例,其最初聚焦软件端,新冠疫情期间推出基于AI的动作捕捉技术,辅助健身教练远程指导多名学员居家训练。在此过程中,团队逐步明确和构建起自己的商业模式、运营方法,积累了相关核心技术,同时也锻炼了队伍。但是如上所述,纯软件的AI应用在中国面临商业化的压力。
后来,BodyPark与一家硬件公司合并,在原有软件基础上加入硬件基因,并推出软硬结合的产品“ATOM”,近期在海外众筹表现十分亮眼。创始人阿立说:“BodyPark这几年积累的核心能力,比如AI动捕算法、课程体系、Agent架构、教练SaaS授课工具、真人教练供给体系等等,正是ATOM能快速顺利落地的底气。”
我们从BodyPark的发展中,得到关于AI应用创业的三点观察:
从软件切入,夯实技术与商业模式基础,避免过早陷入硬件的高成本与低壁垒竞争;
在能力积累到临界点后,再引入硬件载体,实现“软件定义硬件”的协同效应;
通过硬件提升用户体验与产品感知,拓展服务边界,构筑更高竞争壁垒。
值得一提的是,软硬结合并非简单叠加,而是以软件能力为内核,以硬件为放大器,这或许是中国AI创业的一条新路径。
另一个典型的软硬结合的热点赛道是智能硬件。中国拥有成熟且高效的消费电子制造链,以及完善的芯片/传感器产业与供应链基础,这为智能硬件创业提供了天然优势。再加上近年来AI算法的进步、端侧算力的提升与成本的下降,使得有AI赋能的“软硬一体”智能产品成为可能。
峰瑞在AI硬件方向有较多布局,所投公司陆续推出的AI智能硬件产品包括零零科技的飞行相机、AeroBand的智能乐器、清智元视的高速摄影机、萌友智能的AI情感陪伴宠物机器人、声智科技的AI耳机等。(欢迎阅读丰叔和3位智能硬件创始人的对话“AI硬件领域,永远有新机会”)。
一、技术方向:在线的持续学习
当前大模型的一个局限在于当某一个大模型训练完成后,参数就会被“冻结”,无法在部署后自主更新知识。尽管通过长上下文窗口、外部工具调用和提示工程(即“上下文工程”),模型能在单次交互中“临时学习”。但这种机制本质上仍是静态的,所有信息必须在每次对话中重新注入,既低效又受限。
对此,强化学习先驱、图灵奖得主理查德·萨顿(Richard Sutton)曾提出一种观点:“Welcome to the Era of Experience.”(欢迎来到经验的时代)。他主张,真正的智能来自与环境的持续互动。
这种模式有点儿像人类或者某些动物所展现的“终身学习”的模式,大模型或者智能体在线持续地学习、感知反馈、自我调整,甚至动态改写自身策略。但目前,这种自主学习的模式可能缺乏成熟的算法框架支持,我们期待2026年算法层面会有新的变化,模型的智能能够进一步提升。
二、经济影响:AI能否打破“生产率悖论”?
回顾历史,前两次工业革命带来了全要素生产率的长期跃升。相比之下,尽管计算机与互联网在过去几十年无处不在,却似乎未能显著提升宏观生产率数据,这一现象被称为“索洛生产率悖论”。
为什么会这样?其中一种解释是:信息技术主要优化了信息传递效率,而非直接替代人类的核心智力劳动。它连接了世界,但未真正“解放”生产力。
AI的出现可能正在改变这一局面。当大模型承担越多越多的智力工作(比如编程、法律分析),当机器人逐步接管体力任务(比如搬运、危险场所勘探),人类或许会实现对智力与体力的双重解放。这种变革若能渗透至制造、能源、科研等关键领域,或许能够推动全要素生产率的提升。
当然,这一进程可能也伴随一些挑战。当效率提升了,GDP总量增长了,但大量劳动力被替代,就业结构与收入分配将面临剧烈调整。我们需要持续关注,AI是否会加剧失业或不平等。
三、投资逻辑:从“技术叙事”回归“商业基本面”
在过去的2023年、2024年这两年,AI领域的资金主要被三大方向吸纳——大模型、算力/芯片与具身智能,以及相关基础设施项目。这一阶段,投资逻辑更多基于技术叙事,即“技术能否突破”及“谁能在模型、芯片或智能机器人范畴抢得先机”。
然而,随着市场逐步走向理性、资金回笼期的延长,以及AI行业迈进应用落地的阶段,投资者的关注焦点正在发生转变。相比于单纯的“技术叙事”,投资者也开始在乎项目的“商业模式基本面”:项目是否具备真实竞争壁垒?是否有清晰且可持续的经济模型?用户切换成本是否较高?是否具备规模效应或网络效应?能否通过数据积累、用户反馈、闭环机制构建“数据飞轮”?
对创业者而言,这意味着只讲“我们有最先进的模型”“技术领先”已不够,你必须拿出一个能穿越模型迭代周期、在实战中能站稳脚跟的商业结构,包括可复制的产品化路径、可预见的收入模式,以及稳定增长的用户体系,等等。简而言之,从“我们能做什么”转向“我们怎么赚钱并持续增长”。
纵观2025年的AI行业,我们看到的是技术加速、产业重构、商业模式尚未定型的多重叠加。
进入2026年,行业的关键变量将不再是“模型能力能否再推高一个层级”——拼模型规模的时代或许已经结束。接下来,影响AI未来走向的关键议题包括:
AI能否实现在线持续学习,突破“冻结参数”带来的结构性限制;
AI能否真正进入物理世界,成为具身智能、机器人、自动驾驶等领域的新型基础设施;
AI应用能否在善用模型能力的同时和模型保持距离,在特定领域构建自己的壁垒,而非困于短期成本压力与高昂获客困境。
整体而言,AI是一条长坡厚雪的赛道。正如那句穿越周期的箴言所言:“人们总是高估技术的短期影响,而低估其长期潜力。”
当前,中国的AI行业正走出一条独特的路径:以开源模型突破技术封锁,以应用出海打开市场空间。这条路并不容易,既需要耐心,也需要定力。如果我们能以自主研发的大模型为智能源头,AI赋能千行百业(包括AI软件、智能硬件、自动驾驶、具身智能)就不再只是远景,而是正在展开的现实。
