VSCode已死?从终端逆袭的Warp凭什么挑战微软和OpenAI
6 小时前 / 阅读约9分钟
来源:36kr
Warp将终端改造成AI时代的全能工作台,融合IDE与终端功能,支持AI接管开发流程。通过精细的上下文管理和混合模型路由策略,实现高效开发。未来,终端将成为AI协作的核心。

在开发者的世界里,黑底白字的终端窗口曾是最原始的工具——直到AI闯了进来。当所有人都在改造VSCode、打磨IDE时,一家名叫Warp的创业公司却反其道而行,把终端这个"老古董"改造成了AI时代的全能工作台。他们的创始人Zach Lloyd最近在红杉资本的访谈中,讲述了一个关于技术选择、商业博弈和未来愿景的故事——这可能是2026年最值得开发者关注的产品哲学。

原视频链接:https://www.youtube.com/watch?v=8PZ4ZjiB0os

为什么是终端?一场意外的好运气

当Zach Lloyd回顾Warp的发展历程时,他用了一个词:“巨大的运气”(a great stroke of luck)。这听起来有点谦虚,但他说的是实话。

在AI编程工具爆发的这两年里,几乎所有创业公司都在做同一件事:fork一份VSCode,往里塞个AI模型,然后换个名字发布。市面上充斥着几十款长得一模一样的"AI IDE",它们的差异仅仅是UI配色和订阅价格。但Warp走了一条完全不同的路——他们选择了终端。

"终端这个东西,天生就适合AI代理(agent)工作,"Zach解释道,“所有的交互都是基于时间序列的,输入文本、输出文本,自动记录日志,可以轻松让多个agent并行运行。” 当GitHub Copilot还在帮你补全代码片段时,Warp已经在思考一个更本质的问题:如果AI能独立完成编程任务,开发者需要的不是更强的代码编辑器,而是能让AI自由施展的工作台。

而终端,恰好就是这样的工作台。它不仅能编辑代码,还能编译、部署、调试、运维、处理生产事故——这些才是真实开发工作流的全部。Warp不是在做"带AI的编辑器",而是在做"让AI接管整个开发流程的指挥中心"。

当IDE和终端开始融合:开发者真正需要什么

在访谈中,Zach提出了一个犀利的观察:传统IDE和终端的边界正在消失。以前,你在VSCode里写代码,然后切到终端里运行;现在,这两个东西正在变成同一个界面——一个以"提示词"(prompt)和"代理编排"(agent orchestration)为核心的新型工作台。

但Warp的野心不止于此。他们发现,真正的开发工作不只是"写代码"。当AWS服务器在凌晨三点崩溃时,你需要SSH登录、查日志、重启服务、通知团队;当客户报bug时,你要查数据库、回滚版本、写事故报告。这些场景里,你用的全是终端。

"我们是一个通用的AI开发工作台(agentic development workbench),"Zach强调,“市面上那些从IDE分叉出来的工具,本质上都很相似。还有一些只是跑在终端里的应用。但Warp是唯一一个从终端深度进化而来的平台。” 这种差异化不是营销话术,而是产品基因的不同。当你把IDE功能移植到终端里,你得到的是一个既能写代码、又能管服务器、还能协调多个AI agent的瑞士军刀。

提示词背后的硬功夫:上下文窗口里的魔鬼细节

如果你以为"AI编程工具"只是把GPT接口包装一下那么简单,Zach的讲述会让你重新认识这个行业的技术门槛。

他详细拆解了Warp在prompt engineering上的工程实践:“首先是提示语言本身的设计,还有工具集的定义——你要让agent知道自己能调用哪些CLI命令、编辑器功能、外部服务。” 这听起来还算常规,但接下来的挑战才是魔鬼:上下文窗口管理

当你在终端里运行一个命令,输出可能有几千行。如果全部塞进AI的上下文窗口,token会爆炸;如果不放进去,AI可能漏掉关键信息。Warp的解决方案是动态策略:有时候拆分成子agent(每个维护独立上下文),有时候做摘要(summarize),有时候直接截断(truncate),还要结合RAG(检索增强生成)从历史记录里拉取相关片段。

“关键是要测量,”Zach说,“我们在公开benchmark上持续评测——TerminalBench、SweetBench这些,然后不断优化我们的harness(测试框架)。” 他还透露了一个有趣的细节:Warp会混合使用多家AI模型——Anthropic的Claude、OpenAI的GPT、Google的Gemini——根据延迟、成本、质量三者的平衡动态切换。这种“模型路由”(model routing)策略,让Warp既能在需要高质量时调用最强模型,又能在简单任务上省钱提速。

从玩游戏到写代码:AI能在终端里做什么

理论讲完了,来点实战案例。

Zach提到,在TerminalBench的测试任务里,有一个是让AI玩"Zork"——一个完全基于文本交互的冒险游戏。这听起来像是开玩笑,但其实是个严肃的测试:Zork需要AI理解游戏状态、记住之前的操作、根据反馈调整策略,这正是多轮命令执行和状态追踪的典型场景。

更实用的例子来自Warp内部:Zach自己用AI在Warp里新增了一个"slash command"功能,AI自动生成了300行代码的PR,能直接编译通过并满足需求。"现在我本地编译成功率基本是100%,这太神奇了,"他说。这不是demo演示,而是日常工作流。

但Zach最兴奋的是未来场景:把AI agent接入Slack或Linear,当生产环境出问题时,agent自动响应、修复、提交PR,然后把结果推送给你审阅。“你不需要手动输入提示词,agent会在后台驻留(ambient),自动响应系统事件——比如服务器崩溃、安全告警、性能下降。这才是下一个前沿。

定价博弈:如何在OpenAI和Anthropic的夹缝中生存

创业公司最怕的是什么?被大厂降维打击。当你的核心能力是"调用GPT-4 API",而OpenAI自己也在做类似产品时,你怎么活下去?

Warp的答案是:快速迭代商业模式,找到可持续的盈利路径。

"我们最初的定价是订阅制,每月给你固定额度的AI credits,“Zach坦言,“但后来我们改成了更偏消费量计费的模式。” 这个转变背后是残酷的市场教育:用户不愿意为"可能用不完"的额度付费,他们要的是"用多少付多少"的透明感。更重要的是,Warp要证明自己的增长是"可持续的真实收入增长,而不是靠补贴堆出来的虚假繁荣”。

Zach没有回避竞争的尖锐性:“OpenAI、Anthropic、Google都在做类似的工具,我们必须展现出差异化。” 而这个差异化,就藏在前面提到的那些技术细节里——从终端进化而来的产品基因、精细打磨的上下文管理、混合模型路由策略、覆盖全开发流程的工作台定位。这些不是API调用能抄走的。

编程问题已经"解决"了?真正的瓶颈在哪里

访谈最后,Zach抛出了一个颇具争议的观点:“编程问题会在未来几年内被AI模型‘解决’。

什么叫"解决"?他的意思不是AI会替代所有程序员,而是指"如何把需求转化为可运行的代码"这个技术难题,会被AI攻克。届时,真正的瓶颈将变成:人类如何精准表达自己想要什么。

这就是为什么Warp如此重视"对话界面"和"agent orchestration"。未来的开发不是你坐在键盘前敲代码,而是你用自然语言描述需求、审阅AI生成的方案、调整细节、批准部署。开发者的角色会从"代码编写者"变成"意图表达者"和"质量把关人"。

"终端会成为这一切的中心,"Zach笃定地说,“因为它记录了所有操作的时间线、输入输出、执行结果。这些信息对AI agent来说就是天然的记忆和上下文。” 而在更远的未来,agent不会等你输入命令,而是主动在云端运行,监控你的系统、响应事件、自动修复问题,偶尔把需要人工决策的部分推送给你——就像一个7×24小时在线的高级工程师。

尾声:终端的文艺复兴

在这场访谈里,Zach Lloyd用大量技术细节和战略思考,讲述了Warp如何把一个"老古董"终端改造成AI时代的核心工具。这不是一个关于产品功能的故事,而是一个关于技术选择和商业判断的故事。

当所有人都在追逐热点、模仿VSCode时,Warp选择了一条更难、更深、更有壁垒的路。他们赌的不是短期流量,而是长期趋势:当AI真正接管开发流程时,开发者需要的不是更花哨的编辑器,而是能让AI和人类无缝协作的指挥中心。

而这个指挥中心,恰好就是那个黑底白字的终端窗口。