
在12月4日凌晨举行的2025年《纽约时报》DealBook峰会上,Anthropic联合创始人兼CEO达里奥·阿莫代伊接受了DealBook创始人兼主编安德鲁·罗斯·索尔金(Andrew Ross Sorkin)的专访。
在访谈中,阿莫代伊展现出既乐观又清醒的“双面视角”:
一方面,他自称为“AI行业头号乐观派”,坚信规模定律(Scaling Laws) 将继续推动技术飞跃,并首次披露了一个惊人的数字:Anthropic已连续三年实现每年10倍的营收增长。
另一方面,阿莫代伊也毫不避讳地指出AI行业正深陷 “真正的困境中”:天量资本涌入数据中心建设行业,但回报周期却充满不确定性。他暗讽,像OpenAI这种采取 “YOLO”(孤注一掷式) 激进策略的AI公司,可能面临严重后果,破产也并非不可能。
在谈到行业竞争时,他清晰划定了Anthropic的差异化优势——深耕企业市场,因此远离了OpenAI与谷歌在消费者领域 “红色警戒”式的贴身肉搏。
关于最受关注的 AGI(通用人工智能) 问题上,他给出了一个极具传播力的观点:无需范式革命,仅靠 “暴力堆料”+小步迭代,就能持续逼近AGI。
访谈最后,阿莫代伊特别澄清了对 “AI取代就业” 的预警初衷——不是制造恐慌,而是呼吁社会未雨绸缪。他还从企业、政府以及社会三个层面,提出了系统性的应对框架,号召各界共同思考并建设“后AGI时代”的人类未来。

以下为阿莫代伊最新专访精华内容:
问:你曾在2014年有过在百度的经历,如果当时我告诉你,我们会在2025年像这样坐下来深入探讨AI,你当时会如何预测这十年间的发展?
阿莫代伊:我想从“意外”与“不意外”两个维度来回答。
对于AI技术将带来的经济影响及其创造的价值,我并不感到意外。今天走在纽约街头,看到满城的AI广告,某种程度上,这正是2014年可以预见的情景:AI终将成为现实,并逐步渗透至经济、国家安全乃至科学研究的核心。
令我意外的是自己会成为这个领域的领军者之一。当时的我未曾预料会创办并领导一家AI公司,也不认为自己会扮演这样的角色。至于技术发展的具体路径,无论是围绕语言模型诞生的专业术语,还是如今AI行业的资本化与商业化进程,虽然从我和同事早期预测的扩展趋势来看合乎逻辑,但若要纯粹从理论推演,我承认自己当时无法预见所有细节。
问:我们是否正处在某种“AI泡沫”中?当前的投资是否过热?这笔经济账到底能否算得过来?
阿莫代伊:这个问题需要拆开来看:技术账和经济账。
技术上,我非常乐观,甚至是最乐观的那一批人。技术账完全算得过来,基于我们最早提出的AI扩展定律:给模型更多算力、更多数据,再做一些微调,它的能力就会持续提升。我跟踪这个趋势12年了,一个明显的规律是:用这种看似简单的方式训练,模型能在几乎所有任务上越做越好——编程、科研、生物医药、法律、金融、材料制造……这些恰恰是经济价值的核心来源。
以Anthropic为例,我们专注企业市场,营收连续三年实现10倍增长——从2023年的1亿美元,到2024年的10亿美元,今年预计将达到80至100亿美元。技术驱动增长,这一点毫无疑问。增速未来当然会放缓,但趋势依然明确:AI的经济价值必将兑现。
但经济层面,我确实有担忧。AI行业正面临一个真实的困境。困境源于两个错配:一是经济价值增长的不确定性,二是数据中心建设的长周期(通常需一两年)。因此,不确定性是真实的,困境也是真实的,而我们在Anthropic正尽力以负责任的方式管理它。
但我也必须指出:有些AI公司(暗指OpenAI)正在“YOLO”——把油门踩得太满,甚至可能破产,这令我非常担忧。
问:谁在“YOLO”?
阿莫代伊:我不会具体点名,但让我回到Anthropic自身,以此说明我们面临的挑战。你看到我们的营收曲线——过去三年每年增长十倍。如果简单外推,明年似乎该达到千亿规模?但我完全不相信会这样,这只是可能性的极端外缘。
实际上,如果我们基于企业需求、用例、市场策略进行自下而上的估算,明年营收可能在200亿到300亿美元之间。我内部称之为 “不确定性锥体”:一年后究竟会是200亿、500亿,还是其他数字?这充满了不确定。
我们尝试保守规划,为较低的可能性做准备。但现实是,我们必须提前一两年决策。例如,现在(或几个月前)就要决定2024年初采购多少算力,以服务2027年的模型与营收目标。这带来两种危险:
算力不足:无法满足客户需求,客户流向竞争对手。
算力过剩:营收不及预期,无力覆盖成本,极端情况下可能导致破产。
“锥体”内的安全边际,很大程度上取决于利润率。若利润率达80%,200亿美元的算力可支撑千亿美元营收。但“锥体”太宽,错误很难完全避免。
我们自认是一家相对克制的公司。专注企业市场,商业模式更稳健,利润率也更健康。但假设另一家公司采用消费端模式,营收波动大、利润不稳定,再加上决策者本身偏爱冒险、追逐规模,那么“YOLO”的可能性就会显著上升。
问:Anthropic预计在2028年实现收支平衡,而奥特曼对OpenAI的目标是2030年。如果用他的数据来算,意味着需要在两年内扭转740亿美元的亏损,并在之后迅速盈利。这样的路径在你看来是否合理?
阿莫代伊:我不了解其他公司的内部财务细节,因此无法评论。我只能回到Anthropic自身的框架中来解释:我们依据 “不确定性锥体” 进行规划,目标是确保即使在最差10%的情景下,我们仍有能力支付算力成本。风险不可能为零,但我们正通过高效的训练与推理体系、健康的利润率来管理风险,同时保持竞争力。我相信我们的胜算更大。
问:你如何看待如今常被讨论的 “循环交易” ?例如英伟达投资AI公司,而这些公司很可能将部分资金用于购买英伟达芯片。
阿莫代伊:我们也有类似交易,只是规模较小。我可以简述这类交易的基本逻辑:假设一家公司需要建设一千兆瓦算力的数据中心,资本开支约500亿美元,按五年折旧每年约100亿美元。如果该公司年营收约100亿美元且处于增长中,却无法一次性拿出500亿美元,便可能和芯片或云供应商达成协议:由对方出资100亿美元支持首期建设,剩余部分按使用付费。这本质上是基于增长预期的融资安排,在商业上是合理的。
但如果这类交易层层叠加,最终指向诸如 “2028年营收需达2000亿美元” 这样的预期,那就可能意味着过度扩张。
问:谷歌和OpenAI曾先后进入“红色警报”状态,要求全员聚焦突破。你如何看待当前模型领域的竞争格局?
阿莫代伊:这正是我庆幸Anthropic选择了不同道路的原因。我们专注的是企业市场,而你提到的两家公司主要战场在消费者领域。谷歌要守住搜索护城河,OpenAI的核心也在消费者场景,这是它们陷入“红色警戒”式竞争的原因。
正因如此,我们得以持续围绕企业需求优化模型。发展最快的是编码能力,而我们正将能力拓展至金融、生物医学、零售、能源、制造等垂直领域。即便我们最新发布的Opus 4.5被广泛认为是当前最强的代码模型,但对我们来说,保持技术领先只是基础,真正的差异化在于我们走的是另一个维度。我们不需要陷入那种“你追我赶”的消耗战,而是可以专注于持续迭代与增长。
问:如果未来真的实现AGI,所有模型最终可能具备相似能力。到那时,企业的护城河会是什么?
阿莫代伊:从企业视角来看,护城河是多层次的。
首先,专业化不会消失。即便走向AGI,模型也不会趋同。就像人类同时拥有通用能力与专业能力一样,AI也会在不同领域形成差异化特质。为企业打造的模型,会更侧重编码、科研、复杂分析等“高智力任务”,而不是消费者场景关注的互动性与留存率。
其次,切换成本真实存在。企业一旦将某个模型集成至工作流,就会形成依赖,包括对应的提示方式、系统对接、下游应用适配,甚至团队的使用习惯。就像我们的API业务,看似只是提供模型调用,但客户迁移成本很高,不仅涉及技术调整,还关系到内部流程与合作伙伴的协同。
因此,真正的护城河不止于技术性能,更在于能否深入行业、理解场景,并构建难以替代的生态契合度。这恰恰是专注企业市场的路径所带来的长期优势。
问:从科学角度看,你认为仅依靠当前Transformer架构和持续提升计算规模,就足以实现AGI吗?还是说必须引入某些新的关键要素?换句话说,要让机器实现真正的“独立思考”,我们是否还需要别的突破?
阿莫代伊:我认为不需要。现有的技术路径,也就是持续扩展计算规模和数据,配合一些微小的改进就足以带领我们走向AGI。我观察扩展定律已超过十年,趋势始终清晰。
问:那你有没有一个大致的时间线?
阿莫代伊:我不设定具体时间点,也一直不太用“AGI”或“超级智能”这类术语,因为它们的定义仍然模糊。我更愿意将其看作一种持续的指数进步,就像摩尔定律驱动芯片性能不断提升一样。
模型会在所有维度上越来越强。我们每发布一个新模型,它在编程、科学等领域的表现就会再进一步。如今模型已经能稳定赢下高中数学奥赛,开始进军大学级别,甚至做出了全新的数学发现。
Anthropic内部已经有研究员告诉我:“我不再亲手写代码了,全部交给Claude生成初稿,我只做编辑。”这种变化是真实的,且会持续加速。
我不认为会有一个突变的“奇点”,未来只会是过去的延续,只是程度不断加深:模型持续变聪明,商业价值持续增长。
