别再盯着大模型参数谁更大了,真正的竞赛刚刚开始。
一个月内,阿里一口气发了6款AI眼镜,今天字节直接把豆包塞进手机系统,还备货了50万台新机样品。这不是玩票,这是硬刚入口。
模型再强,用户感知不强就白搭。当所有人都开始喊Agent、讲“意图直达”,你会发现——AI真正要争的,不是“谁回答得更聪明”,而是“谁更像你的操作系统”。
一个是跳出手机的眼镜,一个是重写手机的助手,本质上都是在争“下一代人机交互”的船票。这背后,不只是交互方式的变化,更是平台控制权的迁移。
云上斗完了,现在,是时候在设备上分胜负了。
在AI浪潮的上半场,大模型是绝对主角。谁拥有更大的参数、更广的训练数据、更快的推理速度,谁就能在行业博弈中抢占制高点。但到了2024年下半年,这场模型竞赛开始显露疲态。
不仅OpenAI、Anthropic等头部玩家纷纷推迟下一代模型发布周期,国内头部大模型的能力差距也在快速收敛。夸克、豆包、文心一言、通义千问在理解能力上的拉锯战,开始让用户感知变得模糊。技术天花板尚未抵达,用户热情却已滞涨。模型本身,已难再成为决定性变量。
于是焦点转移了——从模型本身的“强”,转向模型如何“用起来”,转向人。
但人并不直接使用模型,而是通过终端使用服务。这意味着,谁能掌控更贴近用户的触点,谁就拥有将模型能力转化为服务价值的主导权。放在AI语境下,这些触点正是AI手机、AI眼镜这类嵌入式硬件。
阿里智能终端产品负责人晋显公开直接点出其中逻辑:“所有大模型训练的数据都要依赖于端发生的业务数据去训练,很多模型都是被手机、平板、电脑这些使用场景采集了数据,去服务于这些场景”。也就是说,端侧不仅是模型的分发终端,更是它的“反馈闭环”。每一次用户调用、每一个交互路径、每一条操作记录,都是对模型能力的反向加持。
知名科技产业时评人彭德宇对我们表示:更进一步,当AI进入“Agent阶段”,这一趋势更加显著。传统的“你问我答”Chatbot逻辑已经不够,新的用户期待是“说一句话,它帮我把事做了”,这意味着AI不仅要理解语言,还要介入实际的任务链执行。
以新发布德豆包手机助手为例,用户说“帮我在美团给上周的订单写个好评”,它要能跨越多个App、识别页面元素、模拟点击路径,完成一个完整的任务链。没有足够深的操作系统权限,没有多模态大模型的屏幕理解能力,这几乎无法实现。
而这样的能力,恰恰需要端侧作为落地场景。
端侧的价值不仅在于“交互效率”,更在于“生态主导权”。对大厂而言,用户用的是谁的设备、在哪个系统上执行任务、谁拥有权限调用入口,决定了未来平台格局的基本盘。
OpenAI今年五月以近65亿美元收购由苹果前首席设计官艾维创立的硬件公司IO,被认为是All in Agent硬件的战略信号;谷歌Gemini团队与三星合作推进端侧部署;国内的小米、理想、阿里、字节也都通过不同方式介入终端形态改造。
这不是“造硬件”本身的热情,而是“不能失去入口”的焦虑。
如果说GPT把人拉进了AI时代的门槛,那么从2025年开始,AI真正走入用户生活的那扇门,可能不在云上,而在你眼前那副眼镜、或你手上那台手机里。
虽然都在AI硬件赛道出手,阿里和字节的路线却几乎南辕北辙。
阿里选择从头开始造一个新物种——AI眼镜。11月27日发布的6款夸克AI眼镜,在我看来几乎都是“功能优先”的工程机风格,不讲究时尚,不妥协形态,直接奔着实用性而去。它的使命并不是打动普通消费者,而是跑通“感知式人机交互”这套逻辑。
阿里眼中的AI眼镜,是下一代“个人移动入口”。它不是手机的配件,而是对手机场景的逐步替代者。阿里智能终端业务负责人宋刚在发布会上明确表示:“它是未来最有机会挑战手机的设备。”这不是营销话术,而是一次彻底的交互重估。
在手机时代,用户要通过“下载App—打开—搜索—操作”完成任务。而AI眼镜希望用户只需要一句话,“帮我拍照上传微博”,AI就能调用摄像头、识别场景、发布内容。底层逻辑已不再是App,而是Agent:一个能理解意图并主动执行的交互中枢。
这背后是阿里云端模型与终端协同的典型思路。大模型未来要迭代,必须靠端侧采集的业务数据“喂养”;只有做自己的硬件,才有足够权限打通数据采集、系统调用和用户交互的全流程。
相比之下,字节选择了几乎完全相反的路径:它不造手机,但却要“重做手机系统”。
12月1日发布的豆包与中兴合作的工程样机nubia M153手机并不算新硬件,其核心卖点是“豆包手机助手”——一个内嵌操作系统、具备完整任务链执行能力的AI Agent。它能理解屏幕界面、模拟点击、跨App跳转,实现“意图直达服务”。
不同于传统语音助手的浅层指令执行,豆包助手深入到操作系统底层,通过多模态大模型理解图形界面,实现“虚拟屏幕内完成复杂任务”的能力。比如“下个月去巴黎,帮我把收藏的餐厅标在地图上”,豆包能拆解出6步操作,包括社交媒体提取、高德地图标记、携程订票、备忘录整理等,像人一样执行。
这其实是在“重构手机操作系统的主控逻辑”,让AI成为系统的“第一入口”,而不是App里的一个功能。
字节选了更灵活的策略:和手机厂商合作,用软件能力深嵌设备生态。据极客公园援引前中兴产品经理消息,nubia M153的首销备货量高达50万台,对一个AI助手的系统级预装项目来说,这已经是一个很激进的数字。
这不是字节第一次布局硬件。早在2018年,它就收购锤子团队切入手机生态;2021年并购PICO进军VR;2024年初收购Oladance切入AI耳机……如今,这些硬件资源已全部整合进“字节Ocean部门”,由36氪创始人刘成城负责,对上Flow负责人朱骏。从组织上看,这已是字节少有的战略级部门配置。
阿里是在造一个新的入口设备,字节则是在改造现有入口系统;前者是用“设备+场景”颠覆App逻辑,后者是用“系统+模型”改写交互协议。但目标是一致的——谁能在终端掌握主动权,谁就可能在AI平台时代拥有下一个生态级入口。
无论路径如何不同,这一次两家互联网巨头都给出了同一个答案:AI时代的主场,正在向设备端迁移。
AI硬件听起来像是下一个“风口”,但现实的落地比预期要更复杂得多。
先看豆包AI手机。虽然首销备货量达50万台,在中兴这一体量的厂商体系里已是重量级投入,但距离主流旗舰机动辄200万~300万台的出货量仍有明显差距。更何况,它的售价高达3499元,本质上面向的并不是大众市场,而是开发者和极客用户。这款产品更像是一种“技术验证型入口”:用来测试AI助手的落地体验,打磨系统调用逻辑,积累系统权限合作的模板,而不是一款真正意义上的消费电子产品。
但哪怕只是“预览版”,豆包助手所暴露的技术不确定性也并不轻。无论是“任务链执行”是否稳定、“屏幕识别”是否准确,还是在多App之间执行任务时的异常处理、误触判断、安全容错,系统层级的AI控制本质上是对操作系统架构的一次重构。而任何一个Bug,都可能造成用户体验的灾难。
官方文档也明确提示,当前“操作手机”功能尚处在技术预览阶段,离大规模稳定落地仍有距离。这种在“幻想”和“现实”之间拉扯的状态,也反映出AI Agent在现阶段仍处于打磨期。
阿里的AI眼镜同样如此。虽然一次性推出6款产品展现了极高的战略押注意图,但目前这类设备在国内几乎没有明确的市场基础。从产品形态来看,夸克AI眼镜走的是“感知驱动 + Agent操控”的极简路线,追求的是“开机即用、对话即交互”,这在逻辑上具备颠覆手机的潜力,但技术条件尚不成熟。
尤其是当前AI眼镜在传感器、续航、算力集成方面仍面临显著瓶颈。真正做到“识别环境 + 意图理解 + 动作执行”,至少需要设备具备稳定的多模态推理能力和完整的场景建模能力。这在2025年仍是一个高门槛命题。
更现实的问题是,用户是否真的准备好将“交互权”交给AI?
豆包助手已经具备在后台“自动操作”的能力,可以绕过用户主动点击,实现任务链闭环。但这也引发了另一个问题:数据权限、个人隐私、支付安全该如何保障?在官方演示中,尽管支付环节仍保留人工确认机制,但AI Agent绕开App、直接模拟交互操作的能力,仍然存在被滥用的风险。尤其是在安全边界尚未建立、系统权限标准不统一的阶段,这类“能力超纲”的AI产品可能会成为监管灰区。
尽管如此,这一波AI硬件热并不等于泡沫。
恰恰相反,它是大模型平台进化的必然阶段。当Chatbot不再新鲜、App用户增速放缓、模型能力难以被感知,只有通过重构交互形态,AI才能重新塑造自己的“用户价值感知界面”。
硬件,不是终点,而是一次“打通入口-调用系统-采集数据-反馈模型”的平台级重构。
眼下,谷歌的AI眼镜项目已进入POC阶段;小米、理想分别在AI眼镜和车载AI助手上频频试水;OpenAI收购IO打造Agent硬件设备;字节通过豆包助手测试全链路系统整合;阿里则押注眼镜形态挑战手机主导权——全球范围内,科技公司正围绕“平台级AI入口”展开新一轮布局。
这不只是一场硬件更新战,而是一个新平台周期的启动信号。
