产品经理的工作可能要反过来做了
3 小时前 / 阅读约12分钟
来源:36kr
AI技术颠覆传统产品开发逻辑,大语言模型取代界面、流程、功能设计,产品向“生命体”进化,未来产品经理需设计具备意图理解、感知、推理与行动能力的Agent。

这几个月,参加不少会,也体验不少新的 AI 产品;越看越清楚一件事:产品经理的工作,要被反过来了。为什么被反过来?

01

我们今天手机里的 App、电脑上各种软件,看起来理所当然,但它们不是天生就应该长成这样的。之所以现在这鸟样,完全被时代的技术「逼」出来的。

最早电脑能追溯到1946 年的 ENIAC

它只会等你给指令。你敲一行,它执行一行;所以当年所有软件,本质上是命令行、菜单、按钮,这些东西很无奈。

70 年代,个人电脑刚冒头,比如:Apple I(1976)。照样没有界面,全是命令行,敲字,回车,执行,电脑依旧不懂人。

真正让软件「看起来像软件」的,是 1984 年的 Macintosh。

图标、窗口、菜单,这套我们今天习以为常的交互,就是那时被发明出来的。之所以发明这个,因为电脑不理解你,只能让你“点”给它看。

界面为了教一个不会思考的系统「我现在想干这个」。

后来到了2007 年的 iPhone,又被逼了一次;手机屏幕太小、输入方式太弱,没法给你搞复杂操作,只能把功能拆成一个一个 App。

于是,一个图标等于一个场景,一个界面等于一次任务,所有产品都被训练成「傻瓜式入口」。

所以,整个互联网几十年,产品底层逻辑只有一条:系统不理解你,必须设计界面,让界面教会一个用户怎么用,怎么点,你点了哪里、滑倒哪里,系统才会有意识加在内容。

说得更直白一点:

过去产品长这样,技术做不到让软件理解人,产品经理开发,就必须设计路径、按钮;也正是因为这个底层逻辑,它直接把一个后果推到了所有产品团队面前:产品会越来越臃肿。

我当年做 SaaS 时,这个感受特别明显;最开始大家想得很简单,我们就做一个核心能力,做一件事就够了。

听上去很美,是吧?

可只要产品一上线、客户一进来,现实马上给你一巴掌,每一家流程都不一样,审批链不同,权限不同,甚至连业务逻辑都能南辕北辙。

本以为在做一个「标准化产品」,老板当甩手掌柜,结果十个客户来了,你就要做十套逻辑。

定制化需求越积越多,功能越堆越厚,最后发现,和竞争对手做出来的东西很像,更像一个「能卖什么,就往里塞什么」的商城。

这就是旧范式的宿命。

02

为什么这套旧范式,在 AI 面前突然站不住了?这个问题的本质在于,大语言模型出来后到底吞并了什么。

我们老说「模型很强、模型很牛」,但真正让它成为新物种的,是它把底层一大堆「原本需要我们手工设计的东西」直接吃掉了。

以前我们做产品,最重的几个活是啥?界面、流程、功能。这几样是「产品的外壳」。

界面,为了把我们的意图翻译给不会思考的系统;流程,为了把不确定的事情拆成可执行的步骤;功能,为了把计算机能做的事情包装成能被用户找到的入口。

它们之所以重要,因为电脑的脑子太简单了。你不把路径画清楚,它真不知道你要干嘛;说得直白点,它理解能力大概也就停在五岁以下。

但大语言模型完全不是这回事。

它能听懂说的话,也能理解上下文;甚至知道你想干的是什么事;然后,自己想步骤、找方法,跨工具帮你把事干完。

你看,抽象吧,这是吞并;做页面、 App 本身都能生成,这意味着,界面、流程、功能都不是必须的东西了。

所以,旧范式为什么站不住?是底层技术一换,整个产品世界跟着就得换一遍。

那目前技术状态是什么呢?

简单说,现在这个阶段有点像「新物种刚出生,还没长齐毛发」,但已经能看出来它和以前完全不是一类东西了。

我们现在看到的产品,大概在走两条路线。

一条,从底层重构,这部分最容易被忽略。你想一下,一台电脑刚诞生的时候,是没有软件的。

ENIAC 那会儿,你想让它算点东西,得把一整面墙的电路重新插一遍;没有界面,也没有应用,一切从零开始。

软件后来为什么出现?

本质上是为了让人能跟机器说话,让机器能把东西反馈给人;如果把软件拆到最初的形态,只有两件事:「写给它看」和「听它怎么回」。

世界上最早的软件就这两类,写程序的工具(汇编、文本编辑器),和输出结果的工具(打印、显示)。

所以,你看今天这些基础设施产品,文档、表格、操作系统、浏览器,它们本质上还是承载「说、写、展示」的地基。

这个地基上长内容、长结构、长流程、长关系,其他应用都是在这层上搭建的。

也正因为它们是最底层的东西,当 AI 有了理解能力之后,整套智能能力最先在这类基座上生长起来。

这不难理解吧?

比如,为什么 Notion、飞书表格、Office 这些东西,一加 AI 就立刻爆发?

因为它们就像当年的「文本编辑器」和「操作系统」,是数字世界里最原始的「写」和「展示」的入口。

你不管写小说、写代码、写流程、写公式,最终都要落在这块地上;它是整个数字世界最通用、最像「土壤」的部分,只要土壤够通用、够底层,AI 一来就能在上面快速发芽。

所以,很多人以为 Chatbot 是新的底层,但恰恰相反。

Chatbot 是一个新的「说话界面」,它解决「怎么表达」的问题。

真正能承载结构、内容、关系、流程的,还是文档、表格、网页、操作系统这些基座;只有地基稳固,智能能力才能在上面不断生长。

03

另一条线,从chat bot改造开始。不知道你有没有观察过,为什么现在几乎所有旧产品,都得先从 Chatbot改造开始?

原因特别现实,是摆在眼前的物理限制。

你看那些老的 SaaS,有赞、小鹅通,甚至更传统一点的 ERP。

这些系统十几年被客户需求推着长,一层叠一层、一个功能压一个功能。长到后来,它们自己都搞不清楚哪些是核心、哪些是补丁;逻辑很大,流程很深,你不可能说一句「我们重构一下」就把它推翻重来。

那怎么办?

最稳的方式,在原系统上加一个 Chatbot,让它接一些「轻动作」,比如总结信息、盘数据、查库存、梳理流程。

这不用动旧功能,也不需要推翻历史,它就像给系统装了个加速键,让一些以前要点七八步的事情,一句话能搞定。

换句话说:Chatbot 是一种「不用拆原系统,就能绕过去」的方式。

从用户角度看,也一样。

大家可以接受对话,但你让一个用了十几年按钮的人,突然面对一个全新的「没有界面」的系统,谁都会懵。

人类的大脑被按钮训练了四十年,你一下子把按钮拿走,谁都受不了。

所以,Chatbot 是什么?一种软着陆方式;先让用户习惯「让系统自己动起来」这件事。

从商业角度看,更不用说了;一个成熟产品的结构连着收入、客户、服务体系,你不可能因为 AI 的出现就把整个盘子推倒重来。

风险太高了;而 Chatbot 的好处,是它能立刻释放 AI 的价值,但又不会伤到原来的业务骨架。

所以,Chatbot 更像一个「托台」。

它是旧舞台和新舞台之间的那块平台,让演员有地方站,让灯光能先亮起来,让观众先适应一下新气氛。

等这件事做得差不多了,用户习惯了、逻辑通了、底层结构重新整合好了,你会看到,旧系统的按钮、流程、复杂操作,会一个一个被拆掉。

这就是许多旧软件正在经历的「改造期」。那未来会变成什么样呢?我觉得最终会被新的「意图层」替代。

什么是意图层?它怎么工作的?我觉得最好的比喻,把它想成一个「住在你设备里的生命体」。

以前的软件是死的。

你点它一下,它动一下;你不点,它就停在那儿,一句话都不会说;而生命体不是这样,它一直在,你不找它,它也在那里呼吸。

就拿心理咨询来说。

以前要预约、要排时间,一次聊一个小时。但人的情绪是碎片化的,早上被一句话刺了一下,中午突然焦虑,晚上又放松下来。

那如果心理咨询变成一个生命体,它应该是什么样?

后来我想明白了:你一句话,它回一句话;我下一次来,它还能接着上一句往下走;它永远在线,不用等我难受到极限再出现。

这是生命体的第一层:它是持续的。

第二层,它会「感到你需要它」。我语气不对、作息乱了、开会前明显紧张,它会先来找你问一句:你是不是不太对劲?要我帮你处理一下吗?

你看,这就有了存在感。

再往下,它能听懂我真正的意图。比如我说,这个客户不好搞,它可能会说,我们是不是要换一种沟通的思路拿下他?

这,就是意图层。一个理解你、陪着你、能自己动、不会消失的系统。

你可能会觉得这像科幻,但现实里这种「生命体雏形」已经长出来了。比如现在很多 Agent 框架,都在给系统装「记忆」。

亚马逊的 AgentCore Memory 就在做这件事,它让代理能「理解你反复出现的需求」,甚至能自动帮你规划下一步。

开源社区里也有人在做 Memora,它的目标是让 AI 助手拥有「人类式记忆」,能把你前几天说过的一句话、一个想法、一条任务记住,然后在你下一次需要时主动喊你。

甚至现在一些企业级代理,比如:以色列的 Alta,已经能「长期陪伴一个项目」,是几周、几个月;它们会跟着你的团队一起推进任务、记录状态、预测风险,非常像一个「团队里的新人」,但永远不下线。

这些技术都很早期,但方向非常清楚:软件第一次开始从「工具」往「生命体」这个方向生长。

04

所以,如果按照生命体这种角度看,未来产品应该怎么样?这个问题听起来很大,但越往里想,越发现答案藏在场景里。

我们以前做产品,从功能反推出来的,「做个工具、放几个按钮、加几个入口」;但生命体是「长在场景里」的。

所以,做产品可能要反问几个问题:

人在这个时间点、这个动作里、这个状态下,他需要什么样动作?

比如你在开车,那这个生命体就应该是「副驾」。你一句:某某同学,我从朝阳大学城到西单怎么走?

它立刻给你三条路线,一条最快、一条不堵、一条风景好;它的存在是「我身边的那个懂路的人」;换句话说,要先决定它在这个场景里扮演什么角色;角色对了,产品方向自然就准了。

角色定下来之后,第二件问题来了:我到底怎么跟它交互?是说?是写?是靠它自己感知?

这个问题不能用旧软件的逻辑来想了。因为以前的交互只有一种:按钮。而生命体是关系。

有些场景适合说,比如开车、散步、做家务;有些时候适合写,比如规划、记录、总结思考;有些时候它应该靠“感觉”来判断,你语气变了、节奏乱了、停顿变长了,它都能听出来。

甚至有些时候,你一句都不用讲,它也能觉察。比如:日程快到了、项目落后了、你状态不对了,它来敲一下...

而当「场景」和「交互方式」都顺下来了,我的下个疑问就来了,它得具备什么能力?

以前的 PM 会想,这里要不要一个功能?那里要不要一个开关?但如果你在设计一个生命体,你想的会是另一套:

它得听懂你说话背后的意思,那要意图理解;它得感觉你的情绪,那要选择感知模型;它得能把事往前推,那得上推理与行动;它得记住你以前说过的事,那要长期记忆;它得知道什么时候该说话、什么时候不该吭声,那是行为边界....

所以,产品经理在给它「装大脑、装神经系统、装反射弧」;至于敲代码部分,交给AI就好了。

说到底,未来产品经理,做的是设计一个“会动、会想、会陪你、会自己干活”的 Agent;你负责它的性格、它的本能、边界、行为方式。

这才是 Agent 时代真正的产品。

不过,这件事不会太快,毕竟做手机上应用的平台还没迭代。还有,我觉得网页端,大概率会先来。

比如说:像剪映、可灵、即梦、百度蒸汽机这样的平台,会出现很多,唯一不同的是,大家背后用的模型,流程编排不一样而已。所以,未来,App或WEB的入口是什么?