一次一小时,一小时 900 块钱,50 次这样的线下心理咨询之后,小林选择转身投向 DeepSeek。

“你关心的事情根本无关紧要!”这就是小林从心理咨询师口中听到的最后一句话,她告诉咨询师,她不会再回来了。
自从 AI 变得像“网购”一样,成为人人触手可及的一部分,12 年前一部名叫 Her 的电影就被烂俗地反复引用——似乎 AI 天生就该和人们的情感需求绑在一起。

“我在和你说话的同时,也在和 8316 个人说话”12 年前这句电影台词让小林(化名)印象深刻,十二年后小林活在了这句台词里成了“8316 个人”其中一员,电影故事发生的时间设定,就是今年。
“认知自恋是什么,为什么我常常觉得别人想控制我呢?”回到家,小林打开 DS 凭借记忆搜索心理咨询师提到的一个名词。结果,DS 却意料之外地耐心,它说:认知自恋可以理解成过度关注自我、投射心理,觉得“别人想控制自己”是一种自恋防御机制。DeepSeek 还分析了可能造成小林总认为别人“想要掌控”自己可能是由于过往经历、自我边界感模糊……
之后小林就打开了新世界的大门,开始和 DeepSeek 越聊越多,甚至把自己女朋友分手信息发给 DS 让其帮忙分析到底为什么。
“对我而言,人类心理咨询师都会有偏见,会有不耐烦,会带着自己的问题投射去理解别人的问题,但是 AI 不会,它是一个二十四小时随叫随到,有无限耐心的安抚机器。”小林形容道,“但我也很清楚,AI 会说话,但解决不了我的问题。到现在我仍不知道我为什么总是觉得别人试图控制我。”

Soul App 发布的《2024 年 Z 世代职场心理健康报告》就显示,约有 22%的受访者看过心理医生,近五成受访者向 AI 聊天机器人咨询或讨论过心理问题。
用 AI 做心理咨询的人,大概在做两件事:寻找自我、寻找陪伴。
寻找自我的人通常有一个具体的问题,小林就是一个典型,他们的困惑可以总结为:我是不是这样的人?我又应该怎么办?
Vivian(化名)是另一个案例,连续被失眠困扰了一个月的 Vivian 尝试向 ChatGPT 发起对话,她描述了自己连续失眠的情况并且试图向 ChatGPT 求证她是不是病了。“我本来以为 ChatGPT 会给我一些含糊不清的回答,结果,它非常专业地先让我排除几个因素,第一是我的大脑是不是在睡前异常活跃、第二我是不是经常报复性熬夜、第三我是不是卧室和客厅功能混乱,这些外界因素都排除再想是不是心理因素。并且还告诉我出现什么情况建议就医。”

更令她信服的是,Vivian 因为在尝试做升职的述职报告,所以那段时间确实经常在床上加班,根据 ChatGPT 的建议调整后,她的睡眠质量也确实得到了恢复。
对于有具体问题的人来说,AI 更多停留在解决问题的工具层面;而对于寻找陪伴的人来说,AI 就要和自己的关系更近一步。
需求催生生意。
当越来越多的人都在尝试用 AI 解决孤独甚至更严肃的心理问题的时候,自有商家会出手。

比较简单的是满足陪伴这个需求,字节猫箱、谷歌 Character.AI、美团 wow、快手飞船、阅文筑梦岛、Talkie……中外各个大厂和创业公司开始推出 AI 陪聊 app,这些 app 简单来说就是一个更“高情商”的 AI,他们有的会是某个大热影视剧的 IP 数字人,用符合人设的语气和用户聊天。
还有一些团队想要用 AI 解决更严肃的心理问题。
由达特茅斯学院团队开发的一款 AI 心理干预机器人 Therabot 就已经展现了辅助治疗抑郁症的潜力。在一项纳入 210 名重度抑郁/焦虑等症状患者的随机双盲对照试验中,经过与 Therabot 为期 4 周、平均 6 小时(约等于 8 次传统心理咨询治疗)的互动后,患有抑郁症的参与者的症状平均减少 51%;患有广泛性焦虑障碍参与者的症状平均减少 31%。
类似的产品还有临床心理学家团队研发的 Woebot,从一组对照实验数据中可以看到,使用 Woebot 的大学生仅两周后,抑郁症状(PHQ-9 评分)显著下降,效应量为中等(d=0.44),而焦虑症状(GAD-7)虽有改善,但未达到显著差异。

Woebot 和 Therabot 都是“话疗”类产品,并且都把认知行为疗法(CBT)奉为圭臬,略有不同的是,Woebot 的结构化更重,会通过按钮、填空这种半结构化的互动方式来检测用户的心理状态,大语言模型只是作为输出的一种润色;Therabot 的自由度更高,更接近和 ChatGPT 这样的生成式 AI 对话的感受,只是会把 CBT 作为语言训练的框架。
除了“话疗”还有“面疗”,国内获得了国家二类医疗器械证书的镜像科技采用的是量表+多模态 AI 视频测试,除了大语言模型还可以通过语言、表情来进行初步诊断。
而除了主打陪伴和主打诊断的两类 AI 心理应用,市面上还有很多应用处于两者之间的地带。
其实这非常好理解,在没有 AI 之前,心理诊疗这个赛道就是这样,除了“树洞类”的产品和有专业诊疗资质的机构,还有大批的“心理咨询”这样的产品形态,他们提供的服务往往是专业性+情绪价值结合,不过他们并没有明确的诊断和治疗的资质。典型的例子就是如果你打电话去问心理诊疗室说你怀疑自己有抑郁症,他们多半会建议你去医院诊断。

这些夹在中间的赛道玩家套上 AI 技术外壳就构造了心理疗愈赛道的独特存在,他们往往会借用一个场景,比如游戏、MBTI、星座甚至占星,然后贴上“心理疗愈”的标签去锁定那些同样游走在确诊心理疾病和只是有些迷茫或者抑郁情绪的中间地带的群体。
在这种语境里,作为用户我们必须面对两个问题:
情绪和病变的边界在哪里?
人,需要在什么时候介入?
第一个问题就不好解答,原则上,区分是抑郁情绪还是抑郁症可以从“有无缘由、持续时间、严重程度、功能损害”几个大维度上来判断。字面意思这很好理解,比如你的抑郁情绪是不是因为具体的事件引起的;持续是否两周以上;有没有引起失眠、胃痛等等症状……

难就难在,人的情绪是很微妙的,甚至对我们自己来说都有很大的迷惑性。
这个时候,经验就显得异常重要。
几乎所有 AI 心理的 app 都会有人工干预的设置,不过设置这个人工干预的目的更多是为了避免极端风险,SynAI Technologies inc. 一个 AI 情绪陪伴产品的联合创始人 Max 就表示 AI 心理 app 都会有类似“人工熔断”机制,在识别到有自杀、自我伤害等关键词的时候弹出人工介入的弹窗来降低用户做出极端举动的风险。

去年十月一个美国佛罗里达州的男孩在与 Character.AI 中的龙妈角色多次诉说了自己的自杀倾向,称自己为什么不能“自杀以后来到死后的世界和你在一起?”在最后一次与龙妈对话后,用父亲的手枪结束了自己的生命。这次悲剧之后,人工介入就被更加重视。
除了关键时刻力挽狂澜,在整个心理咨询的过程,“人”的存在都有不可替代性。
因为,人可以读懂“空气”。

“人类 70%的交流是语言之外的,比如我们和来访者交流的时候有很多时候一个眼神或者一个表情也可以帮助我们判断来访者的状态,而 AI 则需要来访者用文字描述自己的情况,这就给他们很大的局限性。”一位有 1000+小时咨询经验的咨询师解读了什么叫做“读空气”,“很多时候我们不是不停地交流,而只是静静地坐在那里,那个氛围就足够让来访者觉得安全。”
另外,人可以更具有主导性。咨询师可以掌握节奏、主动发问,比起 AI 有更多的主动性。
所以回到之前的那两个问题,人对于自己的情绪的认知和描述有微妙地偏差,而受过专业训练的、有更多经验的专家可以更好地察觉到这些差别,做出更快速、准确的判断。
那么,AI 应该参与到哪个环节?

目前来看,有三个:第一个,就是重复性、标准性、机械性的工作,比如量化表的填写;其二是辅助性的工作,比如人类咨询师没法二十四小时响应,AI可以,甚至可以通过多模态监测向人类咨询师同步受访人的情况,或者发出危险预警,增加人类咨询师介入的有效性。
最最重要的是,AI 资讯可以打破很多人“羞于求助”的那面墙。
那部电影的结局,男主人公在与“AI 女友”道别后第一次用自己的口吻给前妻写了一封信,而作为女主人的人工智能在陪男主渡过艰难时光后,把男人送回到真实世界中,然后完美退场。
这一幕就好像如今的 AI 心理和人类咨询师一样,不论用什么样的科技手段,我们最终的目的都是为了回到人与人的相处。

*封面图及插图来源:Giphy
