“人在回路中”(Humanin the l oop),是当今人工智能与自动化领域最有代表性、也最不容置疑的准则。
简单来说,它试图构建这样一种秩序:在自动化系统的运作过程中,人类通过干预、评估或反馈,与机器形成一个闭环,共同完成任务。
这被视为一种理想的人机共处模式。与其让机器完全自主运行,不如将人类的直觉、判断力与机器的计算力结合起来。这样在机器可能出错或者遇到无法处理的复杂情况时,人类可以及时介入,确保场面始终处在可控范围之内。
随着生成式 AI 的崛起,“人在回路中”的理念重新被推向前所未有的高度。面对 AI 难以根除的幻觉问题,以及它在法律、金融、医疗等关键领域的渗透,人类的实时审查被视为防范技术失控的最后一道屏障。它几乎演化为一种近乎“神圣”的道德准则,贯穿在人机关系中。
近几年流行的人工智能对齐 (Alignment) 理念,本质上也是这一理念的延伸。类似理念暗含着一种思维方式,那就是人必须成为技术的主宰,必须成为那个在关键时刻做出判断的主体。
但本文无意复述这些共识,而是试图站在这一理念的反面,去思考其存在合理性。换一个视角,从技术演进的长周期来看,这种控制的执念,是否正演变成一种技术发展的阻力?
马歇尔·麦克卢汉曾言:我们总是从后视镜里看未来。人在回路中,或许就是我们盯着后视镜驾驶 AI 这辆超级跑车时,下意识踩下的刹车。
历史上有过类似的尴尬,《红旗法案》 (Red Flag Act) 。
这是 19 世纪英国为了规避早期蒸汽汽车的风险以及安抚公众,而颁布的一系列交通法令,正式名称是 1865 年《道路机车法》。
为什么叫“红旗法案”?因为该法案规定,所有在公共道路上行驶的自动动力车辆,必须配备 3 名工作人员。其中一个人必须在车前 60 码 (大约是55米) 处步行,白天手持红旗,夜晚手持红色提灯,为车辆开路,同时警示路上的行人和马车。

以今天的眼光看,这个法案相当荒诞,它强行将汽车的速度拉低到步行水平。但这在当时符合社会实际,也是经过深思熟虑的精英共识,因为它既保护了马车夫的利益,也安抚了公众对这种钢铁怪物的恐惧。
结果却是灾难性的。当德国和法国的内燃机汽车技术突飞猛进时,英国的汽车产业还必须“跟着旗子走”,陷入三十年的停滞期,技术研发和市场普及远远落后。
直到 1896 年,在民众的长期抗议下,英国才取消了红旗法案。
像嘲笑历史上的卢德分子一样,现在《红旗法案》常被作为反例,用以批判那些对技术进步的阻碍。但我们却未察觉,《红旗法案》的幽灵,依然漂浮在 21 世纪 20 年代。“人在回路中”,何尝不是一种新形式的“红旗法案”?
二者都暗含着一种隐秘的倾向:人既然是技术的发明者,那么,人必须也是技术的主宰者。如果没有人的控制和牵引,很难保证技术发展不会失速,不会偏离轨道。这是一种基于人类安全本能的防御。
但我们可能忘了,所谓速度,本就是人以自我的肉身经验所定义的,甚至连轨道,也是人所构建和架设的。它们都是基于旧物种经验的定义,却在限制新技术的潜能。
有个类似的例子是在围棋领域,人类棋手在千百年时间里积累了无数精妙的手筋和定势,但这些被视为围棋真理的战术,在 AI 面前如同儿戏,而 AI 看似“非人”的着法,往往才是全局最优解。你用人类的知识去框定它,本身就是在限制它。
Notion 创始人 Ivan Zhao 在他最新文章《蒸汽、钢铁与无限心智》中,提到了一个观点,每个时代都由其奇迹材料 (miracle material) 所塑造,比如钢铁定义了工业时代,半导体定义了信息时代。
奇迹材料的意义,在于人类能够借助它构建超越所属时代的东西。
在钢铁普及之前,建筑受限于砖石的承重,六七层便是极限。铁虽然坚固,但脆弱且沉重,一旦增加楼层,结构就会在自身重量下塌陷。而钢铁改变了这一切,摩天大楼拔地而起,现代化的城市因为钢铁这种材料成为可能。
AI 就是这个时代的钢铁。
AI 的真正革命性,在于它在执行、逻辑重构与自动化决策上的表现。这是它真正有别于以往任何工具的特性所在。如果坚持让它循从人类的思维认知模式,坚持让有限的人类经验作为每一道工序的终审,那么 AI 的潜能,将永远被锁死在人类想象力的天花板之下。
以人工智能的意识研究为例,人类甚至还没有厘清自身意识到本质。如果坚持以人类那套未被证明的意识逻辑作为蓝本,去框定 AI,那我们可能永远无法见证那种超脱于人类认知模式的异质智慧的诞生。
对于麦克卢汉那句有关“后视镜”的著名论断,我们可以这样理解:我们总是习惯用旧世界的地图来寻找新大陆。所以今天的 AI 聊天机器人,仍然困在搜索引擎式的对话框里,就如同让旗手在机车前清理道路。
但用旧地图寻找新大陆,往往意味着一场悲壮的远征。日本政府当年第五代计算机计划的失败,正是试图用僵化的逻辑规则来实现人工智能。而这种对“回路”的执着,直接宣告了第二次人工智能寒冬的到来。
从技术发展史的角度看,人的牵引确实是必要的。但面对AI这种革命性技术时,过度的微观控制,可能会成为阻碍本身。
这种控制并非仅体现为限制性规则,而是以一种旧的视角和思维,来面对新的技术形式。表面看是为了规避风险,实则像是用管理马车的方式,去管理星际飞船。
这并非主张让 AI 完全脱离控制,这即不现实也不负责任。弗兰肯斯坦的意象,始终警示着人类:当创造物脱离控制,异化的风险随之而来。
但真正的转变,应该是从“人在回路中” (Human in the loop) 转向“人在回路之上” (Human over the loop) 。
如 Ivan Zhao 所言,人类应该在一个合适的位置监督这些回路,而不是身处其中。人类真正的独特性,从不在于对 AI 僵化的控制,而在于定义目标、审视价值,以及进行关乎社会公平与道德伦理的元规则设计。
正是因为这种独特性,才使人类摆脱了中世纪神学统治下僵化的认知模式,实现思想、科学、艺术的全面复兴。当面对 AI 这么一种超脱既有经验和认知的技术形式,我们也需要一次思维的复兴。
我们无法想象当一切旧有的限制消失时,AI 能将社会塑造成何种面貌。但关键是,不要让想象和惯性限制 AI 的潜能。当你试图模仿旧世界的形状去塑造未来的时候,你就很难用新的技术去创造真正的新东西。
陈天桥说,在旧结构上越是用力地叠装AI,就越有可能是在给本该淘汰的旧系统续命。真正的变革,从来不是在旧躯壳上修修补补,而是从基因层面的重组。
AI 是我们时代的“奇迹材料”,它需要全新的结构设计而非控制和压抑,才能够充分释放潜力。
《红旗法案》的现代支持者会问:如果人不在回路中,当AI在医疗诊断或自动驾驶中犯下致命错误,谁来承担代价?传统的责任框架依赖于人类行为,如果没有人类的即时参与,法律似乎就失去了抓手。
但这种担忧本质上仍是在用旧秩序的“个体责任制”去套用新物种。正如我们不再要求航空公司为每一场飞行颠簸找一个具体的人为过失,而是建立系统性的航空安全审计与高额保险补偿机制,
AI 的责任归属,或许也可以从即时的人类干预,转向事前算法审计与时候系统性赔付。将人类从回路中解脱出来,并不意味着放弃问责,而是将问责前置到目标的设定上,后置到结果的修正上。
未来的知识和工作转型,将像钢铁塑造城市一样剧烈。最需要警惕的,或许从来不是AI的失控,而是我们自己的惯性。
当我们不再试图手持旗子走在 AI 前方,而是学会驾驶这种无限的潜能时,真正的未来才会开启。
