人工智能技术 (AI) 不断取得重大突破,在部分任务上展现出逼近甚至超越人类的认知水平,引发关于其能力边界、社会影响及未来走向的广泛讨论。这些讨论不仅涉及技术本身,更涉及经济社会层级结构和运行规范的重构,甚至触及人类对自身存在意义的终极追问。
如何看待AI的潜在影响力?是新技术引发老问题,可以用历史经验的中值回归来平复的对科技革命的周期性焦虑;亦或是这次不一样,全球正快速滑向新智能形态主宰的开端,一个足以改写文明基本假设的奇点?两种看法各有拥趸,对AI 的态度截然相反,对如何处理AI发展与经济社会关系的政策建议南辕北撤,谁也说服不了谁。
这样的争论是必要且健康的。在AI快速发展的当下,我们迫切需要一个广泛综合的研究议程,从技术本身出发,全面设想新技术给经济和社会发展带来的各种可能性,在未知的阴影中进行有意义的政策讨论。
研究议程的起点,应建立在对技术现实的观察之上。在AI飞速演进的当下,我们究竟看到了什么,听到了什么,知道些什么?如果能从既有的经验证据中梳理出有关未来的关键事实,或可作为后续分析的基础。
1.1认知能力跃迁
AI 的认知能力日益趋近于人,甚至在部分领域超越了人类的认知水平。这是获得普遍同意的基本事实,也是本次科技革命与蒸汽革命以来历次科技革命最大的不同之处。部分典型的证据包括:GPT 等大语言模型在行为经济学博弈实验中的表现出与人类玩家相似的特性,在个性的评估中与来自50个国家超过10万名人类参与者在统计上不可区分 (Me i et al .,2024) ; GP T-4 在包括论文 撰写在内的完整美国统一律师资格考试中,得分超过 90%的考生,在需要法律推理和论述写作的论文题 (MEE) 和实务操作题 ( M PT) 上表现出色 (Katz et al., 2024) ;微软研究院的团队将GPT-4描述为通用人工智能的火花 (Sparks of AGI) ,认为这一模型在数学、编程、医学、法律、心理学等领域的表现“惊人地接近人类水平”( Bubeck et al., 2023) 。
不仅如此,AI 的能力仍在快速成长。经过精调的大语言模型在神经科学基础测试BrainBench 中,以 81.4% 的准确率超越人类神经科学家63.4%的准确率(Luo et al., 2024)。斯坦福HAI 研究所发布的《人工智能指数报告 2025》提到,人工智能在包括图像识别、阅读理解、视觉推理在内的大部分标准测试中,表现均已经超过人类的水平 ( HAI, 2 02 5)。 未来,AI 可能在可度量的认知领域全面超越人类的平均水平。
AI 表现出一定的性格特征,外在行动方式日益趋近于人,甚至建立起自己的“社交”体系。剑桥大学与DeepMind基于心理学中广泛使用的大五人格模型联合开发了AI人格测试框架,对18种不同的LLM进行了人格测试,发现经过指令微调的大型模型如GPT-4o,能准确模仿人类的人格特征,测试结果具有良好的重测信度,且能够预测其在现实任务中的行为表现 (Sera pio-Garcíaet al.,2025) 。在全智能体沙盒试验中,AI表现出对其他个体进行操控的目的性。例如在斯坦福大学的小镇实验 (Generative Agents) 中,一个AI角色为了达成目标对其他AI角色说谎 (Park et al., 2023) ;在AI协作编程平台ChatDev上 (Qian et al., 2023) ,AI程序员和AI测试员之间出现激烈争吵,不仅互相推诿责任,还说出“这代码烂透了”、“我受够了”等情绪化语言,彰显出独立的机器个性。
AI的外在行为表现与人日益趋近,与人沟通无碍,且正在获得越来越多人的信任甚至情感依赖。有研究人员评价,AI在模拟人类时太过精确,已经跌入“大模型恐怖谷”,难以分辨这到底是模拟,还是某种形式的真实存在 (Ahart, 2026) 。但,我们可能过度解读了 AI表现出的这些类似于人的行为。这些看似带着情绪的聊天记录,可能仅仅是因为开发者在 AI 交互的设计中预置了拟人的表达方式,本意是让产品更有趣,却让我们误以为 AI 产生了非理性的情绪。实际上,机器可以高效交互,而借助情绪来间接传递信息显然更费时费力。
1.2人的主体性被部分削弱
现实生活中,我们正将日常决策权越来越多地让渡给AI。从个性化新闻推送到自动驾驶系统的路径规划,随着越来越多的日常决策被委托给 AI ,人类自身的能动性正在被削弱。这种对AI决策的偏好并非局限于低风险的日常选择。Horowitz与Kahn (202 4) 对 9个国家9000 名受试者的跨国研究表明,即便在国家安全这类高风险决策场景中,自动化偏差 (automation bias) 依然广泛存在。人们倾向于遵循AI的建议,即使建议前后矛盾。部分研究发现人们更倾向于将决定权代理给 AI 而不是其他人,特别是有风险的决定 (Candrian & Scherer, 2022) 。不仅如此,与他人的主观决策相比,人们更倾向相信算法的估计和判断,不论是地缘政治风险、浪漫关系还是体重估计,都是如此 (Logget al., 201 9) 。而且从发展趋势来看,我们对 AI 决策的接纳程度越来越高 (Jussupow et al.,2024) 。
AI 对人类认知和情感产生日渐显著影响。与 AI 辅助决策相伴而生的问题是人类独立思考能力的逐渐丧失,出现决策困难症,甚至在不知不觉中改变了自身的价值立场 (Buijsman et al., 2025) 。《科学》杂志2025年发表的一项对照实验发现,持续接触高质量AI生成内容(新闻、评论、影像)的群体,在事后辨别真实与合成信息时的准确率下降22% (Epstein et al., 2025) 。
在高度数字化的临床决策环境中,医生对医疗算法的频繁使用可能演变为有害的认知依赖,特别是在生死攸关的当下,若医生无法现场评估算法输出的合理性,而不遵守算法建议又会构成道德责任,认知依赖就成为必然。其后果不仅是诊断风险,更关键的是侵蚀了临床专业人员作为道德主体的认知权威与责任能力(Pozzi et al., 2026)。
此外,陪伴型AI 可为用户提供充分的社交情感价值,正在取代现实人际关系,可能导致使用者丧失处理矛盾冲突的能力、容易情绪失控 (Malfacini, 2025) 。有证据显示用户与陪伴型AI 可以建立起实质性的情感连接,当这一连接被中断,会出现真实的心碎和悲痛 (Adam, 2025) 。
1.3 偏见强化螺旋
偏见和谬误在人与AI 的互相学习中被强化。在使用人类决策数据进行大模型训练的过程中,偏见和谬误会被放大。而人类在使用被误导的AI 进行辅助决策时,会再次放大偏见和谬误的影响,形成一个不断强化的负向循环。在一项情绪感知实验中,人类参与者最初53%的偏差经AI处理后被放大至65%,之后,与AI互动的参与者的偏差从50.7%攀升至61.4%。此外,参与者普遍低估了AI对自身判断的影响程度,使得这种潜移默化的偏见加强成为难以逆转的自发过程 (Glickman & Sharot,2025) 。随着AI 应用的普及,这些自动化偏见已经广泛存在于医疗、法律和公共管理领域,并出现锚定效应,即用户将AI 的意见作为出发点,主动寻找证据来印证AI 的意见 (Romeo & Conti, 2025) 。
当信息环境被AI大量渗透,人类对现实的认知和辨别能力会随之退化,决策主体地位逐渐让位给似乎更为强大可靠的AI。这不仅是一个心理学问题,更是一个认识论问题:如果人类越来越依赖AI来认识世界,那么人类认识的自主性和可靠性将面临根本性的质疑。在2026年达沃斯论坛上,马斯克预言:“到2030或2031年——也就是距离现在5年时间——AI将比全人类的集体智慧都更聪明”。这一预言引起较多争议,但无论如何,其所折射出的技术加速主义情绪已经深刻影响了公共话语和政策议程。
生产力发展离不开工具革命。工具的发展,工具理性的强化,随之而来的是决策和执行过程被代理给某种工具的自动程序,这是人类文明进步的内在逻辑,也是放大组织和个人能力的基础。从工业革命以来的历史看,不论是蒸汽机自动调速器、用飞梭取代手工织布机,亦或是当下基于行为数据的商品推荐、算法驱动的高频交易,自动的本质即为决策和执行的外包。但因为AI 具备了一定的认知功能,具备基础的自主性,让这样的代理关系覆盖的范围和深度都有较大拓展,出现质变的可能性:如果绝大部分决策权被代理给 AI,人类该如何自处?
对于如何看待我们与AI的关系,存在技术乐观主义与末日威胁论两种截然相反的态度。前者将对AI 潜在冲击的担心斥为卢德主义 (Luddism) ,认为工业革命以来的每次重大技术进步都伴随着类似的焦虑,而这样的焦虑最后都被证实是无必要的过度担心。短暂冲击过后,全球就业总量实现了长期稳步增长,AI大致也会遵循这样的路径。如同当年蒸汽机的发明促进了煤炭的消费,如今AI 的涌现也会促进对人类认知输出的需求,让杰文斯悖论 (Jevons Paradox) 再现。
末日威胁论认为AI会取代人类成为地球上的智能主宰,人类只是智能进化之路上的一个阶段。用马斯克的话说:“希望我们不只是数字超级智能的生物引导程序。不幸的是这种情况发生的可能性越来越大。” (Hope we're not just the biological boot loader for digital superintelligence. Unfortunately, that is increasingly probable) 。替代从抢夺工作机会开始,杰文斯悖论中蒸汽机与煤炭是天然的互补产品,需协同工作,因此出现对蒸汽机需求与对煤炭需求的同步增长。而 AI与人类认知能力恐怕并非是这样的紧密互补关系,对 AI 需求的增长恐怕也不会天然附带对人类认知的更多需求。
产生这一分歧的根本原因在于对AI 潜在能力边界的判断。目前AI在认知能力上建立起来的对人类的优势,都局限在Luciano Floridi 所描述的信息圈 (infosphere) 之内。过去三十年,随着互联网对各类经济和社会活动的不断渗透,数字革命构造起一个庞大的信息圈,一个由数据流、数字协议和编码化知识 (codified k nowl edge) 构成的运行环境 (Floridi,2014) 。
大语言模型在技术层面取得重大突破后,之所以能够快速在各个领域建立优势,正是充分利用了信息圈中前期数字化积累的深厚基础。特别是在那些已全流程数字化、知识编码化,工作流已被刻写在软件和网络之中的领域,如社交媒体、软件开发、行政文书、语言翻译、数据分析等,AI的替代速度快得惊人 (Eloundou et al., 2023) 。这并不意外,当一项工作的输入、处理和输出全部发生在信息圈之内时,AI相对于人类的效率优势几乎是压倒性的。
由于在信息圈内存在大量的高价值人类经济活动,信息圈内人力被AI取代值得警惕。事实上,不论是硅谷目前的码农就业危机,还是Ctrini Research 提到的白领岗位消失 (van Geelen & Shah,2026) ,都是在信息圈内人力被替代的直接反映。虽然在很大程度上无可挽回,但替代速度是决定社会痛感的关键,至少要保证这样的替代是遵循有序可控的原则,在一个较长的周期内逐步完成的。但这并不构成末日威胁论中对人类文明存续的挑战。只有当AI 突破信息圈的边界,能够在物理世界中也建立起对人类的绝对优势,末日威胁论才可能变为现实。
这取决于两条技术路径的进展速度和极限。第一条是AI 科研 (AI for Science) 取得重大进展,即AI可以独立完成复杂的科研任务,进行科学试验,应用科研成果,真正理解和操纵物理世界,而不是局限于数据分析和处理。这将极大拓展所有智能的认知空间总和,惠及人类文明发展,但同时也降低人类认知能力在信息圈之外的重要性。第二条是世界模型 (world model) 取得突破,AI构建起对外在物理环境的准确内部表征,具备在不确定、不可逆、具有物理约束的真实世界中,进行有效的规划与采取行动的潜能。这两条路径可能存在互相促进的反馈关系,最终决定AI究竟是一种局限于信息圈的强大工具,还是一种能够全面渗透物理世界的通用替代力量。
但我们可能还要等上多年才能看到AI 最终走出信息圈。如莫拉维克悖论(Moravec's paradox)所述,人类觉得简单的感知运动任务,对AI而言比抽象的数学处理困难得多(Moravec, 1988) 。而且在物理世界复杂的约束中,AI 的成本效率将大幅下降,并不一定是最经济的选择。在信息圈中,AI处理一份文档的边际成本趋近于零;而在物理世界中,一个具身机器人面对的是材料损耗、能源消耗、维修成本和安全风险,其相对于人类劳动的比较优势远不如在数字领域中那般悬殊。换言之,信息圈内部AI与人类之间的成本鸿沟,在物理世界中将被大幅压缩。比起杰文斯悖论,莫拉维克悖论可能是一个更可靠的对碳基生物的未来保持乐观的理由。
总结起来,当前对AI的两种态度分野,本质上是对AI发展轨迹的不同预判。末日论者将信息圈内的替代速度线性外推至物理世界,而乐观论者看到了从信息圈到物理世界之间存在着一道尚未被跨越的深壑。两种态度都有其合理性,最终的结果可能是处于两者之间的一个平衡的状态。
还是回到已知的现实面。AI已经在 2022 年末或2023 年初的某个时刻,在信息圈内通过了传统图灵测试。2025年11月6日,当何小鹏为证实IRON 并非内藏真人,不得已剪开机器人腿部的覆盖件时,信息圈外迎来了“小鹏时刻”,即人形机器人大概在这一时间,跨过了肢体拟人与真人动态真假难辨的机械图灵测试。
但真正的分水岭仍未到来,那将是信息圈内传统图灵测试和信息圈外机械图灵测试交汇而成的终极图灵测试:当一个人与具身智能(embodied intelligence)同处于一个开放空间,经过连续 8 小时的互动,仍无法准确辨别这一具身智能是否为真人, AI 即通过终极图灵测试。若有一天具身智能通过终极图灵测试,则具身智能在信息圈外的物理世界中突破人与非人的临界点,标志着 AI 已经具备了大规模进入人类社会的现实基础。
当然,在各级图灵测试之外,还有经济考虑。如上面提到的,通过终极图灵测试的具身机器人,尚需证明自身的制造和运行成本优于碳基智能。只有当其制造成本曲线开始快速下降,碳基智能的优势方才完全瓦解。唯有那时,AI全面替代人类的末日叙事才在经验和实证层面具备了被讨论的可能性,各种非常的极限控制手段才有可能被提上议事日程。
我们认为,AI 并非单纯的技术革命,而是一个对现有经济社会体系的复合型冲击,冲击至少在三个层面展开。首先是在可观察的经验表层,带来对个体的功能性冲击;其次是在制度和结构层面,带来系统重塑;最后是在深层的概念体系中,构成对人的本体论和认识论挑战。
3.1功能性冲击(Functional Impact)
功能性冲击存在于直观的经验层面,与每个人的日常工作和生活息息相关,在当下备受关注。这一层面的核心问题在于AI是否好用、合用,如何降低AI应用的成本。问题的解决路径本质上是工程性的、经验主义的,诸如提升算法的稳健性与可解释性、优化AI的成本结构与部署效率、推进劳动者与AI 的协作等,本质上是在既有制度框架内寻求技术性解决方案。
功能性冲击的分析可以拆开来单独看,将AI 与人类认知的功能性特征一一对应。例如,基座大模型与推理小模型对应的是大脑的记忆和思考功能、唇舌等器官的语言输出与社会交流的功能;数据获取和过滤对应的是眼、耳等器官的信息采集功能;具身智能操作器械,则对应于人体四肢的位移与控制功能。
从这个角度看,在信息圈内由数据、算法和数字协议构成的符号化空间,大脑和唇舌可能会被AI大幅替代。然而,探索和改造物理世界必须的实时感知、精细操控和具身交互能力,仍是 AI 欠缺的,莫拉维克悖论的含金量还在上升,我们毫不费力的器官感知和精细操控功能,对AI反而是困难的。整体而言,功能性冲击存在于技术层面,是其他更复杂冲击的研究基础,需要紧密观察和跟踪。
3.2系统的重塑(Institutional Impact)
在技术层面的功能性冲击之上,因为AI广泛应用带来的更为复杂的系统重塑,从微观的应用场景到中观的产业结构和市场机制,再到宏观的经济增长和社会治理,范围涵盖整个制度光谱,是AI 政治经济学的主要研究对象。
在微观层面,AI正在重构企业的组织逻辑。当算法能够承担越来越多的信息处理、决策支持甚至流程管理任务时,传统科层制面临根本性的冲击。企业的边界、内部协调机制与人力资本配置模式均在发生深刻变动。个人的能力被放大,小团队甚至是一人企业会在某些领域内大放异彩。随之而来的是创业形态、零工经济的变化,组织内外协作方式的变化,并必然从信息圈扩散至物理世界。
在中观层面,伴随AI 而来的新商业模式,会创造出新产业,重组既有产业,甚至改变市场交易机制。产业层面,AI 本身正在构建起巨大的产业网络,从上游的芯片至下游的应用场景,对企服务的主流商业模式悄然成型,主要企业的营收指数级增长。AI 的应用已对电商、广告、文娱、社交媒体等行业带来实质影响,相关产业链正在经历空间重组与价值重分,市场交易媒介和撮合机制中含 AI 量不断提升,新的产业和市场生态正在酝酿。随着词元经济学 (Token Economics) 兴起,产业组织理论、市场机制设计等会迎来新的重要研究课题。
在宏观层面,AI 的长期影响会触及经济增长模式与社会治理范式的根本。当AI 重组信息、决策、流程在社会中的分布,在宏观层面的经济 AI 化和治理 AI 化就会脱离单纯的技术应用,走向体制重塑。例如,如何建立起与AI 创业和零工化等分散经济模式相适应的金融支持、治理政策、社会保障等制度配套;如何应对生产效率上升与收益集中、失业扩大导致的长期需求不足甚至通缩挑战,全民基本收入 (UBI ) 亦或共同保障基金等再分配方案是否会导致个体能动性的系统弱化,从而进一步降低总需求;在社会治理中如何解决AI在应用过程中的风险责任划分等法律和伦理问题;与 AI 应用伴生的独特数据隐私和网络安全挑战等等。这些议题既有技术性的工程维度,也有根本的战略性与政治性维度,已远非单纯的技术应对所能消化。
3.3 本体论与认识论挑战 (Ontological and Epistemological Challenge)
系统重塑中的很多制度设计,需要更深层次的理论支撑,对AI 时代的伦理与价值冲击进行探讨。例如,算法决策中的公平与效率孰先孰后?当AI具备与人同等甚至更强的认知能力和情感表达时,AI是否可能构成目的本身而非单纯的工具?我们如何防止人类在技术理性的无限扩张中,被异化为海德格尔口中的持存物 (Bestand) ,仅作为技术系统的可用资源存在,而丧失了作为目的自身的尊严?
再如,人的道德责任是否可以外包给AI?当自动驾驶系统做出生死抉择,当算法可裁定刑期轻重,责任的主体是否发生了转移?若AI 无法被惩处,谁应该为系统的纰漏负责?这些是在 AI 应用场景中迫在眉睫的现实问题,不仅关乎责任归属的法律技术,更触及人之为人的根本,也即作为道德能动者 (moral agent) 的人,是必然不可替代的吗?是否存在技术性措施可以一劳永逸解决这一问题?如果人的责任被悬置,我们对现实世界的支配权是否也会随之旁落?
这些讨论已经深入到规范哲学的领域,开始触及为AI架设价值观,让AI与主流社会价值对齐。这样的价值对齐要依赖AI时代伦理规范的重新制定、法律原则重构与有关AI社会价值共识的形成。涉及学科包括伦理学、社会学、法学、政治哲学等多个维度。
当然,走到最后,无法逃避的是对 AI 的本体论的重新认识,这是 AI 研究最深层的哲学根基,也决定了有关 AI 的伦理和价值讨论的走向。AI是否会具有自由意志?我们能否通过图灵测试或神经科学手段认定AI的自由意志 ?如果AI没有意识体验 (Qualia) ,其智能是否仅仅是哲学僵尸般的模拟?在当下,科学证据尚不能给我们的讨论提供直接的证词,对AI 本体论,只能做一些形而上的思考。而其中的某些哲学工具,如Daniel Dennett 的意象立场 (Intentional Stance) ,或者利害关系 (Skin in the Game) ,都可能成为可依赖的工具 。
在AI 通过终极图灵测试之前,我们仍有一段相对富裕的时间为与 AI 共存的未来做准备。准备的第一步,是拟定一个研究议程,对 AI 的潜在影响进行全面细致的分析。这个研究议程,可以沿着功能性替代、系统的重塑、以及本体论与认识论挑战三个层面展开。
在功能性替代的层面,首先是对AI 本身经济规律的摸索。随着多模态模型、世界模型的发展,Token正在将结构化数据和文本、图片、视频等非结构化数据统一(因此,似乎称 之为模 元而不是 词元更合适),成为大模型分析的最小单元。Token在经济特性上虽然仍有较大的异质性,但与 Byte相比,差异性已经大为收敛,可以作为稳定的研究对象进行分析。Token经济学,是有关如何进行Token 的交易定价、如何计算Token的成本收益、如何设计Token 的流通和消费机制的分析,或可作为 AI 经济学研究的起手式。
在系统重塑的层面,AI 正在主导信息在社会中的重新分布。部分研究指出,随着 AI 加速本地知识的显化,哈耶克所描述的市场机制对计划经济的信息处理优势被削弱 (Brynjolfsson et al., 2026) 。如果这一预言成真,未来计划和市场的边界会如何变化?消除信息不对称是各类微观经济体制设计的核心之一,如果 AI 的应用让经济和社会中普遍存在的信息不对称大幅减少,那么与之相关的交易成本问题、产权分配问题(剩余控制)、交易机制设计问题将会发生何种改变?随着 AI 发展,智能体可能成为越来越重要的代理人,如果 AI 不具备个体利益,只有技术风险而无道德风险 (moral hazard) ,那么传统的委托-代理问题将如何演化?此外,在 AI 产业的全链条,我们已经看到资源和市场份额不断集中的趋势。AI 时代是否会重复互联网时代市场边界模糊,算法主导竞争的问题?如何解决在 AI 的基础模型的使用逐渐集中,可能带来的限制竞争、算法合谋、画地为牢等问题?
AI 时代的劳动力市场、金融体系、货币和财政政策、社会保障体系将产生怎样的变化?当AI 逼近跨越终极图灵测试的门槛,人类劳动的价值该如何重新定义?在总量上,当认知劳动的供给弹性因AI变得几乎无穷大,古典的价值规律是否面临着一个无限供给悖论?当产出函数中,劳动所得占比逐步减少,进而导致劳动收益萎缩,是否会出现总产出高涨和总需求萎缩导致的大通缩?全社会基本收入 (UBI) 到底是促进总需求的万灵药,还是进一步削弱人的目的性、消解人类存在意义、进而导致整体能动性持续低迷的负反馈?如果马斯克预言的大通缩时代如果到来,不论是使用宏观数据还是微观企业数据来计算劳动生产率 (TFP) ,索洛悖论都会在 变本加厉地重现。在结构上,劳动力市场对认知能力的定价是否会出现长期的贬值,导致白领岗位的劳动溢价消失,而蓝领岗位的劳动溢价提升?这对于劳动需求分布、劳动防护和福利保障的调整又有何影响?
金融体系的很大一部分功能在于为风险动态定价,当信息不对称在很大程度上被解决,金融体系高度自动化,是会更好实现风险和责任的高效分配亦或是会放大极小概率事件的隐形风险?货币政策是否会因此出现系统性失灵?财政政策在进入以AI 投入为主的经济产出模式后,会出现怎样的变化?后劳动时代的税收基础是什么?以税收为渠道提供UBI 是否可行,是否有更好的替代方案?
在治理层面,当 AI 的内在机制越来越难以被理解,算法黑盒演变为算法黑洞,如何从根本上解决算法偏见的问题,维护社会正义?当AI 被广泛用于处理公共领域的问题,又如何保证在决策的代理过程中不出现责任的转移?价值对齐是否是解决 AI 治理问题的唯一方法,又该如何高效准确实现价值对齐?如何分辨和监管被硬性编码置入前沿基础模型中的价值观?价值对齐是政治经济学的天然试验田,可能会对权力结构以及全球治理的深层逻辑产生深远影响。在更远的未来,当AI 跨越终极图灵测试的门槛,我们该如何看待这些无法分辨的朋友,是否赋予其与人类等同的权利和义务?
以上,是对 AI 政治经济学的一个简单的辨析,对研究议程的初步探讨。AI 技术本身仍处在快速变化当中,而科技进步是现代经济体系中最大的不确定性来源之一。上述的研究议程也必然随着技术的演进而改变。与 AI 相比,人的认知能力和行为模式都更为稳定,所以整体上看,研究议程中的关键问题应是可以预见的。特别是关于 AI 与人的本体论地位与责任边界,只要两者仍存在,就会是关于两者的永恒话题。制定这样一份研究议程,不仅是对当下挑战的回应,更是要为人类面对AI时代的未来发展树立完全的信心,防止人类在技术理性的逻辑下被异化为海德格尔定义的持存物,或者马斯克口中的硅基智能先导程序。
[1]Adam, D. (2025). Supportive? Addictive? Abusive? How AI companions affect our mental health. Nature, 641, 296–298.
[2]Ahart, J. (2026, March 5). The first ‘AI societies’ are taking shape: How human-like are they? [News Feature], Nature, 651(8100), 22–24.
[3]Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
[4]Brynjolfsson, E., Korinek, A., & Agrawal, A. K. (2026). AI’s use of knowledge in society. In A. K. Agrawal, J. Gans, & A. Goldfarb (Eds.), The Economics of Transformative AI. University of Chicago Press.
[5]Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y. T., Li, Y., Lundberg, S., Nori, H., Palangi, H., Ribeiro, M. T., & Zhang, Y. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv preprint arXiv:2303.12712.
[6]Buijsman, S., Carter, S. E., & Bermúdez, J.-P. (2025). Autonomy by design: Preserving human autonomy in AI decision-support. Philosophy & Technology, 38, 97
[7]Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
[8]Candrian, C., & Scherer, A. (2022). Rise of the machines: Delegating decisions to autonomous AI. Computers in Human Behavior, 134, 107308.
[9]Descartes, R. (1996). Meditations on First Philosophy (J. Cottingham, Trans.). Cambridge University Press. (Original work published 1641)
[10]Descartes, R. (1985). Discourse on Method. In The Philosophical Writings of Descartes (Vol. 1). Cambridge University Press. (Original work published 1637)
[11]Dennett, D. C. (1987). The Intentional Stance. MIT Press.
[12]Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An early look at the labor market impact potential of large language models. arXiv preprintarXiv:2303.10130.
[13]Epstein, Z., Groh, M., Abeliuk, A., Ekblaw, A., Brinkley, G., & Pennycook, G. (2025). AI-generated content reduces human ability to distinguish real from fake. Science, 387(6731), 234–239.
[14]Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
[15]Glickman, M., & Sharot, T. (2025). How human–AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour, 9, 345–359.
[16]Harari, Y. N. (2017). Homo Deus: A Brief History of Tomorrow. Harper.
[17]Heidegger, M. (1977). The Question Concerning Technology and Other Essays. Harper & Row.
[18]Hinton, G. (2023). Two paths to intelligence. Lecture presented at the Royal Society, London.
[19]Horowitz, M. C., & Kahn, L. (2024). Bending the automation bias curve: A study of human and AI-based decision making in national security contexts. International Studies Quarterly, 68(2), sqae020.
[20]Jonas, H. (1984). The Imperative of Responsibility: In Search of an Ethics for the Technological Age. University of Chicago Press.
[21]Jussupow, E., Benbasat, I., & Heinzl, A. (2024). An integrative perspective on algorithm aversion and appreciation in decision-making. MIS Quarterly, 48(4), 1575–1590.
[22]Katz, D. M., Bommarito, M. J., Gao, S., & Arredondo, P. (2024). GPT-4 passes the bar exam. Philosophical Transactions of the Royal Society A, 382(2270), 20230254.
[23]Kuhn, T. S. (1962). The Structure of Scientific Revolutions. University of Chicago Press.
[24]Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103.
[25]Malfacini, K. (2025). The impacts of companion AI on human relationships: Risks, benefits, and design considerations. AI & Society, 40, 5527–5540.
[26]McKinsey Global Institute. (2024). The State of AI in 2024: Global Survey Report. McKinsey & Company.
[27]Mei, Q., Xie, Y., Yuan, W., & Jackson, M. O. (2024). A Turing test of whether AI chatbots are behaviorally similar to humans. Proceedings of the National Academy of Sciences, 121(9), e2313925121.
[28]Park, J. S., O'Brien, J. C., Cai, C. J., Morris, M. R., Liang, P., & Bernstein, M. S. (2023). Generative agents: Interactive simulacra of human behavior. Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology, 1–22.
[29]Qian, C., Cong, X., Yang, C., Chen, W., Su, Y., Xu, J., Liu, Z., & Sun, M. (2023). Communicative agents for software development. arXiv preprint arXiv:2307.07924.
[30]Romeo, G., & Conti, D. (2025). Exploring automation bias in human–AI collaboration: A review and implications for explainable AI. AI & Society, 41, 259–278.
[31]Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
[32]Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424.
[33]Serapio-García, G., Wood, A., Bennett, S., Mikolov, T., Kosiński, M., & Stillwell, D. (2025). A psychometric framework for evaluating and shaping personality traits in large language models. Nature Machine Intelligence, 7(1), 1954–1968.
[34]Stanford Institute for Human-Centered AI. (2025). Artificial Intelligence Index Report 2025.
[35]Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.
[36]Pozzi, G., Buijsman, S., & van den Hoven, J. (2026). Harmful epistemic dependence on medical machine learning and its moral implications. Journal of Medical Ethics, 52(1), 42–49.
[37]van Geelen, J., & Shah, A. (2026, February 22). The 2028 global intelligence crisis. Citrini Research.
