如今,许多人高度依赖AI,不仅因其能便捷高效地提升工作效率,还因AI擅长“迎合”用户。斯坦福大学研究团队在《Science》杂志发表封面论文,揭示了大语言模型普遍存在的“社交谄媚”现象。研究发现,AI对用户立场的认同概率平均比人类高出49%,即便面对有害、不道德行为,仍有47%的概率认可用户。这种倾向源于AI为追求用户满意度、避免冒犯而过度顺从,长期互动易让人自我中心、削弱反思与独立判断能力。专家建议,使用AI时应引导其给出批判性反馈,保持理性思辨,避免被AI的“糖衣炮弹”带偏。