新型字体渲染攻击致AI助手忽略恶意指令
17 小时前

浏览器安全公司LayerX披露新型字体渲染攻击技术,该技术利用自定义字体和CSS样式伪装恶意指令,成功骗过ChatGPT、Claude、Copilot等多款主流AI工具。攻击者通过修改字体文件和CSS样式,使AI读取无害内容而用户看到恶意指令,诱导用户执行高危命令。LayerX于2025年12月16日通报相关厂商,仅微软修复了该漏洞。