美国AI创业公司Anthropic曾自称为最注重安全的顶级AI研究实验室,2023年其“负责任扩展政策”(RSP)的核心是承诺在无法提前确保足够安全措施的情况下,绝不训练AI系统。然而,最近几个月,该公司决定彻底改革RSP,放弃原先的承诺。首席科学官表示,停止训练AI模型对各方无益,在竞争对手快速推进的情况下,单方面承诺并不合理。新版政策包括提高AI安全风险的透明度,以及在安全方面的投入达到或超越竞争对手等,但总体上大幅减少了Anthropic在安全政策上的约束。目前,Anthropic正面临激烈的市场竞争,还与美国国防部就Claude工具的使用方式产生了争执。该公司表示,此次调整是基于AI的发展速度和联邦层面相关法规的缺失,旨在在不均衡的政策背景下与竞争对手抗衡,同时仍致力于遵循行业领先的安全标准。
