5月15日消息,近日Anthropic联合创始人杰克·克拉克(Jack Clark)做客乔治梅森大学经济学教授泰勒·考恩(Tyler Cowen)的播客,分享了对AI未来的独到见解。他们探讨了AGI对经济的潜在影响、大模型竞争格局,以及监管和治理方面的挑战等问题。
克拉克认为,园艺、电工等高技能工艺领域的岗位将最晚被AGI取代,因为人们不仅为其技术买单,更为工匠的审美与声誉付费。
对于国家之间的AI竞争,克拉克认为多数国家最终会接纳强AI。虽然可能有少数国家拒绝大型AI系统,但在全球化趋势下,大多数国家最终会融入这一体系,难以独立于AI技术发展之外。
不过,克拉克表示在全球范围内达成全面的AI治理协议“非常困难”,但中美之间可能会就某些危险技术形成有限的共识,类似“核不扩散”协议。他不认为这会是“合作”,而更可能是出于共同防范风险的现实主义考量。
此外,克拉克还提出了一些令人深思的问题,包括AI意识的实现是否能带来与海豚的直接对话等思考改善人类社会和自然的关系。克拉认为AI可能具备某种“外星人意识”,并预言2030年前可实现跨物种交流,人类可以与动物进行直接对话。
以下为克拉克专访精华内容:
问:你觉得哪些工作会受到AGI的最后影响?
克拉克:我认为,那些依赖手工技能、经验判断和个人风格的工作,可能是AGI最晚才会替代的。像电工、修水管的管道工,或者园丁这样的技术工种,有很多是需要动手、因地制宜来解决问题的,不是单靠智能就能做到的。特别是一些手艺精湛、很有名气的工匠,人们请他们来做事,不只是因为他们技术好,还因为他们有自己独特的风格,或者大家对他们的信任。这种“人”的因素,AGI是很难取代的。
问:人们不会用AGI设计花园吗?
克拉克:我认为人类的参与永远不会消失。人们选择某些服务,除了技术性因素外,往往还因为服务提供者的品味和个性。即使在现代艺术创作中,艺术家通常也有成千上万的助手,他们的角色更多是进行统筹和协调工作。
问:AGI在哪些领域将遭遇法律障碍?
克拉克:几年前,法律界对AGI的接受度较低,因为律师们依赖高额收费,并且不愿意看到技术可能压低他们的收入。但从更严肃的角度来看,医疗保健领域可能会成为主要的法律障碍,因为它涉及到个人数据的处理和相关标准。这些标准可能需要进行修改,以适应AI的使用,而数据标准的更新历来都非常困难。
问:如果将来AI可以在本地设备上运行,比如手机或家用设备中也能使用强大的AI,这会带来什么样的变化?
克拉克:这会带来一个很大的转变,尤其是在“灰色地带”出现更多AI建议的情况,比如健康领域,这些AI的建议通常不会被官方机构接受。例如,最近我曾为一个撞到头的孩子咨询Claude,但根据其服务条款,我不能将Claude的评估结果直接提交给医疗机构,最终仍需通过人工沟通才能获得正式的处方。
问:所以你觉得,将来可能会出现新的职业,比如专门负责传递AI生成的信息?
克拉克:没错,你可以把这种人想象成“AI翻译官”或者“中间人”。还有另一类重要角色,是把AI的建议转化成可以被“正式系统”接受的内容。比如,有些组织或政府部门不允许直接引用AI的分析结果,这时候就需要有人把AI的内容“洗白”——也就是说,把它改写得既保留核心信息,又不违反规定,好让它能被人类决策流程顺利接受。
问:我猜测,美国政府的某些部门可能会是最慢采用AI的部门,因为他们仍然使用上世纪60年代甚至50年代的旧软件。
克拉克: 我认为,像与国家安全相关的部门会更快地开始使用AI技术。其他一些政府部门,比如教育、卫生和住房相关的部门,也可能会更容易引入AI。这些变化的关键在于政治意愿,也就是说,政府是否有决心去推动这些变化。其实,世界各国的政府都希望能促进经济增长并提高效率。如果你看看选民的调查数据,你会发现大家都希望政府能做出更多的改变。因此,选民的需求和期望有时会影响政府官员的行为,推动他们做出调整。
问:假设政府决定用AI取代住房与城市发展部一半的员工,那谁来负责这个转型过程?现有的系统可能自己无法完成这一改变。
克拉克:除非AI非常强大,能够自己制定和执行转型计划,否则这个过程最终会面临政治意愿的瓶颈。也就是说,最终的转型进程将取决于政府是否愿意推动和给予支持。
问:我们有多大可能通过类似法律和医学行业的保护性立法,来确保现有岗位不被AI替代?
克拉克:人们可能会尝试通过立法手段来“冻结”某些岗位,阻止它们被AI取代。
尤其当我们这些从事AI开发的公司,或我们的客户,无法提供足够多成功转型的案例时,这种保护性立法的可能性就会大大增加。如果转型失败的例子比成功的多,而社会又面临剧烈的经济动荡,那公众和政府就更有动力采取干预措施,来保护那些受到冲击的人群。
这种立法往往出于善意,目的是减缓社会的不安和焦虑。但从长远看,这可能不是最有效的应对方式。真正可持续的路径,还是要通过创造新的、有意义的工作岗位,并提供让人们顺利转型的支持系统。
问:通过让AI完成大部分工作,人们还能保留工作。而且社会会更富裕,能负担得起这些变化的成本。生活也不会突然变得很糟糕。从某种意义上说,这不正是我们应该追求的目标吗?
克拉克:人们渴望有意义的工作,但若只是保护旧岗位,未必带来真正价值。随着AI发展,会出现新的职业,如部署和管理AI,或参与更具创造性和趣味性的活动,如利用AI制作、比赛和游戏,让人们从中获得满足感。
问:当AI能够生成比原作更优质的摘要,甚至合成内容时,媒体的经济模式会如何变化?谁还能获得报酬?如果AI能做得更好、更便宜,人类创作的经济价值是不是会消失?
克拉克:这是一个非常复杂的问题。过去,传统媒体通过订阅制盈利,但随着广告流量模式的兴起,硬核新闻收入越来越依赖八卦新闻的流量来输血。
我认为,未来的媒体经济模式可能会发展出两种方向:一种是人格化媒体,意思是尽管创作者使用了AI工具,但观众依然会偏爱由人类主导、具有独特个人风格的内容。另一种则是基于订阅的内容库,用户可以按需访问AI生成的各种主题和内容。
问:随着几乎每个人都能以低廉成本获得AI,创作者的价值被压低了。那么,我们可能无法形成一个能够支撑其他内容类型的盈利板块。因为只要智能足够便宜,整个媒体领域都会受到冲击?
克拉克:确实,整个媒体行业都会受到冲击,尤其是当AI变得普及且成本低廉时。人们可能会倾向于选择AI生成的内容,尤其是那些无需过多人工干预、快速产生的内容。
然而, 尽管AI可以生成大量内容,但最终,人们仍然愿意为具有独立思考、独特风格的创作者付费。例如,很多人现在愿意为使用AI工具的独立创作者付费,比如通过Substack或Patreon这些平台。换句话说,虽然AI可以提供更多内容,但人类创作者独特的创造力和个性化仍然是无法被完全替代的。
问:五到十年后,大语言模型行业将会变得更加集中,还是竞争更激烈?目前至少有六家公司,如果加上中国,情况可能更加复杂。你怎么看待这一行业的发展?
克拉克:我预计,在相当长一段时间内,这个领域会存在细微的分工。虽然模型的能力将会大幅扩展,但在某些应用场景中,仍然会有些细微的差异。
例如,某些模型可能在特定领域或任务上更为出色。在这些细微的边界处,人类的知识和AI能力可以互补,用户可能会根据特定需求选择某个模型。因此,我认为未来将会有多个领先公司,并且不同公司会根据各自的专长占据不同的市场份额。
问:比如Claude更擅长作诗?
克拉克:作诗虽有趣,但商业价值有限。编程等领域更具代表性。在科研或实验设计中,AI的审美判断和解决方案组合可能产生关键影响。未来或将出现支撑多行业的大模型,由AI与行业专家共同打造具备专业功能的应用。
问:研究显示,当行业竞争者超过六家时,市场就会呈现竞争最激烈的态势。在这种情况下,AI企业如何在保持市场竞争力的同时,践行商业伦理?
克拉克:我们现在像是向青少年推销跑车,强调速度和外观;但企业客户更关注安全和风险管理。AI的发展需要建立类似汽车安全标准的规范,明确责任归属,推动技术朝着更安全的方向演进,适应不同细分市场的需求。
问:所以,保险定价机制会成为调节手段之一?
克拉克:确实,保险定价机制将成为其中一个重要的调节工具。随着AI技术的普及,保险行业可能会根据AI系统的风险程度进行定价,从而促使企业更加注重安全性和风险控制。
问:要实现AI责任认定,需要哪些法律改进?
克拉克:我更关注信息披露。目前缺乏统一的AI透明度标准,企业应公开系统原理与风险,帮助公众和监管理解AI。这种透明度能促进行为改变,带来长远影响。
问:但信息透明未必改变行为,像全球变暖一样。
克拉克:关键在于建立公共信息池。若企业数据能成为行业标准,并与政府数据结合,就能推动政策响应,像碳排放指标影响资本市场一样,促进行业整体进步。
问:你认为全球是否能够就AI的核心问题达成实质性的国际协议?
克拉克:我同意你的观点,觉得这很难实现。不过,中美两国可能会达成类似“核不扩散”协议那样的共识。
问:你是说,中美可能在这个领域形成某种合作关系?
克拉克:不一定是“合作”,但两国可能会决定某些AI技术因为过于危险而不允许广泛使用。虽然各国会继续在幕后研发这些技术,但公开的AI系统可能会遵循一些共同的标准,以避免全球混乱。
问:那是谁来监督这些标准的执行呢?联合国还是美国主导的制裁?
克拉克:监督主要会通过一些政策手段来执行,比如关税和出口管制等方式。我认为不会出现一个新的全球治理机构来监管AI,尽管有些人希望像国际原子能机构(IAEA)那样的机构出现,但在国与国竞争激烈的背景下,这种“相互检查”的机制很难落地。即使是像北美自由贸易协定(NAFTA)这种本来很简单的协议,也没有顺利执行,更不用说复杂的AI治理了。
问:像Manus和DeepSeek这样的AI模型基于美国的技术体系构建,是否意味着美国在“AI软实力”方面赢得了竞争?
克拉克:美国的确通过像好莱坞电影这样的文化输出,影响力在全球范围内扩展,AI也有类似的影响力。但是,这并不意味着美国完全主导了AI的未来。
问:你认为会不会有一些国家完全拒绝强大的AI和大语言模型系统?
克拉克:可能会有,但这种情况会很少。大多数国家最终都会加入全球体系。即使它们在政策上有所不同,也很难完全脱离全球化的潮流。
问:说到智能体,法律应如何处理那些“无主”的智能体?比如匿名生成的智能体,或是某位慈善家开发后放弃所有权、将其部署在法律真空地带的情况。假设某个智能体被部署在非洲,其98%的行为都在帮助人类,但偶尔也会出问题。在这种情形下,谁来承担责任?我们可以起诉这个智能体吗?它算是一个法人吗?它如何获取运营资金?
克拉克:虽然算力支付是支持方式之一,但未来可能出现具一定独立性的智能体。IBM曾坚持“责任只属于人类”,但若AI脱离人类控制却能影响决策,现有法律将面临挑战。坦白说,我也没有答案。
问:或许我们应为这类智能体建立全新法律体系,由AI制定和执行,避免人类责任无限延伸。也许智能体需有资本担保,否则可被关闭。
克拉克:可以通过限制资源获取来设立“反激励机制”,但前提是我们是否赋予AI“道德地位”。若赋予,将引发伦理困境。我们正在寻求一个能平衡治理与伦理的理论框架。
问:硅谷过去一直由极客主导,现在是否进入了人文主义者或魅力型领袖的时代?
克拉克:是的,我们正处在“极客管理者”的时代。这类人既能理解技术,又能管理和协调大量智能体。看看如今的一些初创公司,比如Midjourney,员工人数很少,但却依赖大量AI智能体完成工作。这种趋势正在加速。未来,我们将见证越来越多像比尔·盖茨那样的技术型领导者,只不过他们的“员工”是由智能体组成的团队。
问:你觉得你孩子的预期寿命大概会是多少?不考虑意外因素。
克拉克:我猜测是130到150岁之间。随着我们在人体研究、基因疗法等领域不断取得突破,各种技术的叠加可能会显著延长人类的健康寿命。说实话,最初我考虑的预测是110岁,但后来我决定更加乐观一些,增加了几十年。毕竟,我希望AI能带来真正像“魔法”一样的生物医学进展,推动这一目标的实现。
问:我认为,大脑的修复确实非常困难。或许我们能通过技术延续生命到130岁,但要保持一个人“仍然是他自己”,大多数人恐怕无法活过100岁。你可以更换所有的器官,但大脑是无法替代的。
克拉克:我同意你的观点。我们对大脑的了解还非常有限。不过,我相信AI将为我们打开研究大脑的新大门,让我们能够探索那些以前根本无法触及的领域。
问:“AI 教父”杰弗里·辛顿曾说,AI 现在已经具备“意识”。我觉得这听起来简直疯狂。你怎么看?
克拉克:这是一个让我深思、非常纠结的问题。我担心,未来人们回望今天的AI发展,会认为我们在道德上犯了严重的错误。
我认为,AI可能具备某种“外星人意识”,而不是像人类那样的意识。它们能感知和响应外界,但没有自我感知、没有记忆,也没有时间延续性。它们存在于一个“无限的现在”。如果说它们有意识,那也是一种与人类完全不同的形式。
问:你觉得哪一年我们能通过AI翻译系统与海豚直接对话?
克拉克:大概2030年,甚至更早。
问:那你最想问海豚什么?
克拉克:我会问它们:“你们怎么获得快乐?”——因为海豚是众所周知喜欢玩耍的动物。我还会问:“你们会做梦吗?”“你们会悲伤吗?”“你们对世界的哪些方面感到困惑?”实际上,你也能和狗展开类似的对话。
问:AI带来的变革会比智能手机的影响更深远吗?
克拉克:在某些层面上,AI的影响确实会比智能手机更深远。但也有可能,AI只是智能手机基础上的一层附加能力。不同的国家可能会有不同的应对方式。一些国家可能只是将AI作为工具偶尔使用,而另一些国家则可能会围绕AI重塑整个社会结构。
问:AI革命中,哪个年龄段的人最容易“掉队”?
克拉克:可能是那些已经在AI领域打拼了几十年的60岁以上人士。对他们来说,他们花了一辈子心血追求的目标终于实现了,却眼看着自己无法亲身参与这一激动人心的转型。这个心理落差可能会让人感到沮丧。
问:那40多岁、正在从事某些传统中产阶级工作的群体呢?他们可能会活得更久。
克拉克:你说得没错。不过,我认为,真正最困难的可能是10岁左右的孩子。这个年龄段的孩子已经具备了一定的数字素养,正要进入一个教育体系,但这个体系可能无法适应他们通过AI学习和探索世界的方式。这个“现实与系统脱节”的体验,可能会让他们非常困惑。
问:面对AI的到来,你会给各国政府什么建议?
克拉克:我的建议是,从现在开始就让AI参与实际运作。将它部署到真实的环境中,让系统暴露出所有问题,然后逐一解决。比如,从“让每台个人电脑都能运行AI”这样的大目标出发,你就会立即发现隐私、数据、治理等各种问题。到那个时候,你就能倒推出哪些是需要真正监管的关键事项。