
试想一下,如果你不喜欢的某个人分享给你一首歌曲或一篇新闻,你或许会直接不屑一顾。但倘若同样的内容,之后是由你信任的导师分享而来,你的反应很可能就会发生转变 —— 这并非因为内容本身有任何不同,而是因为信息来源变了。那么,当人工智能成为内容的分享者乃至创作者时,这又意味着什么呢?
随着人工智能生成内容的技术愈发成熟,内容真伪的核验难度也随之加大。专家们认为,公众对信息的信任度,如今不再单纯建立在事实本身的基础上,而是取决于围绕内容形成的社会与机构关联。
内容本身,与赋予其可信度的各类关联之间存在的矛盾张力,正是本月初IEEE在拉斯维加斯举办的2026年国际消费电子展(CES)上,一场题为《智能内容时代下的信任、透明度与协同共创》专题研讨会的核心议题(https://www.ces.tech/videos/ai-or-human-trust-transparency-and-co-creation-in-the-age-of-intelligent-content/)。
这场研讨会由IEEE Fellow Karen Panetta担任主持人,与会嘉宾包括:人工智能研究机构AI:OK创始人、作家、爱尔兰都柏林城市大学高级人工智能研究员兼IEEE全球人工智能伦理艺术委员会创始主席Martin Clancy,IEEE学生会员Max Lu,以及Cox Communications公司人工智能部门负责人Eric Pace。
用户对人工智能的认知现状
在探讨人工智能的信任、透明度或伦理问题之前,存在一个更为基础的议题:大多数用户对人工智能系统生成答案的过程,仅有片面的认知。
人们知道人工智能需要通过数据进行训练,也知道它能产出令人惊叹的结果。但大家往往不太了解的是,早在模型部署应用之前,这些结果就已经依赖于人类的判断。开发者必须先定义清楚,什么样的结果才算得上是“正确”的。在人工智能的开发流程中,这种作为参照标准的答案或标签被称为基准真值(ground truth) —— 也就是系统在训练过程中需要学习和遵循的、经过共识确认的答案或标注。
而要达成这种共识,往往并非易事。
Karen Panetta结合自己教授人工智能系统识别医学影像的工作,给出了一个具体案例。在一个项目中,医生们在研判影像是否显示存在癌症这一问题上,达成了广泛共识。这种统一的判断,为训练人工智能模型奠定了可靠的基础。但当要求这些医生评估癌症的严重程度时,他们的观点往往会出现巨大分歧。缺乏共识的情况下,本应作为系统学习依据的基准真值,也就变得模糊不清了。
Panetta表示:“作为一名人工智能、数据库及基准真值的构建者,我当时根本不知道该如何为这个问题设定基准真值。”
真相的代理媒介
研究员Lu曾协助多家主流新闻机构部署人工智能系统,他解释道,由于我们无法凭借自身能力区分人工智能生成图像与真实图像,便不得不将判断真相的权力,寄托于各类“代理媒介”,而非依赖自己的感官。
Lu表示:“若想验证一张图像的真伪,你就必须将这份信任托付给比你更具专业判断能力的对象 —— 无论是聊天机器人、专业新闻机构,还是亲友。”
信任与品牌
消费者处于人工智能驱动的信息供应链末端。一段内容或许由某个人工智能生成,但还会有其他人工智能对其进行编辑、翻译,并决定内容的受众群体。Pace指出,消费者无从知晓这些决策是如何制定的,因此他们会默认信任信息的最终传播方。这就意味着,品牌方有责任在整个媒体生态中,践行符合伦理规范的人工智能应用准则。
Pace表示:“我的看法是,人们会信任自己获取信息的最终渠道,对吧?在此之前的整条信息供应链对你而言其实无关紧要,因为你完全没有能力去审查这条供应链。”
以伦理设计为核心
Clancy是The Voice of the Artist in the Age of the Algorithm这份报告的合著者之一,该报告是IEEE标准协会“Ethically Aligned Design”倡议的成果之一。他表示,人工智能设计者需要恪守更高的责任标准,因为用户在使用人工智能系统的过程中,会让渡一定程度的自主权(https://sagroups.ieee.org/global-initiative/wp-content/uploads/sites/542/2022/07/ead-artists.pdf)。
Clancy说:“当我使用人工智能时,我是在有意识地把自己的自主决策权交给这个‘黑箱’,因为我需要获得帮助。所以我很想知道,平台该如何应对人类与技术共同催生的新行为。”
研讨会最终得出结论:尽管人们正愈发频繁地将信任寄托于各类社会代理媒介,但个体依然拥有塑造自身信息环境的主动权。正如Lu所言,我们如今正处于一个“前所未有的有利位置” —— 能够推动这些系统为人类服务,借助人工智能去探索世界的复杂性,而非满足于非黑即白的简单叙事。
