1981年8月12日,IBM公司推出了世界第一台采用了开放性架构的个人计算机PC 5150。1982年12月,这款PC登上了《时代》周刊的封面,并被评选为“年度人物”。约40年后,2022年11月30日,OpenAI正式发布了有史以来用户增长最快的消费级AI应用程序ChatGPT。2023年2月,ChatGPT也以“年度风云人物”的身份,出现在《时代》周刊的封面上。对此,我的感觉是,在AI发展历程中,一座新的丰碑出现了。
作为AI大模型强大能力的一种载体,ChatGPT可以说是将复杂技术简化为无门槛产品,进而为大众所广泛接受的标杆之作。
大模型的研发与迭代已有好几年,2020年GPT-3的诞生首度引发了全球级的破圈关注。尽管该模型被更多地提供给专业人士使用,但科技界内外确实也因这款明星产品而备受震撼。
2022年的岁末时分,ChatGPT一出场,就已经是一款能力较GPT-3更全面与强大的AI应用。ChatGPT在GPT-3.5的基础上经过了特别的优化与微调,更适合与人类进行自然语言对话。
ChatGPT一经推出,我就注册了账号,简单体验了一番。我的第一感觉是这个机器人做得太好了,虽然也会屡屡出现幻觉(Hallucination)等问题,但很明显,ChatGPT的语言能力极其出色。今天,这款AI应用的背后已是GPT-4o、OpenAI,与最初的版本相比,又有了明显的进步。
事实上,从GPT-3到GPT-3.5,中间经历了约两年的“漫长”时间,算法本身自然有很多改进。例如,InstructGPT(人工智能语言模型)和利用人类反馈来强化学习,都在很大程度上让AI得以更好地判断用户意图,进而给出更准确的答案。
但对我来说,ChatGPT带来的更大震撼是,它竟如此受欢迎——它在诞生两个月后,就成为历史上最快突破1亿用户的科技应用,简直像是科技界的泰勒·斯威夫特。在ChatGPT面世前的两年,生成式AI可谓进展最快的技术,比如在AI做图的赛道,就有DALL-E(美国图像生成系统)、MidJourney、Stable Diffusion(两者均为AI绘画工具)等“种子选手”在你追我赶。AIR团队也在研究生成式AI技术,例如,自动驾驶的仿真模拟就需要用到这一技术。总体来说,这个领域发展迅速,但似乎还谈不上技术质变与体验跃升。
然而,ChatGPT确实是一次质变与跃升,是AI概念诞生至今六十余年的一座里程碑。事实上,若是以麻省理工学院(MIT)的计算机科学家约瑟夫·维森鲍姆于1966年开发的聊天机器人程序Eliza(伊丽莎)为开端,计算机科学家对于人机对话的探索已进行半个多世纪。总体而言,进步很大,但一直未能出现实质性的飞跃。在ChatGPT发布前,聊天机器人主要应用于聊天、客服等垂直领域,整体感觉更像是简单的工具或无聊时的玩具,常常答非所问,被用户戏称为“人工智障”,这类聊天机器人前辈想要通过图灵测试,显然难如登天。ChatGPT则是第一个可以通过图灵测试的智能体,我在它的身上看到了通用人工智能的雏形。
2016年,AlphaGo在围棋领域表现出的统治力首次将AI的可怕潜能展示于世人面前。当时,无论是人脸识别技术还是语音识别与合成技术都已相当成熟,但能够将AI的诸多能力整合到一个应用、一个界面的明星产品暂未出现,因此许多人对AI的印象依然比较刻板,觉得AI能做的事情不多。自动驾驶给人的感觉非常酷,但它是牵一发而动全身的火种般的项目,因而其实用化推进始终比较慢,直到今天也未变成为亿万国民所普遍认可的主流新业态。对于那时就已经开始集成AI成果的应用率较高的搜索,用户的体会也并不深刻。
总之,在2016年那个时间节点,大多数普通人感受不到AI给生活带来了什么改变。直到6年后,ChatGPT横空出世,尝鲜者惊喜地发现,可以直接与AI展开有价值的对话了。屏幕对面回应你问题的那个家伙就像一个万事通,什么都知道。通常情况下,它不会像那些自诩智能的前辈那样,给出与提问意图南辕北辙的回答,更不会自作聪明地绕开问题、生硬地将话题转向不相干的方向……虽然ChatGPT偶尔也会发神经、说胡话,有时还说废话和囫囵话,但人不也会这样吗?而且,它在很多方面做得比普通人要好,比如,能写出顺畅的文案,语法挑不出毛病,还能帮助用户写程序、规划任务,等等。其表现足以证明,在认知层面,AI的性能实现了空前的提升,甚至让人看到了通用人工智能的影子。
全世界的计算机科研工作者都在探索,哪条技术路线通往真正的通用人工智能。GPT-3的诞生,让不少人意识到,大数据和超大模型可能是一个正确的方向;而后继者ChatGPT和GPT-4的不俗表现,让大家对这条路线的信心更加坚定。规模效应极其重要,特别是上下文学习/情境学习(In-context Learning)等学习方式,使模型能够越来越快地适应新的任务。当用于训练AI的数据规模不大时,效果还不明显;但规模达到一定程度后,就可能产生一些超出设计者预期的现象或能力,涌现得以发生——就像一堆沙子里突然有一座沙堡拔地而起。
以GPT系列为代表的大模型正在重塑IT行业的结构。
如下图所示,新结构的底层仍旧是云,可能配备了数以万计的GPU或XPU(极限处理器),它们构成了算力基石。往上一层是经典的IaaS层(Infrastructure as a Service,基础设施即服务,包括了计算、存储、网络、数据、安全等)。再往上是基础模型层(Foundational Model),又称MaaS层(Model as a Service,模型即服务)。在此之上有许多VFM(Vertical Foundational Model,垂直基础模型),比如,用于自动驾驶、蛋白质解析、智能教育、具身智能的,难以计数。而且,这些垂直基础模型并非相互孤立、彼此隔绝,而是可以相互结合、形成对用户价值更高的应用——SaaS(Software as a Service,软件即服务)。
在这样的结构下,对于AI大模型时代的竞争者而言,似乎每一层都意味着崛起的机遇。理论上当然是这样,然而对那些资源不充分和实力不够强的企业来说,无论是在算力层、基础设施层还是在基础模型层,获得成功的概率都不太高——因为有门槛,并且难跨越。事实上,大多数创新风口应该会出现在垂直基础模型层及其上的SaaS层。
不仅如此,要想在部署端(智能手机、PC、物联设备、智能汽车和机器人等)加入AI的能力,就需要为边缘定制模型,在这方面有很多工作待完成。况且,具体到部署端,模型并不是越大越好,而是越小越快越好。比如,当我们把大模型的能力迁移到无人驾驶的汽车里,首先要解决的问题是可靠与精确——让AI能够在最短的时间内对交通状况做出最佳的判断,延时越短,效果就越好,而不是赋予驾车的AI以写诗作曲、生成影像的功能。
我的判断是,在大模型时代,边缘的机会非常大,也非常多。所以,我们有不少正在推进中的边缘计算、边缘模型、模型交互、联邦学习与小模型的项目。
一些国外公司正在瞄准AI操作系统的机遇发力攻关,百度、阿里巴巴、腾讯、字节跳动、华为等有底蕴、有远见的本土巨擘也在此领域布局。哪怕是初创公司,倘若能够获得百亿级的投资,也可以尝试探索一番,OpenAI就是这么成长起来的。但我觉得,有想法的企业还是应该量力而行,不应该看到风口便往上扑,一窝蜂似的去做操作系统层。就像在移动互联网时代,iOS和Android固然发展得很好,但显然应用层催生了更多的超级玩家,如今日头条和TikTok、微信和淘宝。大模型时代也是如此。
在大模型时代,操作系统一家独大的可能性不大。因AI而生的App可以接入不同的系统,结合不同的基础大模型。所以,与其临渊羡鱼,不如多观察、多思考模型和模型之间的互动,以及怎样更好地跨模型工作,怎样在模型里收集知识,进而将其转化为自身的产品优势。
一个积极的变化是,以往开发任何应用都需要大规模的数据,现在依托预训练模型,数据的调用已不成问题,因而每个企业只需要结合自己的专有数据做精调训练(Fine Tuning)和提示工程(Prompt Engineering),就能以比过去更少的投入获得更好的反馈与更高的回报。
总之,新时代的信息技术从业者可能会发现,有更多有趣的工作等着自己去完成。一切的改变始于ChatGPT。它的成功加速了整个行业生态的转变,带来了新范式的启示。其影响才刚刚开始。
像GPT系列这样的大模型技术将持续向前演进,与其技术原理相近的平台、系统预计也将不断出现。在经历了投资者评估与市场考验之后,大浪淘沙,余下少数几家由幸存者升格为统治者。由于地域的区别、政策的限定,中国也会有自己的大模型及杀手级应用,它们会逐步成长为新的操作系统。这样的演变与云计算从萌芽到壮大的过程如出一辙。
经常使用ChatGPT的国内用户会发现,它的中文交互表现相当出色,这一点十分有趣。Transformer模型起初被设计用来解决序列到序列的任务,如机器翻译,训练它的时候就使用了各种不同的语言。其后,Transformer模型在语言映射之间找到了结构,学会了语法和语义。这说明,用于训练模型的语言语种越多,其效果可能就越好。因此,做中文大模型时,最好别让训练原料局限于中文,加入更多的语种很有必要。
据2023年6月国际数据公司(IDC)发布的报告,全球每一年产生的数据量大约是上一年的1.26倍,增长速度超出了摩尔定律。其中大部分数据可能由非中文语种产生,但我认为,这对于训练中文大模型来说,现在乃至以后都不算是限制。原因有两个方面:一是我们可以用英文及其他语种的数据来训练中文大模型;二是用于训练大模型的数据远不止文本,还包括视频、语音等多模态数据。不久,不只是源自信息世界的数据,物理世界(自动驾驶车辆、机器人、边缘设备、各种工业设施等),生物世界(基因组学、细胞组学、人类的大脑器官等)的各种数据都可以转变为Token(词元),供AI持续学习。甚至某天,研究人员将各种气息、味道、触感进行数据化后喂给AI,强化其能力。
想象一个线下社交场合,人和人之间交换信息的方式固然以对话为主,但视、听、嗅、味、触五感产生的信息量或许更大。另外,现在绝大部分被纳入统计的数据是由人类和各种机器、传感器产生的数据,这些只是浮在海面上的冰山一角,物理世界中还有更多数据暂时处于海面以下。比如,每位驾驶员、每辆车每天产生的数据都是TB级别的,生物世界的数据量级只会更高。也就是说,数据量绝不会成为训练中文大模型的瓶颈。
比获取数据更重要的是怎样用好数据。ChatGPT的表现如此优异,有一个重要原因是研发团队对边际工作给予了高度重视,如数据清洗、半监督学习等。团队不仅在技术层面及时调试、优化,还雇用了很多人对数据做各种标注,再加上纳入了人类反馈的强化学习——相当于我们与ChatGPT的每轮对话都能让它变得更聪明。所以,除了保障用于模型训练的算力、数据和算法,边际环节也很重要。
今天,在围绕AI展开的新一轮科技长跑的进程中,中国科技界与“世界顶尖”之间的差距可能更多地体现在高端计算芯片、算法系统和一些大的平台级技术方面。但我觉得,国内的科研人员、创业者和工程师,一旦集中资源、保持耐心、认真做事,就有机会追赶上别人。
值得注意的还包括,在生成式AI刚刚在产业内外引发极大关注的阶段,美国很快便出现了针对大众用户的实用化产品,如DALL-E、Midjourney、Cursor、Pika、Suno AI等垂直类应用,这些应用从上线到获客、实现营收的路径都很短。
中国目前有很多聚焦生成式AI机遇的新创公司,而且风险投资行业、高科技企业也在紧密关注着新的风向。这一领域的大多数创新遵循两种模式,一是做横向的基础模型,二是做行业的垂直模型。到目前为止,更多的机会应该是在垂直领域,如边缘智能体、医疗等。对此,我的想法是,无论今后有多少机构和个人能够在这轮创新风暴中把握成长契机,进而成为新时代的弄潮儿,当下对生成式AI的探索一定会让每个人都倍感兴奋——毕竟,未知之门就在前方,每一天都是崭新的。
最后,有了ChatGPT的灯塔效应,国内许多公司纷纷投身于生成式AI的角逐就不足为奇了。“百模大战”早已开启,仅就我所知,便有几十家公司在做大模型。这谈不上是好还是坏,我认为,不管是行业巨擘还是初创企业,只要能够充分地、公平地竞争,便可创造出活力十足的市场。同时,能够坦然投身于竞争的公司才是好的公司。
大模型时代刚刚揭幕。42千米的马拉松比赛,而今可能才跑到5千米路标处。中国在PC互联时代落后于世界,在移动互联时代实现了特定领域(数字支付、短视频等)领先于世界。到了AI互联时代,我们理应给予创业者、科研人员乃至企业更多的信心、更多的时间,毕竟,这场博弈恐怕将旷日持久。
每当信息技术有所进展,针对其风险的讨论便会如影随形。这是很自然的事——任何强大的技术若不为其制定“规则”和“限制”,而是不加约束地使用,那便极有可能造成灾难性的后果。
早期的AI并没有那么智能,同时应用空间也较为狭窄,因此很多人不太相信AI会有多大的能力与潜力。现在看来,科幻成真——文学作品与影视节目中的各种设想与演绎离我们越来越近,正一步步成为现实。正如我在前文中指出的,AI大模型的强大功能及其蕴含的无限可能已称得上毫无争议。随着前沿大模型一飞冲天且快速迭代,与之相伴的潜在风险也在不断累积。这些风险包括但不限于以下几个方面。
• 深度伪造:利用深度学习技术生成高度逼真、实为伪造的图文及音视频内容。
• 幻觉问题(Hallucination):AI生成了看似真实但实际不准确甚至是捏造的信息,给用户带来不必要的困惑,还可能造成更严重的后果。
• 有毒信息(Toxic Information):AI生成或传播了仇恨言论、有误导或曲解嫌疑的事件解读、虚假新闻、骚扰内容等有害信息。
• 递归式AI发展:AI系统在自我改进与进化的过程中,可能出现令研发人员始料未及的糟糕结果。
• 失控和误用AI代理:在没有适当监督的情况下,AI代理或许会擅自实施有害或不道德的行为。
• 具身AI和生物AI:这些技术可能带来新的伦理和安全问题,甚至在物理世界掀起一场场危机。
• 大规模的系统风险:任何系统在被大规模应用后,都可能遭遇各种危及系统及其使用者的风险,如系统崩溃、受到网络攻击等。
• 通用人工智能技术对就业市场和社会收入不平等的影响:通用人工智能可能导致人类的某些工作岗位被机器取代,进而令社会收入不平等的现象加剧。
考虑到AI科技广阔的应用空间与迅猛的渗透速度,从现在开始,我们就应该像对待核武器那样高度重视AI风险。援引深度学习之父、2024年诺贝尔物理学奖得主杰弗里·辛顿曾经说的话:“目前为止,我还想象不到更智能的事物为一些没它们智能的事物所控制的例子。打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人还是青蛙?”
《人类简史三部曲》的作者、以色列历史学家尤瓦尔·赫拉利发表过类似的观点。他曾将AI比作异类智能/外星智能(Alien Intelligence),因为AI做决策的方式与人类思维有着根本的不同。
我的看法是,就科技探索而言,人类拥有两种智慧——发明创造技术与控制技术走向,两者必须均衡前行。目前来看,在AI技术方面,“控制技术走向”稍稍落后。作为研发者,我们一定要更快地解决AI与人类价值观对齐的问题,也就是要确保AI系统的目标、决策过程和行为完全符合人类的价值观与利益。
第一,研发人员要将一部分资源和精力投放在“对齐”的课题上,先要让机器理解、接受、遵循人的价值观。这不仅是跨学科、跨领域的伦理问题,还有实现路径中可能存在的悖论。一方面,如果AI的智慧程度足以理解、接受并遵循人类的价值观,这就意味着它在智商和情商等方面已经达到或超越人类的平均水平。这种AI不仅能够处理复杂的任务,还能理解和内化人类的伦理与道德标准。另一方面,一旦AI具备了这样的能力,它可能会发展出自己的价值观和行为规则。高智能系统具有自我学习和自我改进的能力,可能会在不断的学习和进化过程中形成独立且独特的思维模式与价值体系。
在这样的情况下,如何确保AI始终都能尊重人类的价值观而不产生自己独立的价值观,就成为一个巨大的挑战。即使我们在初始阶段对AI进行了严格的对齐训练,随着时间的推移和AI的自我进化,这种对齐有可能会逐渐失效。也许未来会有更好的解决方案,但仅从当下来看,我们所能做的是让“对齐”相关的研究贯穿整个AI进化的过程。对此,身处AI研发前沿领域的人士负有重大责任,绝不能只注重挖掘AI的能力,而不着力于推进对齐任务。好在“火箭安全工程”已成为火箭科学与工程学科的一个重要分支,当前也诞生了新学科“AI安全研究”,不少前沿科学家在积极倡导、密切关注AI对齐课题。
第二,要制定和持续优化与AI监管相关的一些基本原则。1942年,在小说《环舞》(该作品于1950年被收入短篇小说集《我,机器人》)中,美国科幻小说家艾萨克·阿西莫夫设想并定义了机器人的行为定律,即著名的“机器人学三定律”。1985年,阿西莫夫又借另一部小说增补了“第零定律”,将约束机器人的指令由3条扩展为4条。虽然在现实中,这些法则很难被简单解译并沿用于AI和机器人的行为规范中,但其理念和思路确实在某种程度上启发了相关领域的科研人员,至少能提供有益的借鉴。
2017年年初,在美国加州阿西洛马召开的“有益的人工智能”(Beneficial AI)会议上,由未来生命研究所牵头,全球多位AI和众多领域的专家联合签署了《阿西洛马人工智能23条原则》,旨在确保AI技术的发展始终对人类社会产生积极的影响。我的看法是,这些原则对人与AI的权责进行了更细致的界定,明确了以人为主、以机器为辅的关系。23条原则被认为是阿西莫夫机器人法则的扩展和深化。也就是说,无论是机器人、AI系统还是自动驾驶汽车、智能应用,其权限与责任都不应超越人类。同时,掌握着最终决策权的个人、公司或组织,理应承担更大的责任。有鉴于此,未来即便AI和机器人的能力迅速膨胀,只要它们对现实产生了真真切切的不良影响,其背后的主体就必须负责任,这一点应从法律层面予以明确。
举例来说,倘若某辆自动驾驶车辆成为车祸的肇事方,那么车主、制造商、软件提供商和保险公司等主体就要共同承担责任。AI本身不能独立成为主体。
AI不可拥有自己独立的伦理和价值体系。不管用AI来做什么,它都是服务于人的系统,它的价值就是人的价值,它的伦理体系需承继人的伦理体系。研发者必须保证AI始终是人类伦理和价值体系的服膺者与展现者。此外,还需不断提高AI的可信度、安全性与可控性。
上述这些问题涉及计算机科学、伦理学、法律、社会学等多个学科,而我们在确保AI可用且可靠方面所做的工作也才刚刚开始。当然也有很多令人振奋的进展,例如,欧盟《人工智能法案》于2024年8月1日正式生效;美国通过了《美国人工智能倡议》,发布了《关于AI标准的全球参与计划》;中国制定了《生成式人工智能服务管理暂行办法》《工业和信息化领域数据安全管理办法(试行)》等政策法规。这些都是很好的探索,唯有技术研发、立法监管、伦理对齐等工作合力并进,才能让AI技术的发展更健康。
产学研各界应当欢迎并支持政府对AI及其他新兴科技的立法监管尝试。虽然监管不是万能的,但它能够有效地保障AI技术不朝错误的方向发展。
互联网诞生时经历过一段龙蛇共舞、野蛮生长的时期,网诈、盗版、侵犯隐私的现象一度甚嚣尘上,直至其发展到一定规模和程度,才有新的法规出现,对乱象进行纠正。与之类似,政策法规的出台速度有时滞后于技术的进步速度。因此,两种智慧必须平衡,技术向前跑,监管来规范。信息社会技术发展往往更快,如果人的意识思维及政策法规的更新仍停留在工业时代,那就自然会滞后一些。这无可厚非,及时补正就好。
科研工作者还应始终谨记的是,人的价值一定高于技术。这里的人既指人类整体,也指每一个个体。我们在痴迷于以技术进步创造奇迹、让自己的智慧成果影响更多人的同时,必须先为自己设置一条底线,即生而为人的价值观与责任感比技术和所谓的荣耀更加重要。
我们已经有一些教训,典型的例子就是核研究。若将相关技术用于医学,便可以造福人类;若用于研制大规模杀伤性武器,便在全世界81亿人的头顶上高悬了一柄不知何时会掉落的利剑。类似的还有基因编辑技术,世界各国多有明确立法,要求不可将此类技术用于改变物种,特别是人类——并非技术面无法实现,而是此举突破底线,人将不人。
现在对于AI也应制定清晰、具体的要求,它能做什么、不能做什么;它的底线在哪里,上限又在哪里;它达成高智能表现的原理和过程是怎样的。其中有的问题需要跨学科专家与监管部门共同商榷和明确;有的需要研发人员继续努力,争取打破黑盒,获知更多信息。
我们有时了解某项技术、某种事物“怎么做/实现”,却不清楚其“为什么”,也就是“知其然,而不知其所以然”。研究者可能对“怎么做”的了解程度仅有三四成,便着手探索,但其实弄明白“为什么”非常重要。就如AI,既然我们对很多“为什么”的问题不甚明了,那么再将其应用到物理系统和关键使命体系时,小心保守显然胜于大胆激进。
AI大模型作为数字化3.0的重要基石,其发展将决定未来技术攀升的高度与覆盖的广度。以下是我眼中未来AI大模型架构的关键发展方向。
1. 多模态智能:将带来全面的、具有深度的智能分析。结合语言、文字、图片、视频、激光雷达点云、3D结构信息、4D时空信息及生物信息,实现多尺度、跨模态的智能感知、决策和生成。
2. 自主智能:将带来个性化的智能体。将大模型作为一种工具,开发出能够自主规划任务、编写代码、调用插件、优化路径的智能体,实现高度自主智能,可自我迭代、升级和优化。
3. 边缘智能:将带来高效率、低功耗、低成本、低延时的边缘计算网络。将大模型部署到边缘设备端,如新一代AI PC(人工智能电脑)、新一代 Intelligent Phone(智能电话)、新一代 Intelligent Home(智能家庭,包括TV),大幅提升处理速度和相应效能表现,从而实现边缘智能。
4. 物理智能:将带来更加先进的自动驾驶车辆、机器人等。当下大模型正在被应用于无人车、无人机、机器人、工厂、交通、通信、电网和电站以及其他物理基础设施,以提升各类设备、设施的自动化与智能化水平。
5. 生物智能:将带来生命健康、脑机交互、医疗机器人的突破。将大模型应用到人脑、生命体、生物体中,实现AI与生物体联结的生物智能,并最终迎来信息智能、物理智能与生物智能的融合。
1. 大模型和生成式人工智能是未来10年的主流技术与产业路线:大模型(GPT-4o、ChatGPT-o1、BERT等)和生成式人工智能将成为今后10年内的创新主轴与连锁变革的导火索。
2.基础大模型+垂直大模型+边缘模型、开源+商业:基础大模型将是AI时代的技术底座,与垂直产业模型、边缘模型共同孵化出新的产业生态。其生态规模将比个人计算机时代大100倍,比移动互联网时代大10倍以上。在这个生态中,开源模型将和商业模型并存,为开发者提供灵活的选择。
3. 统一标识(Tokenisation)+规模定律(Scaling Law):大模型最核心的两个要素是统一标识和规模定律。统一标识通过将文本和其他类型的数据统一编码为单元,使模型能够处理不同形式的输入。规模定律则揭示了模型规模与性能之间的关系,表明随着模型参数的增加和数据规模的扩大,模型的表现会显著提升。
4. 需要新的算法体系:与人脑相比,现有算法存在效率低、能耗高的问题,因此需要开发出新的算法体系,包括世界模型、DNA记忆、智能体、强化学习、概率系统和决策系统等,以实现100倍的效率提升。未来五年内可能会在AI技术架构上取得重大突破。当前主流的AI技术框架,如Transformer、Diffusion、AR,可能在未来5年内被新技术颠覆。
5. 从大模型走向通用人工智能:预计15~20年内可实现通用人工智能,并通过新图灵测试。更进一步的预测:
• 5年内,在信息智能领域,AI对语言、图像、声音和视频的理解、生成等方面通过新图灵测试。
• 10年内,在物理智能(具身智能)领域,实现大模型在物理环境中的理解与操作能力的大幅提升,通过新图灵测试。
• 20年内,在生物智能领域,将AI应用于人体、脑机接口、生物体、制药和生命科学,实现大模型与生物体联结的生物智能,通过新图灵测试。