互联网虽为人类知识的宝库,但资源并非无穷。AI研究人员正面临资源枯竭的问题。近十年来,AI的飞速发展得益于神经网络的扩展和海量数据的训练。这种方法在开发大型语言模型(LLM)上尤为有效,如ChatGPT。然而,专家警告称,这种规模扩展已近极限,原因除了计算能源需求激增外,LLM开发者还在耗尽传统数据集。