被业界誉为‘HBM之父’的韩国科学技术院电气与电子工程学院教授金正浩指出,AI计算的主导权正从GPU向内存加速转移。随着AI从生成式迈向智能体时代,内存成为制约发展的关键瓶颈。金正浩认为,这一转变源于‘上下文工程’的兴起,AI需同时处理海量文档、视频及多模态数据。为支撑这一趋势,内存带宽与容量需提升最高达1000倍。当前,通过堆叠DRAM实现超高带宽的HBM产品或难以满足智能体时代需求,金正浩看好HBF(高带宽闪存)技术。HBF通过堆叠NAND闪存替代DRAM,构建长期存储体系,实现容量数量级跃升。金正浩预计,HBF工程样品将于2027年前后问世,谷歌、英伟达或AMD等厂商最快可能于2028年开始采用该技术。未来,AI计算架构将围绕超大容量内存构建,GPU和CPU将成为嵌入其中的组件。
