据专家AGF透露,NVIDIA正为2028年推出的Feynman架构GPU制定激进规划:Groq的LPU单元预计将整合至该架构中。方案或借鉴AMD X3D CPU的堆叠设计,采用台积电SoIC混合键合技术,将搭载大容量SRAM阵列的独立LPU芯片堆叠至采用1.6nm A16工艺的主计算芯片上。此举旨在解决SRAM制程缩放瓶颈与高端硅片资源浪费问题,通过垂直互联实现低延迟解码响应。尽管面临散热难题、执行层面冲突及软件适配等挑战,但LPU在低延迟与能效比方面的优势,正是NVIDIA应对ChatGPT等实时服务推理成本竞争的关键。若整合成功,NVIDIA将从传统GPU供应商转型为混合推理/训练硬件平台提供者,对Google TPU、AMD MI系列等竞争者构成新压力,并可能催生异构协同计算创新。
